Fouiller les gros flux avec le hasard
Jérémie Lumbroso (GREYC, Caen)Cet exposé de survol parcourra le riche panorama des algorithmes de fouille quantitative de données, c’est-à-dire l’extraction de statistiques élémentaires des gros flux de données, qui ne se préoccupent pas du contenu du flux (la sémantique) mais plutôt de la forme et de la distribution des données. On verra comme cette algorithmique est élégante et ingénieuse, permet une efficacité supérieure de plusieurs ordres de grandeurs exponentiels par rapport à des méthodes déterministes, et ses nombreuses applications dans de nombreux domaines. Enfin ces algorithmes se prêtent à une analyse précise qui fait intervenir les outils de l’analyse d’algorithmes, et je présenterai mes résultats sur ce point.