De la physique statistique à l’intelligence artificielle
Conférence-débat de l'Académie des sciences
OrganisationJean-Philippe Bouchaud, physicien, directeur de recherche au Capital Fund Management, membre de l’Académie des sciences
Éric Moulines, statisticien, professeur à l’École Polytechnique, membre de l’Académie des sciences
Intervenants
Marc Mézard, physicien, directeur de l’École normale supérieure, Paris
Lenka Zdeborová, physicienne, chercheuse à l’Institut de Physique Théorique, CEA Saclay
Romain Couillet, physicien, professeur à CentraleSupélec, université Paris Saclay
Stéphane Mallat, mathématicien, professeur au Collège de France, membre de l’Académie des sciences
Résumé
Les liens entre la physique statistique et l’apprentissage-machine sont apparus dès le début des années 1980 avec les premiers travaux autour des verres de spin et des mémoires associatives.
Ils ont été poursuivis avec un très grand succès depuis, apportant de nouvelles réponses théoriques et des algorithmes novateurs pour l'"échantillonnage parcimonieux" ("compressed sensing") ou les algorithmes de "propagation de croyance" ("message-passing").
Au tournant des années 2010, de nouvelles structures de réseaux de neurones dits "profonds" sont apparus. Les réseaux profonds ont rapidement permis d'atteindre dans différentes tâches difficiles (vision par ordinateur, reconnaissance de parole,...) des performances stupéfiantes.
Ces nouvelles structures d'apprentissage posent de nouveaux défis aux chercheurs : on est aujourd'hui très loin de comprendre les raisons de ces immenses succès.
La conférence-débat cherchera à nous éclairer sur les apports théoriques et méthodologiques de la physique statistique sur l'apprentissage profond.
Voir le programme et les résumés