

37 38
78
La Lettre
© Oleksandr Delyk - Fotolia
Dans le monde numérique actuel, la science informatique et les mathématiques appliquées gardent un
rôle aussi central que l’accroissement de la puissance des ordinateurs. En informatique, on a vu un
foisonnement d’algorithmes guidés par des applications de plus en plus variées (images, sons, vidéos,
etc.), mais aussi, de façon interne, par la conception et la fabrication des circuits, réseaux, systèmes
d’exploitation et logiciels de toutes sortes. La complexité algorithmique, théorie née dans les années 1970,
étudie les performances des algorithmes et les optimise. Depuis cette même époque, les fondements
mathématiques de la programmation ont été progressivement mieux compris, d’abord sur le plan
syntaxique – avec la théorie des langages où s’est illustré notre confrère Marcel-Paul Schützenberger –,
puis par la sémantique formelle des langages de programmation, qui a conduit à des langages plus
compacts et plus sûrs, ainsi qu’à des techniques de vérification formelle des programmes.
On a vu aussi se créer les bases de données et leurs mécanismes d’indexation rapide, se développer
les interfaces hommes-machines modernes et se standardiser les protocoles de communication reliant
efficacement les machines dans les réseaux. Puis on a vu apparaître des idées radicalement nouvelles,
comme celle des moteurs de recherche sur le Web, dont nous ne pouvons plus nous passer, ou celle
de l'utilisation systématique des probabilités en algorithmique. Récemment ont explosé des idées plus
anciennes lancées par l’intelligence artificielle, mais qui ont dû attendre la disponibilité d’une très grande
puissance de calcul. Ainsi, l’apprentissage par réseaux de neurones profonds bouleverse des domaines
aussi divers que le jeu de Go, la reconnaissance de visages ou d’objets dans les images, celle de la
parole, la traduction automatique des langues, ou encore l’analyse des données scientifiques. Quand l’on