Du France Libre au contrôle de l'IA : anticiper, c'est choisir le moment où l'on agit

Du France Libre au contrôle de l'IA : anticiper, c'est choisir le moment où l'on agit
Anticiper l'IA comme la défense est vital : ses capacités progressent très vite, pourraient dépasser les experts avant 2030 et posent déjà un défi de contrôle, avec un risque d'emballement à court terme.
Le 2 mars, à l'Île-Longue, le président de la République dévoilait le nom de l'Invincible, premier sous-marin nucléaire lanceur d'engins de troisième génération, conçu pour naviguer jusqu'en 2090. Le 18 mars, à Indret, il baptisait le France Libre, porte-avions de nouvelle génération dont la mise en service est prévue en 2038. Ces deux programmes illustrent la capacité à engager des moyens considérables, sur plusieurs décennies, pour garantir une souveraineté qui n'a de valeur que si elle précède la menace.
On ne dimensionne pas une réponse le jour où l'on en a besoin. On la dimensionne avant, parce qu'après, il est trop tard. C'est cette même anticipation qu'il faut désormais appliquer à l'intelligence artificielle, et plus précisément au problème du contrôle des systèmes d'IA à usage général.
Une analyse systématique de 60 benchmarks standardisés couvrant les principales capacités cognitives des systèmes d’IA de pointe, telles que le raisonnement, les mathématiques, la programmation, les connaissances scientifiques et les capacités opérationnelles autonomes, indique, sur la base d’un modèle bayésien hiérarchique, que 98 % de ces évaluations pourraient être saturées avant 2030.
Sur les benchmarks liés à la cybersécurité offensive, à l'automatisation de la R&D en IA et aux connaissances biologiques et chimiques à double usage, la saturation est projetée avant 2028. Les modèles de pointe dépassent déjà les performances d'experts titulaires de doctorats en physique, chimie et biologie sur des tests de connaissances. Ils résolvent des problèmes mathématiques de niveau recherche et identifient des vulnérabilités logicielles inédites. Ces capacités progressent de dizaines de points de pourcentage par an, plus vite que ne l'avaient anticipé les experts sur la dernière décennie.
Pour donner la mesure de cette dynamique : sur GPQA Diamond, un benchmark de questions scientifiques de niveau doctoral, des chercheurs spécialistes des disciplines évaluées n'ont obtenu qu'un score de 69,7 %. Les modèles actuels dépassent les 90 %. En 2022, des experts estimaient qu'une IA remporterait une médaille d'or aux Olympiades internationales de mathématiques autour de 2030, avec 8,6 % de probabilité avant 2025. Elle a été obtenue cette année-là. En cybersécurité, lors du AI Cyber Challenge de la DARPA en août 2025, des systèmes d'IA ont découvert 18 vulnérabilités zero-day réelles dans des logiciels open-source.
Personne ne demande aux décideurs de trancher la question de savoir quand sera entraînée une intelligence artificielle surpassant l'ensemble des capacités des experts humains dans toutes les tâches cognitives. Le quand exact est un pari difficile, peut-être impossible. En revanche, déterminer si le problème du contrôle exige une réponse dès maintenant est un pari facile. Les techniques actuelles d'alignement sont insuffisantes. Il n'existe aucune méthode pour garantir qu'un système dépassant les capacités des experts humains restera contrôlable. Or les trajectoires de capacités, elles, ne ralentissent pas.
Il y a surtout un effet de seuil que les planificateurs dans les états-majors doivent avoir en tête. Si des systèmes d'IA deviennent capables de contribuer de manière autonome à la recherche en IA, une boucle de rétroaction s'enclenche et le temps de préparation se comprime brutalement. Les benchmarks d'ingénierie logicielle autonome indiquent que ce seuil pourrait être franchi dans les deux à trois prochaines années. Quel que soit le scénario retenu pour la suite, le temps disponible pour agir se rétrécit.
Le France Libre sera opérationnel une décennie avant le retrait du Charles de Gaulle. L'Invincible patrouillera bien avant que la menace qu'il doit dissuader ne se matérialise. Parce que nous avons anticipé. Pour l'intelligence artificielle, c'est la même exigence, avec une contrainte supplémentaire : le calendrier des capacités n'est pas entre nos mains. Si on souhaite encore peser et n'être ni déclassé ni exposé aux problèmes de sécurité, c'est aujourd'hui. Peut-être demain. Mais après… qui sait ?
Brief IA — Veille IA quotidienne
Toutes les innovations IA du monde entier, résumées et analysées automatiquement chaque jour.