Du France Libre au contrôle de l'IA : anticiper, c'est choisir le moment où l'on agit
🤖 Modeles & LLM

Du France Libre au contrôle de l'IA : anticiper, c'est choisir le moment où l'on agit

Journal du Net IA
Tom David·4 min·0 vues
En bref
1D'ici 2030, les capacités de l'IA pourraient dépasser celles des experts humains, soulignant l'urgence d'une régulation proactive.
2Le risque d'emballement technologique à court terme est élevé, ce qui nécessite une vigilance accrue de la part des décideurs.
3L'anticipation des défis liés à l'IA est essentielle pour éviter un contrôle incontrôlé et garantir une évolution éthique de la technologie.
💡Pourquoi c'est importantUne gestion proactive de l'IA est essentielle pour garantir la sécurité et l'éthique dans son développement.
📄
Article traduit en français

Du France Libre au contrôle de l'IA : anticiper, c'est choisir le moment où l'on agit

Anticiper l'IA comme la défense est vital : ses capacités progressent très vite, pourraient dépasser les experts avant 2030 et posent déjà un défi de contrôle, avec un risque d'emballement à court terme.

Le 2 mars, à l'Île-Longue, le président de la République dévoilait le nom de l'Invincible, premier sous-marin nucléaire lanceur d'engins de troisième génération, conçu pour naviguer jusqu'en 2090. Le 18 mars, à Indret, il baptisait le France Libre, porte-avions de nouvelle génération dont la mise en service est prévue en 2038. Ces deux programmes illustrent la capacité à engager des moyens considérables, sur plusieurs décennies, pour garantir une souveraineté qui n'a de valeur que si elle précède la menace.

On ne dimensionne pas une réponse le jour où l'on en a besoin. On la dimensionne avant, parce qu'après, il est trop tard. C'est cette même anticipation qu'il faut désormais appliquer à l'intelligence artificielle, et plus précisément au problème du contrôle des systèmes d'IA à usage général.

Une analyse systématique de 60 benchmarks standardisés couvrant les principales capacités cognitives des systèmes d’IA de pointe, telles que le raisonnement, les mathématiques, la programmation, les connaissances scientifiques et les capacités opérationnelles autonomes, indique, sur la base d’un modèle bayésien hiérarchique, que 98 % de ces évaluations pourraient être saturées avant 2030.

Sur les benchmarks liés à la cybersécurité offensive, à l'automatisation de la R&D en IA et aux connaissances biologiques et chimiques à double usage, la saturation est projetée avant 2028. Les modèles de pointe dépassent déjà les performances d'experts titulaires de doctorats en physique, chimie et biologie sur des tests de connaissances. Ils résolvent des problèmes mathématiques de niveau recherche et identifient des vulnérabilités logicielles inédites. Ces capacités progressent de dizaines de points de pourcentage par an, plus vite que ne l'avaient anticipé les experts sur la dernière décennie.

Pour donner la mesure de cette dynamique : sur GPQA Diamond, un benchmark de questions scientifiques de niveau doctoral, des chercheurs spécialistes des disciplines évaluées n'ont obtenu qu'un score de 69,7 %. Les modèles actuels dépassent les 90 %. En 2022, des experts estimaient qu'une IA remporterait une médaille d'or aux Olympiades internationales de mathématiques autour de 2030, avec 8,6 % de probabilité avant 2025. Elle a été obtenue cette année-là. En cybersécurité, lors du AI Cyber Challenge de la DARPA en août 2025, des systèmes d'IA ont découvert 18 vulnérabilités zero-day réelles dans des logiciels open-source.

Personne ne demande aux décideurs de trancher la question de savoir quand sera entraînée une intelligence artificielle surpassant l'ensemble des capacités des experts humains dans toutes les tâches cognitives. Le quand exact est un pari difficile, peut-être impossible. En revanche, déterminer si le problème du contrôle exige une réponse dès maintenant est un pari facile. Les techniques actuelles d'alignement sont insuffisantes. Il n'existe aucune méthode pour garantir qu'un système dépassant les capacités des experts humains restera contrôlable. Or les trajectoires de capacités, elles, ne ralentissent pas.

Il y a surtout un effet de seuil que les planificateurs dans les états-majors doivent avoir en tête. Si des systèmes d'IA deviennent capables de contribuer de manière autonome à la recherche en IA, une boucle de rétroaction s'enclenche et le temps de préparation se comprime brutalement. Les benchmarks d'ingénierie logicielle autonome indiquent que ce seuil pourrait être franchi dans les deux à trois prochaines années. Quel que soit le scénario retenu pour la suite, le temps disponible pour agir se rétrécit.

Le France Libre sera opérationnel une décennie avant le retrait du Charles de Gaulle. L'Invincible patrouillera bien avant que la menace qu'il doit dissuader ne se matérialise. Parce que nous avons anticipé. Pour l'intelligence artificielle, c'est la même exigence, avec une contrainte supplémentaire : le calendrier des capacités n'est pas entre nos mains. Si on souhaite encore peser et n'être ni déclassé ni exposé aux problèmes de sécurité, c'est aujourd'hui. Peut-être demain. Mais après… qui sait ?

Lire l'article original sur Journal du Net IA

📧

Cet article vous a plu ?

Recevez les 7 meilleures actus IA chaque soir à 19h — résumées en 5 min.

Chaque soir à 19h

Gratuit · Pas de spam · Désabonnement en 1 clic

Commentaires