Where OpenAI’s technology could show up in Iran
⚡ Résumé en français par Brief IA
• OpenAI a récemment conclu un accord controversé permettant au Pentagone d'utiliser sa technologie d'IA dans des environnements classifiés. • Accord signé il y a deux semaines, impliquant des enjeux de sécurité nationale. • Ce développement soulève des questions sur l'utilisation éthique de l'IA dans des contextes militaires et sensibles. 💡 Pourquoi c'est important : l'intégration de l'IA dans des opérations militaires pourrait transformer les stratégies de défense et de sécurité.
📄 Article traduit en français
Où la technologie d'OpenAI pourrait apparaître en Iran
Cela fait un peu plus de deux semaines qu'OpenAI a conclu un accord controversé permettant au Pentagone d'utiliser son IA dans des environnements classifiés. Des questions pressantes demeurent quant à ce que cet accord permet réellement ; Sam Altman a déclaré que l'armée ne pouvait pas utiliser la technologie de son entreprise pour construire des armes autonomes, mais l'accord exige simplement que l'armée suive ses propres directives (assez permissives) concernant ces armes. La principale autre affirmation d'OpenAI, selon laquelle l'accord empêchera l'utilisation de sa technologie pour la surveillance domestique, semble tout aussi douteuse.
Il est difficile de cerner les motivations d'OpenAI. Ce n'est pas la première grande entreprise technologique à accepter des contrats militaires qu'elle avait autrefois juré de ne jamais conclure, mais la rapidité de ce changement est notable. Peut-être s'agit-il simplement d'argent ; OpenAI dépense beaucoup pour la formation de l'IA et cherche à augmenter ses revenus (provenant de sources telles que la publicité). Ou peut-être qu'Altman croit réellement au cadre idéologique qu'il invoque souvent : que les démocraties libérales (et leurs armées) doivent avoir accès à la technologie IA la plus puissante pour rivaliser avec la Chine.
La question la plus conséquente est de savoir ce qui se passera ensuite. OpenAI a décidé qu'elle était à l'aise pour opérer au cœur du combat, alors que les États-Unis intensifient leurs frappes contre l'Iran (avec un rôle de plus en plus important de l'IA dans ce contexte). Alors, où la technologie d'OpenAI pourrait-elle apparaître dans ce conflit ? Et quelles applications ses clients (et employés) accepteront-ils ?
Cibles et frappes
Bien que son accord avec le Pentagone soit en place, il n'est pas clair quand la technologie d'OpenAI sera prête pour des environnements classifiés, car elle doit être intégrée à d'autres outils utilisés par l'armée (xAI d'Elon Musk, qui a récemment conclu son propre accord avec le Pentagone, devrait passer par le même processus avec son modèle d'IA Grok). Mais il y a une pression pour le faire rapidement en raison de la controverse entourant la technologie utilisée jusqu'à présent : après qu'Anthropic a refusé de permettre à son IA d'être utilisée pour "tout usage légal", le président Trump a ordonné à l'armée de cesser de l'utiliser, et Anthropic a été désigné comme un risque pour la chaîne d'approvisionnement par le Pentagone. (Anthropic conteste cette désignation devant les tribunaux.)
Si le conflit en Iran est toujours en cours lorsque la technologie d'OpenAI sera intégrée, à quoi pourrait-elle servir ? Une récente conversation que j'ai eue avec un responsable de la défense suggère que cela pourrait ressembler à ceci : un analyste humain pourrait entrer une liste de cibles potentielles dans le modèle d'IA et lui demander d'analyser les informations et de prioriser lesquelles frapper en premier. Le modèle pourrait tenir compte d'informations logistiques, comme l'emplacement de certains avions ou fournitures. Il pourrait analyser de nombreux types d'entrées sous forme de texte, d'images et de vidéos.
Un humain serait ensuite responsable de vérifier manuellement ces résultats, a déclaré le responsable. Mais cela soulève une question évidente : si une personne vérifie réellement les résultats de l'IA, comment cela accélère-t-il les décisions de ciblage et de frappe ?
Depuis des années, l'armée utilise un autre système d'IA, appelé Maven, qui peut gérer des tâches telles que l'analyse automatique des images de drones pour identifier des cibles possibles. Il est probable que les modèles d'OpenAI, comme Claude d'Anthropic, offriront une interface conversationnelle par-dessus cela, permettant aux utilisateurs de demander des interprétations de renseignements et des recommandations sur les cibles à frapper en premier.
Il est difficile de surestimer à quel point cela est nouveau : l'IA a longtemps effectué des analyses pour l'armée, tirant des informations d'énormes quantités de données. Mais utiliser les conseils de l'IA générative sur les actions à entreprendre sur le terrain est testé sérieusement pour la première fois en Iran.
À la fin de 2024, OpenAI a annoncé un partenariat avec Anduril, qui fabrique à la fois des drones et des technologies de contre-drones pour l'armée. L'accord stipulait qu'OpenAI travaillerait avec Anduril pour effectuer une analyse sensible au temps des drones attaquant les forces américaines et aider à les abattre. Un porte-parole d'OpenAI m'a dit à l'époque que cela ne violait pas les politiques de l'entreprise, qui interdisaient les "systèmes conçus pour nuire aux autres", car la technologie était utilisée pour cibler des drones et non des personnes.
Anduril fournit une suite de technologies de contre-drones aux bases militaires du monde entier (bien que la société ait refusé de me dire si ses systèmes sont déployés près de l'Iran). Aucune des deux entreprises n'a fourni de mises à jour sur l'évolution du projet depuis son annonce. Cependant, Anduril a longtemps formé ses propres modèles d'IA pour analyser les images de caméras et les données de capteurs afin d'identifier les menaces ; ce sur quoi elle se concentre moins, ce sont les systèmes d'IA conversationnelle permettant aux soldats d'interroger directement ces systèmes ou de recevoir des conseils en langage naturel — un domaine où les modèles d'OpenAI pourraient s'intégrer.
Les enjeux sont élevés. Six membres des forces américaines ont été tués au Koweït le 1er mars suite à une attaque de drone iranien qui n'a pas été interceptée par les défenses aériennes américaines.
L'interface d'Anduril, appelée Lattice, est l'endroit où les soldats peuvent contrôler tout, des défenses de drones aux missiles et sous-marins autonomes. Et la société remporte d'énormes contrats — 20 milliards de dollars de l'armée américaine rien que la semaine dernière — pour connecter ses systèmes avec des équipements militaires hérités et y superposer de l'IA. Si les modèles d'OpenAI s'avèrent utiles à Anduril, Lattice est conçu pour les intégrer rapidement dans cette pile de guerre plus large.
En décembre, le secrétaire à la Défense, Pete Hegseth, a commencé à encourager des millions de personnes occupant des rôles plus administratifs dans l'armée — contrats, logistique, achats — à utiliser un nouvel outil d'IA. Appelé GenAI.mil, il offrait un moyen pour le personnel d'accéder de manière sécurisée à des modèles d'IA commerciaux et de les utiliser pour les mêmes types de tâches que quiconque dans le monde des affaires.
Google Gemini a été l'un des premiers à être disponible. En janvier, le Pentagone a annoncé que Grok de xAI allait également être ajouté à la plateforme GenAI.mil, malgré des incidents où le modèle avait diffusé du contenu antisémite et créé des deepfakes non consensuels. OpenAI a suivi en février, annonçant que ses modèles seraient utilisés pour rédiger des documents de politique et des contrats et pour aider au soutien administratif des missions.
Quiconque utilisant ChatGPT pour des tâches non classifiées sur cette plateforme est peu susceptible d'avoir beaucoup d'influence sur des décisions sensibles en Iran, mais la perspective d'OpenAI déployant sur la plateforme est importante d'une autre manière. Elle sert l'attitude déterminée envers l'IA que Hegseth a poussée sans relâche à travers le Pentagone (même si de nombreux premiers utilisateurs ne sont pas tout à fait sûrs de ce qu'ils sont censés en faire). Le message est que l'IA transforme chaque aspect de la manière dont les États-Unis combattent, des décisions de ciblage jusqu'à la paperasse. Et OpenAI remporte de plus en plus une part de tout cela.
Brief IA — Veille IA quotidienne
Toutes les innovations IA du monde entier, résumées et analysées automatiquement chaque jour.