Un responsable de la défense révèle comment les chatbots IA pourraient être utilisés pour les décisions de ciblage
⚡ Résumé en français par Brief IA
• L'armée américaine envisage d'utiliser des systèmes d'IA générative pour classer les cibles et recommander des frappes. • Les décisions seront validées par des humains, garantissant un contrôle humain sur les actions. • Cette initiative survient alors que le Pentagone est sous pression pour clarifier l'utilisation de l'IA dans des contextes militaires. 💡 Pourquoi c'est important : l'intégration de l'IA dans les décisions militaires pourrait transformer la stratégie de défense et soulever des questions éthiques majeures.
📄 Article traduit en français
Un responsable de la défense révèle comment les chatbots IA pourraient être utilisés pour les décisions de ciblage
L'armée américaine pourrait utiliser des systèmes d'IA générative pour classer des listes de cibles et faire des recommandations—qui seraient vérifiées par des humains—sur lesquelles frapper en premier, selon un responsable du département de la Défense ayant connaissance du sujet. Cette divulgation sur l'utilisation potentielle des chatbots IA par l'armée survient alors que le Pentagone fait l'objet d'un examen approfondi suite à une frappe sur une école iranienne, qui fait encore l'objet d'une enquête.
Une liste de cibles potentielles pourrait être introduite dans un système d'IA générative que le Pentagone déploie pour des environnements classifiés. Ensuite, a déclaré le responsable, qui a demandé à s'exprimer en arrière-plan auprès de MIT Technology Review pour discuter de sujets sensibles, les humains pourraient demander au système d'analyser les informations et de prioriser les cibles en tenant compte de facteurs tels que l'emplacement actuel des avions. Les humains seraient ensuite responsables de la vérification et de l'évaluation des résultats et recommandations. Les modèles d'OpenAI, comme ChatGPT, et ceux de xAI, comme Grok, pourraient, en théorie, être utilisés dans ce type de scénario à l'avenir, les deux entreprises ayant récemment conclu des accords pour que leurs modèles soient utilisés par le Pentagone dans des environnements classifiés.
Le responsable a décrit cela comme un exemple de fonctionnement potentiel, mais n'a pas confirmé ni nié si cela représentait la manière dont les systèmes d'IA sont actuellement utilisés. D'autres médias ont rapporté que Claude d'Anthropic a été intégré dans des systèmes militaires d'IA existants et utilisé dans des opérations en Iran et au Venezuela, mais les commentaires du responsable apportent un éclairage sur le rôle spécifique que les chatbots pourraient jouer, en particulier dans l'accélération de la recherche de cibles. Ils mettent également en lumière la manière dont l'armée déploie deux technologies d'IA différentes, chacune avec des limitations distinctes.
Depuis au moins 2017, l'armée américaine travaille sur une initiative de "big data" appelée Maven. Elle utilise des types d'IA plus anciens, en particulier la vision par ordinateur, pour analyser les océans de données et d'images collectées par le Pentagone. Maven pourrait, par exemple, prendre des milliers d'heures de séquences aériennes de drones et identifier algorithmiquement des cibles. Un rapport de 2024 de l'Université de Georgetown a montré que des soldats utilisaient le système pour sélectionner des cibles et les vérifier, ce qui a accéléré le processus d'approbation de ces cibles. Les soldats interagissaient avec Maven via une interface avec une carte de champ de bataille et un tableau de bord, qui pouvait mettre en évidence les cibles potentielles d'une couleur et les forces amies d'une autre.
Les commentaires du responsable suggèrent que l'IA générative est désormais ajoutée comme une couche de chatbot conversationnel—que l'armée pourrait utiliser pour trouver et analyser des données plus rapidement lors de décisions telles que celles concernant les cibles à prioriser.
Les systèmes d'IA générative, comme ceux qui sous-tendent ChatGPT, Claude, et Grok, sont une technologie fondamentalement différente de l'IA qui a principalement alimenté Maven. Basés sur de grands modèles de langage, ils sont beaucoup moins éprouvés au combat. Alors que l'interface de Maven obligeait les utilisateurs à inspecter et interpréter directement les données sur la carte, les résultats produits par les modèles d'IA générative sont plus faciles d'accès mais plus difficiles à vérifier.
L'utilisation de l'IA générative pour de telles décisions réduit le temps nécessaire au processus de ciblage, a ajouté le responsable, qui n'a pas fourni de détails lorsqu'on lui a demandé combien de vitesse supplémentaire était possible si les humains devaient passer du temps à vérifier les résultats d'un modèle.
L'utilisation des systèmes d'IA militaires est sous un examen public accru suite à la récente frappe sur une école pour filles en Iran, où plus de 100 enfants ont perdu la vie. Plusieurs médias ont rapporté que la frappe provenait d'un missile américain, bien que le Pentagone ait déclaré qu'une enquête était toujours en cours. Et bien que le Washington Post ait rapporté que Claude et Maven avaient été impliqués dans des décisions de ciblage en Iran, il n'existe pas encore de preuves pour expliquer quel rôle les systèmes d'IA générative ont joué, le cas échéant. Le New York Times a rapporté mercredi qu'une enquête préliminaire avait trouvé que des données de ciblage obsolètes étaient en partie responsables de la frappe.
Le Pentagone a intensifié son utilisation de l'IA dans ses opérations ces derniers mois. Il a commencé à offrir une utilisation non classifiée de modèles d'IA générative, pour des tâches comme l'analyse de contrats ou la rédaction de présentations, à des millions de membres du service depuis décembre, à travers un effort appelé GenAI.mil. Mais seuls quelques modèles d'IA générative ont été approuvés par le Pentagone pour une utilisation classifiée.
Le premier était Claude d'Anthropic, qui, en plus de son utilisation en Iran, aurait été utilisé dans les opérations pour capturer le leader vénézuélien Nicolas Maduro en janvier. Cependant, suite à des désaccords récents entre le Pentagone et Anthropic concernant la possibilité pour Anthropic de restreindre l'utilisation de son IA par l'armée, le département de la Défense a désigné l'entreprise comme un risque pour la chaîne d'approvisionnement et le président Trump a exigé sur les réseaux sociaux que le gouvernement cesse d'utiliser ses produits d'IA dans un délai de six mois. Anthropic conteste cette désignation devant les tribunaux.
OpenAI a annoncé un accord le 28 février pour que l'armée utilise ses technologies dans des environnements classifiés. L'entreprise de Elon Musk, xAI, a également conclu un accord pour que le Pentagone utilise son modèle Grok dans de tels environnements. OpenAI a déclaré que son accord avec le Pentagone était assorti de limitations, bien que l'efficacité pratique de ces limitations ne soit pas claire.
Brief IA — Veille IA en français
Toutes les innovations mondiales en IA, traduites et résumées automatiquement. Recevoir les meilleures actus IA chaque jour.