IA de guerre : le Pentagone crée sa propre alternative à Anthropic
IA de guerre : le Pentagone crée sa propre alternative à Anthropic
On dirait bien que le ministère de la Défense ne supporte pas qu’on lui dise non. Après le refus d’Anthropic de fournir son IA, le Pentagone accélère seul et développe ses propres modèles.
Souvenez-vous de l’épisode Anthropic ? Pour rappel, l’entreprise a refusé un ultimatum du Pentagone, qui réclamait un accès sans restriction à son IA Claude pour des usages militaires jugés légitimes. La rupture va plus loin, car le Pentagone veut développer sa propre IA, malgré la présence de OpenAI et xAI déjà engagés à ses côtés. C’est Cameron Stanley, le Chief Digital and Artificial Intelligence Officer (CDAO) du département de la Guerre des États-Unis, qui confirme auprès de Bloomberg le lancement de modèles de langage maison.
Une motivation née d’un divorce
Avant de plonger dans l’histoire, revenons d’abord à l’origine du conflit entre le Pentagone et Anthropic.
D’un côté, l’entreprise voulait interdire l’usage de son IA pour la surveillance de masse des citoyens. Elle refusait également de voir ses algorithmes piloter des armes capables de tirer sans intervention humaine. Ces limites ne sont pas symboliques ; elles visent à éviter des dérives bien réelles.
De l’autre, le Pentagone ne veut aucune contrainte. Son Chief Digital and Artificial Intelligence Office exige un accès total, y compris sur des réseaux classifiés. La défense américaine est restée inflexible face à ces barrières morales jugées trop contraignantes.
Fin février 2026, la tension monte. Un ultimatum tombe : Anthropic avait 72 heures pour lever ses restrictions, sinon le contrat de 200 millions de dollars saute. Et la menace va plus loin jusqu’à une mise sur liste noire.
Ce bras de fer a poussé le Pentagone à accélérer sur ses propres modèles d’IA. Des initiatives internes émergent, et les équipes y travaillent déjà, à en croire Stanley.
Comment seront ces modèles d’IA développés par le Pentagone ?
Le responsable du numérique et de l’IA du Pentagone reste discret. On sait seulement que ces nouveaux systèmes reposent sur des modèles de langage intégrés directement dans des environnements gouvernementaux. Les premiers déploiements pourraient arriver très rapidement, mais aucune date n’a été communiquée.
Malgré ce silence, il est probable que les projets soient déjà bien avancés. On ne parle pas de prototypes expérimentaux, mais de systèmes proches du déploiement. Ce choix stratégique vise à reprendre le contrôle total. Tout, des données aux usages en passant par les limites, reste géré en interne.
D’ailleurs, le but est de réduire la dépendance aux acteurs privés tout en gardant un contrôle total sur les capacités et les usages.
Cependant, cette approche a un coût. Développer ses propres modèles demande du temps, des ressources massives et une expertise pointue. Même pour une organisation comme le Pentagone, rivaliser avec un acteur comme Anthropic reste un défi.
OpenAI et xAI toujours à côté
Le Pentagone ne coupe pas les ponts avec tout le monde. Il avance même avec deux poids lourds : OpenAI et xAI.
Du côté de OpenAI, un accord a déjà été signé avec le DoD. L’objectif est de déployer ses modèles IA sur des réseaux classifiés. Cet accord inclut des garde-fous éthiques renforcés, comme l’exclusion d’usages par la NSA sans modification contractuelle et la présence d’ingénieurs de la firme pour superviser.
xAI d’Elon Musk pousse aussi son modèle Grok dans les systèmes du Pentagone. Un contrat de 200 millions de dollars soutient cette intégration, avec des outils déjà en place dans certains environnements sécurisés.
Alors, pourquoi développer ses propres modèles avec de tels partenaires ? Le Pentagone ne veut pas dépendre d’un seul acteur. Il multiplie les options pour garder la main. Autrement dit, il collabore mais prépare déjà l’après.
Les conséquences pour Anthropic ?
Le vrai choc se situe du côté d’Anthropic. Parce que le Pentagone ne s’est pas contenté de rompre le contrat ; il a choisi d’aller beaucoup plus loin.
Ce mois-ci, le secrétaire à la Défense Pete Hegseth classe l’entreprise comme acteur à risque pour la chaîne d’approvisionnement. Cette décision bloque toute collaboration avec les partenaires du Pentagone.
Dans la liste figurent de nombreux géants comme Lockheed Martin, Boeing ou encore Raytheon. Même pour des usages civils ou non classifiés, les portes se ferment. L’impact financier devient immédiat, avec des dizaines de millions de dollars qui disparaissent chaque année.
Toutefois, Anthropic ne reste pas passif. L’entreprise a saisi les tribunaux fédéraux pour contester cette décision, dénonçant une atteinte à la liberté contractuelle et une utilisation contestée du Defence Production Act.
À ce stade, le conflit dépasse le cadre commercial. Il prend une dimension politique et stratégique, et il est peu probable que cette affaire s’arrête là.
Brief IA — Veille IA quotidienne
Toutes les innovations IA du monde entier, résumées et analysées automatiquement chaque jour.