Brief IA

Ce que révèle la querelle entre le gouvernement américain et Anthropic

⚖️ Régulation & Éthiquevia Journal du Net IA·Guillaume Renouard·

Ce que révèle la querelle entre le gouvernement américain et Anthropic

Ce que révèle la querelle entre le gouvernement américain et Anthropic

⚡ Résumé en français par Brief IA

Le Pentagone a inscrit la start-up Anthropic sur liste noire, signalant un conflit direct avec l'industrie de l'IA.
Cette décision pourrait compromettre des millions de dollars d'investissements dans l'IA, affectant des entreprises clés du secteur.
Ce conflit illustre le fossé croissant entre le gouvernement Trump et les entreprises technologiques, intensifiant les tensions sur la régulation de l'IA.
💡 Pourquoi c'est important : cette situation pourrait redéfinir les relations entre le gouvernement et l'industrie technologique, influençant l'avenir de l'innovation en IA.

📄 Article traduit en français

Ce que révèle la querelle entre le gouvernement américain et Anthropic

Le Pentagone a mis la start-up de l'IA sur liste noire. Un conflit ouvert qui illustre le fossé croissant entre le gouvernement Trump et une partie de l'industrie.

Il y a une dizaine de jours, Peter Hegseth, le secrétaire à la Défense des États-Unis, a mis Anthropic face à un ultimatum : accorder un accès total à sa technologie au département de la Défense (dans la limite des usages légaux) ou voir son contrat avec le gouvernement révoqué et sa technologie bannie de l’administration.

Suite au refus du patron de la jeune pousse, qui se trouve à la pointe de l’IA agentique avec son chatbot Claude et ses différentes déclinaisons adaptées au monde du travail comme Claude Code et Claude Work, Donald Trump a publié sur son réseau Truth Social un long message furieux dans lequel il accuse l’entreprise d’être "woke" et d’appartenir à la "gauche radicale". Le département de la Défense a classifié Anthropic comme un risque pour sa chaîne d’approvisionnement, ce qui interdit à toute branche du gouvernement de l’utiliser. L'application de ce statut à une société américaine est inédite : il était jusqu’ici réservé à des sociétés russes et chinoises, comme Huawei.

Anthropic et le gouvernement américain : une idylle qui a tourné court

La jeune pousse était jusqu’ici au cœur de la stratégie d’adoption de l’IA par le gouvernement américain. En juillet dernier, elle s’est vue attribuer un contrat à 200 millions de dollars de la part du Pentagone afin de développer des usages de l’IA au service de la sécurité nationale. Si le gouvernement travaille également avec d’autres experts de l’IA, dont Google, OpenAI et xAI, Anthropic est la plus utilisée, notamment grâce à son intégration à Palantir, et la seule à être déployée sur des systèmes classifiés. Sa technologie a notamment été mobilisée durant l’opération mise en œuvre pour la capture de Nicolás Maduro au Venezuela.

Les choses ont commencé à se gâter début janvier, après la publication par Peter Hegseth d’un mémo dans lequel il annonce une stratégie visant à faire de l’armée américaine une "force de combat axée sur l’IA", appelant à un usage de cette technologie affranchi de toute "contrainte de politique d'utilisation". Ceci, associé à l’usage de sa technologie durant l’opération au Venezuela, suscite des remous en interne chez Anthropic : le 15 février, l’un de ses chercheurs spécialisés dans la sécurité de l’IA claque la porte de l’entreprise.

Le département de la Défense commence en parallèle à mettre la pression sur Anthropic, ainsi que sur d'autres entreprises, pour autoriser l'utilisation militaire de leurs systèmes à "toutes fins légales", y compris pour le développement d'armements, le renseignement et les opérations sur le champ de bataille. Les réticences d’Anthropic conduisent Peter Hegseth à taper du poing sur la table en imposant une date butoir à Dario Amodei, puis, en l’absence d’un compromis, à opter pour une rupture radicale.

L’approche accélérationniste de l’administration Trump se heurte à celle d’Anthropic

La start-up a exprimé sa volonté de contester la décision en justice. Certains experts américains, à l’instar de Dean Ball, ancien conseiller de l’administration Trump sur l’IA, voient dans cette affaire un dangereux précédent susceptible de nuire au dynamisme de l’écosystème américain de l’IA, actuellement engagé dans une féroce compétition avec la Chine.

  • "Nvidia, Amazon et Google devront se désengager d'Anthropic si Hegseth obtient gain de cause. C'est tout simplement une tentative d'assassinat contre une entreprise. Je ne pourrais en aucun cas recommander d'investir dans l'IA américaine à quelque investisseur que ce soit ; ni recommander à quiconque de créer une entreprise d'IA aux États-Unis", a-t-il publié sur son compte X.

L’administration Trump, qui a mené en 2024 une campagne résolument techno-libertarienne, et a su ainsi séduire de nombreux cadres de la Silicon Valley anciennement démocrates et déçus par la politique jugée anti-tech de Joe Biden, mène depuis ses débuts une politique d’adoption débridée sur l’IA, s’opposant à toute régulation et favorisant une adoption rapide de la technologie par toutes les branches du gouvernement, y compris dans la Défense.

Ce laisser-faire va toutefois trop loin pour certaines voix au sein de la tech, dont Anthropic fait partie, à travers son dirigeant Dario Amodei, qui met régulièrement en garde contre les risques inhérents à une IA non régulée.

Les dangers d’un usage débridé de l’IA

L’entreprise n’est pas la seule à s’inquiéter de l'adoption rapide que souhaite mettre en œuvre le Pentagone. Gary Marcus, un expert américain de l’IA, est également convaincu du fait que les grands modèles de langage sont pour l’heure beaucoup trop prompts à halluciner et à faire des erreurs pour être utilisés à des fins militaires.

  • "L'IA générative n'est absolument pas assez fiable pour prendre des décisions de vie ou de mort à grande échelle", écrit-il sur son blog.
  • "Si nous disséminons les LLMs partout, nous devons le faire d'une manière qui reconnaisse et prenne en compte leur manque de fiabilité. Les déployer partout sans précautions suffisantes pourrait bien nous mener à la catastrophe."

Ce n’est pas une récente étude du King’s College London qui rassurera Gary Marcus et Dario Amodei : le chercheur Kenneth Payne et son équipe ont mis en compétition trois grands modèles de langage (GPT-5.2, Claude Sonnet 4 et Gemini 3 Flash) dans des jeux de guerre impliquant des affrontements internationaux, à travers notamment des conflits frontaliers, des compétitions pour des ressources rares et des menaces existentielles pour la survie de gouvernements. Chargés d’organiser la défense d’un pays, les IAs ont opté pour l’usage de frappes nucléaires dans 95% des scénarios. Certains experts suspectent également que la frappe dirigée contre une école en Iran, qui a tué 150 enfants, ait pu être liée à une erreur de l’IA.

La crainte est également grande de voir l’administration Trump mettre l’IA au service de la surveillance à grande échelle dans son propre pays, par exemple pour améliorer l’efficacité de ses expulsions de masse ou encore surveiller les opposants politiques.

Le baiser de Judas de Sam Altman

Sam Altman, qui entretient une relation tumultueuse avec Dario Amodei, lui-même un ancien d’OpenAI, s’est engouffré dans la brèche en tissant un accord avec le Pentagone, après avoir pourtant dans un premier temps affiché son soutien à Anthropic dans sa querelle avec les autorités. Si Sam Altman affirme avoir obtenu des garde-fous de la part du Département de la Défense, de nombreux experts n’ont pas tardé à signaler que l’accord semblait trop beau pour être vrai et qu’Altman avait visiblement accepté de céder aux demandes de Peter Hegseth.

L’entreprise n’est cependant pas encore approuvée pour des usages classifiés, notamment parce que ses technologies ne sont pas disponibles via le cloud d’Amazon, utilisé par le gouvernement américain. Cela pourrait toutefois changer après la signature d’un partenariat opportun entre OpenAI et Amazon, dans lequel le géant du commerce en ligne prévoit d’injecter 50 milliards de dollars dans l’entreprise de Sam Altman.

Plusieurs experts de l'IA, à l’instar de Timothy B. Lee, ont appelé le Congrès à légiférer pour limiter certains usages et éviter une course vers le bas menée par les principales entreprises du secteur afin de décrocher les contrats les plus juteux, quitte à jeter l’éthique par-dessus bord. Peu de chances, toutefois, qu’une telle loi puisse passer avant les élections de mi-mandat et l’éventuel retour d’une majorité démocrate au Congrès, la majorité républicaine actuelle semblant déterminée à suivre l’approche accélérationniste de Donald Trump.

En s’en prenant à Anthropic et en mettant de côté les craintes qu’expriment une bonne partie des professionnels de l’IA, y compris Sam Altman lui-même, quant à une absence d’encadrement de la technologie, Trump joue toutefois un jeu dangereux. Les entrepreneurs de la Silicon Valley risquent en effet de se dire qu’ils pourraient être les prochains à subir le même sort qu’Anthropic, et à juger qu’il est dans leur intérêt de passer de nouveau dans l’escarcelle démocrate plutôt que d’avoir une épée de Damoclès en permanence suspendue au-dessus de la tête.

TwitterLinkedIn

Brief IA — Veille IA en français

Toutes les innovations mondiales en IA, traduites et résumées automatiquement. Recevoir les meilleures actus IA chaque jour.