Federal judge says it looks like the Pentagon tried to 'cripple Anthropic'
Un juge fédéral estime que le Pentagone a tenté de 'crippler Anthropic'
Le PDG d'Anthropic, Dario Amodei, a refusé de céder aux exigences du secrétaire à la Défense, Pete Hegseth, ce qui a finalement conduit à un conflit juridique. Anthropic a demandé à un juge de bloquer le Pentagone de la désigner comme un risque pour la chaîne d'approvisionnement. Cette étiquette pourrait empêcher Anthropic d'obtenir des contrats gouvernementaux lucratifs.
Mardi, un juge fédéral a qualifié la démarche du ministère de la Défense de "préoccupante". Un juge fédéral à San Francisco a critiqué le Pentagone pour sa tentative de mettre Anthropic sur liste noire suite à un différend concernant son IA, plutôt que de simplement choisir de contracter avec une autre entreprise d'intelligence artificielle.
« Cela ressemble à une tentative de crippler Anthropic », a déclaré Lin, un nommé par Biden, lors d'une audience mardi pour décider si l'étiquette pouvait rester en place pendant que l'affaire d'Anthropic contre le ministère de la Défense allait au procès. Le 3 mars, le secrétaire à la Défense, Peter Hegseth, a officiellement informé Anthropic qu'il classait l'entreprise et ses produits comme un risque pour la chaîne d'approvisionnement, la première fois qu'une telle désignation avait été appliquée à une entreprise américaine.
Avant cette action, le PDG d'Anthropic, Dario Amodei, avait annoncé publiquement qu'il ne serait pas d'accord avec les exigences de Hegseth pour que le Pentagone ait un accès illimité à ses modèles d'IA "pour tout usage légal". Amodei a exprimé ses inquiétudes quant à un contrat avec ce type de formulation, qui pourrait permettre un usage abusif dans la surveillance des Américains ou conduire à ce que l'IA d'Anthropic soit déployée dans des armes entièrement autonomes avant qu'il ne soit sûr de le faire.
Lin, qui a traité d'autres affaires technologiques de haut profil, a déclaré que la décision de désigner formellement Anthropic comme un risque pour la chaîne d'approvisionnement était "préoccupante", étant donné que cette désignation est normalement réservée aux "adversaires du gouvernement américain qui pourraient saboter ses systèmes technologiques".
« Le ministère de la Défense pourrait simplement cesser d'utiliser Claude », a déclaré Lin, en utilisant les initiales du "Department of War", le nom préféré de l'administration Trump pour le Pentagone. « Il semble qu'ils soient allés plus loin que cela parce qu'ils essayaient de punir Anthropic. »
Anthropic a intenté une action en justice pour bloquer temporairement et définitivement l'action de Hegseth ainsi que l'ordre séparé du président Donald Trump qui demandait à toutes les agences fédérales de cesser d'utiliser la technologie d'Anthropic dans un délai de six mois. Dans des documents juridiques, Anthropic a déclaré que cette désignation "met en péril des centaines de millions de dollars à court terme" en raison de l'incertitude quant à ce que cela signifiait pour les entrepreneurs de défense qui utilisent également Claude.
« En plus de ces préjudices économiques immédiats, la réputation d'Anthropic et ses libertés fondamentales au titre du Premier Amendement sont attaquées », ont écrit les avocats de la startup d'IA dans leur plainte.
La Silicon Valley suit de près l'affaire, car une interprétation large des restrictions du Pentagone pourrait avoir des répercussions sur des partenaires comme Microsoft, qui a déposé un mémoire d'amicus soutenant Anthropic. En tant que contractant gouvernemental, Microsoft pourrait être contraint de limiter l'utilisation qu'il fait de Claude d'Anthropic. Plus largement, l'affaire testera jusqu'où le gouvernement fédéral peut aller dans la restriction des fournisseurs d'IA par le biais de ses pouvoirs de contrat et de sécurité nationale.
Brief IA — Veille IA quotidienne
Toutes les innovations IA du monde entier, résumées et analysées automatiquement chaque jour.