C'est officiel : le Pentagone désigne Anthropic comme un risque pour la chaîne d'approvisionnement
⚡ Résumé en français par Brief IA
Le Département de la Défense des États-Unis a officiellement classé Anthropic comme un risque pour la chaîne d'approvisionnement, faisant de cette entreprise d'IA la première aux États-Unis à recevoir cette étiquette. Pendant ce temps, le DOD continue d'utiliser l'IA d'Anthropic en Iran.
📄 Article traduit en français
C'est officiel : le Pentagone désigne Anthropic comme un risque pour la chaîne d'approvisionnement
Le Department of Defense (DOD) a officiellement informé la direction d'Anthropic que l'entreprise et ses produits ont été désignés comme un risque pour la chaîne d'approvisionnement, rapporte Bloomberg, citant un haut responsable du département.
Cette désignation intervient après des semaines de conflit entre le laboratoire d'IA et le DOD. Le PDG d'Anthropic, Dario Amodei, a refusé de permettre à l'armée d'utiliser ses systèmes d'IA pour la surveillance de masse des Américains ou pour alimenter des armes entièrement autonomes sans intervention humaine dans les décisions de ciblage ou de tir. Le département a soutenu que l'utilisation de l'IA ne devrait pas être limitée par un entrepreneur privé.
Les désignations de risque pour la chaîne d'approvisionnement sont généralement réservées aux adversaires étrangers. Cette étiquette exige que toute entreprise ou agence travaillant avec le Pentagone certifie qu'elle n'utilise pas les modèles d'Anthropic.
La découverte du Pentagone menace de perturber à la fois l'entreprise et ses propres opérations. Anthropic a été le seul laboratoire d'IA de pointe avec des systèmes prêts pour des missions classifiées. L'armée américaine s'appuie actuellement sur Claude dans sa campagne en Iran, où les forces américaines utilisent des outils d'IA pour gérer rapidement les données de leurs opérations. Claude est l'un des principaux outils intégrés dans le Maven Smart System de Palantir, sur lequel les opérateurs militaires au Moyen-Orient comptent, selon Bloomberg.
Qualifier Anthropic de risque pour la chaîne d'approvisionnement en raison de ce désaccord est un mouvement sans précédent de la part du département, affirment plusieurs critiques. Dean Ball, un ancien conseiller en IA à la Maison Blanche sous Trump, a qualifié cette désignation de "dernier soupir" de la république américaine, arguant que le gouvernement a abandonné la clarté stratégique et le respect au profit d'un tribalisme "brutal" qui traite les innovateurs nationaux pire que les adversaires étrangers.
Des centaines d'employés d'OpenAI et de Google ont exhorté le DOD à retirer sa désignation et ont appelé le Congrès à s'opposer à ce qui pourrait être perçu comme un usage inapproprié de l'autorité contre une entreprise technologique américaine. Ils ont également incité leurs dirigeants à se rassembler pour continuer à refuser les demandes du DOD d'utiliser leurs modèles d'IA pour la surveillance de masse domestique et pour "tuer des personnes de manière autonome sans supervision humaine".
Dans le cadre de ce conflit, OpenAI a conclu son propre accord avec le département pour permettre à l'armée d'utiliser ses systèmes d'IA pour "tous les usages légaux". Certains employés de l'entreprise ont exprimé des inquiétudes concernant la formulation ambiguë de l'accord, qui pourrait conduire exactement aux types d'utilisations qu'Anthropic cherchait à éviter.
Amodei a qualifié les actions du DOD de "réactionnaires et punitives", et aurait déclaré que son refus de louer ou de faire un don à Donald Trump avait contribué au conflit avec le Pentagone. Le président d'OpenAI, Greg Brockman, a été un fervent soutien de Trump, ayant récemment fait un don de 25 millions de dollars au Super PAC MAGA Inc.
Brief IA — Veille IA en français
Toutes les innovations mondiales en IA, traduites et résumées automatiquement. Recevoir les meilleures actus IA chaque jour.