Brief IA

Anthropic conteste en justice la désignation de risque pour la chaîne d'approvisionnement par le DOD

⚖️ Régulation & Éthiquevia TechCrunch IA·Rebecca Bellan·

Anthropic conteste en justice la désignation de risque pour la chaîne d'approvisionnement par le DOD

Anthropic conteste en justice la désignation de risque pour la chaîne d'approvisionnement par le DOD

⚡ Résumé en français par Brief IA

Le PDG d'Anthropic, Dario Amodei, a annoncé son intention de contester la désignation de l'entreprise d'intelligence artificielle comme un risque pour la chaîne d'approvisionnement par le Département de la Défense. Il affirme que la plupart des clients d'Anthropic ne sont pas affectés par cette étiquette.

📄 Article traduit en français

Anthropic conteste en justice la désignation de risque pour la chaîne d'approvisionnement par le DOD

Dario Amodei a déclaré jeudi qu'Anthropic prévoit de contester en justice la décision du Département de la Défense (DOD) de désigner l'entreprise d'IA comme un risque pour la chaîne d'approvisionnement, une désignation qu'il a qualifiée de « légalement infondée ».

Cette déclaration intervient quelques heures après que le DOD a officiellement désigné Anthropic comme un risque pour la chaîne d'approvisionnement, suite à un différend de plusieurs semaines sur le niveau de contrôle que l'armée devrait avoir sur les systèmes d'IA. Une désignation de risque pour la chaîne d'approvisionnement peut interdire à une entreprise de travailler avec le Pentagone et ses sous-traitants. Amodei a clairement affirmé qu'aucune des technologies d'Anthropic ne sera utilisée pour la surveillance de masse des Américains ou pour des armes entièrement autonomes, mais le Pentagone estime qu'il devrait avoir un accès illimité pour « tous les usages légaux ».

Dans sa déclaration, Amodei a précisé que la grande majorité des clients d'Anthropic ne sont pas affectés par cette désignation de risque pour la chaîne d'approvisionnement.

  • « En ce qui concerne nos clients, cela s'applique clairement uniquement à l'utilisation de Claude par les clients dans le cadre de contrats directs avec le Département de la Guerre, et non à toute utilisation de Claude par des clients ayant de tels contrats », a-t-il déclaré.

En guise d'aperçu de ce qu'Anthropic pourrait avancer en justice, Amodei a indiqué que la lettre du Département qualifiant l'entreprise de risque pour la chaîne d'approvisionnement est étroite dans son champ d'application.

  • « Elle existe pour protéger le gouvernement plutôt que pour punir un fournisseur ; en fait, la loi exige que le Secrétaire de la Guerre utilise les moyens les moins restrictifs nécessaires pour atteindre l'objectif de protection de la chaîne d'approvisionnement », a déclaré Amodei.
  • « Même pour les sous-traitants du Département de la Guerre, la désignation de risque pour la chaîne d'approvisionnement ne limite pas (et ne peut pas limiter) les utilisations de Claude ou les relations commerciales avec Anthropic si celles-ci ne sont pas liées à leurs contrats spécifiques avec le Département de la Guerre. »

Amodei a réitéré qu'Anthropic avait eu des conversations productives avec le DOD au cours des derniers jours, des conversations qui, selon certains, ont été perturbées lorsqu'un mémo interne qu'il a envoyé au personnel a été divulgué. Dans ce mémo, Amodei a caractérisé les relations d'OpenAI avec le Département de la Défense comme un « théâtre de sécurité ».

OpenAI a signé un accord pour travailler avec le DOD à la place d'Anthropic, un mouvement qui a suscité des réactions négatives parmi le personnel d'OpenAI.

Amodei a présenté ses excuses pour la fuite dans sa déclaration de jeudi, affirmant que l'entreprise n'avait pas intentionnellement partagé le mémo ni dirigé quiconque à le faire. « Il n'est pas dans notre intérêt d'escalader la situation », a-t-il déclaré.

Amodei a précisé que le mémo avait été rédigé dans « quelques heures » après une série d'annonces, y compris un post sur Truth Social du président indiquant qu'Anthropic serait retiré des systèmes fédéraux, puis la désignation de risque pour la chaîne d'approvisionnement par le secrétaire à la Défense Pete Hegseth, et enfin l'annonce d'un accord du Pentagone avec OpenAI. Il a présenté ses excuses pour le ton, qualifiant cela de « journée difficile pour l'entreprise » et a déclaré que le mémo ne reflétait pas ses « vues réfléchies ou considérées ». Écrit il y a six jours, a-t-il ajouté, c'est désormais une « évaluation obsolète ».

Il a conclu en disant que la priorité absolue d'Anthropic est de garantir que les soldats américains et les experts en sécurité nationale conservent l'accès à des outils importants en pleine opération militaire majeure. Anthropic soutient actuellement certaines des opérations des États-Unis en Iran, et Amodei a déclaré que l'entreprise continuerait à fournir ses modèles au DOD à « coût nominal » « aussi longtemps que nécessaire pour effectuer cette transition ».

Anthropic pourrait contester la désignation devant un tribunal fédéral, probablement à Washington, mais la loi derrière cette décision rend plus difficile la contestation car elle limite les moyens habituels par lesquels les entreprises peuvent contester les décisions d'approvisionnement gouvernemental et donne au Pentagone une large discrétion en matière de sécurité nationale.

Ou comme l'a exprimé Dean Ball — un ancien conseiller de la Maison Blanche sur l'IA sous Trump qui s'est exprimé contre le traitement d'Anthropic par Hegseth — : « Les tribunaux sont assez réticents à remettre en question le gouvernement sur ce qui est et n'est pas une question de sécurité nationale… Il y a une barre très haute à franchir pour faire cela. Mais ce n'est pas impossible. »

TwitterLinkedIn

Brief IA — Veille IA en français

Toutes les innovations mondiales en IA, traduites et résumées automatiquement. Recevoir les meilleures actus IA chaque jour.