Brief IA

Federal judge blocks Trump's ban on Anthropic AI models, calls security risk label "Orwellian"

🤖 Models & LLMvia The Decoder·Matthias Bastian·

Federal judge blocks Trump's ban on Anthropic AI models, calls security risk label "Orwellian"

Federal judge blocks Trump's ban on Anthropic AI models, calls security risk label "Orwellian"
En bref
1Un juge fédéral a annulé l'interdiction des modèles IA d'Anthropic imposée par l'administration Trump.
2Le juge Rita F. Lin a qualifié les actions du gouvernement de « représailles illégales au premier amendement ».
3Cette décision souligne l'importance de la liberté d'expression pour les entreprises technologiques face à la réglementation gouvernementale.
💡Pourquoi c'est importantcette décision pourrait influencer la manière dont les entreprises interagissent avec le gouvernement sur des questions de sécurité et de réglementation.
📄
Article traduit en français

Un juge fédéral bloque l'interdiction des modèles IA d'Anthropic par Trump

Anthropic a obtenu une injonction préliminaire contre l'administration Trump dans un tribunal fédéral de San Francisco. La juge Rita Lin a temporairement bloqué l'ordre du président Trump interdisant aux agences fédérales d'utiliser les modèles IA d'Anthropic, ainsi que la classification de l'entreprise par le Pentagone comme un risque sécuritaire.

« Punir Anthropic pour avoir attiré l'attention du public sur la position de l'administration concernant les contrats est un exemple classique de représailles illégales au titre du Premier Amendement. [...] Rien dans le texte de loi en vigueur ne soutient la notion orwellienne qu'une entreprise américaine puisse être qualifiée d'adversaire potentiel et de saboteur des États-Unis pour avoir exprimé un désaccord avec le gouvernement. »

— Rita F. Lin, juge de district des États-Unis

Le litige remonte à un contrat de 200 millions de dollars qui a échoué. Le Pentagone souhaitait un accès illimité aux modèles Claude d'Anthropic, mais Anthropic a insisté sur des garanties que les modèles ne seraient pas utilisés pour des armes autonomes ou la surveillance de masse. Le secrétaire à la Défense, Pete Hegseth, a alors classé Anthropic comme un « risque de chaîne d'approvisionnement », faisant de l'entreprise la première aux États-Unis à recevoir cette désignation. Un jugement final est encore en attente.

TwitterLinkedIn

Brief IA — Veille IA quotidienne

Toutes les innovations IA du monde entier, résumées et analysées automatiquement chaque jour.