Un juge fédéral bloque l'interdiction des modèles IA d'Anthropic par Trump, qualifiant l'étiquette de risque sécuritaire d'« orwellienne »
🤖 Modeles & LLM

Un juge fédéral bloque l'interdiction des modèles IA d'Anthropic par Trump, qualifiant l'étiquette de risque sécuritaire d'« orwellienne »

The Decoder
Matthias Bastian·1 min·0 vues
En bref
1Un juge fédéral a annulé l'interdiction des modèles IA d'Anthropic imposée par l'administration Trump.
2Le juge Rita F. Lin a qualifié les actions du gouvernement de « représailles illégales au premier amendement ».
3Cette décision souligne l'importance de la liberté d'expression pour les entreprises technologiques face à la réglementation gouvernementale.
💡Pourquoi c'est importantcette décision pourrait influencer la manière dont les entreprises interagissent avec le gouvernement sur des questions de sécurité et de réglementation.
📄
Article traduit en français

Un juge fédéral bloque l'interdiction des modèles IA d'Anthropic par Trump

Anthropic a obtenu une injonction préliminaire contre l'administration Trump dans un tribunal fédéral de San Francisco. La juge Rita Lin a temporairement bloqué l'ordre du président Trump interdisant aux agences fédérales d'utiliser les modèles IA d'Anthropic, ainsi que la classification de l'entreprise par le Pentagone comme un risque sécuritaire.

« Punir Anthropic pour avoir attiré l'attention du public sur la position de l'administration concernant les contrats est un exemple classique de représailles illégales au titre du Premier Amendement. [...] Rien dans le texte de loi en vigueur ne soutient la notion orwellienne qu'une entreprise américaine puisse être qualifiée d'adversaire potentiel et de saboteur des États-Unis pour avoir exprimé un désaccord avec le gouvernement. »

— Rita F. Lin, juge de district des États-Unis

Le litige remonte à un contrat de 200 millions de dollars qui a échoué. Le Pentagone souhaitait un accès illimité aux modèles Claude d'Anthropic, mais Anthropic a insisté sur des garanties que les modèles ne seraient pas utilisés pour des armes autonomes ou la surveillance de masse. Le secrétaire à la Défense, Pete Hegseth, a alors classé Anthropic comme un « risque de chaîne d'approvisionnement », faisant de l'entreprise la première aux États-Unis à recevoir cette désignation. Un jugement final est encore en attente.

Lire l'article original sur The Decoder

📧

Cet article vous a plu ?

Recevez les 7 meilleures actus IA chaque soir à 19h — résumées en 5 min.

Chaque soir à 19h

Gratuit · Pas de spam · Désabonnement en 1 clic

Commentaires