Un juge fédéral bloque l'interdiction des modèles IA d'Anthropic par Trump
Anthropic a obtenu une injonction préliminaire contre l'administration Trump dans un tribunal fédéral de San Francisco. La juge Rita Lin a temporairement bloqué l'ordre du président Trump interdisant aux agences fédérales d'utiliser les modèles IA d'Anthropic, ainsi que la classification de l'entreprise par le Pentagone comme un risque sécuritaire.
« Punir Anthropic pour avoir attiré l'attention du public sur la position de l'administration concernant les contrats est un exemple classique de représailles illégales au titre du Premier Amendement. [...] Rien dans le texte de loi en vigueur ne soutient la notion orwellienne qu'une entreprise américaine puisse être qualifiée d'adversaire potentiel et de saboteur des États-Unis pour avoir exprimé un désaccord avec le gouvernement. »
— Rita F. Lin, juge de district des États-Unis
Le litige remonte à un contrat de 200 millions de dollars qui a échoué. Le Pentagone souhaitait un accès illimité aux modèles Claude d'Anthropic, mais Anthropic a insisté sur des garanties que les modèles ne seraient pas utilisés pour des armes autonomes ou la surveillance de masse. Le secrétaire à la Défense, Pete Hegseth, a alors classé Anthropic comme un « risque de chaîne d'approvisionnement », faisant de l'entreprise la première aux États-Unis à recevoir cette désignation. Un jugement final est encore en attente.
📧
Cet article vous a plu ?
Recevez les 7 meilleures actus IA chaque soir à 19h — résumées en 5 min.
