Anthropic officiellement désigné comme risque pour la chaîne d'approvisionnement, le PDG Amodei annonce un défi juridique

⚡ Résumé en français par Brief IA
📄 Article traduit en français
Anthropic officiellement désigné comme risque pour la chaîne d'approvisionnement, le PDG Amodei annonce un défi juridique
Le Pentagone a officiellement informé Anthropic le 4 mars que la société et ses produits avaient été désignés comme un risque pour la chaîne d'approvisionnement de la sécurité nationale américaine. Le PDG d'Anthropic, Dario Amodei, a annoncé le 5 mars que l'entreprise contesterait cette désignation devant les tribunaux. Selon Amodei, cette mesure ne s'applique qu'à l'utilisation de Claude dans le cadre de contrats directs avec le Département de la Défense, et non à tous les clients.
Le conflit s'est intensifié après qu'Anthropic a exigé des garanties que son IA ne serait pas utilisée pour la surveillance de masse des Américains ou le déploiement d'armes autonomes. Selon Bloomberg, Claude est actuellement le seul système d'IA fonctionnant dans le cloud classifié du Pentagone et est activement utilisé dans les opérations américaines contre l'Iran.
Amodei a également présenté des excuses pour un message interne qui a été divulgué à la presse. "Cela ne reflète pas mes opinions réfléchies ou considérées," a déclaré Amodei. Le message a été rédigé quelques heures après le post de Trump sur Truth Social, l'annonce du secrétaire à la Défense Hegseth sur X, et un accord du Pentagone avec OpenAI.
Anthropic propose de continuer à fournir ses modèles à l'armée à un coût nominal jusqu'à ce qu'une transition soit complète. Selon Bloomberg, la société est actuellement évaluée à 380 milliards de dollars et approche d'un chiffre d'affaires annuel de 20 milliards de dollars.
Brief IA — Veille IA en français
Toutes les innovations mondiales en IA, traduites et résumées automatiquement. Recevoir les meilleures actus IA chaque jour.