Un avocat d'Anthropic affirme que le gouvernement fait pression sur les entreprises pour abandonner la startup d'IA au profit de concurrents
⚡ Résumé en français par Brief IA
• Anthropic poursuit le Pentagone après avoir été blacklistée par le gouvernement américain. • La société affirme que cette décision a déjà nui à ses affaires. • L'avocat d'Anthropic déclare que le gouvernement incite les clients de la startup à se tourner vers des concurrents. 💡 Pourquoi c'est important : cette situation pourrait avoir des répercussions significatives sur la concurrence dans le secteur de l'IA et l'innovation technologique.
📄 Article traduit en français
Un avocat d'Anthropic affirme que le gouvernement fait pression sur les entreprises pour abandonner la startup d'IA au profit de concurrents
Un ingénieur de haut niveau de Claude a déclaré que son produit devenait de plus en plus avancé et a averti qu'il pourrait perturber les emplois basés sur l'informatique. Anthropic poursuit le Pentagone après que le gouvernement américain a essentiellement mis la startup sur liste noire. La société a déclaré que cette décision avait déjà nui à ses affaires. Anthropic demande une ordonnance restrictive temporaire contre le ministère de la Défense.
L'avocat d'Anthropic a affirmé que le gouvernement américain "fait pression" sur les clients de la startup pour qu'ils se tournent vers des fournisseurs d'IA concurrents, dans le cadre d'un conflit croissant entre le développeur de Claude et le ministère de la Défense. Lors d'une conférence de statut mardi, Michael Mongan, un avocat d'Anthropic, a déclaré que la décision du ministère de la Défense de mettre efficacement la startup sur liste noire pour travailler avec l'armée américaine causait "un préjudice réel et irréparable" à l'entreprise chaque jour.
Mongan a indiqué que les clients avaient commencé à "exprimer des doutes" quant à leur collaboration avec Anthropic et que le gouvernement avait mené une campagne de pression pour inciter les clients d'Anthropic à abandonner le fournisseur et à se tourner vers d'autres entreprises d'IA. "Nous avons eu des systèmes universitaires et des entreprises interentreprises qui ont changé pour des entreprises d'IA concurrentes", a déclaré Mongan. "Et tout cela est le résultat prévisible des actions du défendeur et de l'incertitude qu'ils ont créée, ainsi que du fait que les défendeurs ont activement contacté nos clients et les ont pressés d'arrêter de travailler avec Anthropic et de se tourner vers d'autres entreprises d'IA."
Le mois dernier, après l'effondrement des négociations contractuelles avec la startup d'IA, le secrétaire à la Défense Pete Hegseth a annoncé qu'Anthropic représentait un "risque pour la chaîne d'approvisionnement" et a présenté cette décision comme s'étendant au-delà du travail militaire direct. "À compter de maintenant, aucun entrepreneur, fournisseur ou partenaire faisant affaire avec l'armée des États-Unis ne peut mener d'activité commerciale avec Anthropic", a déclaré Hegseth dans un post sur X le 27 février.
L'ampleur de l'étiquette de risque pour la chaîne d'approvisionnement est contestée. Microsoft a précédemment déclaré à Business Insider que ses avocats avaient conclu que l'entreprise pouvait toujours utiliser Anthropic pour des travaux non liés à l'armée. La société a également déposé un mémoire d'amicus, exhortant le tribunal fédéral à bloquer temporairement la désignation de risque pour la chaîne d'approvisionnement du gouvernement.
La question tourne autour de la position d'Anthropic selon laquelle son modèle de pointe, Claude, ne peut pas être déployé pour des armes autonomes et la surveillance de masse des citoyens américains. Les responsables de la Défense ont répondu qu'une entreprise privée ne pouvait pas dicter ce que l'armée peut ou ne peut pas faire.
Le PDG d'Anthropic, Dario Amodei, a déclaré dans un article de blog le 26 février que l'entreprise ne pouvait pas céder à la demande du gouvernement pour une utilisation illimitée et légale de son modèle. Un jour plus tard, Hegseth a formellement désigné Anthropic comme un risque pour la chaîne d'approvisionnement.
Anthropic a poursuivi le gouvernement lundi, demandant une ordonnance restrictive temporaire pour continuer à faire des affaires avec le gouvernement pendant que l'affaire se poursuit. La société a déclaré dans sa plainte que le ministère de la Défense n'avait pas fourni de motifs adéquats pour la qualifier de risque pour la sécurité nationale.
De plus, la société a affirmé que cette désignation n'avait jamais été appliquée à une entreprise américaine et que cette décision était une mesure de représailles, violant les droits du Premier Amendement de l'entreprise d'exprimer ses opinions sur la sécurité et les limites de l'IA.
Les conséquences de la mise sur liste noire d'Anthropic ont été rapides, selon les documents juridiques. Krishna Rao, directeur financier d'Anthropic, a déclaré dans une déclaration déposée lundi que le DoD avait contacté plusieurs "entreprises de portefeuille au sujet de leur utilisation de Claude" et que ces clients étaient "devenus inquiets et incertains" quant à leur capacité à utiliser le modèle. Le directeur financier a déclaré que l'action du gouvernement pourrait réduire les revenus d'Anthropic en 2026 de "plusieurs milliards de dollars".
Les porte-parole d'Anthropic et du Pentagone, ainsi que l'avocat d'Anthropic, n'ont pas répondu à une demande de commentaire.
Brief IA — Veille IA en français
Toutes les innovations mondiales en IA, traduites et résumées automatiquement. Recevoir les meilleures actus IA chaque jour.