New court filing reveals Pentagon told Anthropic the two sides were nearly aligned — a week after Trump declared the relationship kaput
Un nouveau dépôt judiciaire révèle que le Pentagone a informé Anthropic que les deux parties étaient presque alignées
Anthropic a soumis deux déclarations sous serment à un tribunal fédéral de Californie vendredi après-midi, s'opposant à l'affirmation du Pentagone selon laquelle l'entreprise d'IA représente un « risque inacceptable pour la sécurité nationale ». Anthropic soutient que le dossier du gouvernement repose sur des malentendus techniques et des allégations qui n'ont jamais été soulevées durant les mois de négociations qui ont précédé le conflit.
Les déclarations ont été déposées en même temps que le mémoire de réponse d'Anthropic dans son procès contre le Department of Defense et interviennent avant une audience prévue ce mardi 24 mars, devant le juge Rita Lin à San Francisco.
Le conflit remonte à fin février, lorsque le président Trump et le secrétaire à la Défense Pete Hegseth ont déclaré publiquement qu'ils mettaient fin à leurs relations avec Anthropic après que l'entreprise a refusé de permettre une utilisation militaire illimitée de sa technologie d'IA.
Les deux personnes ayant soumis les déclarations sont Sarah Heck, responsable des politiques chez Anthropic, et Thiyagu Ramasamy, responsable du secteur public de l'entreprise.
Heck, ancienne fonctionnaire du National Security Council ayant travaillé à la Maison Blanche sous l'administration Obama, a ensuite rejoint Stripe puis Anthropic, où elle gère les relations gouvernementales et le travail politique de l'entreprise. Elle était présente lors de la réunion du 24 février où le PDG Dario Amodei a rencontré le secrétaire à la Défense Hegseth et le sous-secrétaire du Pentagone Emil Michael.
Dans sa déclaration, Heck souligne ce qu'elle décrit comme un mensonge central dans les documents du gouvernement : qu'Anthropic a exigé un rôle d'approbation sur les opérations militaires. Cette affirmation, dit-elle, n'est tout simplement pas vraie. « À aucun moment durant les négociations d'Anthropic avec le Département, moi ou un autre employé d'Anthropic n'avons déclaré que l'entreprise souhaitait ce type de rôle, » écrit-elle.
Elle affirme également que l'inquiétude du Pentagone concernant la possibilité qu'Anthropic désactive ou modifie sa technologie en cours d'opération n'a jamais été soulevée durant les négociations. Au contraire, dit-elle, cela est apparu pour la première fois dans les documents judiciaires du gouvernement, ce qui a empêché Anthropic de répondre.
Un autre détail dans la déclaration de Heck qui devrait attirer l'attention est que le 4 mars — le jour suivant la désignation officielle du risque de chaîne d'approvisionnement contre Anthropic — le sous-secrétaire Michael a envoyé un courriel à Amodei pour dire que les deux parties étaient « très proches » sur les deux questions que le gouvernement cite maintenant comme preuve qu'Anthropic constitue une menace pour la sécurité nationale : ses positions sur les armes autonomes et la surveillance de masse des Américains.
Le courriel, que Heck joint en annexe à sa déclaration, mérite d'être lu en parallèle avec ce que Michael a déclaré publiquement dans les jours suivants. Le 5 mars, Amodei a publié une déclaration disant que l'entreprise avait eu des « conversations productives » avec le Pentagone. Le lendemain, Michael a posté sur X qu'« il n'y a pas de négociation active du Département de la Guerre avec Anthropic. » Une semaine plus tard, il a déclaré à CNBC qu'il n'y avait « aucune chance » de renouveau des discussions.
Le point de Heck semble être : si la position d'Anthropic sur ces deux questions est ce qui en fait une menace pour la sécurité nationale, pourquoi l'officiel du Pentagone disait-il que les deux parties étaient presque alignées sur ces mêmes questions juste après la désignation finale ? (Elle ne va pas jusqu'à dire que le gouvernement a utilisé la désignation comme un moyen de pression, mais la chronologie qu'elle présente laisse la question en suspens.)
Ramasamy apporte un type d'expertise différent au dossier. Avant de rejoindre Anthropic en 2025, il a passé six ans chez Amazon Web Services à gérer les déploiements d'IA pour des clients gouvernementaux, y compris dans des environnements classifiés. Chez Anthropic, il est reconnu pour avoir constitué l'équipe qui a introduit ses modèles Claude dans des contextes de sécurité nationale et de défense, y compris le contrat de 200 millions de dollars avec le Pentagone annoncé l'été dernier.
Sa déclaration répond à l'affirmation du gouvernement selon laquelle Anthropic pourrait théoriquement interférer avec les opérations militaires en désactivant la technologie ou en modifiant son fonctionnement, ce que Ramasamy dit n'être pas techniquement possible. Selon lui, une fois que Claude est déployé dans un système sécurisé par le gouvernement, « isolé » et opéré par un sous-traitant tiers, Anthropic n'y a pas accès ; il n'y a pas de « kill switch » à distance, pas de porte dérobée, et aucun mécanisme pour pousser des mises à jour non autorisées. Toute forme de « veto opérationnel » est une fiction, explique-t-il, précisant qu'un changement du modèle nécessiterait l'approbation explicite du Pentagone et une action pour l'installer.
Anthropic, dit-il, ne peut même pas voir ce que les utilisateurs gouvernementaux saisissent dans le système, encore moins extraire ces données.
Ramasamy conteste également l'affirmation du gouvernement selon laquelle l'embauche de ressortissants étrangers par Anthropic constitue un risque pour la sécurité. Il note que les employés d'Anthropic ont subi une vérification de sécurité par le gouvernement américain — le même processus de vérification des antécédents requis pour accéder à des informations classifiées — ajoutant dans sa déclaration que « à ma connaissance, » Anthropic est la seule entreprise d'IA où des personnes ayant obtenu une habilitation ont réellement construit les modèles d'IA conçus pour fonctionner dans des environnements classifiés.
Le procès d'Anthropic soutient que la désignation de risque de chaîne d'approvisionnement — la première jamais appliquée à une entreprise américaine — constitue une représaille gouvernementale pour les opinions publiquement exprimées de l'entreprise sur la sécurité de l'IA, en violation du Premier Amendement.
Le gouvernement, dans un document de 40 pages déposé plus tôt cette semaine, a rejeté cette interprétation dans son ensemble, affirmant que le refus d'Anthropic de permettre toutes les utilisations militaires légales de sa technologie était une décision commerciale, non une expression protégée, et que la désignation était un appel clair à la sécurité nationale et non une punition pour les opinions de l'entreprise.
Brief IA — Veille IA quotidienne
Toutes les innovations IA du monde entier, résumées et analysées automatiquement chaque jour.