Brief IA

Anthropic fait un dernier effort pour sauver son accord avec le Pentagone après un incident

⚖️ Régulation & Éthiquevia The Verge IA·Robert Hart·

Anthropic fait un dernier effort pour sauver son accord avec le Pentagone après un incident

Anthropic fait un dernier effort pour sauver son accord avec le Pentagone après un incident

⚡ Résumé en français par Brief IA

• Le PDG d'Anthropic, Dario Amodei, renoue les négociations avec le Département de la Défense pour éviter d'être exclu des travaux de défense. • Les discussions ont échoué récemment après des tensions publiques sur l'accès à l'IA de l'entreprise. • La concurrence, notamment OpenAI, profite de cette situation pour s'imposer sur le marché. 💡 Pourquoi c'est important : La capacité d'Anthropic à maintenir des relations avec le gouvernement américain pourrait influencer son avenir dans le secteur de la défense et l'innovation en IA.

📄 Article traduit en français

Anthropic fait un dernier effort pour sauver son accord avec le Pentagone après un incident

Le PDG d'Anthropic, Dario Amodei, est de retour à la table des négociations avec le Département de la Défense dans le but de sauver la relation de l'entreprise avec l'armée américaine et d'éviter d'être écartée des travaux de défense en raison d'un « risque de chaîne d'approvisionnement ». Les discussions entre les deux parties se sont effondrées vendredi après des semaines de querelles publiques amères concernant le refus de la startup de donner au Pentagone un accès illimité à son IA, tandis que des concurrents comme OpenAI se précipitaient pour combler le vide.

Amodei est en pourparlers avec l'sous-secrétaire à la défense pour la recherche et l'ingénierie, Emil Michael, au sujet d'un nouveau contrat qui permettrait à l'armée américaine de continuer à utiliser les modèles d'IA Claude d'Anthropic, selon le Financial Times, citant des sources anonymes au courant de la situation. Michael a attaqué Amodei sur les réseaux sociaux la semaine dernière au milieu d'une impasse tendue sur les utilisations militaires acceptables de l'IA, qualifiant l'exécutif de « menteur » avec un « complexe de Dieu » et l'accusant de « mettre en danger la sécurité de notre nation ».

Obtenir un nouvel accord pourrait être une question de survie pour la startup américaine. Le secrétaire à la Défense, Pete Hegseth, a déclaré qu'il désignerait Anthropic comme un risque de chaîne d'approvisionnement vendredi, une catégorie généralement réservée aux entreprises ayant des liens avec des gouvernements étrangers qui posent des risques pour la sécurité nationale des États-Unis. Cette désignation aurait un effet d'entraînement sur l'écosystème technologique américain, forçant les entreprises à abandonner Claude et à rompre leurs liens avec la société si elles souhaitent continuer à travailler sur des contrats de défense.

Un mémo récemment divulgué, envoyé par Amodei au personnel d'Anthropic vendredi, a probablement enflammé des relations déjà tendues entre l'entreprise et l'administration Trump. Dans ce mémo, Amodei aurait critiqué l'accord d'OpenAI avec le Pentagone comme étant un « théâtre de sécurité » et a décrit le message des deux parties comme étant « des mensonges ».

Amodei a suggéré que la relation d'Anthropic avec le gouvernement fédéral s'était détériorée parce que, contrairement à OpenAI ou à ses dirigeants, « nous n'avons pas fait de dons à Trump » et « nous n'avons pas fait de louanges de style dictatorial à Trump ». Le PDG d'OpenAI, Sam Altman, est l'un des nombreux poids lourds de la Silicon Valley à se rapprocher du président transactionnel depuis son retour au pouvoir, et le cofondateur Greg Brockman, également président de longue date d'OpenAI, est un grand donateur de Trump.

Dans le mémo, Amodei a également déclaré que le Département de la Défense était proche d'accepter les conditions d'Anthropic :

  • « Près de la fin de la négociation, le [département] a proposé d'accepter nos conditions actuelles si nous supprimions une phrase spécifique concernant l'analyse de données acquises en masse, qui était la seule ligne dans le contrat correspondant exactement à ce scénario qui nous inquiétait le plus. Nous avons trouvé cela très suspect. »

Le conflit désagréable d'Anthropic avec le Pentagone a été centré sur l'insistance du Département de la Défense à avoir un accès illimité à la technologie de l'entreprise et le refus de la startup de faire des compromis sur ses deux lignes rouges pour l'utilisation militaire :

  • pas de surveillance de masse des Américains
  • pas d'armes autonomes létales, des systèmes d'IA capables de tuer sans supervision humaine.

Hegseth a insisté sur le fait que la technologie d'IA utilisée par le département devrait être disponible pour « toute utilisation légale », des termes qu'Anthropic a refusés en raison de préoccupations selon lesquelles cela pourrait franchir ces lignes rouges. xAI et OpenAI auraient accepté ces conditions.

Jusqu'à la semaine dernière, Claude était le seul système d'IA ayant une autorisation de sécurité pour traiter des informations classifiées. Des rapports indiquent que Claude est activement utilisé dans des opérations militaires, y compris lors du raid des États-Unis sur le Venezuela et a été utilisé pour des frappes en Iran, ce qui a probablement poussé Trump à revenir sur son interdiction concernant l'utilisation de Claude par le gouvernement fédéral.

TwitterLinkedIn

Brief IA — Veille IA en français

Toutes les innovations mondiales en IA, traduites et résumées automatiquement. Recevoir les meilleures actus IA chaque jour.