Les employés d'OpenAI et de Google défendent Anthropic dans un procès contre le DOD
⚡ Résumé en français par Brief IA
• Plus de 30 employés d'OpenAI et de Google DeepMind soutiennent le procès d'Anthropic contre le ministère de la Défense. • Le DOD a qualifié Anthropic de risque pour la chaîne d'approvisionnement. • Ce soutien souligne les tensions croissantes entre les entreprises d'IA et les régulations gouvernementales. 💡 Pourquoi c'est important : cette mobilisation pourrait influencer la perception et la réglementation de l'IA par les autorités.
📄 Article traduit en français
Les employés d'OpenAI et de Google défendent Anthropic dans un procès contre le DOD
Plus de 30 employés d'OpenAI et de Google DeepMind ont déposé une déclaration lundi en soutien au procès d'Anthropic contre le Département de la Défense des États-Unis, après que l'agence fédérale a qualifié l'entreprise d'IA de risque pour la chaîne d'approvisionnement, selon des documents judiciaires.
« La désignation du gouvernement d'Anthropic comme risque pour la chaîne d'approvisionnement était un usage inapproprié et arbitraire du pouvoir qui a des conséquences sérieuses pour notre industrie », indique le document, dont les signataires incluent le scientifique en chef de Google DeepMind, Jeff Dean.
À la fin de la semaine dernière, le Pentagone a désigné Anthropic comme un risque pour la chaîne d'approvisionnement — une qualification généralement réservée aux adversaires étrangers — après que l'entreprise d'IA a refusé de permettre au Département de la Défense (DOD) d'utiliser sa technologie pour la surveillance de masse des Américains ou pour le tir autonome d'armes. Le DOD avait soutenu qu'il devrait pouvoir utiliser l'IA pour tout but « légal » et ne pas être contraint par un contractant privé.
Le mémoire d'amicus en soutien à Anthropic est apparu dans le dossier quelques heures après que le créateur de Claude a déposé deux poursuites contre le DOD et d'autres agences fédérales. Wired a été le premier à rapporter la nouvelle.
Dans le dépôt judiciaire, les employés de Google et d'OpenAI soulignent que si le Pentagone n'était « plus satisfait des termes convenus de son contrat avec Anthropic », l'agence aurait pu « simplement annuler le contrat et acheter les services d'une autre entreprise d'IA de premier plan ».
Le DOD a effectivement signé un accord avec OpenAI dans les instants qui ont suivi la désignation d'Anthropic comme risque pour la chaîne d'approvisionnement — une décision que de nombreux employés du créateur de ChatGPT ont contestée.
« Si cette initiative pour punir l'une des principales entreprises d'IA aux États-Unis est autorisée à se poursuivre, elle aura sans aucun doute des conséquences pour la compétitivité industrielle et scientifique des États-Unis dans le domaine de l'intelligence artificielle et au-delà », indique le mémoire. « Et cela va refroidir les délibérations ouvertes dans notre domaine concernant les risques et les avantages des systèmes d'IA d'aujourd'hui. »
Le dépôt affirme également que les lignes rouges déclarées par Anthropic sont des préoccupations légitimes nécessitant des garde-fous solides. Sans une loi publique pour régir l'utilisation de l'IA, il soutient que les restrictions contractuelles et techniques que les développeurs imposent à leurs systèmes sont une protection critique contre un usage catastrophique.
De nombreux employés ayant signé la déclaration ont également signé des lettres ouvertes au cours des dernières semaines exhortant le DOD à retirer cette désignation et appelant les dirigeants de leurs entreprises à soutenir Anthropic et à refuser l'utilisation unilatérale de leurs systèmes d'IA.
Brief IA — Veille IA en français
Toutes les innovations mondiales en IA, traduites et résumées automatiquement. Recevoir les meilleures actus IA chaque jour.