Brief IA

US War Department CTO says Anthropic's AI models "pollute" the supply chain with built-in ethics

🤖 Models & LLMvia The Decoder·Matthias Bastian·

US War Department CTO says Anthropic's AI models "pollute" the supply chain with built-in ethics

US War Department CTO says Anthropic's AI models "pollute" the supply chain with built-in ethics

Résumé en français par Brief IA

• Le Département de la Guerre des États-Unis envisage d'interdire Claude d'Anthropic en raison de ses normes éthiques jugées trop strictes. • Cette décision pourrait affecter l'intégration de l'IA dans les opérations militaires. • Ce positionnement rappelle le contrôle politique de l'IA en Chine, soulevant des questions sur la gouvernance technologique. 💡 Pourquoi c'est important : cette situation illustre les tensions entre éthique de l'IA et exigences militaires, impactant potentiellement l'innovation dans le secteur de la défense.

📄 Article traduit en français

Le CTO du Département de la Guerre des États-Unis déclare que les modèles d'IA d'Anthropic "polluent" la chaîne d'approvisionnement avec une éthique intégrée

Emil Michael, le directeur de la technologie du Département de la Guerre des États-Unis, a clairement indiqué que classer Anthropic comme un risque pour la chaîne d'approvisionnement est un acte motivé idéologiquement. Les modèles Claude "polluent" la chaîne d'approvisionnement car ils intègrent une "préférence politique différente", a déclaré Michael à CNBC. Il a souligné la "constitution" d'Anthropic, un ensemble de règles mettant l'accent sur l'éthique et la sécurité, qui, selon lui, pourrait entraîner des soldats recevant des "armes inefficaces, des gilets pare-balles inefficaces, une protection inefficace." Il a ajouté que cette mesure "n'était pas destinée à être punitive."

Anthropic est la première entreprise américaine à recevoir cette classification, qui est normalement réservée aux adversaires étrangers. L'entreprise d'IA poursuit cette désignation en justice et a reçu le soutien d'employés de Microsoft, OpenAI et Google, ainsi que d'anciens membres du personnel militaire américain. Anthropic a précédemment contesté l'utilisation de ses propres modèles d'IA pour la surveillance de masse aux États-Unis et les armes autonomes.

L'administration a déjà signalé son intention de contrôler l'IA selon des lignes idéologiques en adoptant des réglementations ciblant ce qu'elle appelle l'"IA woke," présentée comme un engagement envers la neutralité politique. Cette approche fait écho aux efforts du gouvernement chinois pour exercer un contrôle politique sur les modèles d'IA.

TwitterLinkedIn

Brief IA — Veille IA quotidienne

Toutes les innovations IA du monde entier, résumées et analysées automatiquement chaque jour.