Brief IA

Le CTO du Département de la Guerre des États-Unis déclare que les modèles d'IA d'Anthropic "polluent" la chaîne d'approvisionnement avec une éthique intégrée

🤖 Modèles & LLMvia The Decoder·Matthias Bastian·

Le CTO du Département de la Guerre des États-Unis déclare que les modèles d'IA d'Anthropic "polluent" la chaîne d'approvisionnement avec une éthique intégrée

Le CTO du Département de la Guerre des États-Unis déclare que les modèles d'IA d'Anthropic "polluent" la chaîne d'approvisionnement avec une éthique intégrée

⚡ Résumé en français par Brief IA

• Le Département de la Guerre des États-Unis envisage d'interdire Claude d'Anthropic en raison de ses normes éthiques jugées trop strictes. • Cette décision pourrait affecter l'intégration de l'IA dans les opérations militaires. • Ce positionnement rappelle le contrôle politique de l'IA en Chine, soulevant des questions sur la gouvernance technologique. 💡 Pourquoi c'est important : cette situation illustre les tensions entre éthique de l'IA et exigences militaires, impactant potentiellement l'innovation dans le secteur de la défense.

📄 Article traduit en français

Le CTO du Département de la Guerre des États-Unis déclare que les modèles d'IA d'Anthropic "polluent" la chaîne d'approvisionnement avec une éthique intégrée

Emil Michael, le directeur de la technologie du Département de la Guerre des États-Unis, a clairement indiqué que classer Anthropic comme un risque pour la chaîne d'approvisionnement est un acte motivé idéologiquement. Les modèles Claude "polluent" la chaîne d'approvisionnement car ils intègrent une "préférence politique différente", a déclaré Michael à CNBC. Il a souligné la "constitution" d'Anthropic, un ensemble de règles mettant l'accent sur l'éthique et la sécurité, qui, selon lui, pourrait entraîner des soldats recevant des "armes inefficaces, des gilets pare-balles inefficaces, une protection inefficace." Il a ajouté que cette mesure "n'était pas destinée à être punitive."

Anthropic est la première entreprise américaine à recevoir cette classification, qui est normalement réservée aux adversaires étrangers. L'entreprise d'IA poursuit cette désignation en justice et a reçu le soutien d'employés de Microsoft, OpenAI et Google, ainsi que d'anciens membres du personnel militaire américain. Anthropic a précédemment contesté l'utilisation de ses propres modèles d'IA pour la surveillance de masse aux États-Unis et les armes autonomes.

L'administration a déjà signalé son intention de contrôler l'IA selon des lignes idéologiques en adoptant des réglementations ciblant ce qu'elle appelle l'"IA woke," présentée comme un engagement envers la neutralité politique. Cette approche fait écho aux efforts du gouvernement chinois pour exercer un contrôle politique sur les modèles d'IA.

TwitterLinkedIn

Brief IA — Veille IA en français

Toutes les innovations mondiales en IA, traduites et résumées automatiquement. Recevoir les meilleures actus IA chaque jour.