Microsoft, Google et Amazon affirment qu'Anthropic Claude reste accessible aux clients non militaires
⚡ Résumé en français par Brief IA
📄 Article traduit en français
Microsoft, Google et Amazon affirment qu'Anthropic Claude reste accessible aux clients non militaires
Les entreprises et startups utilisant Anthropic Claude via les produits de Microsoft et Google n'ont pas à craindre que le modèle leur soit retiré, ont confirmé Microsoft et Google à TechCrunch. Les clients et partenaires d'AWS peuvent également continuer à utiliser Claude pour leurs charges de travail non liées à la défense.
Microsoft a été la première grande entreprise technologique à assurer que les modèles d'Anthropic resteront disponibles pour ses clients, même si le département de la Défense de l'administration Trump a intensifié son conflit avec Anthropic.
Le département de la Défense a officiellement désigné la startup américaine d'IA comme un risque de chaîne d'approvisionnement jeudi, après que l'entreprise d'IA a refusé de lui donner un accès illimité à sa technologie pour des applications que l'entreprise a déclaré que son IA ne pouvait pas soutenir en toute sécurité, telles que la surveillance de masse et les armes entièrement autonomes.
La désignation de risque de chaîne d'approvisionnement est généralement réservée aux adversaires étrangers. Pour Anthropic, cette désignation signifie que le Pentagone ne pourra pas utiliser les produits de l'entreprise une fois que Claude sera retiré de ses systèmes. Cela exige également que toute entreprise ou agence travaillant avec le Pentagone certifie qu'elle n'utilise pas les modèles d'Anthropic. Anthropic a promis de contester cette désignation en justice.
Microsoft vend une gamme de produits, d'Office à son cloud, à de nombreuses agences fédérales, y compris le département de la Défense. Un porte-parole de Microsoft a déclaré que l'entreprise continuera à rendre les modèles d'Anthropic disponibles dans ses propres produits et à ses clients.
« Nos avocats ont étudié la désignation et ont conclu que les produits d'Anthropic, y compris Claude, peuvent rester disponibles pour nos clients — à l'exception du département de la Défense — via des plateformes telles que M365, GitHub et l'AI Foundry de Microsoft, et que nous pouvons continuer à travailler avec Anthropic sur des projets non liés à la défense », a déclaré le porte-parole dans un courriel. CNBC a été le premier à rapporter ce commentaire.
Google, qui vend des services de cloud computing, d'IA et d'outils de productivité aux agences fédérales, a également confirmé qu'il continuera à rendre Claude disponible pour ses clients.
« Nous comprenons que la détermination ne nous empêche pas de travailler avec Anthropic sur des projets non liés à la défense, et leurs produits restent disponibles via nos plateformes, comme Google Cloud », a déclaré un porte-parole de Google.
CNBC a également rapporté que les clients et partenaires d'AWS peuvent continuer à utiliser Claude pour leurs charges de travail non liées à la défense.
Cela fait écho à ce que le PDG d'Anthropic, Dario Amodei, a déclaré dans sa déclaration promettant de lutter contre la désignation.
« En ce qui concerne nos clients, cela s'applique clairement uniquement à l'utilisation de Claude par les clients dans le cadre de contrats directs avec le département de la Défense, et non à toute utilisation de Claude par des clients ayant de tels contrats », a déclaré Amodei, ajoutant : « Même pour les entrepreneurs du département de la Défense, la désignation de risque de chaîne d'approvisionnement ne limite pas (et ne peut pas limiter) les utilisations de Claude ou les relations commerciales avec Anthropic si celles-ci ne sont pas liées à leurs contrats spécifiques avec le département de la Défense. »
En attendant, la croissance de Claude auprès des consommateurs a continué après qu'Anthropic a refusé de céder aux exigences du département.
Brief IA — Veille IA en français
Toutes les innovations mondiales en IA, traduites et résumées automatiquement. Recevoir les meilleures actus IA chaque jour.