Brief IA

Microsoft, Google et Amazon affirment qu'Anthropic Claude reste accessible aux clients non militaires

💼 Business & Startupsvia TechCrunch IA·Julie Bort, Rebecca Bellan·

Microsoft, Google et Amazon affirment qu'Anthropic Claude reste accessible aux clients non militaires

Microsoft, Google et Amazon affirment qu'Anthropic Claude reste accessible aux clients non militaires

⚡ Résumé en français par Brief IA

Anthropic Claude reste accessible aux clients non militaires malgré les tensions avec le département de la Défense américain.
Microsoft et Google, principaux acteurs, continuent de proposer Claude à leurs clients, assurant ainsi une large accessibilité.
Cette situation souligne l'importance de maintenir l'accès à des technologies avancées pour les entreprises civiles, même en période de conflit.
💡 Pourquoi c'est important : La continuité d'accès à des outils d'IA avancés pour les entreprises non militaires pourrait stimuler l'innovation et la compétitivité dans le secteur technologique.

📄 Article traduit en français

Microsoft, Google et Amazon affirment qu'Anthropic Claude reste accessible aux clients non militaires

Les entreprises et startups utilisant Anthropic Claude via les produits de Microsoft et Google n'ont pas à craindre que le modèle leur soit retiré, ont confirmé Microsoft et Google à TechCrunch. Les clients et partenaires d'AWS peuvent également continuer à utiliser Claude pour leurs charges de travail non liées à la défense.

Microsoft a été la première grande entreprise technologique à assurer que les modèles d'Anthropic resteront disponibles pour ses clients, même si le département de la Défense de l'administration Trump a intensifié son conflit avec Anthropic.

Le département de la Défense a officiellement désigné la startup américaine d'IA comme un risque de chaîne d'approvisionnement jeudi, après que l'entreprise d'IA a refusé de lui donner un accès illimité à sa technologie pour des applications que l'entreprise a déclaré que son IA ne pouvait pas soutenir en toute sécurité, telles que la surveillance de masse et les armes entièrement autonomes.

La désignation de risque de chaîne d'approvisionnement est généralement réservée aux adversaires étrangers. Pour Anthropic, cette désignation signifie que le Pentagone ne pourra pas utiliser les produits de l'entreprise une fois que Claude sera retiré de ses systèmes. Cela exige également que toute entreprise ou agence travaillant avec le Pentagone certifie qu'elle n'utilise pas les modèles d'Anthropic. Anthropic a promis de contester cette désignation en justice.

Microsoft vend une gamme de produits, d'Office à son cloud, à de nombreuses agences fédérales, y compris le département de la Défense. Un porte-parole de Microsoft a déclaré que l'entreprise continuera à rendre les modèles d'Anthropic disponibles dans ses propres produits et à ses clients.

« Nos avocats ont étudié la désignation et ont conclu que les produits d'Anthropic, y compris Claude, peuvent rester disponibles pour nos clients — à l'exception du département de la Défense — via des plateformes telles que M365, GitHub et l'AI Foundry de Microsoft, et que nous pouvons continuer à travailler avec Anthropic sur des projets non liés à la défense », a déclaré le porte-parole dans un courriel. CNBC a été le premier à rapporter ce commentaire.

Google, qui vend des services de cloud computing, d'IA et d'outils de productivité aux agences fédérales, a également confirmé qu'il continuera à rendre Claude disponible pour ses clients.

« Nous comprenons que la détermination ne nous empêche pas de travailler avec Anthropic sur des projets non liés à la défense, et leurs produits restent disponibles via nos plateformes, comme Google Cloud », a déclaré un porte-parole de Google.

CNBC a également rapporté que les clients et partenaires d'AWS peuvent continuer à utiliser Claude pour leurs charges de travail non liées à la défense.

Cela fait écho à ce que le PDG d'Anthropic, Dario Amodei, a déclaré dans sa déclaration promettant de lutter contre la désignation.

« En ce qui concerne nos clients, cela s'applique clairement uniquement à l'utilisation de Claude par les clients dans le cadre de contrats directs avec le département de la Défense, et non à toute utilisation de Claude par des clients ayant de tels contrats », a déclaré Amodei, ajoutant : « Même pour les entrepreneurs du département de la Défense, la désignation de risque de chaîne d'approvisionnement ne limite pas (et ne peut pas limiter) les utilisations de Claude ou les relations commerciales avec Anthropic si celles-ci ne sont pas liées à leurs contrats spécifiques avec le département de la Défense. »

En attendant, la croissance de Claude auprès des consommateurs a continué après qu'Anthropic a refusé de céder aux exigences du département.

TwitterLinkedIn

Brief IA — Veille IA en français

Toutes les innovations mondiales en IA, traduites et résumées automatiquement. Recevoir les meilleures actus IA chaque jour.