Anthropic lance un nouveau think tank au milieu d'un conflit avec le Pentagone

⚡ Résumé en français par Brief IA
• Anthropic crée l'Anthropic Institute, un think tank interne regroupant trois équipes de recherche. • Ce think tank se concentrera sur les implications à grande échelle de l'IA. • La création de cette initiative intervient en réponse à un conflit avec le Pentagone, qui a abouti à une liste noire et à un procès. 💡 Pourquoi c'est important : cette initiative pourrait influencer la direction de la recherche en IA et son intégration dans les politiques publiques.
📄 Article traduit en français
Anthropic lance un nouveau think tank au milieu d'un conflit avec le Pentagone
Amid a weeks-long conflict with the Pentagon, resulting in a blacklist and a lawsuit, Anthropic est en train de réorganiser sa direction et ses initiatives de recherche. La société a annoncé mercredi le lancement d'un nouveau think tank interne, appelé Anthropic Institute, qui regroupe trois de ses équipes de recherche actuelles. Ce think tank se concentrera sur les implications à grande échelle de l'IA, telles que « ce qui arrive aux emplois et aux économies, si l'IA nous rend plus sûrs ou introduit de nouveaux dangers, comment ses valeurs pourraient façonner les nôtres, et si nous pouvons garder le contrôle », selon l'entreprise.
Les changements au sein de la direction accompagnent cette annonce. Le cofondateur d'Anthropic, Jack Clark, prend un nouveau rôle à la tête du think tank. Son nouveau titre sera responsable de l'intérêt public, après plus de cinq ans en tant que responsable des politiques publiques. L'équipe des politiques publiques — qui a triplé en taille en 2025, selon Anthropic — sera désormais dirigée par Sarah Heck, qui était auparavant responsable des affaires externes. Anthropic ouvrira également son bureau prévu à Washington, DC, et l'équipe des politiques publiques continuera de se concentrer sur des questions telles que la sécurité nationale, l'infrastructure de l'IA, l'énergie et « le leadership démocratique en IA ».
Clark a déclaré à The Verge que le lancement de l'Anthropic Institute était en préparation depuis un certain temps et qu'il avait envisagé de passer à un rôle comme celui-ci depuis novembre. Cependant, le timing intervient quelques jours après qu'Anthropic a poursuivi le gouvernement américain pour sa désignation en tant que risque de chaîne d'approvisionnement, ce qui interdirait à ses clients d'utiliser la technologie d'Anthropic dans leurs travaux avec le Département de la Défense. La plainte allègue que l'administration Trump a illégalement mis la société sur liste noire pour avoir établi des « lignes rouges » sur la surveillance de masse nationale et les armes létales entièrement autonomes.
Lorsqu'on lui a posé des questions à ce sujet, Clark a déclaré : « Il n'y a jamais de moment ennuyeux en travaillant dans l'IA ici chez Anthropic — il se passe toujours quelque chose... Le rythme des progrès de l'IA ne ralentit pas à cause d'événements externes, et nous non plus. » Clark a précisé que la situation n'avait pas « directement changé » l'agenda de recherche prévu, mais qu'il avait le sentiment qu'elle avait « confirmé » la décision d'Anthropic de publier plus d'informations au public. « Ce que nous vivons ces dernières semaines montre à quel point il y a un besoin d'une conversation nationale plus large sur cette technologie », a-t-il ajouté.
L'Anthropic Institute démarre avec environ 30 personnes, y compris des membres fondateurs tels que Matt Botvinick, ancien de Google DeepMind ; Anton Korinek, professeur en congé du département d'économie de l'Université de Virginie ; et Zoe Hitzig, une chercheuse qui a quitté OpenAI après sa décision d'introduire des publicités dans ChatGPT. Le nouveau think tank combine l'équipe des impacts sociétaux d'Anthropic, qui étudie les impacts de l'IA sur différents domaines de la société ; son équipe de test de vulnérabilités, qui teste les systèmes d'IA pour détecter des failles et des problèmes ; et son équipe de recherche économique, qui suit les implications de l'IA pour l'économie et le marché du travail. L'Anthropic Institute prévoit également d'« incuber » de nouvelles équipes, comme une équipe dirigée par Botvinick qui étudiera comment l'IA impactera le système juridique. Hitzig et Korinek dirigeront de grands projets de recherche économique. Clark a déclaré s'attendre à ce que le nombre de membres du think tank double chaque année dans un avenir prévisible.
Cette année en particulier, la pression sur les entreprises d'IA à forte valorisation comme Anthropic augmente, la société prévoyant apparemment une introduction en bourse cette année. Les documents judiciaires d'Anthropic ont révélé que l'entreprise avait généré plus de 5 milliards de dollars de revenus commerciaux depuis sa création et qu'elle avait dépensé 10 milliards de dollars à ce jour pour la formation et l'inférence des modèles. Elle a également indiqué avoir « reçu des sollicitations de nombreux partenaires externes... exprimant leur confusion quant à ce qui était requis d'eux et leur inquiétude quant à leur capacité à continuer à travailler avec Anthropic » et que « des dizaines d'entreprises ont contacté Anthropic » pour obtenir des conseils et, dans certains cas, une compréhension de leurs droits de résiliation. Anthropic a déclaré qu'en fonction de l'interprétation de ce que le gouvernement interdira exactement, « des centaines de millions de dollars de revenus en 2026 sont en jeu », et dans le cas le plus sévère, il pourrait s'agir de plusieurs milliards.
Anthropic est-il inquiet de consacrer plus de ressources à la recherche à long terme alors qu'il est très probable qu'il perde une partie de ses revenus à court terme ? Lorsque The Verge a posé la question à Clark, il a déclaré n'avoir « aucune inquiétude ».
« Les gens ont tendance à acheter la confiance », a déclaré Clark. « Beaucoup de ce que nous pouvons produire sont des recherches qui aident les entreprises à nous faire confiance... À long terme, Anthropic a toujours considéré son investissement dans la sécurité — et l'étude et le rapport sur la sécurité de ses systèmes — comme un centre de profit et non comme un centre de coûts. »
Clark a également déclaré croire que l'IA puissante (essentiellement le terme d'Anthropic pour l'AGI, ou intelligence générale artificielle) arrivera d'ici la fin de cette année ou début 2027, et qu'il a décidé de changer de rôle en grande partie en raison du « rythme des progrès de l'IA ». Il a ajouté qu'en regardant son travail de l'année dernière, il s'était davantage concentré sur des questions politiques, comme le SB 53, que sur la R&D en IA et d'autres sujets auxquels il souhaitait prêter attention. Anthropic a déclaré dans un communiqué que l'Anthropic Institute est spécifiquement dédié à répondre aux « questions les plus difficiles posées par l'IA puissante ».
Bien sûr, comme The Verge l'a écrit en décembre, de nombreuses entreprises technologiques sont pro-transparence tant que cela n'est pas mauvais pour les affaires. Que se passe-t-il donc si et quand les équipes de recherche de l'Anthropic Institute découvrent des résultats qui pourraient nuire à l'entreprise ? Clark a déclaré que les cofondateurs d'Anthropic ont des « valeurs similaires » concernant l'importance de la divulgation publique, surtout puisque l'entreprise est techniquement une société à but d'intérêt public, ce qui signifie qu'elle a la capacité de mener à bien des objectifs « non uniquement pour un gain fiduciaire ». Il a ajouté que lors d'une conversation qu'il a eue avec le PDG Dario Amodei la semaine dernière, ils se sont mis d'accord sur l'importance de la transparence malgré les défis en matière de relations publiques que cela pourrait engendrer.
Cependant, la recherche de l'Anthropic Institute pourrait nécessiter des ressources informatiques significatives à un moment où les entreprises s'efforcent de prioriser les produits commerciaux. Clark a déclaré qu'en dehors des ressources consacrées à la pré-formation des modèles de pointe, Anthropic alloue ses ressources informatiques sur une base hebdomadaire en fonction de ce qui semble le plus important, donc aucune portion précise n'a été réservée, mais il ne prévoit pas de conflits.
L'Anthropic Institute prévoit également d'étudier la dépendance émotionnelle des gens à l'égard de l'IA, un problème croissant qui a gagné en notoriété publique au cours de l'année écoulée. Clark a déclaré qu'à ce jour, les équipes de recherche d'Anthropic avaient étudié les types de conversations ayant lieu avec Claude et mesuré la capacité de la technologie à persuader les gens de certaines choses ou à agir de manière flatteuse, mais qu'elles n'avaient pas passé autant de temps à parler aux utilisateurs de la technologie de leurs expériences individuelles. Il a déclaré que le think tank prévoit de mener des recherches en sciences sociales à grande échelle, y compris en utilisant l'IA d'Anthropic pour réaliser des interviews avec des utilisateurs.
« Je pense à cela comme suit : les réseaux sociaux ont eu un énorme effet sur la société, et ce n'était pas seulement basé sur ce qui se passait sur les plateformes de réseaux sociaux. C'était, 'Comment l'utilisation des réseaux sociaux changeait-elle les gens ?' » a déclaré Clark. « Nous voulons comprendre, 'Comment l'utilisation de l'IA change-t-elle les gens ?' »
Brief IA — Veille IA en français
Toutes les innovations mondiales en IA, traduites et résumées automatiquement. Recevoir les meilleures actus IA chaque jour.