Que va faire OpenAI lorsque la vérité éclatera ?

⚡ Résumé en français par Brief IA
📄 Article traduit en français
Que va faire OpenAI lorsque la vérité éclatera ?
Dans son expérience, Murati a observé qu'Altman avait un schéma simple : d'abord, dire ce qu'il fallait pour obtenir ce qu'il voulait, et ensuite, si cela ne fonctionnait pas, saper ou détruire la crédibilité de l'autre. Sutskever a mis des années à identifier ce comportement — comment le PDG d'OpenAI lui disait une chose, puis en disait une autre, agissant comme si la différence était un accident. « Oh, j'ai dû mal m'exprimer », disait Altman. Sutskever avait l'impression qu'Altman était malhonnête et semait le chaos, ce qui poserait problème à tout PDG, mais surtout à celui en charge d'une technologie pouvant potentiellement changer la civilisation.
Le week-end dernier, j'ai pensé à ce passage en essayant de comprendre une série d'événements plutôt stupéfiants. Le Pentagone a tenu sa promesse de résilier le contrat militaire avec Anthropic en raison du refus de la société de modifier son accord précédent pour permettre « toute utilisation légale » de sa technologie, y compris la surveillance de masse et les armes autonomes. Il a également menacé de désigner Anthropic comme un « risque pour la chaîne d'approvisionnement », une mesure précédemment réservée aux extensions corporatives d'adversaires étrangers, et de bloquer toute entreprise contractant avec l'armée d'utiliser les produits d'Anthropic.
Un moment, il semblait qu'Anthropic pourrait avoir un allié dans ce combat : vendredi matin, Hagey (dans son rôle habituel au Wall Street Journal) a rapporté qu'Altman avait envoyé un mémo au personnel d'OpenAI disant qu'il établirait les mêmes « lignes rouges » qu'Anthropic. « Nous avons longtemps cru que l'IA ne devrait pas être utilisée pour la surveillance de masse ou les armes létales autonomes », a-t-il écrit, « et que les humains devraient rester impliqués dans les décisions automatisées à enjeux élevés. Ce sont nos principales lignes rouges. »
Et vendredi soir, Altman a annoncé sur X qu'OpenAI avait conclu un accord avec le Pentagone pour le déploiement d'une IA classifiée — avec les mêmes lignes rouges, a-t-il affirmé, désormais intégrées dans le contrat.
Mettant de côté un instant la réaction démesurée du gouvernement contre Anthropic, la revendication d'Altman d'avoir obtenu des concessions de l'armée américaine offrait au moins une raison d'espérer. Si des systèmes d'IA puissants doivent être intégrés dans des systèmes de violence d'État, le minimum que les Américains puissent demander en retour sont des mécanismes de contrôle et de retenue. Altman a déclaré qu'OpenAI avait atteint cet objectif. « Deux de nos principes de sécurité les plus importants sont l'interdiction de la surveillance de masse domestique et la responsabilité humaine pour l'utilisation de la force, y compris pour les systèmes d'armes autonomes », a déclaré Altman dans un post sur X. « Le DoD s'accorde avec ces principes, les reflète dans la loi et la politique, et nous les avons intégrés dans notre accord. »
Immédiatement, la revendication d'Altman a été mise sous surveillance. N'était-il pas suspect qu'OpenAI prétende avoir obtenu des concessions en seulement quelques jours de négociations, alors qu'Anthropic n'avait pas réussi ? Était-il possible que les mêmes responsables du Pentagone qui s'opposaient sur X à l'idée qu'une entreprise privée tente d'exercer un contrôle sur l'armée fassent maintenant une exception pour OpenAI ? Le public était-il maintenant, comme Mira Murati et Ilya Sutskever avant eux, piégé dans le piège familier d'Altman qui commence par lui dire ce qu'il veut entendre ?
Notamment, dans ce cas, peu semblaient accorder à Altman le bénéfice du doute. Le post le plus populaire sur le subreddit de ChatGPT au cours de la semaine passée était intitulé « Vous entraînez maintenant une machine de guerre. Voyons la preuve de l'annulation » ; il a reçu plus de 32 000 votes positifs. Des posts similaires dans ce forum et le subreddit d'OpenAI ont également reçu des dizaines de milliers de votes positifs ; la société a également été critiquée longuement sur Hacker News.
Au fur et à mesure que le week-end avançait, des reportages supplémentaires suggéraient que le cynisme instinctif déclenché par l'accord d'OpenAI était justifié. Dans The Verge, Hayden Field a rapporté qu'à l'inverse des déclarations publiques d'OpenAI — et en accord avec le cadre de l'armée concernant ses exigences — l'accord de la société avec le Pentagone comprend moins de restrictions que celui qu'Anthropic avait proposé. Elle écrit :
- Une source familière avec les négociations du Pentagone avec les entreprises d'IA a confirmé que l'accord d'OpenAI est beaucoup plus souple que celui qu'Anthropic tentait d'obtenir, grâce en grande partie à trois mots : « toute utilisation légale ».
- Lors des négociations, la personne a déclaré que le Pentagone ne voulait pas céder sur son désir de collecter et d'analyser des données massives sur les Américains.
- Si l'on examine les termes d'OpenAI ligne par ligne, chaque aspect revient à : si c'est techniquement légal, alors l'armée américaine peut utiliser la technologie d'OpenAI pour le réaliser.
Et au cours des dernières décennies, le gouvernement américain a élargi la définition de « techniquement légal » pour couvrir des programmes de surveillance de masse — et plus encore.
OpenAI pourrait être en mesure de bloquer partiellement les efforts de l'armée pour mener une surveillance domestique en construisant des classificateurs et en mettant en œuvre d'autres mesures de sécurité au niveau du modèle, comme elle l'a déclaré qu'elle le ferait. Et pourtant, il est essentiel...
Brief IA — Veille IA en français
Toutes les innovations mondiales en IA, traduites et résumées automatiquement. Recevoir les meilleures actus IA chaque jour.