Un cocktail Molotov a été lancé sur la maison du PDG d'OpenAI, Sam Altman, au milieu de la nuit
Un cocktail Molotov a été lancé sur la maison du PDG d'OpenAI, Sam Altman, à 3h45 du matin. En réponse, Altman a publié un article sur son blog personnel dans lequel il admet des erreurs passées et compare les luttes de pouvoir dans l'industrie de l'IA à l'"Anneau de Pouvoir."
Selon Altman, le cocktail Molotov a rebondi sur la maison et personne n'a été blessé. Il pense que cet incident est lié à un profil critique récemment publié à son sujet, qu'il a initialement qualifié d'"incendiaire" et qu'il n'a pas pris assez au sérieux.
Altman, qui a levé des milliards de dollars principalement grâce à la force de son discours et qui est le moteur de la narration selon laquelle "l'IA va tout changer," admet maintenant qu'il a sous-estimé le pouvoir des mots et des récits.
Il a utilisé son article pour exposer ses vues plus larges sur l'IA, dont beaucoup ont déjà été exprimées : la technologie doit être démocratisée et aucun petit groupe d'entreprises ne devrait la contrôler. La peur des gens face à l'IA est légitime, a-t-il écrit, et la société pourrait traverser le plus grand changement depuis longtemps, peut-être le plus grand de tous les temps. Il voit également un besoin urgent d'une "réponse à l'échelle de la société" face aux menaces que pose l'IA, y compris de nouvelles politiques pour gérer ce qu'il s'attend à être une "transition économique difficile."
Altman a également reconnu des erreurs, notamment sa tendance à éviter les conflits, ce qui a causé beaucoup de douleur pour lui et OpenAI, ainsi que la mauvaise gestion de la situation avec l'ancien conseil d'administration d'OpenAI. Il a reconnu qu'OpenAI est maintenant une plateforme majeure, et non une startup, et qu'elle doit "opérer de manière plus prévisible."
Il se dit fier d'avoir résisté à la pression d'Elon Musk pour un contrôle unilatéral sur OpenAI et que, contre toute attente, ils ont construit une IA puissante, levé des fonds pour l'infrastructure et lancé des services sécurisés à grande échelle. Beaucoup d'entreprises prétendent changer le monde ; OpenAI l'a réellement fait, selon Altman.
Altman a comparé les conflits internes de l'industrie de l'IA à une dynamique de "ring de pouvoir" : une fois que vous avez vu l'AGI, vous ne pouvez pas vous empêcher d'essayer de le contrôler.
"La seule solution que je peux envisager est de s'orienter vers le partage de la technologie avec les gens de manière large, et que personne n'ait l'anneau." Les deux manières évidentes de le faire sont l'autonomisation individuelle et s'assurer que le système démocratique reste en contrôle.
OpenAI souhaite "être une voix et un acteur," a-t-il déclaré, "mais ne pas avoir tout le pouvoir." Selon Altman, OpenAI prévoit de travailler dans le cadre du processus démocratique, même lorsque celui-ci est "désordonné et plus lent que nous le souhaiterions."
Il a appelé l'industrie à modérer son discours et à "avoir moins d'explosions dans moins de maisons, au sens figuré et littéral." Cet appel intervient non seulement après l'attaque contre sa maison, mais aussi alors que les tensions entre OpenAI, Anthropic et le Pentagone ont récemment augmenté concernant l'utilisation militaire de l'IA.
Concernant l'article du New Yorker qui aurait déclenché l'attaque — celui qu'Altman a initialement qualifié d'"incendiaire" — il était basé sur des années de reporting et des conversations avec plus de 100 personnes. Beaucoup des détails les plus critiques provenaient d'Altman lui-même lors d'échanges directs avec des journalistes, y compris son admission que ses "vibrations" ne correspondaient pas à la pensée traditionnelle sur la sécurité de l'IA. Il a ensuite révisé le terme "incendiaire" sur X, le qualifiant de "mauvais choix de mots" après une "journée difficile." À l'heure actuelle, aucune information n'est disponible sur l'identité des auteurs de l'attaque ni sur les raisons qui les ont poussés à agir.
📧
Cet article vous a plu ?
Recevez les 7 meilleures actus IA chaque soir à 19h — résumées en 5 min.
