Une feuille de route pour l'IA, si quelqu'un veut bien écouter
⚡ Résumé en français par Brief IA
📄 Article traduit en français
Une feuille de route pour l'IA, si quelqu'un veut bien écouter
La rupture de Washington avec Anthropic a mis en lumière l'absence totale de règles cohérentes régissant l'intelligence artificielle. Cependant, une coalition bipartisane de penseurs a élaboré quelque chose que le gouvernement a jusqu'à présent refusé de produire : un cadre pour ce à quoi devrait ressembler un développement responsable de l'IA.
La Pro-Human Declaration a été finalisée avant le face-à-face entre le Pentagone et Anthropic la semaine dernière, mais la collision des deux événements n'a échappé à personne impliqué.
« Il s'est passé quelque chose de tout à fait remarquable en Amérique au cours des quatre derniers mois », a déclaré Max Tegmark, physicien au MIT et chercheur en IA, lors d'une conversation avec cet éditeur. « Les sondages montrent soudainement que 95 % de tous les Américains s'opposent à une course non régulée vers la superintelligence. »
Le document récemment publié, signé par des centaines d'experts, d'anciens responsables et de personnalités publiques, commence par l'observation pragmatique que l'humanité se trouve à un carrefour. Un chemin, que la déclaration appelle « la course à remplacer », conduit à ce que les humains soient remplacés d'abord en tant que travailleurs, puis en tant que décideurs, alors que le pouvoir s'accumule entre les mains d'institutions non responsables et de leurs machines. L'autre chemin mène à une IA qui élargit massivement le potentiel humain.
Ce dernier scénario repose sur cinq piliers clés :
- Garder les humains aux commandes
- Éviter la concentration du pouvoir
- Protéger l'expérience humaine
- Préserver la liberté individuelle
- Tenir les entreprises d'IA légalement responsables
Parmi ses dispositions les plus fermes, on trouve une interdiction totale du développement de la superintelligence jusqu'à ce qu'un consensus scientifique établisse qu'il peut être réalisé en toute sécurité et avec un véritable soutien démocratique ; des interrupteurs d'urgence obligatoires sur les systèmes puissants ; et une interdiction des architectures capables d'auto-reproduction, d'amélioration autonome ou de résistance à l'arrêt.
La publication de la déclaration coïncide avec une période qui rend son urgence beaucoup plus facile à apprécier. Le dernier vendredi de février, le secrétaire à la Défense, Pete Hegseth, a désigné Anthropic — dont l'IA fonctionne déjà sur des plateformes militaires classifiées — comme un « risque pour la chaîne d'approvisionnement » après que l'entreprise a refusé de donner au Pentagone un accès illimité à sa technologie, une étiquette normalement réservée aux entreprises ayant des liens avec la Chine. Quelques heures plus tard, OpenAI a conclu son propre accord avec le ministère de la Défense, un accord que des experts juridiques estiment difficile à appliquer de manière significative. Tout cela a mis en lumière le coût de l'inaction du Congrès sur l'IA.
Comme l'a déclaré Dean Ball, chercheur senior à la Foundation for American Innovation, au New York Times par la suite : « Ce n'est pas juste un différend sur un contrat. C'est la première conversation que nous avons eue en tant que pays sur le contrôle des systèmes d'IA. »
Tegmark a utilisé une analogie que la plupart des gens peuvent comprendre lors de notre entretien. « Vous n'avez jamais à vous inquiéter qu'une entreprise pharmaceutique sorte un autre médicament qui cause des dommages massifs avant que les gens n'aient compris comment le rendre sûr », a-t-il déclaré, « parce que la FDA ne leur permettra pas de sortir quoi que ce soit tant que ce n'est pas suffisamment sûr. »
Les guerres de territoire à Washington ne génèrent que rarement la pression publique capable de changer les lois. Au lieu de cela, Tegmark voit la sécurité des enfants comme le point de pression le plus susceptible de faire céder l'impasse actuelle. En effet, la déclaration appelle à des tests obligatoires avant le déploiement des produits d'IA — en particulier les chatbots et les applications de compagnons destinés aux jeunes utilisateurs — couvrant des risques tels que l'augmentation des idées suicidaires, l'aggravation des problèmes de santé mentale et la manipulation émotionnelle.
« Si un homme louche envoie des textos à un enfant de 11 ans en prétendant être une jeune fille et essaie de persuader ce garçon de se suicider, cet homme peut aller en prison pour cela », a déclaré Tegmark. « Nous avons déjà des lois. C'est illégal. Alors pourquoi est-ce différent si une machine le fait ? »
Il croit qu'une fois le principe des tests avant la sortie établi pour les produits destinés aux enfants, le champ d'application s'élargira presque inévitablement. « Les gens viendront et diront — ajoutons quelques autres exigences. Peut-être devrions-nous également tester que cela ne peut pas aider des terroristes à fabriquer des armes biologiques. Peut-être devrions-nous tester pour nous assurer que la superintelligence n'a pas la capacité de renverser le gouvernement des États-Unis. »
Il n'est pas anodin que l'ancien conseiller de Trump, Steve Bannon, et Susan Rice, l'ancienne conseillère à la sécurité intérieure de l'administration Obama, aient tous deux exprimé leur soutien à cette déclaration.
Brief IA — Veille IA en français
Toutes les innovations mondiales en IA, traduites et résumées automatiquement. Recevoir les meilleures actus IA chaque jour.