Senate Democrats are trying to ‘codify’ Anthropic’s red lines on autonomous weapons and mass surveillance

Les démocrates du Sénat tentent de 'codifier' les lignes rouges d'Anthropic sur les armes autonomes et la surveillance de masse
Sen. Adam Schiff (D-CA) travaille sur un nouveau projet de loi pour “codifier” les lignes rouges d'Anthropic et s'assurer que des humains prennent les décisions finales dans des questions de vie ou de mort. Parallèlement, Sen. Elissa Slotkin (D-MI) a récemment introduit un projet de loi visant à limiter la capacité du ministère de la Défense à utiliser l'IA pour la surveillance de masse des Américains.
L'administration Trump a placé Anthropic sur une liste noire plus tôt ce mois-ci après que l'entreprise a fixé des limites sur l'utilisation de ses modèles d'IA par l'armée, la désignant comme un risque pour la chaîne d'approvisionnement. Anthropic a intenté une action en justice, accusant le gouvernement de violer ses droits constitutionnels. L'entreprise insiste pour que le Pentagone évite d'utiliser ses produits pour des armes entièrement autonomes et la surveillance de masse à l'intérieur du pays, s'opposant à un accord signé par son principal concurrent, OpenAI. Anthropic attend de savoir si un tribunal bloquera la décision de l'administration de la désigner comme un risque pour la chaîne d'approvisionnement.
“J'étais alarmé de voir le Pentagone s'en prendre à Anthropic parce qu'Anthropic essayait simplement d'insister sur des politiques avec lesquelles la grande majorité du peuple américain est d'accord,” a déclaré Schiff dans une interview téléphonique. “L'idée qu'ils essaieraient alors de tuer l'entreprise, de tuer l'un des leaders de l'IA, est un acte si hostile et dictatorial. Cela retarderait le leadership de l'Amérique en matière d'IA, et Anthropic est l'un des meilleurs.”
Le bureau de Schiff est encore en train de rédiger la législation, mais il a déclaré que l'objectif est de s'assurer que l'IA ne soit pas utilisée à des “fins illicites”. Slotkin a récemment introduit un projet de loi similaire, appelé AI Guardrails Act, pour renforcer les protections contre la surveillance de masse domestique et l'utilisation d'armes létales autonomes sans intervention humaine. Il n'est pas encore clair en quoi le projet de loi de Schiff diffèrera ou s'alignera sur des points clés, bien qu'il couvre des domaines similaires. Le porte-parole de Schiff, Ruby Robles Perez, a déclaré que son bureau continue de discuter avec des parties prenantes et des leaders de l'industrie avant de finaliser leur projet de loi.
Le projet de loi de Slotkin restreint la capacité du ministère de la Défense à utiliser l'IA pour faire exploser une arme nucléaire ou suivre des personnes ou des groupes aux États-Unis, mais il décrit également comment le secrétaire à la Défense peut informer le Congrès dans le cas où des “circonstances extraordinaires” nécessiteraient l'utilisation de l'IA pour déployer des armes létales autonomes.
Dans le projet de loi que Schiff est en train de rédiger, les spécificités concernant ce qui constitue une arme autonome ou une surveillance domestique sont encore en discussion, mais il a déclaré qu'ils examinaient également les cadres existants de l'administration Biden. “Nous n'avons pas encore résolu toutes ces questions, y compris comment ce langage s'appliquerait à ceux qui ne sont pas citoyens, mais les personnes qui se trouvent légalement dans le pays méritent une protection. Et en tant que question de droits de l'homme, cela pourrait également aller au-delà,” a déclaré Schiff.
Un principe guidant cet effort est l'idée d'un humain dans la boucle. “Chaque fois qu'une technologie a la capacité de prendre une vie humaine, il doit y avoir un opérateur humain dans la chaîne de commandement. Nous ne voulons pas déléguer ce type de responsabilité sur la vie et la mort à un algorithme,” a déclaré Schiff.
Cependant, cela ne signifie pas qu'il n'y a pas de rôle pour l'IA sur le champ de bataille. “Il y a certainement des circonstances dans lesquelles, parce que l'IA peut fonctionner plus rapidement que les êtres humains, vous voulez que l'IA puisse fournir des informations aux opérateurs humains qui doivent prendre des mesures pour défendre le pays ou qui doivent ajuster en fonction de ce qu'elle peut voir en temps réel sur le champ de bataille,” a expliqué Schiff. “Les applications sont très significatives. Elles peuvent être très bénéfiques du point de vue de la sécurité nationale et de la défense. Mais elles peuvent aussi signifier la vie ou la mort. Elles peuvent signifier faire la distinction entre une cible civile et une cible militaire, ou se tromper sur ces choses.”
Avec une minorité démocrate dans les deux chambres, le succès à court terme du projet de loi pourrait dépendre de la volonté des républicains d'être perçus comme critiques de l'administration. Avec les élections de mi-mandat qui approchent, il sera de plus en plus difficile de faire passer de nouvelles législations jusqu'à la fin de l'année, bien que l'équilibre des pouvoirs au Congrès puisse changer si les démocrates reprennent une ou les deux chambres. Il pourrait encore falloir au moins une ou deux semaines pour dévoiler la proposition, mais Schiff envisage des véhicules législatifs comme la National Defense Authorization Act (NDAA) pour la faire avancer.
“Il y a certainement un soutien bipartisan dans le public pour ce type de limitations,” a déclaré Schiff. “Comme toujours, vous êtes confronté à la question lorsque vous prenez des mesures pour prévenir tout abus administratif, ce qui soulève des problèmes avec certains de mes collègues sur la question de savoir si cela peut être interprété comme une critique implicite de l'administration. Nous devrons gérer cela, mais j'espère que nous pourrons le rendre bipartisan.”
Depuis qu'Anthropic a engagé son combat avec le Pentagone, OpenAI a dû défendre ses raisons de signer des termes qui ont suscité des réactions publiques. Même si OpenAI affirme qu'elle insistera sur les mêmes termes, Schiff a déclaré qu'il préférerait ne pas avoir à faire confiance au Pentagone ou à un PDG. “J'aurais beaucoup plus confiance, franchement, si ces exigences étaient statutaires, plutôt que de compter sur la légalité du Pentagone ou sur la parole d'un PDG d'IA,” a-t-il déclaré.
Brief IA — Veille IA quotidienne
Toutes les innovations IA du monde entier, résumées et analysées automatiquement chaque jour.