Le plan de l'administration Biden sur l'IA
L'administration Biden a publié un plan national sur l'IA contenant des recommandations législatives pour le Congrès.
Le document aborde sept domaines clés. En ce qui concerne la protection des enfants, le Congrès devrait accorder aux parents un plus grand contrôle sur les plateformes d'IA et introduire une vérification de l'âge. Les clients d'électricité ne devraient pas avoir à payer pour de nouveaux centres de données d'IA, et les approbations pour l'infrastructure d'IA devraient être accélérées.
Sur le sujet des droits d'auteur, le gouvernement souhaite laisser aux tribunaux le soin de décider si l'entraînement de l'IA sur du matériel protégé est légal. Plutôt que de créer une nouvelle agence de régulation de l'IA, l'administration s'appuie sur les organismes de surveillance existants et les normes de l'industrie. Le plan appelle également à des programmes éducatifs pour préparer les travailleurs à l'IA, affirmant que "les travailleurs américains doivent bénéficier de la croissance alimentée par l'IA, et non seulement des résultats du développement de l'IA".
Le cadre interdirait au gouvernement de faire pression sur les fournisseurs d'IA pour qu'ils suppriment des discours politiques légaux. En même temps, il semble s'aligner sur la campagne de Trump contre ce qu'il appelle l'IA "woke", créant une tension évidente : la pression gouvernementale pour que les systèmes d'IA évitent des opinions que Trump considère comme hostiles constituerait en soi une forme de censure politique.
Le Congrès devrait empêcher le gouvernement des États-Unis de contraindre les fournisseurs de technologie, y compris les fournisseurs d'IA, à interdire, contraindre ou modifier du contenu en fonction d'agendas partisans ou idéologiques.
Cadre de politique nationale, intelligence artificielle
Règles fédérales pouvant priver les États de la plupart de la supervision de l'IA
La partie la plus controversée du plan : les règles fédérales sur l'IA prévaudraient sur les lois des États pour éviter ce que l'administration appelle "un patchwork fragmenté de réglementations étatiques" qui pourrait nuire à la compétitivité des États-Unis. Le Congrès devrait préempter les lois étatiques sur l'IA qui "imposent des charges excessives" et les remplacer par une norme nationale unique.
Le cadre prévoit cependant certaines exceptions. Les États conserveraient leur autorité traditionnelle pour faire respecter les lois générales contre les développeurs et utilisateurs d'IA, y compris les lois protégeant les enfants, prévenant la fraude et protégeant les consommateurs. Ils conserveraient également le contrôle sur les décisions de zonage pour l'infrastructure d'IA et les règles régissant leur propre utilisation de l'IA dans des domaines tels que l'application de la loi et l'éducation publique.
Cependant, les limites sont significatives. Les États ne seraient pas autorisés à réguler le développement de l'IA, car l'administration le considère comme "un phénomène intrinsèquement interétatique ayant des implications clés en matière de politique étrangère et de sécurité nationale". Les États ne pourraient pas non plus imposer des règles qui compliquent l'utilisation de l'IA pour des activités qui seraient légales sans l'IA, ni tenir les développeurs d'IA responsables de l'utilisation illégale de leurs modèles par un tiers.
Google, OpenAI et d'autres entreprises technologiques ont fait pression pour des règles fédérales uniformes, arguant qu'elles sont meilleures pour l'innovation. Trump a cherché à faire adopter cette législation depuis son entrée en fonction, mais n'a pas encore eu de succès. Les critiques mettent en garde contre une centralisation du pouvoir au sein de l'administration Trump sur la technologie potentiellement la plus transformative de notre époque et une attaque contre les droits des États.
📧
Cet article vous a plu ?
Recevez les 7 meilleures actus IA chaque soir à 19h — résumées en 5 min.
