The Trump administration is targeting state AI legislation - again. Why that matters
L'administration Trump cible à nouveau la législation étatique sur l'IA - Pourquoi cela compte
Ce que suggère la nouvelle orientation politique
Le vendredi, l'administration Trump a publié de nouvelles directives politiques pour le Congrès concernant la réglementation fédérale de l'IA, relançant ainsi l'appel à limiter les lois étatiques sur l'IA. Après une tentative infructueuse de restreindre la législation étatique cet été, l'administration a repris ses efforts avec un décret exécutif en décembre et un groupe de travail sur les litiges liés à l'IA, axé sur la réduction des lois étatiques qu'elle considère comme limitant le développement compétitif.
- Les nouvelles directives visent à maintenir la réglementation fédérale de l'IA minimale tout en annulant plusieurs lois étatiques.
- Les lois étatiques sont perçues comme un patchwork réglementaire qui freine l'innovation, selon l'administration et les entreprises d'IA.
Les implications des lois étatiques
Le cadre indique que les lois étatiques ne doivent pas "agir à l'encontre de la stratégie nationale des États-Unis pour atteindre la domination mondiale en matière d'IA". Cela signifie que les États ne devraient pas être autorisés à "réguler le développement de l'IA", car cela a des implications clés en matière de politique étrangère et de sécurité nationale.
- Les États ne devraient pas pouvoir "sanctionner les développeurs d'IA pour la conduite illégale d'un tiers impliquant leurs modèles".
- Certaines protections étatiques sont néanmoins autorisées, notamment pour la formation des travailleurs avec des outils d'IA et dans les écoles.
Limiter la surveillance étatique
La tentative du Congrès cet été d'interdire aux États de promulguer des réglementations sur l'IA pendant 10 ans a échoué, préservant temporairement les droits des États à légiférer sur l'IA.
- Les exigences HIPAA fédérales permettent aux États de promulguer des lois de confidentialité en matière de santé plus strictes, mais il n'existe pas de loi fédérale sur l'IA qui préempte de nombreuses lois étatiques.
Les lois sur la sécurité de l'IA en Californie et à New York
Plus tôt cette année, des lois sur la sécurité de l'IA sans précédent en Californie et à New York sont entrées en vigueur. Voici ce que couvrent ces lois ambitieuses :
-
California SB-53 : Exige que les développeurs de modèles publient comment ils atténueront les risques majeurs posés par l'IA et rapportent les incidents de sécurité, sous peine d'amendes pouvant atteindre 1 million de dollars.
-
RAISE Act : Similaire à la loi californienne, elle impose également des exigences de rapport pour les incidents de sécurité, avec un seuil d'amende supérieur de 3 millions de dollars après la première violation.
Protections supplémentaires et limites
La loi californienne SB-53 exige également que les entreprises d'IA protègent les lanceurs d'alerte, une disposition unique dans le domaine technologique.
- Les exigences de rapport de SB-53 rendent les entreprises plus préoccupées par la création de matériel qui pourrait être utilisé dans des recours collectifs.
Gideon Futerman, associé aux projets spéciaux au Centre pour la sécurité de l'IA, ne pense pas que la SB-53 aura un impact significatif sur la recherche en matière de sécurité, car les exigences de divulgation sont déjà imposées par la loi sur l'IA de l'UE.
Brief IA — Veille IA quotidienne
Toutes les innovations IA du monde entier, résumées et analysées automatiquement chaque jour.