La Californie établit ses propres règles en matière d'IA pour les entrepreneurs d'État, défiant la politique fédérale
Le gouverneur de Californie, Gavin Newsom, a signé un décret exécutif lundi, exigeant que les entreprises ayant des contrats avec l'État mettent en place des mesures de protection contre l'utilisation abusive de l'IA. Plus précisément, les entreprises doivent s'assurer que leurs systèmes d'IA ne génèrent pas de contenu illégal, ne renforcent pas des biais nuisibles et ne violent pas les droits civils.
Pour prévenir la désinformation, les agences d'État devront également apposer un filigrane sur les images et vidéos générées par l'IA.
Le décret comprend une disposition distincte pour le traitement des directives fédérales : si le gouvernement fédéral des États-Unis désigne une entreprise comme un risque pour la chaîne d'approvisionnement, la Californie procédera à sa propre évaluation et pourrait continuer à travailler avec ce fournisseur. Cela fait suite à la désignation par le Pentagone d'Anthropic comme un risque pour la chaîne d'approvisionnement, ce qui interdit aux entrepreneurs gouvernementaux d'utiliser la technologie d'Anthropic pour des travaux militaires américains.
Dans un délai de 120 jours, les agences de passation de marchés et de technologie de Californie devraient élaborer des recommandations pour de nouvelles certifications en matière d'IA. Celles-ci permettraient aux entreprises de démontrer leur conformité aux pratiques responsables en matière d'IA et aux protections de la sécurité publique.
Ce décret exécutif renforce l'engagement de la Californie à tracer sa propre voie en matière de réglementation de l'IA, indépendamment de l'administration Trump, qui a tenté à plusieurs reprises de bloquer les lois sur l'IA au niveau des États.
📧
Cet article vous a plu ?
Recevez les 7 meilleures actus IA chaque soir à 19h — résumées en 5 min.
