YouTube renforce la détection des deepfakes IA pour les politiciens, les fonctionnaires et les journalistes
⚡ Résumé en français par Brief IA
• YouTube met à disposition un outil de détection des deepfakes IA pour les politiciens, journalistes et fonctionnaires afin de signaler les imitations non autorisées. • L'outil permet une intervention rapide contre la désinformation, renforçant la confiance dans les médias. • Dans un contexte où la désinformation est en hausse, cette initiative s'inscrit dans une tendance plus large de protection des figures publiques. 💡 Pourquoi c'est important : cette avancée pourrait transformer la manière dont les plateformes gèrent la désinformation et protéger la réputation des acteurs clés de la société.
📄 Article traduit en français
YouTube renforce la détection des deepfakes IA pour les politiciens, les fonctionnaires et les journalistes
YouTube élargit sa technologie de détection de similitude, qui identifie les deepfakes générés par l'IA, à un groupe pilote composé de fonctionnaires gouvernementaux, de candidats politiques et de journalistes, a annoncé la société mardi. Les membres de ce groupe pilote auront accès à un outil qui détecte le contenu généré par l'IA sans autorisation et leur permet de demander sa suppression s'ils estiment qu'il enfreint les règles de YouTube.
La technologie a été lancée l'année dernière pour environ 4 millions de créateurs YouTube dans le Programme Partenaire YouTube, après des tests préliminaires.
Semblable au système existant Content ID de YouTube, qui détecte le matériel protégé par des droits d'auteur dans les vidéos téléchargées par les utilisateurs, la fonctionnalité de détection de similitude recherche des visages simulés créés avec des outils d'IA. Ces outils sont parfois utilisés pour tenter de diffuser de la désinformation et manipuler la perception des gens sur la réalité, en exploitant les personnalités deepfakées de figures notables — comme des politiciens ou d'autres fonctionnaires — pour dire et faire des choses dans ces vidéos IA qu'ils n'ont pas faites dans la vie réelle.
Avec ce nouveau programme pilote, YouTube vise à équilibrer la libre expression des utilisateurs avec les risques associés à la technologie IA qui peut générer une similitude convaincante d'une figure publique.
« Cette expansion concerne vraiment l'intégrité de la conversation publique », a déclaré Leslie Miller, vice-présidente des affaires gouvernementales et des politiques publiques de YouTube, lors d'un point presse avant le lancement de mardi. « Nous savons que les risques d'imitation par l'IA sont particulièrement élevés pour ceux qui évoluent dans le domaine civique. Mais tout en fournissant ce nouveau bouclier, nous faisons également attention à la manière dont nous l'utilisons », a-t-elle noté.
Miller a expliqué que tous les correspondances détectées ne seraient pas supprimées sur demande. Au lieu de cela, YouTube évaluera chaque demande selon ses directives de politique de confidentialité existantes pour déterminer si le contenu est une parodie ou une critique politique, qui sont des formes d'expression libre protégées.
La société a également noté qu'elle plaide pour ces protections au niveau fédéral, en soutenant le NO FAKES Act à Washington, qui réglementerait l'utilisation de l'IA pour créer des reproductions non autorisées de la voix et de l'apparence visuelle d'un individu.
Pour utiliser le nouvel outil, les testeurs pilotes éligibles doivent d'abord prouver leur identité en téléchargeant un selfie et une pièce d'identité gouvernementale. Ils peuvent ensuite créer un profil, consulter les correspondances qui apparaissent et demander leur suppression si souhaité. YouTube prévoit de donner aux utilisateurs la possibilité d'empêcher le téléchargement de contenu enfreignant les règles avant qu'il ne soit mis en ligne ou, éventuellement, de leur permettre de monétiser ces vidéos, de manière similaire à son système Content ID.
La société n'a pas confirmé quels politiciens ou fonctionnaires seraient parmi ses premiers testeurs, mais a déclaré que l'objectif est de rendre la technologie largement disponible au fil du temps.
Ces vidéos générées par l'IA seront étiquetées comme telles, mais le placement de ces étiquettes n'est pas cohérent. Pour certaines, l'étiquette apparaît dans la description de la vidéo, tandis que les vidéos portant sur des « sujets sensibles » appliqueront l'étiquette au début de la vidéo. C'est la même approche que YouTube adopte pour tout contenu généré par l'IA.
« Il y a beaucoup de contenu produit avec l'IA, mais cette distinction n'est en fait pas matérielle pour le contenu lui-même », a expliqué Amjad Hanif, vice-président des produits créateurs de YouTube, en ce qui concerne le placement de l'étiquette. « Cela pourrait être un dessin animé généré par l'IA. Et donc je pense qu'il y a un jugement sur la question de savoir si c'est une catégorie qui mérite peut-être un avertissement très visible », a-t-il déclaré.
YouTube ne partage actuellement pas combien de suppressions de ce type de deepfakes IA ont été gérées par cette technologie de détection de deepfake entre les mains des créateurs, mais a noté que la quantité de contenu supprimé jusqu'à présent a été « très faible ».
« Je pense que pour beaucoup de [créateurs], il s'agit simplement de la sensibilisation à ce qui est créé, mais le volume des demandes de suppression est vraiment très bas car la plupart s'avèrent assez bénignes ou ajoutent à leur activité globale », a déclaré Hanif.
Cela pourrait ne pas être le cas avec les deepfakes de fonctionnaires gouvernementaux, de politiciens ou de journalistes.
Avec le temps, YouTube a l'intention d'étendre sa technologie de détection de deepfake à d'autres domaines, y compris les voix parlées reconnaissables et d'autres propriétés intellectuelles comme des personnages populaires.
Brief IA — Veille IA en français
Toutes les innovations mondiales en IA, traduites et résumées automatiquement. Recevoir les meilleures actus IA chaque jour.