Pourquoi les plateformes laissent-elles proliférer les contenus générés par IA liés à la guerre ?

⚡ Résumé en français par Brief IA
📄 Article traduit en français
Pourquoi les plateformes laissent-elles proliférer les contenus générés par IA liés à la guerre ?
Une pluie de missiles s’abattant sur la ville israélienne de Tel-Aviv, des soldats américains capturés par l’armée iranienne, le Burj Khalifa, gratte-ciel emblématique de Dubaï, en flammes… Vues par des dizaines de millions d’internautes, ces vidéos ont été fabriquées de toutes pièces pour alimenter la propagande iranienne. D’une ampleur inédite dans le cadre d’un conflit armé, un flot de contenus générés par intelligence artificielle (IA) prolifère sur les réseaux sociaux depuis le début de l’attaque israélo-américaine sur l’Iran.
Mardi 10 mars, Meta, propriétaire de Facebook et Instagram, s’est fait épingler par son Oversight Board (« conseil de surveillance »), un organe composé d’experts indépendants chargés par l’entreprise d’analyser la modération de ses plateformes. « Meta doit faire davantage pour lutter contre la prolifération de contenus trompeurs générés par l’IA », peut-on lire dans le communiqué de l’Oversight Board. Il avait été saisi en 2025, lors de la « guerre de douze jours » entre Israël et l’Iran, à propos d’une fausse vidéo mettant en scène des immeubles détruits dans la ville israélienne d’Haïfa. Six utilisateurs avaient effectué un signalement auprès de Meta, resté sans suite.
Brief IA — Veille IA en français
Toutes les innovations mondiales en IA, traduites et résumées automatiquement. Recevoir les meilleures actus IA chaque jour.