Des vidéos de guerre générées par IA deviennent virales tandis que les images satellites réelles disparaissent de la vue publique

⚡ Résumé en français par Brief IA
• Plus de 110 vidéos et images générées par IA concernant la guerre au Moyen-Orient ont été identifiées en seulement deux semaines. • L'Iran semble utiliser ces faux contenus comme une arme d'information délibérée. • Il devient de plus en plus difficile pour les observateurs indépendants de distinguer le vrai du faux dans le contexte de la désinformation croissante. 💡 Pourquoi c'est important : La prolifération de contenus générés par IA menace la véracité de l'information et complique la tâche des journalistes et des analystes.
📄 Article traduit en français
Des vidéos de guerre générées par IA deviennent virales tandis que les images satellites réelles disparaissent de la vue publique
Au cours des deux premières semaines du conflit entre les États-Unis et l'Iran, le New York Times a identifié plus de 110 images et vidéos générées par IA qui ont atteint des millions de spectateurs, la majorité servant de propagande pro-iranienne, selon la société d'analyse Cyabra.
Les fournisseurs de satellites comme Planet Labs ont prolongé leur délai d'image pour la région de quatre jours à deux semaines, rendant la vérification indépendante plus difficile et créant une opportunité pour que les faux générés par IA comblent le vide.
Des médias allemands tels que Der Spiegel, Zeit et Suddeutsche Zeitung ont également publié des images générées par IA qui avaient été transmises par un réseau d'agences iraniennes.
Le New York Times a documenté l'ampleur de la désinformation générée par IA entourant la guerre entre les États-Unis, Israël et l'Iran : plus de 110 images et vidéos uniques ont été identifiées sur des plateformes comme X, TikTok et Facebook au cours des deux premières semaines du conflit. Ensemble, elles ont atteint une audience de millions.
Les faux couvrent tous les aspects de la guerre : des explosions fabriquées à Tel Aviv, des rues qui n'ont jamais été attaquées, des soldats en protestation qui n'existent pas. Les outils modernes d'IA permettent désormais à pratiquement n'importe qui de créer des simulations de guerre convaincantes pour peu ou pas d'argent. Selon une étude de Cyabra, la majorité de ces faux servent de propagande pro-iranienne. Le chercheur en médias Marc Owen Jones de l'Université Northwestern affirme que l'objectif est d'exagérer la force militaire de l'Iran et de faire apparaître la guerre comme beaucoup plus dévastatrice pour les alliés de l'Amérique qu'elle ne l'est réellement.
Une vidéo fausse particulièrement virale semblait montrer des frappes de missiles touchant la ligne d'horizon de Tel Aviv. Un autre cas concernait l'USS Abraham Lincoln : après que les Gardiens de la Révolution iraniens ont affirmé avoir attaqué le porte-avions, des images générées par IA d'un navire en feu ont inondé les réseaux sociaux. Les États-Unis ont déclaré que l'attaque avait échoué et que le navire n'avait pas été endommagé. Alors que les véritables séquences de combat sont généralement filmées de loin et de nuit, le Times note que les faux générés par IA ressemblent davantage à des films d'action d'Hollywood, avec des nuages en champignon et des missiles hypersoniques lumineux.
Selon Reuters, le président Trump a accusé l'Iran d'utiliser l'IA comme une "arme de désinformation" et, sans fournir de preuves, a accusé les médias occidentaux de "coordination étroite" avec Téhéran. Le président de la FCC, Brendan Carr, a même menacé les diffuseurs de révocation de licence en raison de leur couverture de la guerre.
La désinformation atteint également directement les rédactions allemandes. Der Spiegel a retiré plusieurs images de sa couverture de l'Iran qui étaient très probablement générées par IA. Les photos provenaient de l'agence SalamPix et avaient pénétré dans les bases de données d'images allemandes par l'intermédiaire de l'agence française Abaca Press. En plus de Der Spiegel, des médias tels que Zeit, Suddeutsche Zeitung, WDR, Stern et d'autres ont été touchés. Un photographe iranien a admis avoir alimenté des images provenant d'une plateforme des Gardiens de la Révolution iranienne dans la chaîne d'approvisionnement sans les étiqueter comme telles.
Quand les séquences réelles disparaissent, les faux générés par IA comblent le vide
Pour aggraver les choses, la vérification indépendante devient de plus en plus difficile. L'intelligence open-source (OSINT), l'analyse systématique de sources disponibles publiquement comme les images satellites par des chercheurs et des journalistes, était devenue un outil critique au cours de la dernière décennie pour percer le brouillard de la guerre. Mais cet outil perd maintenant son efficacité.
Selon AFP, Planet Labs, qui exploite la plus grande flotte de satellites d'observation de la Terre au monde, a prolongé le délai pour les images haute résolution de la région de quatre jours à deux semaines. Le blackout couvre tout l'Iran, les bases militaires alliées et les États du Golfe. Le leader du secteur, Vantor (anciennement Maxar), bloque également les images des bases américaines et alliées. Les deux entreprises ont déclaré au Washington Post qu'elles n'agissaient pas sur ordre du gouvernement.
Les critiques soutiennent que ces restrictions pourraient façonner les récits publics sur le conflit et réduire la transparence autour des attaques contre les bases américaines. Les lacunes dans la surveillance en temps réel facilitent également la propagation incontrôlée de la désinformation et du contenu généré par IA, car les images satellites servent souvent de preuve de frappes réussies. Le Tehran Times, aligné sur le régime, a par exemple publié ce qu'il prétendait être une image satellite montrant la destruction d'une installation radar américaine au Qatar - mais il s'est avéré que c'était une image manipulée par IA de Google Earth.
L'analyste OSINT Tal Hagin a résumé le dilemme avec AFP : dans le brouillard de la guerre, il est difficile d'évaluer le succès des attaques ennemies. L'OSINT est apparu comme une solution, utilisant des images satellites disponibles publiquement pour contourner la censure dans des pays comme l'Iran. Mais cette confiance est désormais exploitée par des acteurs de désinformation. De faux comptes OSINT apparaissent sur les réseaux sociaux, présentant des images satellites générées par IA comme de véritables renseignements et sapant le travail des enquêteurs légitimes.
Brief IA — Veille IA quotidienne
Toutes les innovations IA du monde entier, résumées et analysées automatiquement chaque jour.