Un Français pose cette question à ChatGPT : le RAID et le FBI déboulent chez lui
Un Français pose cette question à ChatGPT : le RAID et le FBI déboulent chez lui
Ce Strasbourgeois de 37 ans voulait juste tester la surveillance de l’intelligence artificielle. Et sa petite expérience lui a coûté cher.
Sa conversation avec un chatbot IA a déclenché l’alerte du FBI et traversé l’Atlantique pour se retrouver sous le radar des autorités françaises. Le vendredi 3 avril 2026, le RAID, l’unité d’élite de la police nationale, a donc frappé à sa porte à Strasbourg, comme le rapporte Les Dernières Nouvelles d’Alsace.
Quelle conversation a-t-il eu avec l’IA pour affoler le FBI ?
Eh bien, il faut croire qu’il a joué avec le feu. Il aurait confié à son chatbot qu’il prévoyait d’acheter un Glock pour tuer un agent de la CIA, du Mossad ou de la DGSI.
Même si la menace était fictive, le FBI a été alerté, probablement par le développeur de l’intelligence artificielle. Informés par le FBI, les services français se sont appuyés sur Pharos, la plateforme officielle pour signaler les contenus ou comportements illégaux sur Internet.
Les informations transmises ont poussé les forces de l’ordre à l’interpeller. Le RAID a investi le domicile du trentenaire vendredi dernier, mais aucune arme n’a été trouvée sur place.
Et puisque notre ami le Strasbourgeois a expliqué qu’il souhaitait uniquement évaluer la fiabilité de l’IA, l’affaire a été classée sans suite. Il est sorti de garde à vue dès le lendemain.
Évidemment, compte tenu de ses antécédents psychiatriques, il a été hospitalisé.
Que faut-il retenir ?
Cette situation est la preuve que ce qui se passe à Vegas ne reste pas forcément à Vegas. Comme le précise OpenAI, l’entreprise derrière ChatGPT, nos échanges peuvent être transmis aux autorités. Et ce, pour protéger la sécurité, l’intégrité et la sûreté de ses produits, de ses employés ou du public.
Plus largement, toute violation des conditions d’utilisation peut entraîner le partage de données avec les autorités compétentes. Dans ses règles, ChatGPT mentionne qu’en cas de danger grave et imminent, certains propos peuvent être transmis à des équipes humaines, voire à des autorités.
La politique de confidentialité précise même que l’entreprise de Sam Altman peut aller jusqu’à partager des informations personnelles. Un compte peut d’ailleurs être suspendu ou fermé si le risque estimé est trop élevé.
Chez les autres géants de l’IA, le ton est similaire. Anthropic, par exemple, qui développe Claude, n’ouvre pas les informations des utilisateurs aux gouvernements, sauf en cas d’urgence pouvant entraîner un danger imminent de mort ou de blessure grave.
Contrairement à OpenAI, l’entreprise s’engage à contester les demandes trop larges ou vagues. Google, pour sa part, peut partager certains messages échangés via Gemini afin de protéger la sécurité des utilisateurs et du public.
Alors, faites attention à ce que vous dites à l’IA !
Brief IA — Veille IA quotidienne
Toutes les innovations IA du monde entier, résumées et analysées automatiquement chaque jour.