Brief IA

Stop telling AI your secrets - 5 reasons why, and what to do if you already overshared

⚖️ Regulation & Ethicsvia ZDNet IA·

Stop telling AI your secrets - 5 reasons why, and what to do if you already overshared

Stop telling AI your secrets - 5 reasons why, and what to do if you already overshared
En bref
1Les conversations décontractées avec des chatbots peuvent avoir des implications majeures sur la vie privée.
2Les utilisateurs doivent être conscients des risques associés à la divulgation d'informations personnelles.
3Dans un contexte où l'IA est de plus en plus intégrée dans la vie quotidienne, la protection des données personnelles devient cruciale.
💡Pourquoi c'est importantLa gestion des données personnelles est essentielle pour maintenir la confiance des utilisateurs dans les technologies d'IA.
📄
Article traduit en français

Ne partagez pas vos secrets avec l'IA - 5 raisons et que faire si vous avez déjà trop dit

Vos conversations décontractées avec des chatbots pourraient avoir des implications majeures en matière de confidentialité.

À une époque où les gens intègrent de plus en plus les chatbots dans leur vie quotidienne, les chercheurs tentent de comprendre les conséquences de la divulgation d'informations personnelles à l'IA. En effet, 43 % des travailleurs affirment avoir partagé des informations sensibles avec l'IA, y compris des données financières et des informations sur des clients.

Vous avez probablement entendu des histoires de personnes établissant des relations romantiques avec des chatbots ou les utilisant comme coachs de vie et thérapeutes. En fait, un peu plus de la moitié des adultes américains utilisent des modèles de langage avancés, selon une étude de 2025 de l'Université Elon. De plus, les chatbots sont conçus pour être amicaux et inciter les gens à discuter d'eux-mêmes.

1. Mémorisation, prédiction, surveillance

Quel est le risque de donner des informations sensibles à un chatbot ? Personne n'est vraiment sûr, et c'est justement le problème. Une question que se posent les chercheurs est de savoir si les modèles mémorisent les informations et, si oui, si ces informations peuvent être récupérées mot pour mot ou presque. La mémorisation est en fait l'une des plaintes principales dans le procès du New York Times contre OpenAI.

Jennifer King, chercheuse en politique de confidentialité et de données à l'Institut d'Intelligence Artificielle Centrée sur l'Homme de Stanford, souligne que nous dépendons beaucoup des entreprises pour faire ce qu'il faut et mettre en place des garde-fous pour empêcher la divulgation de données mémorisées.

Sur Internet, de nombreuses informations personnelles circulent, y compris dans des dossiers publics, qui pourraient finir par être utilisées comme données d'entraînement. Une préoccupation est que toutes ces données pourraient être utilisées pour la surveillance.

2. Vos paramètres pourraient être trop laxistes

Bien que les paramètres des plateformes puissent souvent être labyrinthiques, il vaut la peine de prendre le temps de comprendre vos options. Certains chatbots, comme Claude et ChatGPT, offrent des discussions privées. Si vous utilisez le chat incognito de Claude, votre conversation ne sera pas enregistrée dans votre historique de chat ni utilisée pour l'entraînement.

Il peut également y avoir d'autres options sur les plateformes pour supprimer les historiques de chat ou choisir de ne pas avoir votre chat utilisé dans les données d'entraînement des modèles.

3. Les émotions révèlent un contexte supplémentaire

La plupart des gens sont probablement habitués à un certain niveau de divulgation sur Internet. Une conversation avec un chatbot, cependant, ajoute encore plus d'informations et de contexte. Une requête de recherche est beaucoup moins révélatrice, surtout en ce qui concerne votre état émotionnel, qu'un transcript de chat détaillant vos pensées et sentiments les plus intimes.

4. Des humains pourraient lire vos messages

L'IA, comme on le sait, n'est pas humaine. Pour certaines personnes, ce concept peut les rendre plus à l'aise pour partager des informations sensibles. Cependant, cela ne signifie pas qu'un humain ne pourrait pas lire vos messages. Certaines plateformes utilisent des humains pour l'apprentissage par renforcement, où les systèmes sont formés en partie sur la base des contributions humaines.

5. La réglementation est à la traîne

Ce qui rend ces points particulièrement délicats est le manque de réglementation concernant la manière dont les entreprises d'IA stockent les données sensibles. Par exemple, la California Consumer Privacy Act a des exigences spécifiques concernant le traitement des données comme les dossiers médicaux, mais la réglementation aux États-Unis peut varier d'un État à l'autre, et au niveau fédéral, il n'y a pas de réglementation.

Que faire si vous avez dit trop de choses…

Si vous vous sentez mal à l'aise parce que vous avez peut-être déjà divulgué trop d'informations à un chatbot, vous avez quelques options. King recommande de supprimer les anciennes conversations et les personnalisations que vous avez pu faire pour l'avenir. Que ces étapes suppriment vos informations des données d'entraînement, les chercheurs ne le savent pas. Chaque plateforme a ses propres politiques et méthodes de gestion des données personnelles, ce qui peut nécessiter un certain temps de recherche.

TwitterLinkedIn

Brief IA — Veille IA quotidienne

Toutes les innovations IA du monde entier, résumées et analysées automatiquement chaque jour.