ChatGPT stocke désormais tous vos fichiers par défaut, et c'est tout sauf anodin
OpenAI offre un cloud personnel à ses abonnés payants. Pratique pour l'utilisateur, stratégique pour une entreprise qui a épuisé les données publiques du web. ChatGPT va stocker tout ce que vous lui envoyez, pour le meilleur et pour le pire.
Fini le temps où chaque nouvelle conversation repartait de zéro. OpenAI déploie « Library », une fonctionnalité qui sauvegarde automatiquement tous les fichiers envoyés à ChatGPT. PDF, tableurs, présentations, images : tout est conservé dans un espace dédié et réutilisable d'une conversation à l'autre. Un confort indéniable, qui soulève des questions moins confortables.
Un cloud qui s'active sans demander la permission
Library fonctionne sur le web uniquement, pour les abonnés Plus, Pro et Business. Les utilisateurs gratuits sont exclus. Ceux de l'Espace économique européen, de la Suisse et du Royaume-Uni aussi. OpenAI ne précise pas de calendrier pour ces marchés, et l'ombre du RGPD n'y est — comme d'habitude avec le déploiement de nouvelles fonctions dans l'outil — pas étrangère.
Le fonctionnement par défaut mérite qu'on s'y arrête. La sauvegarde est activée automatiquement. Chaque fichier transmis dans un échange est archivé sans action de l'utilisateur. Supprimer une conversation ne supprime pas les fichiers associés. Il faut aller les retirer manuellement dans Library. Et même après suppression, OpenAI conserve les données sur ses serveurs pendant 30 jours. Les limites techniques restent classiques : 512 Mo par fichier, 10 Go par compte, 20 Mo par image.
Une transformation en espace de travail persistant
Avec cette brique, ChatGPT poursuit sa mue en espace de travail persistant. Après les « Projets », les connecteurs Google Drive et Slack, puis la recherche approfondie, Library ajoute une couche de rétention qui ancre l'utilisateur dans l'écosystème OpenAI.
Le vrai calcul : vos fichiers privés comme carburant IA
La dimension stratégique dépasse le simple confort d'usage. L'industrie de l'IA traverse une crise de matière première. Les grands modèles de langage ont été entraînés sur l'essentiel du web ouvert. Les textes, images et données publiques accessibles ont été largement exploités. Le prochain gisement, ce sont les données privées.
Or, Library crée exactement ce pipeline. Si l'option « Améliorer le modèle pour tout le monde » reste activée dans les paramètres, OpenAI peut utiliser les fichiers envoyés pour affiner ses modèles. Contrats, notes internes, brouillons, tableaux financiers : autant de documents que personne ne publierait sur le web. Pourtant, des millions d'utilisateurs les confient volontiers à leur assistant IA.
Le calcul est double. D'un côté, le verrouillage : plus un utilisateur accumule de fichiers dans Library, plus le coût de migration vers un concurrent augmente (et quand Anthropic déploie des fonctions de migration pour attirer de nouveaux clients, on assure ses arrières). De l'autre, l'accès à des données d'entraînement d'une qualité inédite, fournies gratuitement par les abonnés eux-mêmes. Le tout enrobé dans une promesse de productivité.
L'exclusion de l'Europe n'est pas un bug. C'est l'aveu que ce modèle, tel qu'il est conçu, ne passe pas le filtre réglementaire du RGPD.
📧
Cet article vous a plu ?
Recevez les 7 meilleures actus IA chaque soir à 19h — résumées en 5 min.