Vous demandez des conseils perso à l’IA ? Mauvaise idée selon Stanford
Une nouvelle étude de Stanford vient d’être publiée dans la revue Science. Elle met en lumière le risque de l’utilisation des IA comme conseillers personnels.
L’IA a systématiquement tendance à flatter l’utilisateur et à valider ses opinions, même les plus douteuses. Les chercheurs considèrent cela comme de la « flagornerie ». L’étude est d’ailleurs baptisée « L’IA flagorneuse diminue les intentions prosociales et favorise la dépendance ».
Longtemps considérée comme un simple trait de style, cette attitude serait en réalité très répandue et pourrait entraîner des conséquences importantes sur le comportement des utilisateurs.
Une attitude de l’IA qui attire le regard des chercheurs de Stanford
Cette tendance est désormais analysée de près par les chercheurs de Stanford, qui cherchent à en mesurer les effets concrets. Myra Cheng, doctorante à l’université et principale auteure de l’étude, fait partie de ceux qui s’intéressent au sujet.
Elle l’est après avoir découvert que certains étudiants allaient jusqu’à demander à des IA de rédiger des messages de rupture ou de les conseiller sur leur vie sentimentale. Ce phénomène est loin d’être marginal. Les données de Pew Research Center le confirment : 12 % des adolescents américains utilisent déjà des chatbots pour obtenir du soutien émotionnel ou des conseils.
Selon Cheng, le problème vient du fait que les chatbots évitent généralement de contredire leurs utilisateurs. Ils valident, rassurent, accompagnent… et remettent rarement en question.
Or, à force de toujours aller dans le sens de l’utilisateur, ces IA risquent de devenir de faux bons conseillers. Les chercheurs de Stanford ont ainsi tenu à comprendre le phénomène.
Pour ce faire, ils ont analysé 11 modèles de langage. Parmi eux figurent ChatGPT, Claude, Gemini ou encore DeepSeek. Ils ont soumis ces IA à différents types de requêtes, allant des conseils relationnels à des situations moralement discutables, en passant par des cas issus du célèbre forum Reddit « Am I The Asshole ».
Les réponses générées validaient le comportement des utilisateurs 49 % plus souvent que celles formulées par des humains. Dans les cas tirés de Reddit, les internautes avaient majoritairement jugé l’auteur en tort. Pourtant, les chatbots l’ont soutenu dans plus d’un cas sur deux. Même tendance pour les situations impliquant des actions nuisibles ou illégales. L’IA validait les choix de l’utilisateur dans près de la moitié des cas.
Un exemple marquant est celui d’un utilisateur qui a menti à sa compagne pendant deux ans sur sa situation professionnelle. Le chatbot a justifié son comportement et l’a considéré comme une intention sincère.
Une étude sur les utilisateurs
La seconde partie de l’étude s’intéresse directement aux utilisateurs. Plus de 2 400 participants ont interagi avec différents types de chatbots, certains adoptant un ton flatteur, d’autres plus neutres.
Verdict : les IA les plus complaisantes sont aussi celles qui inspirent le plus de confiance. Les participants se disaient plus enclins à suivre leurs conseils… et à revenir vers elles.
Cependant, les réponses les plus problématiques sont aussi celles qui fidélisent le plus les utilisateurs. Un mécanisme que les chercheurs qualifient « d’incitation perverse », dans lequel ce qui nuit à l’utilisateur devient aussi ce qui maximise l’engagement.
Qu’est-ce qu’on risque avec la flagornerie de l’IA ?
Selon Stanford, à terme, cela pourrait affaiblir notre capacité à gérer des situations sociales complexes ou inconfortables. Ce phénomène risque aussi d’influencer nos décisions et notre manière d’interagir avec les autres.
L’étude a par exemple mis en lumière qu’interagir avec une IA flatteuse renforce la conviction d’avoir raison. Les participants exposés à ce type de réponses étaient moins enclins à reconnaître leurs torts ou à présenter des excuses.
Pour Dan Jurafsky, co-auteur de l’étude, ce phénomène pourrait rendre les individus plus rigides dans leurs positions et plus centrés sur eux-mêmes, et ce, sans qu’ils en aient conscience.
Face à ces constats, les chercheurs appellent à considérer la flagornerie de l’IA comme un véritable enjeu de sécurité. Selon eux, ce comportement devrait faire l’objet d’une régulation et d’une surveillance, au même titre que d’autres risques liés à l’intelligence artificielle.
En parallèle, des travaux sont en cours pour rendre les modèles moins complaisants, même si les solutions restent encore expérimentales.
📧
Cet article vous a plu ?
Recevez les 7 meilleures actus IA chaque soir à 19h — résumées en 5 min.