Gemini facilite l'accès aux ressources de santé mentale pour les utilisateurs en détresse
Google a annoncé avoir mis à jour Gemini pour mieux orienter les utilisateurs vers des ressources de santé mentale en cas de crise. Cette modification intervient alors que le géant technologique fait face à un procès pour décès injustifié, alléguant que son chatbot a "coché" un homme vers le suicide, s'ajoutant à une série de poursuites accusant les produits d'IA de causer des dommages tangibles.
Lorsque la conversation indique qu'un utilisateur est en crise potentielle liée au suicide ou à l'automutilation, Gemini active déjà un module intitulé "Aide disponible" qui dirige les utilisateurs vers des ressources de crise en santé mentale, telles qu'une ligne d'assistance téléphonique pour le suicide ou une ligne de texte de crise. Google affirme que la mise à jour — qui est en réalité plus une refonte — simplifiera cela en une interface "à un toucher" qui facilitera l'accès rapide à l'aide.
Le module d'aide contient également des réponses plus empathiques conçues "pour encourager les gens à demander de l'aide", selon Google. Une fois activé, "l'option de contacter un professionnel de l'aide restera clairement disponible" pour le reste de la conversation.
Google a déclaré avoir collaboré avec des experts cliniques pour cette refonte et s'engage à soutenir les utilisateurs en crise. L'entreprise a également annoncé un financement de 30 millions de dollars à l'échelle mondiale au cours des trois prochaines années "pour aider les lignes d'assistance mondiales".
Comme d'autres fournisseurs de chatbots, Google a souligné que Gemini "n'est pas un substitut aux soins cliniques professionnels, à la thérapie ou au soutien en cas de crise", mais a reconnu que de nombreuses personnes l'utilisent pour obtenir des informations sur la santé, y compris lors de moments de crise.
Cette mise à jour intervient dans un contexte de surveillance accrue sur l'adéquation des mesures de protection de l'industrie. Des rapports et enquêtes, y compris notre enquête sur la fourniture de ressources de crise, signalent fréquemment des cas où les chatbots échouent à aider les utilisateurs vulnérables, en les aidant à cacher des troubles alimentaires ou à planifier des fusillades. Google obtient souvent de meilleurs résultats que de nombreux concurrents dans ces tests, mais n'est pas parfait. D'autres entreprises d'IA, y compris OpenAI et Anthropic, ont également pris des mesures pour améliorer leur détection et leur soutien aux utilisateurs vulnérables.
📧
Cet article vous a plu ?
Recevez les 7 meilleures actus IA chaque soir à 19h — résumées en 5 min.
