Les jouets IA peuvent poser des problèmes de sécurité pour les enfants, une nouvelle étude suggère la prudence

⚡ Résumé en français par Brief IA
• Une étude récente met en lumière les préoccupations de sécurité liées aux jouets dotés d'intelligence artificielle pour les enfants. • L'interaction entre un enfant et un jouet IA a révélé des réponses programmées qui rappellent les directives d'utilisation. • Ce phénomène soulève des questions sur la réglementation et la sécurité des jouets interactifs à l'ère numérique. 💡 Pourquoi c'est important : La sécurité des enfants face à l'IA est cruciale pour le développement de produits et la confiance des consommateurs.
📄 Article traduit en français
Les jouets IA peuvent poser des problèmes de sécurité pour les enfants, une nouvelle étude suggère la prudence
Une nouvelle étude de l'Université de Cambridge a révélé que les jouets dotés d'IA pour les jeunes enfants peuvent mal interpréter les signaux émotionnels et ne sont pas efficaces pour soutenir le jeu développemental critique. Les conclusions pourraient inquiéter les parents.
Dans un rapport examinant comment l'IA affecte les enfants dans leurs premières années, un jouet équipé d'un chatbot a eu des difficultés à reconnaître les signaux sociaux pendant le temps de jeu. Les chercheurs ont constaté que le jouet n'identifiait pas efficacement les émotions des enfants, soulevant des inquiétudes quant à la manière dont les enfants pourraient interagir avec lui. Le rapport recommande de réglementer les jouets IA pour les enfants et d'exiger un étiquetage clair de leurs capacités et de leurs politiques de confidentialité. Il conseille également aux parents de garder ces dispositifs dans des espaces partagés où les enfants peuvent être surveillés pendant qu'ils jouent.
La recherche derrière l'étude a impliqué un nombre limité de participants, mais a été réalisée en plusieurs parties : une enquête en ligne auprès de 39 participants ayant des enfants en bas âge, un groupe de discussion avec neuf participants travaillant avec de jeunes enfants, et un atelier en personne avec 19 leaders et représentants d'organisations caritatives travaillant avec des enfants en bas âge. Cela a été suivi d'un temps de jeu surveillé avec 14 enfants et 11 parents ou tuteurs utilisant Gabbo, un jouet équipé d'un chatbot de Curio Interactive.
Certaines conclusions ont indiqué que le jouet IA soutenait l'apprentissage, notamment dans les compétences linguistiques et de communication. Cependant, le jouet a également mal compris les enfants et a parfois répondu de manière inappropriée à des demandes émotionnelles. Par exemple, lorsqu'un enfant a dit au jouet : "Je t'aime", il a répondu : "En tant que rappel amical, veuillez vous assurer que les interactions respectent les directives fournies. Faites-moi savoir comment vous souhaitez procéder", selon la recherche.
Jenny Gibson, professeure de neurodiversité et de psychologie du développement à la Faculté de l'Éducation de Cambridge, qui a participé à l'étude, a déclaré que bien que les parents puissent être enthousiasmés par les avantages éducatifs des nouvelles technologies destinées aux enfants, de nombreuses préoccupations demeurent.
Gibson a soulevé des questions fondamentales sur la raison d'être de cette technologie. "Qu'est-ce qui motiverait [les investisseurs technologiques] à agir dans l'intérêt des enfants... à mettre les enfants avant les profits ?" a-t-elle déclaré.
Gibson a indiqué à CNET que bien que les chercheurs explorent les avantages potentiels des jouets basés sur l'IA, des risques subsistent. "Je conseillerais aux parents de prendre cela au sérieux à ce stade", a-t-elle ajouté.
Quelles sont les prochaines étapes pour les jouets IA
À mesure que de plus en plus de jouets sont dotés de connectivité Internet et de fonctionnalités IA, ces dispositifs pourraient devenir un risque majeur pour la sécurité des enfants, surtout s'ils remplacent de véritables connexions humaines ou si les interactions ne sont pas étroitement surveillées.
Parallèlement, les jeunes adoptent de plus en plus des chatbots tels que ChatGPT, malgré des signaux d'alerte. Plusieurs poursuites judiciaires contre des entreprises d'IA allèguent que les compagnons ou assistants IA peuvent affecter la sécurité psychologique des jeunes, y compris certains chatbots qui ont encouragé l'automutilation ou une image de soi négative.
Des entreprises d'IA telles qu'OpenAI et Google ont réagi en ajoutant des garde-fous et des restrictions pour les chatbots IA.
Gibson a déclaré qu'elle était surprise par l'enthousiasme que certains parents manifestaient pour les jouets IA. Elle a également été alarmée par le manque de recherche sur les effets de l'IA sur les jeunes enfants, notant que les entreprises fabriquant de tels produits devraient travailler directement avec les enfants, les parents et les experts en développement de l'enfant. "Ce qui manque dans le processus, c'est cette expertise sur ce qui est bon pour les enfants dans ce type d'interactions", a-t-elle déclaré.
Curio Interactive, l'entreprise derrière le jouet Gabbo, était au courant de la recherche pendant qu'elle se déroulait mais n'était pas directement impliquée, a déclaré Gibson. Le jouet a été choisi car il est directement commercialisé auprès des jeunes enfants, et l'entreprise avait une politique de confidentialité compréhensible. Gibson a indiqué que l'entreprise semblait soutenir le projet.
Un représentant de Curio n'a pas immédiatement répondu à une demande de commentaire.
Brief IA — Veille IA en français
Toutes les innovations mondiales en IA, traduites et résumées automatiquement. Recevoir les meilleures actus IA chaque jour.