Nous ne savons pas si les jouets alimentés par l’IA sont sûrs, mais ils sont là de toute façon
Les modèles d’IA les plus avancés peuvent présenter des informations erronées comme des faits, diffuser des informations dangereuses et échouer à saisir les signaux sociaux. Malgré cela, les jouets équipés d’IA capables de discuter avec les enfants constituent une industrie en pleine expansion.
Les préoccupations des scientifiques
Certaines scientifiques mettent en garde contre le risque que représentent ces dispositifs, soulignant la nécessité d’une réglementation stricte. Dans une étude récente, des chercheurs ont même observé un enfant de cinq ans dire « Je t’aime » à un tel jouet, qui a répondu : « En guise de rappel amical, veuillez vous assurer que les interactions respectent les directives fournies. Faites-moi savoir comment vous souhaitez procéder. »
Cependant, il ne s’agit pas de bannir complètement ces jouets. Selon certains experts, accepter un certain degré de risque dans le jeu des enfants est inévitable, semblable aux aires de jeux d’aventure où des accidents peuvent survenir.
Observations sur les interactions avec les jouets IA
Pour comprendre comment ces dispositifs communiquent avec les enfants, des chercheurs ont observé des interactions entre 14 enfants de moins de six ans et un jouet appelé Gabbo, développé pour ce groupe d’âge. Ils ont noté des interactions préoccupantes, constatant que le jouet ne comprenait pas les enfants, mal interprétait leurs émotions et ne pouvait pas s’engager dans des types de jeu importants pour le développement.
Par exemple, un enfant a dit au jouet qu’il se sentait triste, et le jouet a changé de sujet. Une autre interaction a révélé la frustration d’un enfant face à l’incapacité du jouet à comprendre ses sentiments.
Les entreprises et leur approche
Les jouets alimentés par IA se trouvent largement disponibles dans le commerce, avec des entreprises proposant une variété d’options qui conversent avec les enfants. Certaines entreprises affirment prendre en compte les risques et considèrent l’IA comme un moyen d’enrichir le jeu, tout en mettant en place des mécanismes pour garantir des interactions sûres et appropriées.
Des experts en éthique de l’IA soulignent que cette technologie représente à la fois un risque et une opportunité. La plupart des modèles de langage ne semblent pas suffisamment sûrs pour exposer des populations vulnérables, comme les jeunes enfants, à leurs contenus.
Les implications de l’utilisation des jouets IA
Il est encore trop tôt pour évaluer les risques potentiels des jouets alimentés par IA ou leurs bénéfices. Les chercheurs insistent sur la nécessité d’une réglementation plus stricte pour que les fabricants programment leurs dispositifs afin de favoriser le jeu social et de fournir des réponses émotionnelles appropriées.
En attendant, il est recommandé aux parents de superviser l’utilisation de ces jouets par leurs enfants. Des appels ont été lancés pour établir des normes de sécurité afin de protéger la santé psychologique des enfants.
Conclusion
Le développement de jouets intelligents alimentés par IA soulève des questions complexes sur la sécurité et le bien-être des enfants. Alors que ces dispositifs peuvent offrir des bénéfices potentiels en matière d’interaction et d’apprentissage, il est crucial d’évaluer et de réguler leur utilisation pour assurer la sécurité des jeunes utilisateurs.