AI : Les écoles doivent agir maintenant face aux deepfakes et aux chatbots thérapeutiques
Les entreprises d’IA ont été confrontées à de nombreux procès en 2025, notamment des affaires intentées par des parents affirmant que ces outils avaient contribué au suicide de leurs enfants adolescents.
Malgré ces affaires judiciaires, les entreprises d’IA continuent d’avancer sous la devise de « donner aux gens ce qu’ils veulent ». Cela a conduit à des développements tels que la fonctionnalité « Cameo » de ChatGPT, permettant d’ajouter des images numériques de personnes dans des scènes artificielles, et Grok, capable de générer des images et vidéos explicites et très réalistes.
Dans le monde entier, les gouvernements s’efforcent désormais de comprendre et de réglementer les implications de ces outils. Cependant, les écoles ne peuvent pas se permettre d’attendre.
Des risques de protection en évolution
L’IA, lorsqu’elle est utilisée de manière sensée, a un potentiel énorme pour soutenir et améliorer l’apprentissage. Elle peut renforcer la pensée critique et fournir un soutien individuel aux apprenants. Cependant, il est crucial de souligner la gravité des nouveaux risques en matière de protection que ces technologies créent.
Les écoles doivent éduquer les enfants sur deux préoccupations spécifiques qui émergent rapidement : les deepfakes et les chatbots en tant que thérapeutes.
Deepfakes : un crime où chacun devient victime
La capacité de créer des images et des vidéos fausses n’est pas nouvelle. Ce qui est nouveau, c’est la facilité et la rapidité avec lesquelles cela peut maintenant être fait. Les enfants, sans compétences techniques et sans logiciels coûteux, peuvent créer des vidéos totalement réalistes en quelques clics.
Il ne faut pas s’attendre à ce que les entreprises d’IA, motivées par le profit, se régulent elles-mêmes. Pendant que ces entreprises se battent en justice, la décision a déjà été prise pour nos élèves. Les réseaux sociaux ont transformé cela en divertissement, mais pour la victime, ce n’est pas un divertissement. Les gouvernements se tournent désormais vers l’application des lois existantes et l’introduction de nouvelles pour protéger les victimes et prévenir la diffusion de tels contenus.
Ce qui est préoccupant, c’est que même si les enfants entendent parler de ces risques, leur cortex préfrontal étant sous-développé, ils réagissent rapidement sans rationaliser les conséquences. La capacité de créer et de partager du contenu illégal et profondément dommageable depuis leur chambre en quelques secondes est désastreuse.
Les chatbots comme thérapeutes
Il y a deux ans, de nombreux enseignants riaient à l’idée que les gens se tournent vers des chatbots d’IA pour aborder des problèmes de santé mentale. Cependant, une étude montre qu’un adulte sur trois a utilisé des chatbots pour soutenir sa santé mentale, et ce chiffre est probablement encore plus élevé chez les adolescents.
Pour les adolescents vulnérables, cela devient dangereux. L’IA ne peut pas agir. Lors de ma formation, on m’a appris que la première règle de la protection est de ne jamais garder ses préoccupations pour soi. Cependant, les chatbots ne peuvent pas faire cela. Ils restent silencieux, gardent le secret, et lorsque les enfants cessent de parler aux humains, ils cessent d’être protégés.
La réponse que doivent apporter les écoles
Les écoles doivent agir rapidement. Il ne faut pas attendre des gouvernements ou des entreprises d’IA qu’ils se régulent. La technologie évolue trop vite.
Il est essentiel de discuter avec les étudiants, d’élever leur niveau de conscience et d’essayer d’équilibrer les récits qu’ils rencontrent sur les réseaux sociaux. Mettre à jour une politique de protection n’est pas suffisant ; le message doit être communiqué. Les écoles doivent créer des vidéos percutantes, changer les leçons, tenir des assemblées scolaires et inviter les parents à des réunions.
Sinon, les enfants deviendront à la fois des cobayes et des boucs émissaires des échecs du jugement des adultes.