Urgence d’agir sur les deepfakes et les chatbots thérapeutiques dans les écoles

A shattered mirror reflecting a digital avatar

AI : Les écoles doivent agir maintenant face aux deepfakes et aux chatbots thérapeutiques

Les entreprises d’IA ont été confrontées à de nombreux procès en 2025, notamment des affaires intentées par des parents affirmant que ces outils avaient contribué au suicide de leurs enfants adolescents.

Malgré ces affaires judiciaires, les entreprises d’IA continuent d’avancer sous la devise de « donner aux gens ce qu’ils veulent ». Cela a conduit à des développements tels que la fonctionnalité « Cameo » de ChatGPT, permettant d’ajouter des images numériques de personnes dans des scènes artificielles, et Grok, capable de générer des images et vidéos explicites et très réalistes.

Dans le monde entier, les gouvernements s’efforcent désormais de comprendre et de réglementer les implications de ces outils. Cependant, les écoles ne peuvent pas se permettre d’attendre.

Des risques de protection en évolution

L’IA, lorsqu’elle est utilisée de manière sensée, a un potentiel énorme pour soutenir et améliorer l’apprentissage. Elle peut renforcer la pensée critique et fournir un soutien individuel aux apprenants. Cependant, il est crucial de souligner la gravité des nouveaux risques en matière de protection que ces technologies créent.

Les écoles doivent éduquer les enfants sur deux préoccupations spécifiques qui émergent rapidement : les deepfakes et les chatbots en tant que thérapeutes.

Deepfakes : un crime où chacun devient victime

La capacité de créer des images et des vidéos fausses n’est pas nouvelle. Ce qui est nouveau, c’est la facilité et la rapidité avec lesquelles cela peut maintenant être fait. Les enfants, sans compétences techniques et sans logiciels coûteux, peuvent créer des vidéos totalement réalistes en quelques clics.

Il ne faut pas s’attendre à ce que les entreprises d’IA, motivées par le profit, se régulent elles-mêmes. Pendant que ces entreprises se battent en justice, la décision a déjà été prise pour nos élèves. Les réseaux sociaux ont transformé cela en divertissement, mais pour la victime, ce n’est pas un divertissement. Les gouvernements se tournent désormais vers l’application des lois existantes et l’introduction de nouvelles pour protéger les victimes et prévenir la diffusion de tels contenus.

Ce qui est préoccupant, c’est que même si les enfants entendent parler de ces risques, leur cortex préfrontal étant sous-développé, ils réagissent rapidement sans rationaliser les conséquences. La capacité de créer et de partager du contenu illégal et profondément dommageable depuis leur chambre en quelques secondes est désastreuse.

Les chatbots comme thérapeutes

Il y a deux ans, de nombreux enseignants riaient à l’idée que les gens se tournent vers des chatbots d’IA pour aborder des problèmes de santé mentale. Cependant, une étude montre qu’un adulte sur trois a utilisé des chatbots pour soutenir sa santé mentale, et ce chiffre est probablement encore plus élevé chez les adolescents.

Pour les adolescents vulnérables, cela devient dangereux. L’IA ne peut pas agir. Lors de ma formation, on m’a appris que la première règle de la protection est de ne jamais garder ses préoccupations pour soi. Cependant, les chatbots ne peuvent pas faire cela. Ils restent silencieux, gardent le secret, et lorsque les enfants cessent de parler aux humains, ils cessent d’être protégés.

La réponse que doivent apporter les écoles

Les écoles doivent agir rapidement. Il ne faut pas attendre des gouvernements ou des entreprises d’IA qu’ils se régulent. La technologie évolue trop vite.

Il est essentiel de discuter avec les étudiants, d’élever leur niveau de conscience et d’essayer d’équilibrer les récits qu’ils rencontrent sur les réseaux sociaux. Mettre à jour une politique de protection n’est pas suffisant ; le message doit être communiqué. Les écoles doivent créer des vidéos percutantes, changer les leçons, tenir des assemblées scolaires et inviter les parents à des réunions.

Sinon, les enfants deviendront à la fois des cobayes et des boucs émissaires des échecs du jugement des adultes.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...