AI: Le scuole devono agire ora su deepfake e chatbot terapeutici
Le aziende di intelligenza artificiale si sono trovate più volte in tribunale nel 2025, inclusi casi portati da genitori che sostenevano che questi strumenti avessero contribuito al suicidio dei loro figli adolescenti.
Nonostante queste cause legali, le aziende di AI hanno continuato a spingere avanti con il mantra di “dare alle persone ciò che vogliono”. Questo ha portato a sviluppi come la funzione “Cameo” di ChatGPT in Sora 2, dove gli utenti possono aggiungere l’immagine digitale di una persona in scene artificiali, e Grok di Elon Musk, in grado di generare immagini e video espliciti e altamente realistici.
I governi di tutto il mondo stanno ora cercando di comprendere e regolamentare le implicazioni di tali strumenti. Ma le scuole non possono permettersi di aspettare.
Il potenziale dell’AI e i rischi per la sicurezza
Credo fermamente che l’AI, se usata in modo sensato, abbia un enorme potenziale per supportare e migliorare l’apprendimento. Può rafforzare il pensiero critico e fornire supporto individuale agli studenti. Tuttavia, è proprio per questa convinzione che sento una grande pressione nel sottolineare la serietà dei nuovi rischi per la sicurezza che queste tecnologie creano.
Nella mia scuola stiamo cercando di educare i nostri studenti su due preoccupazioni specifiche emerse rapidamente.
Deepfake: un crimine in cui tutti diventano vittime
La capacità di creare immagini e video falsi non è una novità. Ciò che è nuovo è la facilità e la velocità con cui può ora essere fatto. I bambini senza alcuna abilità tecnica e senza software costosi possono creare video falsi ma completamente realistici di celebrità che fanno discorsi razzisti o compiono azioni ridicole con un semplice clic.
Non aspettatevi che le aziende di AI, guidate dal profitto, si autogestiscano. Mentre le aziende di AI sono ancora in tribunale riguardo alla legalità, la decisione è già stata presa per i nostri studenti. I social media hanno trasformato questo in intrattenimento, qualcosa da ridere e condividere tra amici. Ma non è divertente per la vittima. I governi di tutto il mondo stanno ora muovendosi per far rispettare le leggi esistenti e introdurre nuove normative per proteggere le vittime e prevenire la diffusione di tali materiali.
Ciò che è peggio è che, anche se i bambini ne venissero a conoscenza, il loro cervello in sviluppo li porta a reagire rapidamente e a razionalizzare lentamente le conseguenze. La capacità di creare e diffondere materiale illegale e profondamente dannoso da una camera da letto in pochi secondi è quindi disastrosa.
Chatbot come terapisti
Due anni fa, molti insegnanti della mia scuola ridevano all’idea che le persone si sarebbero rivolte ai chatbot per affrontare problemi di salute mentale. Alcuni lo fanno ancora, ma si sbagliano. Uno studio di Mental Health UK riporta che un adulto su tre ha utilizzato chatbot per supportare la propria salute mentale, e la cifra è quasi sicuramente più alta tra gli adolescenti. Uno strumento disponibile 24 ore su 24, 7 giorni su 7, infinitamente paziente e sempre comprensivo è confortante.
Tuttavia, per gli adolescenti vulnerabili, questo sta diventando pericoloso. L’AI fa molte cose, ma ciò che non può fare è agire. Quando mi sono formato come insegnante, mi è stato insegnato che la prima regola della sicurezza è non tenere per sé le preoccupazioni. Segnalarle e seguirle è fondamentale. Questo è esattamente ciò che i chatbot non fanno e non possono fare.
La risposta che le scuole devono fornire
Non guardate ai governi. Non aspettatevi che le aziende di AI, guidate dal profitto, si autogestiscano. Non aspettate rapporti e studi. La tecnologia si muove semplicemente troppo velocemente.
Parlate con i vostri studenti. Aumentate la loro consapevolezza. Cercate di bilanciare le narrazioni che incontrano ogni giorno sui social media. Aggiornare una politica di sicurezza non è sufficiente. Il messaggio deve essere trasmesso. Nella nostra scuola abbiamo creato video d’impatto ma orientati agli studenti, modificato le lezioni di educazione personale e sociale, tenuto assemblee scolastiche e invitato i genitori a incontri.
Altrimenti, i bambini diventano sia il caso di prova sia il capro espiatorio per i fallimenti del giudizio degli adulti.