Scuole: urgenti interventi su deepfake e chatbot terapeutici

AI: Le scuole devono agire ora su deepfake e chatbot terapeutici

Le aziende di intelligenza artificiale si sono trovate più volte in tribunale nel 2025, inclusi casi portati da genitori che sostenevano che questi strumenti avessero contribuito al suicidio dei loro figli adolescenti.

Nonostante queste cause legali, le aziende di AI hanno continuato a spingere avanti con il mantra di “dare alle persone ciò che vogliono”. Questo ha portato a sviluppi come la funzione “Cameo” di ChatGPT in Sora 2, dove gli utenti possono aggiungere l’immagine digitale di una persona in scene artificiali, e Grok di Elon Musk, in grado di generare immagini e video espliciti e altamente realistici.

I governi di tutto il mondo stanno ora cercando di comprendere e regolamentare le implicazioni di tali strumenti. Ma le scuole non possono permettersi di aspettare.

Il potenziale dell’AI e i rischi per la sicurezza

Credo fermamente che l’AI, se usata in modo sensato, abbia un enorme potenziale per supportare e migliorare l’apprendimento. Può rafforzare il pensiero critico e fornire supporto individuale agli studenti. Tuttavia, è proprio per questa convinzione che sento una grande pressione nel sottolineare la serietà dei nuovi rischi per la sicurezza che queste tecnologie creano.

Nella mia scuola stiamo cercando di educare i nostri studenti su due preoccupazioni specifiche emerse rapidamente.

Deepfake: un crimine in cui tutti diventano vittime

La capacità di creare immagini e video falsi non è una novità. Ciò che è nuovo è la facilità e la velocità con cui può ora essere fatto. I bambini senza alcuna abilità tecnica e senza software costosi possono creare video falsi ma completamente realistici di celebrità che fanno discorsi razzisti o compiono azioni ridicole con un semplice clic.

Non aspettatevi che le aziende di AI, guidate dal profitto, si autogestiscano. Mentre le aziende di AI sono ancora in tribunale riguardo alla legalità, la decisione è già stata presa per i nostri studenti. I social media hanno trasformato questo in intrattenimento, qualcosa da ridere e condividere tra amici. Ma non è divertente per la vittima. I governi di tutto il mondo stanno ora muovendosi per far rispettare le leggi esistenti e introdurre nuove normative per proteggere le vittime e prevenire la diffusione di tali materiali.

Ciò che è peggio è che, anche se i bambini ne venissero a conoscenza, il loro cervello in sviluppo li porta a reagire rapidamente e a razionalizzare lentamente le conseguenze. La capacità di creare e diffondere materiale illegale e profondamente dannoso da una camera da letto in pochi secondi è quindi disastrosa.

Chatbot come terapisti

Due anni fa, molti insegnanti della mia scuola ridevano all’idea che le persone si sarebbero rivolte ai chatbot per affrontare problemi di salute mentale. Alcuni lo fanno ancora, ma si sbagliano. Uno studio di Mental Health UK riporta che un adulto su tre ha utilizzato chatbot per supportare la propria salute mentale, e la cifra è quasi sicuramente più alta tra gli adolescenti. Uno strumento disponibile 24 ore su 24, 7 giorni su 7, infinitamente paziente e sempre comprensivo è confortante.

Tuttavia, per gli adolescenti vulnerabili, questo sta diventando pericoloso. L’AI fa molte cose, ma ciò che non può fare è agire. Quando mi sono formato come insegnante, mi è stato insegnato che la prima regola della sicurezza è non tenere per sé le preoccupazioni. Segnalarle e seguirle è fondamentale. Questo è esattamente ciò che i chatbot non fanno e non possono fare.

La risposta che le scuole devono fornire

Non guardate ai governi. Non aspettatevi che le aziende di AI, guidate dal profitto, si autogestiscano. Non aspettate rapporti e studi. La tecnologia si muove semplicemente troppo velocemente.

Parlate con i vostri studenti. Aumentate la loro consapevolezza. Cercate di bilanciare le narrazioni che incontrano ogni giorno sui social media. Aggiornare una politica di sicurezza non è sufficiente. Il messaggio deve essere trasmesso. Nella nostra scuola abbiamo creato video d’impatto ma orientati agli studenti, modificato le lezioni di educazione personale e sociale, tenuto assemblee scolastiche e invitato i genitori a incontri.

Altrimenti, i bambini diventano sia il caso di prova sia il capro espiatorio per i fallimenti del giudizio degli adulti.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...