La sicurezza dei teenager nell’era dell’IA

Il Ruolo dell’UE nella Sicurezza dei Minori nell’Intelligenza Artificiale: Controlli di OpenAI e Meta

Le notizie sembrano rassicuranti: OpenAI ha introdotto controlli parentali per ChatGPT, consentendo ai genitori di collegare i propri account con quelli dei propri adolescenti e regolare le impostazioni per ciò che l’azienda definisce un’esperienza “sicura e adatta all’età“. L’azienda ha anche annunciato di sviluppare un algoritmo di previsione dell’età per guidare gli utenti verso contenuti adatti, coinvolgendo potenzialmente le forze dell’ordine in rari casi di grave disagio. Meta ha fatto un annuncio simile, promettendo di addestrare i suoi chatbot per evitare di interagire con gli adolescenti su argomenti sensibili come suicidio, autolesionismo e disturbi alimentari, indirizzandoli invece a risorse di supporto professionale.

In mezzo a crescenti preoccupazioni sui pericoli che i chatbot possono rappresentare per i giovani, le aziende tecnologiche sembrano intensificare gli sforzi per affrontare questi rischi per la salute mentale. Un portavoce di Meta ha dichiarato che, per ora, limiterà l’accesso degli adolescenti a un gruppo selezionato di personaggi AI, con aggiornamenti previsti nelle prossime settimane.

Reazioni alle Misure Aziendali

Tuttavia, le recenti promesse aziendali non sono emerse da considerazioni proattive sulla sicurezza, ma da cause legali, come nel caso di un ragazzo adolescente negli Stati Uniti i cui genitori affermano che un chatbot ha incoraggiato il suo suicidio. Naomi Baron, professore emerito presso l’Università Americana di Washington, DC, sostiene che queste misure aziendali, “sebbene siano un passo nella giusta direzione”, non sono sufficienti. Misure come i nuovi controlli parentali di OpenAI e gli emergenti algoritmi di previsione dell’età, afferma, “non risolveranno il problema.” Ciò che è necessario, secondo Baron, sono “disincentivi per gli utenti di tutte le età a diventare dipendenti da programmi AI progettati per sostituire gli esseri umani come fonti di compagnia e consiglio.”

Il Livello Normativo dell’UE

A livello politico, l’Atto sull’IA dell’UE offre un quadro normativo che include misure per mitigare i rischi per la salute mentale posti dai chatbot. Tuttavia, il quadro giuridico attuale dell’UE continua a trattare tali incidenti come eventi sfortunati piuttosto che conseguenze prevedibili dell’implementazione di potenti AI conversazionali senza sufficienti salvaguardie.

L’Atto sull’IA dell’UE non affronta le complessità di come i sistemi AI operano effettivamente nella pratica. Molti chatbot rientrano ancora nella categoria di rischio limitato, che richiede solo una trasparenza di base riguardo agli utenti che interagiscono con le macchine, lasciando molte preoccupazioni per la salute mentale non affrontate.

Critiche e Limiti dell’Atto sull’IA

Il membro del Parlamento europeo Brando Benifei, uno dei co-relatori dell’Atto sull’IA, sottolinea che, oltre ai requisiti di trasparenza, “ai sensi del Capitolo II, Articolo 5 dell’Atto, tutti i sistemi AI sono tenuti a conformarsi ai divieti contro tecniche manipolative che potrebbero distorcere materialmente il comportamento e causare danni significativi.”

Queste disposizioni sono rilevanti per la salute mentale, poiché i chatbot AI possono manipolare le emozioni e i comportamenti degli utenti in modi che influenzano negativamente il loro benessere. Tuttavia, il “standard intenzionale” crea un significativo onere probatorio, richiedendo ai regolatori di accedere a comunicazioni aziendali e documentazione tecnica strettamente custodite che le aziende difficilmente divulgheranno volontariamente.

Inoltre, l’Atto sull’IA fornisce salvaguardie più forti attraverso una valutazione completa dei rischi, “affrontando specificamente le preoccupazioni per la salute mentale”. Le “AI più commercialmente di successo come ChatGPT” ricadono sotto obblighi per l’IA di uso generale con rischi sistemici, “richiedendo ai fornitori di valutare e mitigare i rischi, compresi quelli posti alla salute pubblica mentale.”

Linee Guida dell’UE e Problemi di Verifica dell’Età

Recenti sviluppi legislativi dell’UE evidenziano ulteriormente il divario tra il riconoscimento dei problemi e l’implementazione di reali salvaguardie. Nel luglio 2025, la Commissione Europea ha pubblicato le sue linee guida sulla protezione dei minori online. Il documento promette un passo avanti: stabilisce aspettative riguardo ai meccanismi di escalation, verifica dell’età e audit indipendenti per le piattaforme online. Tuttavia, il problema è inscritto nel formato. Le linee guida sono consigliate, non vincolanti.

La verifica dell’età è un esempio chiave. La Commissione esorta le aziende a implementare meccanismi di assicurazione dell’età, ma si ferma prima di richiederli. Il risultato è un mosaico in cui alcuni dei chatbot più ampiamente utilizzati, come Claude AI e DeepSeek, si basano su poco più di caselle di controllo che chiedono agli utenti di confermare di avere più di 18 anni.

Problemi di Falsi Positivi e Negativi

Oltre alle carenze normative, quando le aziende implementano salvaguardie, sia le sfide tecniche che quelle etiche rivelano perché i quadri normativi non possono fare affidamento solo su misure aziendali volontarie. I sistemi di prevenzione al suicidio nei chatbot AI si basano su sistemi automatizzati addestrati a riconoscere segnali verbali o emotivi che suggeriscono che un utente può essere in crisi. Quando vengono rilevati segnali di allerta, il chatbot potrebbe condividere link a hotline di crisi o, in configurazioni più avanzate, escalare il caso a moderatori umani o persino ai servizi di emergenza.

Falsi negativi, in cui i sistemi non riescono a rilevare un disagio genuino, possono portare a opportunità di intervento mancate, con conseguenze potenzialmente gravi. I falsi positivi creano problemi propri: algoritmi eccessivamente sensibili potrebbero innescare interventi ingiustificati, causando un disagio inutile o coinvolgendo le autorità senza giustificazione.

Le distorsioni culturali e linguistiche incorporate in questi sistemi aggiungono un ulteriore livello di complessità. I modelli di rilevamento addestrati principalmente su determinati gruppi demografici possono fraintendere espressioni culturali di disagio o perdere segnali di allerta che non si adattano ai loro schemi di addestramento.

Conclusione: Necessità di Regolamentazioni Vincolanti

In conclusione, i quadri legali devono trattare gli impatti mentali dell’IA più chiaramente come una crisi di salute pubblica, non come un esercizio di responsabilità aziendale. Ciò significa standard di sicurezza obbligatori per i sistemi AI che gestiscono conversazioni sulla salute mentale, con meccanismi di enforcement reali e un design proattivo, non patch reattivi dopo le tragedie. Come sottolinea van Sparrentak: “Questi sistemi sono semplicemente progettati per produrre testo, non per essere psicologi. Questo li rende pericolosi.”

More Insights

Costruire un Futuro AI Responsabile

L'IA non è più un argomento di nicchia, è diventata centrale nella progettazione dei prodotti e nelle strategie aziendali. I responsabili politici devono trovare un equilibrio tra la protezione delle...

Scuola Canadese di Intelligenza Artificiale Etica: Una Rivoluzione Necessaria

Ontario Tech lancia la prima e unica Scuola di Intelligenza Artificiale Etica del Canada, un'iniziativa che sottolinea l'importanza della governance dell'IA. Questa scuola mira a garantire che...

La sicurezza dei teenager nell’era dell’IA

Le recenti misure delle aziende tecnologiche, come OpenAI e Meta, mirano a migliorare la sicurezza dei teenager nell'uso dell'IA, introducendo controlli parentali e algoritmi di previsione dell'età...

Regole sull’IA dell’UE: Rischi, Sanzioni e Influenza Globale

L'Unione Europea sta introducendo nuove normative sull'intelligenza artificiale con l'AI Act, che classifica i sistemi di IA in base al loro potenziale danno. Le applicazioni ad alto rischio, come...

Sandbox AI per la Sicurezza e l’Innovazione nel Settore Pubblico

Nel 2023, il Dipartimento della Tecnologia della California ha lanciato un sandbox di intelligenza artificiale generativa che consente ai dipendenti statali di sperimentare in sicurezza come integrare...

La fiducia nell’IA generativa cresce a livello globale, ma mancano le misure di sicurezza

La ricerca di SAS ha rivelato che i leader IT e aziendali hanno maggiore fiducia nell'IA generativa rispetto ad altre forme di IA, nonostante solo il 40% investa per rendere i sistemi IA affidabili...

La rivoluzione silenziosa del Kazakistan: trasformazione digitale con AI e criptovalute

Il Kazakistan sta trasformando la sua economia basata sulle materie prime in una nazione digitale, con un focus su intelligenza artificiale e digitalizzazione. Il presidente Tokayev ha annunciato la...

Legge italiana sulla trasparenza e sicurezza dell’IA: Un passo decisivo

La California ha introdotto la prima legge completa sulla sicurezza e la trasparenza dell'IA negli Stati Uniti, firmando il Senate Bill 53 (TFAIA) il 29 settembre 2025. Questa legislazione stabilisce...

Collaborazione e Competizione nell’Intelligenza Artificiale

Il progetto Red Cell mira a sfidare le assunzioni e il pensiero di gruppo nel contesto delle politiche di sicurezza nazionale degli Stati Uniti. L'era dell'intelligenza artificiale sta rimodellando il...