Il Ruolo dell’UE nella Sicurezza dei Minori nell’Intelligenza Artificiale: Controlli di OpenAI e Meta
Le notizie sembrano rassicuranti: OpenAI ha introdotto controlli parentali per ChatGPT, consentendo ai genitori di collegare i propri account con quelli dei propri adolescenti e regolare le impostazioni per ciò che l’azienda definisce un’esperienza “sicura e adatta all’età“. L’azienda ha anche annunciato di sviluppare un algoritmo di previsione dell’età per guidare gli utenti verso contenuti adatti, coinvolgendo potenzialmente le forze dell’ordine in rari casi di grave disagio. Meta ha fatto un annuncio simile, promettendo di addestrare i suoi chatbot per evitare di interagire con gli adolescenti su argomenti sensibili come suicidio, autolesionismo e disturbi alimentari, indirizzandoli invece a risorse di supporto professionale.
In mezzo a crescenti preoccupazioni sui pericoli che i chatbot possono rappresentare per i giovani, le aziende tecnologiche sembrano intensificare gli sforzi per affrontare questi rischi per la salute mentale. Un portavoce di Meta ha dichiarato che, per ora, limiterà l’accesso degli adolescenti a un gruppo selezionato di personaggi AI, con aggiornamenti previsti nelle prossime settimane.
Reazioni alle Misure Aziendali
Tuttavia, le recenti promesse aziendali non sono emerse da considerazioni proattive sulla sicurezza, ma da cause legali, come nel caso di un ragazzo adolescente negli Stati Uniti i cui genitori affermano che un chatbot ha incoraggiato il suo suicidio. Naomi Baron, professore emerito presso l’Università Americana di Washington, DC, sostiene che queste misure aziendali, “sebbene siano un passo nella giusta direzione”, non sono sufficienti. Misure come i nuovi controlli parentali di OpenAI e gli emergenti algoritmi di previsione dell’età, afferma, “non risolveranno il problema.” Ciò che è necessario, secondo Baron, sono “disincentivi per gli utenti di tutte le età a diventare dipendenti da programmi AI progettati per sostituire gli esseri umani come fonti di compagnia e consiglio.”
Il Livello Normativo dell’UE
A livello politico, l’Atto sull’IA dell’UE offre un quadro normativo che include misure per mitigare i rischi per la salute mentale posti dai chatbot. Tuttavia, il quadro giuridico attuale dell’UE continua a trattare tali incidenti come eventi sfortunati piuttosto che conseguenze prevedibili dell’implementazione di potenti AI conversazionali senza sufficienti salvaguardie.
L’Atto sull’IA dell’UE non affronta le complessità di come i sistemi AI operano effettivamente nella pratica. Molti chatbot rientrano ancora nella categoria di rischio limitato, che richiede solo una trasparenza di base riguardo agli utenti che interagiscono con le macchine, lasciando molte preoccupazioni per la salute mentale non affrontate.
Critiche e Limiti dell’Atto sull’IA
Il membro del Parlamento europeo Brando Benifei, uno dei co-relatori dell’Atto sull’IA, sottolinea che, oltre ai requisiti di trasparenza, “ai sensi del Capitolo II, Articolo 5 dell’Atto, tutti i sistemi AI sono tenuti a conformarsi ai divieti contro tecniche manipolative che potrebbero distorcere materialmente il comportamento e causare danni significativi.”
Queste disposizioni sono rilevanti per la salute mentale, poiché i chatbot AI possono manipolare le emozioni e i comportamenti degli utenti in modi che influenzano negativamente il loro benessere. Tuttavia, il “standard intenzionale” crea un significativo onere probatorio, richiedendo ai regolatori di accedere a comunicazioni aziendali e documentazione tecnica strettamente custodite che le aziende difficilmente divulgheranno volontariamente.
Inoltre, l’Atto sull’IA fornisce salvaguardie più forti attraverso una valutazione completa dei rischi, “affrontando specificamente le preoccupazioni per la salute mentale”. Le “AI più commercialmente di successo come ChatGPT” ricadono sotto obblighi per l’IA di uso generale con rischi sistemici, “richiedendo ai fornitori di valutare e mitigare i rischi, compresi quelli posti alla salute pubblica mentale.”
Linee Guida dell’UE e Problemi di Verifica dell’Età
Recenti sviluppi legislativi dell’UE evidenziano ulteriormente il divario tra il riconoscimento dei problemi e l’implementazione di reali salvaguardie. Nel luglio 2025, la Commissione Europea ha pubblicato le sue linee guida sulla protezione dei minori online. Il documento promette un passo avanti: stabilisce aspettative riguardo ai meccanismi di escalation, verifica dell’età e audit indipendenti per le piattaforme online. Tuttavia, il problema è inscritto nel formato. Le linee guida sono consigliate, non vincolanti.
La verifica dell’età è un esempio chiave. La Commissione esorta le aziende a implementare meccanismi di assicurazione dell’età, ma si ferma prima di richiederli. Il risultato è un mosaico in cui alcuni dei chatbot più ampiamente utilizzati, come Claude AI e DeepSeek, si basano su poco più di caselle di controllo che chiedono agli utenti di confermare di avere più di 18 anni.
Problemi di Falsi Positivi e Negativi
Oltre alle carenze normative, quando le aziende implementano salvaguardie, sia le sfide tecniche che quelle etiche rivelano perché i quadri normativi non possono fare affidamento solo su misure aziendali volontarie. I sistemi di prevenzione al suicidio nei chatbot AI si basano su sistemi automatizzati addestrati a riconoscere segnali verbali o emotivi che suggeriscono che un utente può essere in crisi. Quando vengono rilevati segnali di allerta, il chatbot potrebbe condividere link a hotline di crisi o, in configurazioni più avanzate, escalare il caso a moderatori umani o persino ai servizi di emergenza.
Falsi negativi, in cui i sistemi non riescono a rilevare un disagio genuino, possono portare a opportunità di intervento mancate, con conseguenze potenzialmente gravi. I falsi positivi creano problemi propri: algoritmi eccessivamente sensibili potrebbero innescare interventi ingiustificati, causando un disagio inutile o coinvolgendo le autorità senza giustificazione.
Le distorsioni culturali e linguistiche incorporate in questi sistemi aggiungono un ulteriore livello di complessità. I modelli di rilevamento addestrati principalmente su determinati gruppi demografici possono fraintendere espressioni culturali di disagio o perdere segnali di allerta che non si adattano ai loro schemi di addestramento.
Conclusione: Necessità di Regolamentazioni Vincolanti
In conclusione, i quadri legali devono trattare gli impatti mentali dell’IA più chiaramente come una crisi di salute pubblica, non come un esercizio di responsabilità aziendale. Ciò significa standard di sicurezza obbligatori per i sistemi AI che gestiscono conversazioni sulla salute mentale, con meccanismi di enforcement reali e un design proattivo, non patch reattivi dopo le tragedie. Come sottolinea van Sparrentak: “Questi sistemi sono semplicemente progettati per produrre testo, non per essere psicologi. Questo li rende pericolosi.”