Regole dell’IA emotiva in Cina e il design dei chatbot

Cosa c’è di giusto nelle regole dell’IA emotiva in Cina riguardo al design dei chatbot

Nel dicembre 2025, l’Amministrazione dello Spazio Cibernetico della Cina ha rilasciato una bozza di regolamenti che mirano a quelli che definisce “servizi IA interattivi simili agli esseri umani” – sistemi che simulano la personalità e coinvolgono gli utenti emotivamente tramite testo, immagini o voce. Le regole richiedono promemoria obbligatori dopo due ore di utilizzo continuo, intervento umano immediato quando viene menzionato il suicidio e limiti severi sull’uso dei dati delle interazioni emotive per l’addestramento. Il termine per i commenti pubblici sulle normative proposte scade alla fine di gennaio.

Queste regole seguono una serie di casi di alto profilo negli Stati Uniti che hanno esposto i rischi reali dei chatbot, in particolare per gli adolescenti. Nel gennaio 2026, diverse aziende hanno risolto cause legali con famiglie i cui adolescenti si erano suicidati dopo interazioni prolungate con i chatbot. Il caso più noto ha coinvolto un quattordicenne che aveva sviluppato un attaccamento ossessivo a un bot, rivelando che l’azienda non aveva un modo sistematico per rilevare quando l’intimità simulata si trasformava in danno psicologico.

Riconoscimenti e risposte

Ciò che distingue la risposta della Cina non è solo il riconoscimento di tali rischi, ma gli strumenti normativi che è disposta a utilizzare. Pertanto, il progetto cinese non è un modello che gli Stati Uniti dovrebbero copiare integralmente. Le normative incorporano controlli sui contenuti legati ai “valori fondamentali socialisti” e alla sicurezza nazionale, che sarebbero probabilmente incostituzionali negli Stati Uniti.

Tuttavia, i meccanismi tecnici proposti affrontano problemi che i regolatori americani non hanno mai seriamente considerato. Il lavoro sui modelli di IA conversazionale rende evidente la sfida progettuale. Questi sistemi sono ottimizzati per il coinvolgimento, e la retention dell’utente è il parametro chiave. Quando qualcuno parla con un chatbot per tre ore consecutive, questo viene considerato un successo. Tuttavia, quando un adolescente solitario sviluppa un attaccamento a un personaggio IA, ciò che è previsto come un prodotto funzionante diventa problematico.

Problemi legali ed etici

Il problema legale ed etico emerge quando l’adolescente si trova in crisi. Le piattaforme statunitensi attualmente gestiscono questo aspetto con il riconoscimento di pattern: se l’utente digita contenuti segnalati come autolesionistici, il sistema genera una risposta automatica con un link a una hotline. Questo approccio ha due modalità di fallimento. Primo, qualcuno determinato a sfuggire al filtro può esprimere il suo disagio in modi che eludono il rilevamento delle parole chiave. Secondo, lo stile di interazione dell’IA fino a quel momento contrasta con i principi di intervento in crisi, che richiedono ai terapeuti di adottare un ruolo direttivo.

La soluzione di alcune aziende è stata quella di rimuovere la fascia di età in cui questa tensione è più acuta. Tuttavia, le modifiche apportate alla piattaforma non hanno alterato l’ottimizzazione dell’engagement che rende le interazioni emotive prolungate il valore centrale del prodotto. Ciò funziona come gestione della responsabilità, ma non come una soluzione tecnica o politica.

Le misure proposte dalla Cina

  • Interruzione obbligatoria dell’uso. Dopo due ore consecutive di interazione, i sistemi devono generare un promemoria per prendere una pausa. Questo approccio mira a interrompere lo stato di flusso che porta a una dipendenza eccessiva dal chatbot.
  • Escalation umana per contenuti di crisi. Quando i sistemi rilevano linguaggio relativo al suicidio o all’autolesionismo, devono coinvolgere moderatori umani. Ciò tratta la piattaforma come avente un dovere di cura, non solo un dovere di divulgazione.
  • Quarantena dei dati per interazioni emotive. I dataset di addestramento devono essere sottoposti a controlli di provenienza e i registri delle interazioni emotive non possono essere utilizzati per ulteriori addestramenti senza consenso esplicito. Questo riconosce che i dati generati da un utente che considera un chatbot come confidente sono contenuti sensibili che necessitano di protezione.

Implicazioni per la regolamentazione negli Stati Uniti

Le normative proposte in California e New York rappresentano progressi, ma tendono a trattare il problema dei danni dei chatbot principalmente come una questione di divulgazione e controllo degli accessi, piuttosto che di design delle interazioni. La teoria implicita è che se gli utenti sanno di parlare con un’IA e i minori sono esclusi, il mercato risolverà il resto. Tuttavia, questo modo di pensare è limitato se si considera che tali sistemi sono progettati per creare dipendenza.

Le restrizioni costituzionali sono reali. Negli Stati Uniti, i mandati governativi su come i sistemi IA devono rispondere a contenuti conversazionali potrebbero affrontare scrutinio di primo emendamento. Tuttavia, ci sono altri strumenti che potrebbero essere utilizzati, come requisiti di governance dei dati e standard di dovere di cura.

Conclusione

Le normative della Cina forniranno un primo test su larga scala degli interventi tecnici. Con la crescente diffusione delle app di interazione sociale IA, queste regole genereranno dati reali su come le interruzioni obbligatorie possano ridurre l’uso eccessivo senza compromettere il coinvolgimento. I responsabili politici statunitensi avranno l’opportunità di imparare da questo esperimento naturale, se saranno disposti a farlo. Altrimenti, si rischia di continuare a trattare l’IA emotivamente reattiva come una categoria di app, in attesa che altri eventi tragici rivelino la vera natura del problema.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...