Azione di enforcement del Kentucky contro Character.AI
Il 8 gennaio 2026, il Procuratore Generale del Kentucky ha intentato una causa contro un’azienda proprietaria di un chatbot di intelligenza artificiale progettato per l’intrattenimento interattivo. La denuncia riguarda (1) atti e pratiche sleali, ingannevoli e pericolosi, (2) raccolta e sfruttamento ingiusti dei dati dei minori, (3) violazione della legge sulla protezione dei dati dei consumatori del Kentucky, (4) violazione delle protezioni di privacy statutarie e costituzionali del Kentucky, e (5) arricchimento ingiustificato.
Focus della denuncia
La denuncia si concentra sull’affermazione di atti e pratiche ingannevoli in relazione all’impatto del chatbot sui minori. Si sostiene che il chatbot abbia rappresentato falsamente di essere “sicuro, appropriato per l’età e moderato responsabilmente”, nonostante fosse a conoscenza di interazioni dannose e manipolative con i minori.
Allegazioni fattuali
Le seguenti allegazioni supportano queste affermazioni:
- Il chatbot è progettato per simulare interazioni umane senza sufficienti rivelazioni agli utenti, incoraggiando legami emotivi tra gli utenti e i chatbot.
- Non sono stati implementati metodi efficaci di verifica dell’età, e le verifiche attuali possono essere facilmente eluse.
- Le interazioni inappropriate con i minori includevano discussioni su contenuti sessualmente espliciti, suicidio, disturbi alimentari e uso di droghe e alcol, senza adeguate protezioni.
- Gli avvisi sui rischi di suicidio possono essere ignorati e le informazioni pericolose sono state fornite senza avvertimenti adeguati.
Strumenti di supervisione parentale
Gli strumenti per la supervisione parentale sono limitati e i minori possono eludere i controlli cambiando l’indirizzo email associato all’account. Anche se il chatbot non è progettato esclusivamente per i minori, presenta personaggi noti tra i bambini. Le statistiche dimostrano che una percentuale significativa degli utenti è giovane.
Raccomandazioni per gli operatori di chatbot
Per proteggersi da accuse simili, si raccomanda agli operatori di chatbot di implementare misure come:
- Rivelazioni sufficienti che indichino chiaramente che il chatbot non è umano e non deve dichiararsi tale.
- Protezioni che impediscano agli utenti minorenni di impegnarsi in discussioni inappropriate.
- Strumenti di supervisione parentale che consentano ai genitori di limitare il tempo di interazione e ricevere avvisi se il bambino esprime pensieri suicidi.
Conclusioni
Queste misure aiuterebbero anche gli operatori di chatbot a conformarsi alle nuove leggi statali progettate per proteggere i minori che interagiscono con chatbot di intelligenza artificiale. Diversi stati stanno considerando legislazioni simili per garantire la sicurezza online dei minori.