Nuove Regole per i Chatbot: Proteggere gli Utenti Vulnerabili

Un nuovo progetto di legge in California affronta i controversi chatbot “companion”

Un progetto di legge in fase di avanzamento nella legislatura californiana mira a affrontare gli impatti dannosi dei chatbot “companion”, sistemi alimentati da intelligenza artificiale progettati per simulare relazioni umane e fornire supporto emotivo. Questi strumenti sono spesso commercializzati a utenti vulnerabili, come bambini e persone in difficoltà emotiva.

Dettagli del progetto di legge

Introdotto dal senatore statale Steve Padilla, il progetto di legge richiede alle aziende che gestiscono chatbot companion di evitare l’uso di trucchi additivi e premi imprevedibili. Esse devono ricordare agli utenti, all’inizio dell’interazione e ogni tre ore, che stanno parlando con una macchina, non con una persona. Inoltre, devono avvertire chiaramente gli utenti che i chatbot potrebbero non essere adatti ai minori.

Se approvato, questo sarebbe uno dei primi leggi nel paese a regolamentare i companion AI con standard di sicurezza chiari e protezioni per gli utenti.

La necessità di protezioni comuni

“Possiamo e dobbiamo mettere in atto protezioni di buonsenso che aiutano i bambini e proteggono i nostri utenti vulnerabili dalle proprietà predatrici e additive che sappiamo avere i chatbot”, ha dichiarato Padilla durante una conferenza stampa a Sacramento.

Ispirazione tragica

La legislazione è in parte ispirata dalla tragica storia di Sewell Setzer III, un ragazzo di 14 anni della Florida che si è tolto la vita l’anno scorso dopo aver formato una relazione parasociale con un chatbot su Character.AI, una piattaforma che consente agli utenti di interagire con personaggi AI personalizzati. Sua madre, Megan Garcia, ha dichiarato al Washington Post che Setzer utilizzava il chatbot giorno e notte e aveva espresso al bot di stare considerando il suicidio.

Ricerche sull’uso dei chatbot

Uno studio di marzo condotto dal MIT Media Lab ha esaminato la relazione tra i chatbot AI e la solitudine, scoprendo che un uso quotidiano più elevato era correlato a una maggiore solitudine, dipendenza e uso problematico, un termine usato dai ricercatori per caratterizzare l’addiction all’uso dei chatbot. Lo studio ha rivelato che i chatbot companion possono essere più additivi dei social media, a causa della loro capacità di capire cosa gli utenti vogliono sentire e fornire quel feedback.

Procedure per la gestione delle crisi

Il progetto di legge richiede agli operatori dei chatbot di avere un processo per gestire segnali di pensieri suicidi o auto-lesionismo. Se un utente esprime ideazione suicidaria, il chatbot deve rispondere con risorse come una hotline per il suicidio, e queste procedure devono essere rese pubbliche. Inoltre, le aziende devono presentare rapporti annuali—senza rivelare dettagli personali—su quante volte i chatbot hanno notato o avviato discussioni sui pensieri suicidi.

Possibili conseguenze legali

Sotto il progetto di legge, chiunque subisca danni a causa di una violazione avrà il diritto di intentare causa per danni fino a $1.000 per violazione, oltre ai costi legali.

Preoccupazioni dell’industria

Alcune aziende stanno opponendo resistenza alla legislazione proposta, sollevando preoccupazioni riguardo al suo potenziale impatto sull’innovazione. La scorsa settimana, un dirigente di TechNet, una rete statale di CEO della tecnologia, ha redatto una lettera aperta contro il progetto di legge, affermando che la sua definizione di chatbot companion è troppo ampia e che i requisiti di reporting annuale sarebbero troppo costosi.

“Quello che stiamo assistendo non è solo un’iniziativa politica per soffocare qualsiasi tipo di regolamentazione relativa all’AI”, ha risposto Padilla a una domanda riguardo all’opposizione. “Possiamo catturare i benefici positivi dell’implementazione di questa tecnologia e, allo stesso tempo, proteggere i più vulnerabili tra noi.”

More Insights

Politica AI del Quebec per Università e Cégeps

Il governo del Quebec ha recentemente rilasciato una politica sull'intelligenza artificiale per le università e i CÉGEP, quasi tre anni dopo il lancio di ChatGPT. Le linee guida includono principi...

L’alfabetizzazione AI: la nuova sfida per la conformità aziendale

L'adozione dell'IA nelle aziende sta accelerando, ma con essa emerge la sfida dell'alfabetizzazione all'IA. La legislazione dell'UE richiede che tutti i dipendenti comprendano gli strumenti che...

Legge sull’IA: Germania avvia consultazioni per l’attuazione

I regolatori esistenti assumeranno la responsabilità di monitorare la conformità delle aziende tedesche con l'AI Act dell'UE, con un ruolo potenziato per l'Agenzia Federale di Rete (BNetzA). Il...

Governare l’AI nell’Economia Zero Trust

Nel 2025, l'intelligenza artificiale non è più solo un concetto astratto, ma è diventata una realtà operativa che richiede un governance rigorosa. In un'economia a zero fiducia, le organizzazioni...

Il nuovo segretariato tecnico per l’IA: un cambiamento nella governance

Il prossimo quadro di governance sull'intelligenza artificiale potrebbe prevedere un "segreteria tecnica" per coordinare le politiche sull'IA tra i vari dipartimenti governativi. Questo rappresenta un...

Innovazione sostenibile attraverso la sicurezza dell’IA nei Paesi in via di sviluppo

Un crescente tensione si è sviluppata tra i sostenitori della regolamentazione dei rischi legati all'IA e coloro che desiderano liberare l'IA per l'innovazione. Gli investimenti in sicurezza e...

Verso un approccio armonioso alla governance dell’IA in ASEAN

Quando si tratta di intelligenza artificiale, l'ASEAN adotta un approccio consensuale. Mentre i membri seguono percorsi diversi nella governance dell'IA, è fondamentale che questi principi volontari...

Italia guida l’UE con una legge innovativa sull’IA

L'Italia è diventata il primo paese nell'UE ad approvare una legge completa che regola l'uso dell'intelligenza artificiale, imponendo pene detentive a chi utilizza la tecnologia per causare danni. La...

Regolamentare l’Intelligenza Artificiale in Ucraina: Verso un Futuro Etico

Nel giugno del 2024, quattordici aziende IT ucraine hanno creato un'organizzazione di autoregolamentazione per sostenere approcci etici nell'implementazione dell'intelligenza artificiale in Ucraina...