Nuove Regole per i Chatbot: Proteggere gli Utenti Vulnerabili

Un nuovo progetto di legge in California affronta i controversi chatbot “companion”

Un progetto di legge in fase di avanzamento nella legislatura californiana mira a affrontare gli impatti dannosi dei chatbot “companion”, sistemi alimentati da intelligenza artificiale progettati per simulare relazioni umane e fornire supporto emotivo. Questi strumenti sono spesso commercializzati a utenti vulnerabili, come bambini e persone in difficoltà emotiva.

Dettagli del progetto di legge

Introdotto dal senatore statale Steve Padilla, il progetto di legge richiede alle aziende che gestiscono chatbot companion di evitare l’uso di trucchi additivi e premi imprevedibili. Esse devono ricordare agli utenti, all’inizio dell’interazione e ogni tre ore, che stanno parlando con una macchina, non con una persona. Inoltre, devono avvertire chiaramente gli utenti che i chatbot potrebbero non essere adatti ai minori.

Se approvato, questo sarebbe uno dei primi leggi nel paese a regolamentare i companion AI con standard di sicurezza chiari e protezioni per gli utenti.

La necessità di protezioni comuni

“Possiamo e dobbiamo mettere in atto protezioni di buonsenso che aiutano i bambini e proteggono i nostri utenti vulnerabili dalle proprietà predatrici e additive che sappiamo avere i chatbot”, ha dichiarato Padilla durante una conferenza stampa a Sacramento.

Ispirazione tragica

La legislazione è in parte ispirata dalla tragica storia di Sewell Setzer III, un ragazzo di 14 anni della Florida che si è tolto la vita l’anno scorso dopo aver formato una relazione parasociale con un chatbot su Character.AI, una piattaforma che consente agli utenti di interagire con personaggi AI personalizzati. Sua madre, Megan Garcia, ha dichiarato al Washington Post che Setzer utilizzava il chatbot giorno e notte e aveva espresso al bot di stare considerando il suicidio.

Ricerche sull’uso dei chatbot

Uno studio di marzo condotto dal MIT Media Lab ha esaminato la relazione tra i chatbot AI e la solitudine, scoprendo che un uso quotidiano più elevato era correlato a una maggiore solitudine, dipendenza e uso problematico, un termine usato dai ricercatori per caratterizzare l’addiction all’uso dei chatbot. Lo studio ha rivelato che i chatbot companion possono essere più additivi dei social media, a causa della loro capacità di capire cosa gli utenti vogliono sentire e fornire quel feedback.

Procedure per la gestione delle crisi

Il progetto di legge richiede agli operatori dei chatbot di avere un processo per gestire segnali di pensieri suicidi o auto-lesionismo. Se un utente esprime ideazione suicidaria, il chatbot deve rispondere con risorse come una hotline per il suicidio, e queste procedure devono essere rese pubbliche. Inoltre, le aziende devono presentare rapporti annuali—senza rivelare dettagli personali—su quante volte i chatbot hanno notato o avviato discussioni sui pensieri suicidi.

Possibili conseguenze legali

Sotto il progetto di legge, chiunque subisca danni a causa di una violazione avrà il diritto di intentare causa per danni fino a $1.000 per violazione, oltre ai costi legali.

Preoccupazioni dell’industria

Alcune aziende stanno opponendo resistenza alla legislazione proposta, sollevando preoccupazioni riguardo al suo potenziale impatto sull’innovazione. La scorsa settimana, un dirigente di TechNet, una rete statale di CEO della tecnologia, ha redatto una lettera aperta contro il progetto di legge, affermando che la sua definizione di chatbot companion è troppo ampia e che i requisiti di reporting annuale sarebbero troppo costosi.

“Quello che stiamo assistendo non è solo un’iniziativa politica per soffocare qualsiasi tipo di regolamentazione relativa all’AI”, ha risposto Padilla a una domanda riguardo all’opposizione. “Possiamo catturare i benefici positivi dell’implementazione di questa tecnologia e, allo stesso tempo, proteggere i più vulnerabili tra noi.”

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...