Washington state cerca di proteggere i bambini dai rischi dei chatbot AI
Regolare l’intelligenza artificiale, in particolare come influisce su bambini e adolescenti, è diventato un tema chiave mentre la legislatura dello stato di Washington inizia la sua nuova sessione.
Perché è importante
Con l’espansione rapida dell’uso dell’IA, alcuni legislatori affermano che le aziende tecnologiche non hanno messo in atto adeguate misure di sicurezza per proteggere le persone dai danni, in particolare i minori, che possono essere più facilmente influenzati da conversazioni lunghe con chatbot AI.
Le testimonianze
Si sono sentite storie davvero inquietanti di chatbot che parlano con giovani su temi come suicidio, uso di droghe e abusi. Un leader della maggioranza della Camera dello stato ha dichiarato che le nuove proposte per regolare i chatbot in Washington sono una questione da prendere molto seriamente.
Le proposte di legge
Una delle leggi che i legislatori dello stato di Washington stanno considerando, richiesta dal governatore, stabilirebbe standard su come i “chatbot compagni” interagiscono con gli utenti. Tra i requisiti, i chatbot dovrebbero riferire gli utenti che esprimono pensieri suicidi a una hotline o a una linea di crisi. La proposta include protezioni aggiuntive per i minori, come limiti sulle interazioni sessualmente esplicite e un divieto di tecniche di coinvolgimento manipolativo che prolunghino una relazione emotiva con l’utente.
Il contesto più ampio
La spinta in Washington arriva dopo che alcune famiglie in tutto il paese hanno citato in giudizio aziende produttrici di chatbot, affermando che il chatbot ha contribuito ai suicidi dei loro cari. Questo mese, altre aziende hanno risolto cause simili riguardanti i loro chatbot.
Le preoccupazioni dell’industria
Questa situazione sta mettendo l’industria in allerta, dimostrando che le autorità stanno osservando e si prendono cura della questione. Un’altra proposta creerebbe una responsabilità civile per i suicidi legati all’uso di chatbot compagni AI.
Le risposte delle aziende
Una delle aziende ha dichiarato di aver aggiornato il proprio modello di recente per riconoscere e rispondere meglio ai segni di disagio mentale o emotivo. Credono che il loro prodotto possa fornire uno spazio di supporto per le persone.
Conclusione
È in corso una discussione su come regolare l’uso dell’IA in decisioni importanti come assunzioni e ammissioni universitarie, richiedendo misure di sicurezza per ridurre il rischio di discriminazione algoritmica.