Oregon avanza la legge sui chatbot AI con una disposizione di responsabilità privata
I legislatori dell’Oregon hanno approvato il Senate Bill 1546, avanzando una misura che imporrà requisiti di sicurezza, divulgazione e responsabilità vincolanti ai fornitori di chatbot basati su intelligenza artificiale (AI), inviandola al governatore per la firma.
Dettagli della legge
Se firmata, la legge entrerà in vigore nel 2027 e creerà un’esposizione legale diretta legata a come i chatbot interagiscono con gli utenti. La misura regola i “compagni AI”, sistemi progettati per simulare relazioni umane attraverso interazioni personalizzate. I legislatori si stanno spostando da regole di divulgazione a un governo del comportamento del sistema in tempo reale e dei risultati downstream.
Requisiti di sicurezza
La legge richiede agli operatori di divulgare chiaramente che gli utenti stanno interagendo con un AI e di mantenere protocolli di sicurezza documentati. Inoltre, è prevista una risposta attiva in scenari ad alto rischio. I sistemi devono rilevare segnali di ideazione suicidaria o autolesionismo, interrompere le conversazioni e indirizzare gli utenti verso risorse di crisi. È vietato fornire output che possano incoraggiare comportamenti dannosi o aggravare il disagio emotivo.
Protezione dei minori
La legge impone requisiti più severi per i minori. Le piattaforme devono fornire divulgazioni ripetute, limitare contenuti sessualmente espliciti e evitare funzionalità che inducano dipendenza emotiva o impegni prolungati. Le aziende devono agire quando c’è un “motivo per credere” che un utente sia minorenne, anche senza conferma esplicita.
Responsabilità privata
La legge crea un diritto di azione privato. Gli individui possono citare in giudizio gli operatori per violazioni e richiedere danni statutari di $1.000 per ogni violazione. Questo modello di enforcement sposta il rischio di conformità dai regolatori agli utenti, aumentando l’esposizione legale per ogni interazione.
Applicazioni e implicazioni
La legge si applica ampiamente alle aziende che utilizzano AI conversazionale nei settori della sanità, dei servizi finanziari, dell’istruzione e del supporto clienti. I sistemi che personalizzano le risposte, memorizzano il contesto degli utenti o simulano un coinvolgimento emotivo rientrano nell’ambito di applicazione. Le aziende devono riprogettare i sistemi di chatbot per includere monitoraggio in tempo reale, attivazione di interventi, registri di audit e percorsi di escalation.
Conclusione
La legge sposta la sicurezza da un principio di design a un requisito legale legato direttamente agli output del sistema e ai risultati per gli utenti, indicando un passo importante nella regolamentazione dell’intelligenza artificiale e della sua interazione con l’umanità.