Una nuova proposta di misura elettorale a livello statale in California mira a rafforzare le protezioni per bambini e adolescenti che utilizzano l’intelligenza artificiale. Questa iniziativa intende rispondere alle crescenti preoccupazioni dei genitori e alle lezioni apprese da precedenti tentativi legislativi.
La proposta prevede requisiti riguardanti l’assicurazione dell’età, le protezioni dei dati, i controlli parentali e audit di sicurezza indipendenti per i prodotti di intelligenza artificiale utilizzati dai minori. Le organizzazioni che sostengono la misura la descrivono come un approccio ricalibrato rispetto a una precedente legislazione che non ha ottenuto il sostegno del governo statale.
Tra i requisiti principali c’è l’assicurazione dell’età, che obbliga le aziende di intelligenza artificiale a determinare se un utente ha meno di 18 anni, applicando protezioni per i minori quando l’età non può essere confermata con certezza. Inoltre, la proposta vieterebbe la pubblicità mirata ai bambini e limiterebbe la vendita dei dati dei minori senza il consenso dei genitori.
La misura include anche requisiti di sicurezza legati al benessere degli studenti, vietando la generazione o la promozione di contenuti nocivi. Inoltre, le aziende dovrebbero fornire controlli parentali efficaci e facili da usare, che consentano ai genitori di monitorare e limitare l’uso dell’IA. È previsto anche un sistema di audit indipendenti per valutare i rischi per la sicurezza dei bambini.
Questa iniziativa legislativa rappresenta un passo significativo verso la protezione dei giovani in un’era in cui l’uso dell’intelligenza artificiale è in crescita. Gli sviluppatori e i fornitori di tecnologia educativa potrebbero dover affrontare nuovi obblighi di conformità legati specificamente alla sicurezza infantile.