Legge sulla Sicurezza dei Giocattoli AI del Maryland: Regolamentazione a Livello Statale Compensa il Vuoto Federale sui Prodotti AI per Bambini
Il 12 febbraio 2026, un gruppo bipartisan di legislatori del Maryland ha proposto la Legge sulla Sicurezza dei Giocattoli AI del Maryland. Questa legislazione proposta stabilisce un ampio quadro normativo per i giocattoli abilitati all’intelligenza artificiale venduti nello stato, coprendo qualsiasi dispositivo che utilizzi machine learning, AI conversazionale, modellazione comportamentale o processi computazionali simili e sia commercializzato o utilizzato principalmente dai bambini.
La portata della proposta è intenzionalmente ampia e introduce obblighi di conformità pre-mercato che richiedono ai produttori di condurre valutazioni di sicurezza per i bambini prima di introdurre nuovi giocattoli AI ai consumatori del Maryland. I produttori di giocattoli già presenti sul mercato il 1 luglio 2026 avrebbero tempo fino al 1 gennaio 2027 per completare le loro valutazioni iniziali. Le violazioni della legge sono classificate come pratiche commerciali sleali, abusive o ingannevoli ai sensi della Legge sulla Protezione dei Consumatori del Maryland, esponendo i produttori non conformi a sanzioni civili fino a $50.000 per violazione e richieste di richiamo di prodotto.
Requisiti di Privacy dei Dati
La legge impone anche requisiti sostanziali sulla privacy dei dati. I produttori sarebbero limitati alla raccolta solo dei dati necessari per la funzionalità base del giocattolo, e tutti tali dati devono essere crittografati. È vietato vendere o trasferire i dati degli utenti bambini a terzi, utilizzarli per addestrare modelli AI non correlati, targetizzare i bambini con pubblicità basate su tali dati, o mantenerli per più di 12 mesi senza rinnovata autorizzazione dei genitori. In caso di violazione dei dati, i produttori devono notificare i genitori o i tutori interessati entro 48 ore dalla scoperta, un breve intervallo di notifica che sottolinea la priorità della legislatura sulla sicurezza dei dati dei bambini.
Meccanismi di Consenso Parentale
I giocattoli contenenti AI devono includere meccanismi accessibili per ottenere e revocare il consenso parentale, e i genitori devono essere in grado di disabilitare la raccolta dei dati senza perdere la funzionalità base del giocattolo. È vietato generare contenuti che siano sessuali, violenti, manipolativi emotivamente o che istruiscano su comportamenti dannosi, e devono incorporare strumenti di moderazione dei contenuti, filtri conversazionali appropriati all’età e una modalità sicura automatica attivata da input dannosi o sconosciuti. Inoltre, è vietato commercializzare i giocattoli AI come compagni emotivi, sostituti parentali o consulenti psicologici.
Struttura di Vigilanza
La legge creerebbe anche un’infrastruttura dedicata di vigilanza attraverso l’istituzione del Panel di Revisione della Sicurezza dei Giocattoli AI all’interno della Divisione per la Protezione dei Consumatori. Questo panel è incaricato di esaminare la conformità dei produttori, condurre audit indipendenti dei giocattoli AI venduti o distribuiti ai bambini e valutare gli standard di sicurezza dell’industria. A partire dal 1 dicembre 2027, il panel sarebbe tenuto a presentare annualmente un rapporto all’Assemblea Generale sui suoi risultati. Questo meccanismo di sorveglianza continuo segnala che la legislatura considera la legge non come un insieme statico di regole, ma come un quadro normativo vivo destinato a evolversi insieme ai progressi nella tecnologia AI.
Conclusioni
Sebbene il futuro di questa legislazione sia incerto, essa rappresenta uno sforzo concertato da parte dei legislatori per affrontare quello che è visto come una mancanza di supervisione normativa sull’AI nei giocattoli e in altri prodotti utilizzati dai bambini. Le divergenze tra le autorità a livello statale e federale indicano la necessità di un monitoraggio coerente e di flessibilità in uno schema normativo in rapida evoluzione.