La Ley de Seguridad de Juguetes con IA de Maryland: Regulación Estatal para Proteger a los Niños

La Ley de Seguridad de Juguetes de IA de Maryland: Regulación Estatal que Llena el Vacío Federal sobre la IA en Productos para Niños

El 12 de febrero de 2026, un grupo bipartidista de legisladores en Maryland propuso la Ley de Seguridad de Juguetes de Inteligencia Artificial de Maryland. Esta legislación propuesta establecería un amplio marco regulatorio para los juguetes habilitados para IA vendidos en el estado, abarcando cualquier dispositivo que utilice aprendizaje automático, IA conversacional, modelado de comportamiento o procesos computacionales similares, y que esté comercializado o utilizado principalmente por niños.

Alcance y Obligaciones de Cumplimiento

El alcance de la ley es intencionalmente amplio e introduce obligaciones de cumplimiento previas al mercado, exigiendo a los fabricantes realizar evaluaciones de seguridad infantil antes de llevar nuevos juguetes de IA a los consumidores de Maryland. Los fabricantes de juguetes que ya están en el mercado a partir del 1 de julio de 2026 tendrían hasta el 1 de enero de 2027 para completar sus evaluaciones iniciales. Las violaciones de la ley se clasificarían como prácticas comerciales injustas, abusivas o engañosas bajo la Ley de Protección al Consumidor de Maryland, exponiendo a los fabricantes no cumplidores a sanciones civiles de hasta $50,000 por violación y retiradas obligatorias de productos.

Requisitos de Privacidad de Datos

La ley impondría requisitos sustanciales de privacidad de datos. Los fabricantes estarían limitados a recopilar únicamente los datos mínimos necesarios del usuario infantil para la funcionalidad básica del juguete, y todos esos datos deben estar cifrados. La ley prohíbe la venta o transferencia de datos de usuarios infantiles a terceros, su uso para entrenar modelos de IA no relacionados, la publicidad dirigida a niños basada en esos datos, o la retención de datos por más de 12 meses sin el consentimiento renovado de los padres. En caso de una violación de datos, los fabricantes deben notificar a los padres o tutores afectados dentro de las 48 horas posteriores al descubrimiento, lo que subraya la prioridad de la legislatura en la seguridad de los datos infantiles.

Mecanismos de Consentimiento Parental

Los juguetes que contienen IA deberán incluir mecanismos accesibles para obtener y revocar el consentimiento parental, y los padres deben poder desactivar la recolección de datos sin perder la funcionalidad básica del juguete. Además, los juguetes están prohibidos de generar contenido que sea sexual, violento, emocionalmente manipulador o instructivo sobre comportamientos dañinos, y deben incorporar herramientas de moderación de contenido, filtros de conversación apropiados para la edad y un modo seguro automático activado por entradas dañinas o desconocidas.

Enfoque en el Bienestar Psicológico Infantil

Reflejando preocupaciones más profundas sobre el bienestar psicológico de los niños, la ley también prohibiría a los fabricantes comercializar juguetes de IA como compañeros emocionales, sustitutos parentales o consejeros psicológicos.

Panel de Revisión de Seguridad de Juguetes de IA

Finalmente, la ley crearía una infraestructura dedicada de cumplimiento y supervisión mediante el establecimiento del Panel de Revisión de Seguridad de Juguetes de IA dentro de la División de Protección al Consumidor de la Oficina del Fiscal General. El panel se encargará de revisar el cumplimiento de los fabricantes, realizar auditorías independientes de juguetes de IA vendidos o distribuidos a niños y evaluar los estándares de seguridad de la industria para recomendar actualizaciones legislativas. A partir del 1 de diciembre de 2027, el panel deberá informar anualmente a la Asamblea General sobre sus hallazgos. Este mecanismo continuo de supervisión señala que la legislatura no ve la ley como un conjunto estático de reglas, sino como un marco regulatorio vivo diseñado para evolucionar junto con los avances en la tecnología de IA.

Implicaciones Futuras

Aunque el futuro de esta legislación es incierto, es indicativa de un esfuerzo concertado por parte de los legisladores para abordar lo que se considera una falta de supervisión regulatoria de la IA en juguetes y otros productos utilizados por niños. Un regulador que actualmente no está tomando medidas para aplicar sus poderes a la integración de tecnologías de IA en juguetes es la Comisión de Seguridad de Productos de Consumo. El 13 de febrero de 2026, la CPSC emitió una carta aclarando que su misión estatutaria se ha centrado tradicionalmente en los riesgos razonablemente previsibles de lesiones físicas y que no está equipada ni autorizada para evaluar peligros no físicos, como daños mentales, emocionales o psicológicos.

Estas enfoques divergentes indican la necesidad de un monitoreo consistente y flexibilidad en un esquema regulatorio que evoluciona rápidamente. A pesar de que los reguladores federales no están centrados en estos temas, los vendedores y fabricantes de estos productos deben estar conscientes de la posibilidad de acciones regulatorias a nivel estatal y seguir monitoreando los desarrollos en este espacio.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...