Prohibición de Juguetes con Chatbots: ¿Regulación Efectiva o Futuro Incierto?

Nueva Ley de Moratoria sobre Juguetes con Chatbots Plantea Preguntas sobre Regulaciones de Chatbots

Tras una serie de demandas contra empresas de inteligencia artificial relacionadas con la posible implicación de sus plataformas en el fomento del suicidio y otros comportamientos criminales, un senador ha introducido un proyecto de ley que prohibiría en el estado la venta, intercambio o posesión con la intención de vender o intercambiar a un minorista un juguete que incluya un chatbot acompañante hasta el 1 de enero de 2031.

Un “juguete” se define como un producto diseñado o destinado por el fabricante para ser utilizado en juegos por niños de 12 años o menos.

¿Es Efectiva una Moratoria como Estrategia de Regulación?

Esto plantea la pregunta: ¿es una moratoria sobre un producto o servicio capaz de ser mal utilizado una estrategia efectiva para la regulación?

California y Nueva York ya cuentan con leyes que regulan los chatbots acompañantes:

Leyes en California

La ley SB 243 de California, que entró en vigor el 1 de enero de 2026, establece:

  • Requiere notificar claramente al usuario que está interactuando con un bot y no con un humano.
  • Permite que un chatbot acompañante interactúe con los usuarios solo si mantiene un protocolo para prevenir la producción de contenido relacionado con ideación suicida, suicidio o autolesiones, incluyendo la provisión de una notificación que remita al usuario a un proveedor de servicios de crisis.
  • Para menores, también requiere:
  • Recordar al usuario cada tres horas que tome un descanso y que el acompañante no es humano.
  • Instituir medidas razonables para evitar que el chatbot produzca material visual de conducta sexual explícita o que indique directamente que el menor debe participar en conducta sexual explícita.
  • A partir de 2027, también se impondrá un requisito de informes anuales a la Oficina de Prevención del Suicidio de California.

Leyes en Nueva York

La Ley de Compañeros de IA de Nueva York tiene requisitos similares, que incluyen hacer esfuerzos razonables para detectar y abordar la ideación suicida o expresiones de autolesión expresadas por un usuario al chatbot de IA, y recordar al usuario cada tres horas.

Sin embargo, en Nueva York, este recordatorio no está limitado solo a menores. La ley es aplicable por el Fiscal General, mientras que la ley de California permite acciones legales privadas.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...