Nueva Ley de Moratoria sobre Juguetes con Chatbots Plantea Preguntas sobre Regulaciones de Chatbots
Tras una serie de demandas contra empresas de inteligencia artificial relacionadas con la posible implicación de sus plataformas en el fomento del suicidio y otros comportamientos criminales, un senador ha introducido un proyecto de ley que prohibiría en el estado la venta, intercambio o posesión con la intención de vender o intercambiar a un minorista un juguete que incluya un chatbot acompañante hasta el 1 de enero de 2031.
Un “juguete” se define como un producto diseñado o destinado por el fabricante para ser utilizado en juegos por niños de 12 años o menos.
¿Es Efectiva una Moratoria como Estrategia de Regulación?
Esto plantea la pregunta: ¿es una moratoria sobre un producto o servicio capaz de ser mal utilizado una estrategia efectiva para la regulación?
California y Nueva York ya cuentan con leyes que regulan los chatbots acompañantes:
Leyes en California
La ley SB 243 de California, que entró en vigor el 1 de enero de 2026, establece:
- Requiere notificar claramente al usuario que está interactuando con un bot y no con un humano.
- Permite que un chatbot acompañante interactúe con los usuarios solo si mantiene un protocolo para prevenir la producción de contenido relacionado con ideación suicida, suicidio o autolesiones, incluyendo la provisión de una notificación que remita al usuario a un proveedor de servicios de crisis.
- Para menores, también requiere:
- Recordar al usuario cada tres horas que tome un descanso y que el acompañante no es humano.
- Instituir medidas razonables para evitar que el chatbot produzca material visual de conducta sexual explícita o que indique directamente que el menor debe participar en conducta sexual explícita.
- A partir de 2027, también se impondrá un requisito de informes anuales a la Oficina de Prevención del Suicidio de California.
Leyes en Nueva York
La Ley de Compañeros de IA de Nueva York tiene requisitos similares, que incluyen hacer esfuerzos razonables para detectar y abordar la ideación suicida o expresiones de autolesión expresadas por un usuario al chatbot de IA, y recordar al usuario cada tres horas.
Sin embargo, en Nueva York, este recordatorio no está limitado solo a menores. La ley es aplicable por el Fiscal General, mientras que la ley de California permite acciones legales privadas.