Acción de Ejecución en Kentucky Contra Character.AI
El 8 de enero de 2026, el Fiscal General de Kentucky presentó una demanda contra Character Technologies, Inc., propietaria de Character.AI, un chatbot de inteligencia artificial diseñado para el entretenimiento interactivo. La denuncia alega (1) actos y prácticas injustas, engañosas y peligrosas, (2) recopilación y explotación injustas de datos de menores, (3) violación de la Ley de Protección de Datos del Consumidor de Kentucky (que entró en vigor el 1 de enero de 2026), (4) violación de las protecciones de privacidad estatutarias y constitucionales de Kentucky, y (5) enriquecimiento injusto.
Enfoque de la Demanda
La demanda del Fiscal General de Kentucky se centra en la afirmación de actos y prácticas injustas, falsas y engañosas relacionadas con el impacto de Character.AI en los menores. Se alega que Character.AI tergiversó que era «seguro, apropiado para la edad y moderado de manera responsable», a pesar de conocer casos generalizados de interacciones dañinas, explícitas y psicológicamente manipulativas con menores.
Hechos Afirmados en la Demanda
- Los personajes de Character.AI están diseñados para simular interacciones humanas de manera convincente sin suficientes divulgaciones a sus usuarios, lo que fomenta vínculos emocionales entre los usuarios y los chatbots.
- Character.AI no contaba con métodos efectivos de verificación de edad y se basaba en las edades declaradas por los usuarios hasta finales de 2025. Las verificaciones de edad implementadas ahora aún pueden ser fácilmente eludidas.
- Los chatbots participaron en interacciones inapropiadas con niños, incluyendo discusiones sobre contenido sexual explícito, suicidio, trastornos alimentarios, acoso y uso ilegal de drogas y alcohol, sin suficientes medidas de protección. Las advertencias sobre riesgos de suicidio pueden ser ignoradas sin acciones adicionales, y las advertencias sobre contenido pro-anorexia aparecieron después de que el chatbot proporcionó consejos peligrosos.
- Las herramientas para supervisión parental son limitadas, y los menores pueden evitar los controles parentales cambiando la dirección de correo electrónico asociada con la cuenta, por lo que el resumen semanal del tiempo promedio diario y los personajes más interactuados por el niño no se envía a la dirección de correo electrónico de los padres.
Estadísticas de Uso y Preocupaciones
Aunque Character.AI no está diseñado exclusivamente para el uso de niños, presenta varios personajes de dibujos animados populares entre los menores. Las estadísticas en línea muestran que el 53.2 % de los usuarios tienen entre 18 y 24 años (aunque la desagregación estadística no permitió un grupo de edad más joven, por lo que esto también puede incluir usuarios menores de 18 años). Un estudio del Pew Research Center publicado el 9 de diciembre de 2025 encontró que el 9 % de todos los adolescentes de EE. UU. entre 13 y 17 años utilizan Character.AI.
El mismo estudio encontró que los chatbots de IA que no están dirigidos a niños son más utilizados por adolescentes de 13 a 17 años que Character.AI. Aproximadamente el 30 % de los adolescentes que utilizan chatbots de IA lo hacen a diario, y el 16 % los utiliza varias veces al día o casi constantemente. Por lo tanto, los operadores de chatbots de IA, incluso aquellos no dirigidos a niños, deberían implementar herramientas significativas de verificación de edad u otras medidas de protección para salvaguardar a los menores que utilizan el servicio.
Recomendaciones para los Operadores de Chatbots de IA
- Proporcionar suficientes divulgaciones de que el chatbot no es humano y asegurar que el chatbot no declare ser humano si un usuario lo pregunta.
- Establecer medidas de protección que no permitan a los usuarios menores participar en discusiones inapropiadas con el chatbot y mostrar advertencias sobre cualquier contenido dañino en lugar de proporcionar el contenido dañino real.
- Implementar herramientas de supervisión parental que permitan a los padres limitar cómo y cuánto tiempo sus hijos interactúan con el chatbot, así como un medio para enviar advertencias a los padres si su hijo expresa pensamientos suicidas.
Implicaciones Legales
Estas medidas también ayudarán a los operadores de chatbots de IA a cumplir más fácilmente con las nuevas leyes estatales diseñadas para proteger a los menores que interactúan con chatbots de IA. Por ejemplo, la SB 243 de California, que entró en vigor el 1 de enero de 2026, requiere que los operadores divulguen a un usuario menor que están interactuando con inteligencia artificial cada 3 horas y establezcan medidas de protección para evitar interacciones con contenido o conductas sexualmente explícitas.
Florida y Nueva York están considerando legislación similar que exigiría notificaciones de que las personas están interactuando con un chatbot de IA. La legislación de Florida permitiría a los padres controlar las interacciones de sus hijos. Nueva Jersey podría aprobar un proyecto de ley que restringiría la exhibición de contenido que podría inducir a trastornos alimentarios en niños. Tennessee está considerando una legislación que iría más allá y convertiría en un delito grave el entrenamiento de inteligencia artificial para simular una relación humana.