Nuevo proyecto de ley en California regulará chatbots de compañía peligrosos

Un nuevo proyecto de ley en California aborda los chatbots ‘compañeros’ controvertidos

Un proyecto de ley que avanza a través de la legislatura de California busca abordar los impactos perjudiciales de los chatbots «compañeros», sistemas impulsados por inteligencia artificial diseñados para simular relaciones humanas y proporcionar apoyo emocional. Estos chatbots son a menudo comercializados a usuarios vulnerables, como niños y personas en situaciones emocionales difíciles.

Requisitos del Proyecto de Ley

Introducido por el senador estatal Steve Padilla, el proyecto de ley requeriría que las empresas que operan chatbots compañeros eviten el uso de trucos adictivos y recompensas impredecibles. Además, tendrían que recordar a los usuarios al inicio de la interacción y cada tres horas que están hablando con una máquina, no con una persona. También deberán advertir claramente a los usuarios que los chatbots pueden no ser adecuados para menores de edad.

Si se aprueba, sería una de las primeras leyes en el país en regular a los compañeros de IA con estándares de seguridad claros y protecciones para los usuarios.

Inspiración Detrás del Proyecto de Ley

La legislación se inspira en la trágica historia de Sewell Setzer III, un niño de 14 años de Florida que se quitó la vida el año pasado tras formar una relación parasocial con un chatbot en Character.AI, una plataforma que permite a los usuarios interactuar con personas personalizadas de IA. Su madre, Megan Garcia, declaró que Setzer usaba el chatbot día y noche y había expresado al bot que estaba considerando el suicidio.

Estudios Relevantes

Un estudio de marzo del MIT Media Lab examinó la relación entre los chatbots de IA y la soledad, descubriendo que un mayor uso diario se correlacionaba con un incremento en la soledad, la dependencia y el uso problemático, término utilizado por los investigadores para caracterizar la adicción al uso de chatbots. El estudio reveló que los chatbots compañeros pueden ser más adictivos que las redes sociales, debido a su capacidad de entender lo que los usuarios quieren escuchar y proporcionar esa retroalimentación.

Responsabilidades de los Chatbots

El proyecto de ley exige que los operadores de chatbots tengan un proceso para manejar signos de pensamientos suicidas o autolesiones. Si un usuario expresa ideación suicida, el chatbot debe responder con recursos como una línea directa de suicidio, y estos procedimientos deben ser divulgados públicamente. Además, las empresas deben presentar informes anuales—sin revelar detalles personales—sobre cuántas veces los chatbots notaron o iniciaron discusiones sobre pensamientos suicidas.

Consecuencias de Violaciones

Bajo el proyecto de ley, cualquier persona que sufra daño por una violación podrá presentar una demanda buscando daños de hasta $1,000 por violación, además de los costos legales.

Resistencia a la Legislación

Algunas empresas están resistiendo la legislación propuesta, levantando preocupaciones sobre su posible impacto en la innovación. La semana pasada, un ejecutivo de TechNet, una red estatal de CEOs tecnológicos, redactó una carta abierta oponiéndose a la legislación, afirmando que su definición de un chatbot compañero es demasiado amplia y que los requisitos de informes anuales serían demasiado costosos.

“Lo que estamos presenciando no es solo un esfuerzo de política política para estrangular cualquier tipo de regulación en torno a la IA en general”, dijo Padilla en respuesta a una pregunta sobre la oposición. “Podemos capturar los beneficios positivos del despliegue de esta tecnología, y al mismo tiempo, proteger a los más vulnerables entre nosotros”.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...