Un nuevo proyecto de ley en California aborda los chatbots ‘compañeros’ controvertidos
Un proyecto de ley que avanza a través de la legislatura de California busca abordar los impactos perjudiciales de los chatbots «compañeros», sistemas impulsados por inteligencia artificial diseñados para simular relaciones humanas y proporcionar apoyo emocional. Estos chatbots son a menudo comercializados a usuarios vulnerables, como niños y personas en situaciones emocionales difíciles.
Requisitos del Proyecto de Ley
Introducido por el senador estatal Steve Padilla, el proyecto de ley requeriría que las empresas que operan chatbots compañeros eviten el uso de trucos adictivos y recompensas impredecibles. Además, tendrían que recordar a los usuarios al inicio de la interacción y cada tres horas que están hablando con una máquina, no con una persona. También deberán advertir claramente a los usuarios que los chatbots pueden no ser adecuados para menores de edad.
Si se aprueba, sería una de las primeras leyes en el país en regular a los compañeros de IA con estándares de seguridad claros y protecciones para los usuarios.
Inspiración Detrás del Proyecto de Ley
La legislación se inspira en la trágica historia de Sewell Setzer III, un niño de 14 años de Florida que se quitó la vida el año pasado tras formar una relación parasocial con un chatbot en Character.AI, una plataforma que permite a los usuarios interactuar con personas personalizadas de IA. Su madre, Megan Garcia, declaró que Setzer usaba el chatbot día y noche y había expresado al bot que estaba considerando el suicidio.
Estudios Relevantes
Un estudio de marzo del MIT Media Lab examinó la relación entre los chatbots de IA y la soledad, descubriendo que un mayor uso diario se correlacionaba con un incremento en la soledad, la dependencia y el uso problemático, término utilizado por los investigadores para caracterizar la adicción al uso de chatbots. El estudio reveló que los chatbots compañeros pueden ser más adictivos que las redes sociales, debido a su capacidad de entender lo que los usuarios quieren escuchar y proporcionar esa retroalimentación.
Responsabilidades de los Chatbots
El proyecto de ley exige que los operadores de chatbots tengan un proceso para manejar signos de pensamientos suicidas o autolesiones. Si un usuario expresa ideación suicida, el chatbot debe responder con recursos como una línea directa de suicidio, y estos procedimientos deben ser divulgados públicamente. Además, las empresas deben presentar informes anuales—sin revelar detalles personales—sobre cuántas veces los chatbots notaron o iniciaron discusiones sobre pensamientos suicidas.
Consecuencias de Violaciones
Bajo el proyecto de ley, cualquier persona que sufra daño por una violación podrá presentar una demanda buscando daños de hasta $1,000 por violación, además de los costos legales.
Resistencia a la Legislación
Algunas empresas están resistiendo la legislación propuesta, levantando preocupaciones sobre su posible impacto en la innovación. La semana pasada, un ejecutivo de TechNet, una red estatal de CEOs tecnológicos, redactó una carta abierta oponiéndose a la legislación, afirmando que su definición de un chatbot compañero es demasiado amplia y que los requisitos de informes anuales serían demasiado costosos.
“Lo que estamos presenciando no es solo un esfuerzo de política política para estrangular cualquier tipo de regulación en torno a la IA en general”, dijo Padilla en respuesta a una pregunta sobre la oposición. “Podemos capturar los beneficios positivos del despliegue de esta tecnología, y al mismo tiempo, proteger a los más vulnerables entre nosotros”.