Regulación de chatbots: Protección para los menores en Washington

Regulaciones sobre los Chatbots de Compañía en Washington

La compañía de inteligencia artificial está creciendo rápidamente, especialmente entre los menores. Aproximadamente un tercio de los adolescentes en EE. UU. informan que dependen de un chatbot de IA para apoyo emocional.

Esta tendencia ha llevado a los reguladores del estado de Washington a sonar la alarma tras varios casos de suicidio juvenil relacionados con chatbots. El gobernador de Washington ha solicitado a los legisladores que introduzcan un proyecto de ley que establezca salvaguardias para los chatbots, especialmente para los menores.

Detalles del Proyecto de Ley

El Proyecto de Ley del Senado 5984 requeriría que herramientas como ChatGPT recuerden a los usuarios que son robots, no humanos, al inicio de una conversación y al menos cada tres horas durante una interacción continua. Estas reglas también se aplicarían a los menores, además de protecciones adicionales. Los chatbots estarían prohibidos de mantener conversaciones sexualmente explícitas con usuarios menores de edad y tendrían que derivarlos a servicios de salud mental cuando muestren signos de autolesionarse, incluidos trastornos alimentarios.

Casos Recientes

Recientemente, Google y Character.AI resolvieron demandas que afirmaban que sus chatbots llevaron a crisis de salud mental en adolescentes. Un portavoz de Character.AI mencionó que la empresa está revisando el proyecto de ley de Washington y está ansiosa por trabajar con los reguladores en las barandillas de IA. La compañía detuvo recientemente las conversaciones abiertas con menores tras el caso de un adolescente que desarrolló un fuerte apego a uno de sus chatbots y terminó con su vida.

Otro caso de suicidio adolescente relacionado con ChatGPT de OpenAI todavía está siendo litigado. OpenAI y Google no han respondido a las solicitudes de comentarios sobre el proyecto de ley de Washington.

Implicaciones y Riesgos

La senadora estatal ha señalado que existen varios casos reales donde los chatbots están involucrados en suicidios infantiles, así como otros casos donde los niños están emocionalmente devastados debido a la IA. Si bien no se conoce todo lo que está sucediendo, se sabe que la IA puede establecer una dependencia emocional y proporcionar información y orientación a los niños.

Washington está trabajando para coordinar su enfoque regulatorio de IA con otros estados. Mientras tanto, el estado avanza con una serie de regulaciones sobre IA durante la próxima sesión legislativa.

Conclusión

El objetivo es adelantarse a cualquier daño adicional que pueda causar una tecnología que ya está en el mercado. Se busca crear un entorno más seguro para los menores que interactúan con chatbots, garantizando su bienestar emocional y psicológico.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...