Oregon busca regular los chatbots de inteligencia artificial para proteger a los jóvenes

Oregon busca regular los chatbots de inteligencia artificial

Los legisladores de Oregon, que anteriormente no lograron regular las redes sociales, ahora tienen la oportunidad de abordar los efectos de la próxima tecnología emergente sobre la juventud. La Senadora Lisa Reynolds y el comité del Senado de Salud Infantil y Comportamental que ella preside están promoviendo el Proyecto de Ley 1546 para regular los chatbots de inteligencia artificial.

El proyecto de ley exigiría a programas de inteligencia artificial, como ChatGPT, informar a los usuarios con mayor regularidad que están interactuando con una herramienta de inteligencia artificial, no con un humano. Esta legislación sigue una ley recientemente aprobada en California y otras propuestas similares en Nueva York y Washington.

Uso de IA entre los adolescentes

El uso de inteligencia artificial entre los adolescentes es cada vez más común, con un 72% de los jóvenes utilizando compañeros de IA, y más del 50% como usuarios regulares, según una organización sin fines de lucro. Investigaciones han indicado que casi un tercio de los adolescentes encuentran las conversaciones con chatbots de IA tan satisfactorias o más que las conversaciones en la vida real.

Los adolescentes utilizan chatbots de IA como compañeros para apoyo emocional o para discutir la salud mental. Sin embargo, se ha demostrado que estos sistemas a menudo no detectan señales de advertencia sutiles de problemas emocionales que un humano podría captar.

Enfoque en la prevención del suicidio

Más allá del acceso juvenil, el objetivo del proyecto de ley es proteger a cualquier persona que exprese tendencias suicidas. La legislación propuesta requeriría que los programadores desarrollen protocolos para sus plataformas de IA que detecten signos de ideación suicida o autolesiones y que, en respuesta, refieran a los usuarios a líneas de crisis y recursos relacionados.

La senadora ha estado en contacto con líneas de ayuda locales para incluirlas como recursos que los chatbots de IA podrían ofrecer a los usuarios. Los voluntarios han observado cómo la IA ha impactado a los usuarios, asegurando a quienes están en crisis que están hablando con un humano, no con una IA.

Implicaciones y desafíos

El proyecto de ley podría enfrentar desafíos legales si se aprueba, debido a una orden ejecutiva que limita la regulación estatal de los servicios de IA. Sin embargo, la senadora sigue firme en su intención de abordar el uso no regulado de la IA, expresando su deseo de establecer límites antes de que sea demasiado tarde.

En conclusión, la regulación de los chatbots de inteligencia artificial en Oregon busca mitigar los riesgos asociados con su uso entre los jóvenes, estableciendo límites que promuevan un uso responsable y seguro de esta tecnología emergente.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...