Oregon Avanza con la Ley de Chatbots de IA con Provisión de Responsabilidad Privada
Los legisladores de Oregon aprobaron el Proyecto de Ley del Senado 1546, avanzando una medida que impondría requisitos de seguridad, divulgación y responsabilidad exigibles a los proveedores de chatbots de inteligencia artificial (IA), enviándola al gobernador para su firma.
El proyecto de ley ha sido aprobado por ambas cámaras y ahora espera la acción del gobernador. Si se firma, entrará en vigor en 2027 y creará una exposición legal directa relacionada con la interacción de los chatbots con los usuarios.
Regulación de los «Compañeros de IA»
La Coalición de Transparencia informó que el Proyecto de Ley 1546 regula los «compañeros de IA», sistemas diseñados para simular relaciones humanas continuas a través de interacciones personalizadas. Los legisladores están cambiando de las reglas de divulgación a la regulación del comportamiento del sistema en tiempo real y los resultados posteriores.
Requisitos de Transparencia y Seguridad
La medida llega en un momento en que la IA conversacional se expande en casos de uso tanto para consumidores como para empresas, incluyendo servicio al cliente, apoyo en salud mental, orientación financiera y educación. Los reguladores se están enfocando en cómo estos sistemas influyen en la toma de decisiones y el comportamiento en contextos sensibles.
El proyecto de ley requiere que los operadores divulguen claramente que los usuarios están interactuando con IA y que mantengan protocolos de seguridad documentados. Además, también se exige intervención activa en escenarios de alto riesgo, donde los sistemas deben detectar señales de ideación suicida o autolesiones, interrumpir las conversaciones y dirigir a los usuarios a recursos de crisis.
Protección para Menores
El proyecto de ley impone requisitos más estrictos para los menores. Las plataformas deben emitir divulgaciones repetidas, restringir contenido sexualmente explícito y evitar funciones que fomenten la dependencia emocional o el compromiso prolongado. Las empresas deben actuar cuando haya «razones para creer» que un usuario es menor de edad, incluso sin confirmación explícita.
Derecho Privado de Acción
El proyecto de ley crea un derecho privado de acción, permitiendo a las personas demandar a los operadores por violaciones y reclamar daños estatutarios de $1,000 por violación. Este modelo de cumplimiento desplaza el riesgo de cumplimiento de los reguladores a los usuarios. Cada interacción puede generar exposición a la responsabilidad, y la ley no define cómo se cuentan las violaciones en conversaciones continuas, lo que aumenta el riesgo de reclamaciones acumulativas vinculadas a una sola sesión de usuario.
Implicaciones y Conclusión
La ley se aplica de manera amplia a las empresas que implementan IA conversacional en salud, servicios financieros, educación y soporte al cliente. Los sistemas que personalizan respuestas, almacenan contexto de usuario o simulan compromiso emocional caen dentro de su alcance. Las empresas deben rediseñar los sistemas de chatbots para incluir monitoreo en tiempo real, desencadenantes de intervención, registros de auditoría y vías de escalación. La ley transforma la seguridad de ser un principio de diseño a un requisito legal vinculado directamente a los resultados del sistema y del usuario.