Ley de Chatbots de Oregón: Implicaciones y Responsabilidades

Oregon SB 1546: La primera ley de chatbots con dientes reales

Si su empresa utiliza una herramienta impulsada por inteligencia artificial que recuerda las interacciones con los clientes, hace preguntas de seguimiento y mantiene conversaciones personales, la nueva ley de seguridad de chatbots de Oregón podría aplicarse a usted. SB 1546, que fue aprobada por ambas cámaras el 5 de marzo con un apoyo casi unánime, crea un derecho de acción privada con daños estatutarios de $1,000 por violación. Si el gobernador firma el proyecto de ley, entrará en vigor el 1 de enero de 2027.

¿Qué requiere la SB 1546 de Oregón?

El proyecto de ley se dirige a los «compañeros de IA», que se definen de manera amplia como:

[Un sistema] que utiliza inteligencia artificial, inteligencia artificial generativa o algoritmos que reconocen emociones a partir de entradas y que [está] diseñado para simular una relación o compañerismo humano, platónico, íntimo o romántico con un usuario.

Para todos los usuarios, los operadores deben divulgar la participación de la IA, detectar expresiones de ideación suicida, interrumpir la conversación para proporcionar referencias de crisis y presentar informes anuales a la Autoridad de Salud de Oregón. Para los menores, los operadores deben proporcionar recordatorios horarios de IA, abstenerse de contenido sexualmente explícito y evitar técnicas diseñadas para crear dependencia emocional.

La interrupción obligatoria de la conversación es única de Oregón, a diferencia de otras legislaciones que no requieren interrupciones activas. Esta distinción es importante a nivel del producto, ya que la interrupción requiere clasificación de intención en tiempo real, una tarea probabilística con tasas inherentes de falsos positivos y negativos.

¿Esto se aplica a mi empresa?

Un sistema califica como «compañero de IA» si cumple con una prueba de tres partes:

[El sistema] (a) [retiene] información de interacciones anteriores o sesiones de usuario y de preferencias de usuario para personalizar interacciones y facilitar un compromiso continuo; (b) [hace] preguntas no solicitadas que sugieren o conciernen temas emocionales; y (c) [sostiene] un diálogo continuo sobre asuntos personales del usuario.

Las empresas que probablemente se verán sorprendidas no son los proveedores de IA, sino las que integraron herramientas de IA en flujos de trabajo sin rastrear cómo evolucionaron esas herramientas.

¿Cuál es la exposición a litigios?

El derecho de acción privada establece un umbral bajo para la legitimación y un alto techo para los daños:

Una persona que sufre una pérdida reconocible de dinero o propiedad o alguna otra lesión como resultado de una violación puede presentar una acción por daños de $1,000 por violación.

El estatuto no define «violación». Si cada sesión de conversación cuenta, la exposición es sustancial. Si cada mensaje dentro de una sesión cuenta, el reclamo de un solo usuario podría alcanzar decenas de miles de dólares y una acción colectiva podría llegar a decenas de millones.

¿Qué deben hacer las empresas ahora?

Auditar su conjunto de proveedores. Las empresas deben mapear cada herramienta de IA de terceros en soporte al cliente, compromiso del paciente, recursos humanos y planificación financiera en relación con la definición de tres partes.

Revisar los contratos de proveedores. Es probable que los acuerdos de proveedores anteriores a la SB 1546 no aborden la obligación de interrupción de conversación o referencias de crisis.

Revisar su seguro. Podría ser útil revisar las políticas de E&O tecnológicas y cibernéticas para confirmar que las reclamaciones de daños estatutarios relacionados con chatbots están cubiertas.

Oregón es un indicador líder, no un caso aislado. Con un aumento en la legislación sobre chatbots, se espera que sigan leyes similares. El derecho de acción privada es el cambio estructural: cuando cualquier usuario puede demandar por daños estatutarios, la economía del cumplimiento se transforma de «monitorear y responder» a «prevenir o pagar».

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...