¿Cuáles son las consideraciones clave en el enfoque predominante a nivel estatal para gobernar la IA en la toma de decisiones trascendentales?
En todo Estados Unidos, los legisladores estatales se centran cada vez más en regular la IA utilizada en «decisiones trascendentales», aquellas que impactan significativamente los medios de vida y las oportunidades de vida de las personas. Este enfoque está diseñado para fomentar la equidad, la transparencia, la supervisión y la rendición de cuentas, particularmente en áreas tradicionalmente cubiertas por las leyes de derechos civiles, como la educación, la vivienda, los servicios financieros, la atención médica y el empleo. El panorama regulatorio es complejo, pero consideraciones clave definen este enfoque predominante.
Definición del Alcance
Los legisladores a menudo siguen un marco de cinco partes para definir el alcance de los «sistemas de IA de alto riesgo» o las «herramientas automatizadas de toma de decisiones»:
- Definición de IA: La mayoría de los estados se alinean con la definición de la OCDE: un sistema de IA infiere de las entradas para generar salidas como predicciones, contenido o decisiones que influyen en entornos físicos o virtuales.
- Contexto Relevante: La regulación se centra principalmente en los sectores protegidos por las leyes de derechos civiles, donde la IA impacta la educación, el empleo, la vivienda, las finanzas, los servicios gubernamentales esenciales, la atención médica, los seguros y los servicios legales. Algunas propuestas, como la AB 2930 de California, son más prescriptivas e incluyen los servicios públicos esenciales, la justicia penal, los servicios de adopción, los servicios de reproducción y el voto.
- Impacto y Rol de la IA: Esta es el área más debatida. Los legisladores consideran términos como «facilitación de la toma de decisiones» (umbral más bajo), «factor sustancial» (medio) y «factor de control» (más alto). El problema central es equilibrar la amplitud regulatoria con la claridad operativa para los innovadores.
- Entidades Reguladas: El enfoque normalmente distingue entre desarrolladores (aquellos que construyen sistemas de IA) e implementadores (aquellos que los usan), asignando obligaciones específicas para cada rol en cuanto a transparencia, evaluaciones de riesgos y gobernanza.
- Excepciones Comunes: A menudo existen excepciones para tecnologías específicas (calculadoras, bases de datos, etc.), sectores ya gobernados por leyes existentes, pequeñas empresas y actividades de interés público.
Abordar la Discriminación Algorítmica
Mitigar la discriminación algorítmica contra las clases protegidas es un objetivo principal. La mayoría de las propuestas la definen como un trato diferencial injustificado basado en la clase protegida. Algunos marcos legislativos establecen una prohibición general contra la discriminación algorítmica, mientras que otros marcos, como el de Colorado, crean un deber de cuidado para prevenir la discriminación algorítmica. Las interacciones entre las nuevas leyes y las leyes de derechos civiles existentes no están claras actualmente, lo que genera confusión e incertidumbre. Además, existe una disparidad entre los puntos de vista de los consumidores y los representantes de la industria, donde los consumidores buscan una mayor protección, mientras que las industrias exigen menos restricciones.
Obligaciones para Desarrolladores e Implementadores
Las obligaciones comunes tanto para desarrolladores como para implementadores giran en torno a:
- Transparencia: Esto incluye avisos a las personas sobre el uso de la IA, medidas de transparencia pública y documentación compartida entre desarrolladores e implementadores.
- Evaluaciones: Existen diferencias sustanciales entre las pruebas de los sistemas de IA para evaluar aspectos técnicos basados en ciertas métricas como la precisión y la fiabilidad en busca de sesgos basados en las características protegidas, y las evaluaciones o evaluaciones de impacto de la IA que evalúan y documentan si y en qué medida un sistema de IA plantea un riesgo de discriminación para las personas.
- Programas de Gobernanza de la IA: Se requieren marcos estructurados para supervisar y gestionar el desarrollo y la implementación de la IA de forma responsable.
Derechos del Consumidor
Los marcos establecen derechos para las personas afectadas por los sistemas de IA, incluyendo:
- Derecho a la Notificación y Explicación: Las personas deben estar informadas sobre el uso de la IA y su impacto.
- Derecho a la Corrección: Oportunidad de corregir información inexacta utilizada en la toma de decisiones.
- Derecho a Optar por No Participar o Apelar: Posibilidad de optar por no participar en decisiones automatizadas o de apelar para una revisión humana.
Cumplimiento
El cumplimiento es gestionado normalmente por la oficina del Fiscal General del estado. Las herramientas regulatorias incluyen informes afirmativos y producción de documentos, junto con mecanismos de cumplimiento como los derechos a subsanar y las presunciones refutables de cumplimiento. Actualmente, la mayoría de los legisladores estatales han dudado en incluir un derecho privado de acción en los proyectos de ley de IA y privacidad de datos, debido a la posible carga legal.
¿Cómo abordan los enfoques específicos de la tecnología para regular la IA los desafíos únicos, considerando ejemplos de IA generativa y modelos de frontera?
Si bien muchos estados de EE. UU. están adoptando un enfoque basado en el riesgo para la regulación de la IA, algunos legisladores están buscando reglas específicas de la tecnología. Estos se centran en los riesgos únicos asociados con ciertos tipos de IA, en particular la IA generativa y los modelos de frontera.
IA Generativa: Transparencia y Divulgación
Las regulaciones para la IA generativa tienen como objetivo principal impulsar la transparencia. Esto implica:
- Avisos al Consumidor: Informar a los usuarios cuando interactúan con sistemas de IA generativa. Un buen ejemplo de esto es el SB 149 de Utah, que exige a las entidades que revelen cuándo un individuo está interactuando con la IA generativa.
- Etiquetado de Contenido: Marcar claramente el contenido como sintético o generado por IA.
- Marcas de Agua: Implementar marcas de agua para identificar el contenido creado por IA.
- Herramientas de Detección de IA: Como en el SB 942 de California, proporcionar herramientas para verificar si el contenido fue generado o modificado por IA.
- Divulgación de Documentación: La AB 2013 de California exige que los desarrolladores de IA generativa divulguen públicamente los datos utilizados para entrenar sus sistemas.
Modelos de Frontera: Seguridad y Supervisión
Las regulaciones para la IA de frontera o los Modelos Fundacionales (grandes modelos de IA que se pueden utilizar en una amplia variedad de casos de uso y aplicaciones, a veces denominados «IA de propósito general») abordan los riesgos derivados de su escala y potencia. Las áreas clave que se están considerando incluyen:
- Protocolos de Seguridad: Exigir a los desarrolladores que tengan protocolos de seguridad documentados. Un ejemplo proviene de la legislación propuesta de California en 2024, SB 1047.
- Capacidad de Apagado: Garantizar la capacidad de apagar rápidamente los modelos si es necesario. El SB 1047 aprobado por la legislatura es un ejemplo de esto.
Desafíos en la Regulación de Modelos de Frontera/Fundacionales
La regulación de tales modelos plantea desafíos únicos:
- Complejidad y Escala: Las complejidades de estos modelos dificultan el establecimiento de estándares eficaces.
- Potencia Informática como umbral: Algunas propuestas utilizan la potencia informática (por ejemplo, FLOPs) como restricción predeterminada. Los críticos argumentan que esta medida no siempre es un indicador confiable de riesgo. Sostienen que hay demasiado enfoque en riesgos especulativos frente a riesgos evidenciados, como el sesgo algorítmico.
- Impacto en el Código Abierto: Los requisitos impuestos a los desarrolladores podrían limitar la disponibilidad y modificación de los modelos de código abierto. En respuesta a las preocupaciones sobre el impacto en el código abierto, el SB 1047 de California recibió enmiendas para excluir los modelos creados mediante el ajuste fino de un modelo cubierto, utilizando menos de diez millones de dólares en costos de cálculo.
¿Qué obligaciones y derechos específicos relacionados con los sistemas de IA se establecen normalmente para los desarrolladores, implementadores y consumidores, y cómo se hacen cumplir?
La legislación estatal sobre IA se centra cada vez más en definir derechos y obligaciones específicos para los desarrolladores, implementadores y consumidores con el fin de garantizar la equidad, la transparencia y la rendición de cuentas. Analicemos en qué consiste normalmente cada función.
Obligaciones para los desarrolladores
Los desarrolladores, que construyen sistemas de IA, se enfrentan a obligaciones relacionadas con:
- Transparencia y documentación: Proporcionar documentación completa sobre la funcionalidad, el propósito previsto y los riesgos potenciales del sistema de IA. Esto a menudo incluye la divulgación de información sobre los datos utilizados para entrenar el modelo.
- Evaluación de riesgos: Probar los sistemas en busca de sesgos y vulnerabilidades de discriminación y proporcionar esta información a los implementadores.
- Cuidado razonable: En los estados con un modelo regulatorio de deber de cuidado, los desarrolladores asumen la responsabilidad de tener un «cuidado razonable» para proteger a los consumidores de la discriminación algorítmica.
Obligaciones para los implementadores
Los implementadores, que utilizan sistemas de IA, generalmente son responsables de:
- Transparencia y notificación: Informar a las personas cuándo y cómo se está utilizando un sistema de IA para tomar decisiones trascendentales que les afecten.
- Programas de gobernanza de la IA: Implementar programas estructurados y políticas de gestión de riesgos para supervisar el uso de la IA. Estos programas a menudo requieren especificaciones con respecto a la mitigación de riesgos y las actualizaciones iterativas.
- Monitoreo posterior a la implementación: Monitorear continuamente los sistemas de IA en busca de sesgos, precisión y riesgos de discriminación.
- Proporcionar derechos individuales: Respetar los derechos del consumidor (que se detallan a continuación), lo que a menudo incluye corregir la información inexacta utilizada en la toma de decisiones.
Derechos del consumidor
Se están concediendo nuevos derechos a los consumidores en virtud de la legislación propuesta sobre IA:
- Derecho a la notificación y explicación: Recibir información clara y accesible sobre el uso de la IA en los procesos de toma de decisiones. Esto incluye comprender el propósito del sistema y cómo funciona.
- Derecho de rectificación: Rectificar los datos personales erróneos utilizados por el sistema de IA, especialmente si se tomó una decisión adversa.
- Derecho de apelación o exclusión voluntaria: Algunas legislaciones prevén el derecho a recurrir una decisión basada en la IA para que sea revisada por un ser humano o a excluirse por completo de la toma de decisiones automatizada.
Mecanismos de aplicación
La aplicación suele ser gestionada por el Fiscal General del estado. Los mecanismos comunes incluyen:
- Informes afirmativos: Los desarrolladores revelan los riesgos potenciales asociados con los sistemas de IA.
- Producción de documentos: Exigir a los desarrolladores e implementadores que mantengan y produzcan documentación.
- Derecho de subsanación: Dar a las organizaciones la oportunidad de corregir las infracciones en un plazo específico.
- Presunción refutable: Proporcionar una «presunción refutable» de cumplimiento si las empresas cumplen con los requisitos reglamentarios.
- Defensa afirmativa: Proporcionar defensas contra la acción si los desarrolladores subsanan cualquier violación en 30 días y cumplen con los marcos de gestión de riesgos reconocidos.
Cabe señalar que los legisladores estatales dudan en incluir un derecho de acción privado en la legislación sobre IA, porque esto podría conducir potencialmente a un litigio excesivo.