Leyes Estatales de IA: Moldeando la IA Responsable en un Mundo Consecuente

A medida que la inteligencia artificial da forma cada vez más a nuestras vidas, los gobiernos estatales de todo Estados Unidos están lidiando con cómo garantizar su desarrollo y uso responsable. Este examen profundiza en los esfuerzos legislativos actuales centrados en la gobernanza de la IA, específicamente en el contexto de las decisiones que impactan profundamente a los individuos. Exploraremos los principios básicos y los marcos prácticos que están surgiendo a medida que los estados se esfuerzan por equilibrar la innovación con la equidad, la transparencia y la rendición de cuentas en este panorama tecnológico que evoluciona rápidamente. Al comprender los componentes clave de estos enfoques regulatorios emergentes, podemos anticipar mejor su impacto potencial en las empresas, los consumidores y el futuro de la IA en sí. El siguiente análisis destaca los desafíos definitorios, las obligaciones y los derechos clave contenidos en estas leyes emergentes sobre la IA.

¿Cuáles son las consideraciones clave en el enfoque predominante a nivel estatal para gobernar la IA en la toma de decisiones trascendentales?

En todo Estados Unidos, los legisladores estatales se centran cada vez más en regular la IA utilizada en «decisiones trascendentales», aquellas que impactan significativamente los medios de vida y las oportunidades de vida de las personas. Este enfoque está diseñado para fomentar la equidad, la transparencia, la supervisión y la rendición de cuentas, particularmente en áreas tradicionalmente cubiertas por las leyes de derechos civiles, como la educación, la vivienda, los servicios financieros, la atención médica y el empleo. El panorama regulatorio es complejo, pero consideraciones clave definen este enfoque predominante.

Definición del Alcance

Los legisladores a menudo siguen un marco de cinco partes para definir el alcance de los «sistemas de IA de alto riesgo» o las «herramientas automatizadas de toma de decisiones»:

  • Definición de IA: La mayoría de los estados se alinean con la definición de la OCDE: un sistema de IA infiere de las entradas para generar salidas como predicciones, contenido o decisiones que influyen en entornos físicos o virtuales.
  • Contexto Relevante: La regulación se centra principalmente en los sectores protegidos por las leyes de derechos civiles, donde la IA impacta la educación, el empleo, la vivienda, las finanzas, los servicios gubernamentales esenciales, la atención médica, los seguros y los servicios legales. Algunas propuestas, como la AB 2930 de California, son más prescriptivas e incluyen los servicios públicos esenciales, la justicia penal, los servicios de adopción, los servicios de reproducción y el voto.
  • Impacto y Rol de la IA: Esta es el área más debatida. Los legisladores consideran términos como «facilitación de la toma de decisiones» (umbral más bajo), «factor sustancial» (medio) y «factor de control» (más alto). El problema central es equilibrar la amplitud regulatoria con la claridad operativa para los innovadores.
  • Entidades Reguladas: El enfoque normalmente distingue entre desarrolladores (aquellos que construyen sistemas de IA) e implementadores (aquellos que los usan), asignando obligaciones específicas para cada rol en cuanto a transparencia, evaluaciones de riesgos y gobernanza.
  • Excepciones Comunes: A menudo existen excepciones para tecnologías específicas (calculadoras, bases de datos, etc.), sectores ya gobernados por leyes existentes, pequeñas empresas y actividades de interés público.

Abordar la Discriminación Algorítmica

Mitigar la discriminación algorítmica contra las clases protegidas es un objetivo principal. La mayoría de las propuestas la definen como un trato diferencial injustificado basado en la clase protegida. Algunos marcos legislativos establecen una prohibición general contra la discriminación algorítmica, mientras que otros marcos, como el de Colorado, crean un deber de cuidado para prevenir la discriminación algorítmica. Las interacciones entre las nuevas leyes y las leyes de derechos civiles existentes no están claras actualmente, lo que genera confusión e incertidumbre. Además, existe una disparidad entre los puntos de vista de los consumidores y los representantes de la industria, donde los consumidores buscan una mayor protección, mientras que las industrias exigen menos restricciones.

Obligaciones para Desarrolladores e Implementadores

Las obligaciones comunes tanto para desarrolladores como para implementadores giran en torno a:

  • Transparencia: Esto incluye avisos a las personas sobre el uso de la IA, medidas de transparencia pública y documentación compartida entre desarrolladores e implementadores.
  • Evaluaciones: Existen diferencias sustanciales entre las pruebas de los sistemas de IA para evaluar aspectos técnicos basados en ciertas métricas como la precisión y la fiabilidad en busca de sesgos basados en las características protegidas, y las evaluaciones o evaluaciones de impacto de la IA que evalúan y documentan si y en qué medida un sistema de IA plantea un riesgo de discriminación para las personas.
  • Programas de Gobernanza de la IA: Se requieren marcos estructurados para supervisar y gestionar el desarrollo y la implementación de la IA de forma responsable.

Derechos del Consumidor

Los marcos establecen derechos para las personas afectadas por los sistemas de IA, incluyendo:

  • Derecho a la Notificación y Explicación: Las personas deben estar informadas sobre el uso de la IA y su impacto.
  • Derecho a la Corrección: Oportunidad de corregir información inexacta utilizada en la toma de decisiones.
  • Derecho a Optar por No Participar o Apelar: Posibilidad de optar por no participar en decisiones automatizadas o de apelar para una revisión humana.

Cumplimiento

El cumplimiento es gestionado normalmente por la oficina del Fiscal General del estado. Las herramientas regulatorias incluyen informes afirmativos y producción de documentos, junto con mecanismos de cumplimiento como los derechos a subsanar y las presunciones refutables de cumplimiento. Actualmente, la mayoría de los legisladores estatales han dudado en incluir un derecho privado de acción en los proyectos de ley de IA y privacidad de datos, debido a la posible carga legal.

¿Cómo abordan los enfoques específicos de la tecnología para regular la IA los desafíos únicos, considerando ejemplos de IA generativa y modelos de frontera?

Si bien muchos estados de EE. UU. están adoptando un enfoque basado en el riesgo para la regulación de la IA, algunos legisladores están buscando reglas específicas de la tecnología. Estos se centran en los riesgos únicos asociados con ciertos tipos de IA, en particular la IA generativa y los modelos de frontera.

IA Generativa: Transparencia y Divulgación

Las regulaciones para la IA generativa tienen como objetivo principal impulsar la transparencia. Esto implica:

  • Avisos al Consumidor: Informar a los usuarios cuando interactúan con sistemas de IA generativa. Un buen ejemplo de esto es el SB 149 de Utah, que exige a las entidades que revelen cuándo un individuo está interactuando con la IA generativa.
  • Etiquetado de Contenido: Marcar claramente el contenido como sintético o generado por IA.
  • Marcas de Agua: Implementar marcas de agua para identificar el contenido creado por IA.
  • Herramientas de Detección de IA: Como en el SB 942 de California, proporcionar herramientas para verificar si el contenido fue generado o modificado por IA.
  • Divulgación de Documentación: La AB 2013 de California exige que los desarrolladores de IA generativa divulguen públicamente los datos utilizados para entrenar sus sistemas.

Modelos de Frontera: Seguridad y Supervisión

Las regulaciones para la IA de frontera o los Modelos Fundacionales (grandes modelos de IA que se pueden utilizar en una amplia variedad de casos de uso y aplicaciones, a veces denominados «IA de propósito general») abordan los riesgos derivados de su escala y potencia. Las áreas clave que se están considerando incluyen:

  • Protocolos de Seguridad: Exigir a los desarrolladores que tengan protocolos de seguridad documentados. Un ejemplo proviene de la legislación propuesta de California en 2024, SB 1047.
  • Capacidad de Apagado: Garantizar la capacidad de apagar rápidamente los modelos si es necesario. El SB 1047 aprobado por la legislatura es un ejemplo de esto.

Desafíos en la Regulación de Modelos de Frontera/Fundacionales

La regulación de tales modelos plantea desafíos únicos:

  • Complejidad y Escala: Las complejidades de estos modelos dificultan el establecimiento de estándares eficaces.
  • Potencia Informática como umbral: Algunas propuestas utilizan la potencia informática (por ejemplo, FLOPs) como restricción predeterminada. Los críticos argumentan que esta medida no siempre es un indicador confiable de riesgo. Sostienen que hay demasiado enfoque en riesgos especulativos frente a riesgos evidenciados, como el sesgo algorítmico.
  • Impacto en el Código Abierto: Los requisitos impuestos a los desarrolladores podrían limitar la disponibilidad y modificación de los modelos de código abierto. En respuesta a las preocupaciones sobre el impacto en el código abierto, el SB 1047 de California recibió enmiendas para excluir los modelos creados mediante el ajuste fino de un modelo cubierto, utilizando menos de diez millones de dólares en costos de cálculo.

¿Qué obligaciones y derechos específicos relacionados con los sistemas de IA se establecen normalmente para los desarrolladores, implementadores y consumidores, y cómo se hacen cumplir?

La legislación estatal sobre IA se centra cada vez más en definir derechos y obligaciones específicos para los desarrolladores, implementadores y consumidores con el fin de garantizar la equidad, la transparencia y la rendición de cuentas. Analicemos en qué consiste normalmente cada función.

Obligaciones para los desarrolladores

Los desarrolladores, que construyen sistemas de IA, se enfrentan a obligaciones relacionadas con:

  • Transparencia y documentación: Proporcionar documentación completa sobre la funcionalidad, el propósito previsto y los riesgos potenciales del sistema de IA. Esto a menudo incluye la divulgación de información sobre los datos utilizados para entrenar el modelo.
  • Evaluación de riesgos: Probar los sistemas en busca de sesgos y vulnerabilidades de discriminación y proporcionar esta información a los implementadores.
  • Cuidado razonable: En los estados con un modelo regulatorio de deber de cuidado, los desarrolladores asumen la responsabilidad de tener un «cuidado razonable» para proteger a los consumidores de la discriminación algorítmica.

Obligaciones para los implementadores

Los implementadores, que utilizan sistemas de IA, generalmente son responsables de:

  • Transparencia y notificación: Informar a las personas cuándo y cómo se está utilizando un sistema de IA para tomar decisiones trascendentales que les afecten.
  • Programas de gobernanza de la IA: Implementar programas estructurados y políticas de gestión de riesgos para supervisar el uso de la IA. Estos programas a menudo requieren especificaciones con respecto a la mitigación de riesgos y las actualizaciones iterativas.
  • Monitoreo posterior a la implementación: Monitorear continuamente los sistemas de IA en busca de sesgos, precisión y riesgos de discriminación.
  • Proporcionar derechos individuales: Respetar los derechos del consumidor (que se detallan a continuación), lo que a menudo incluye corregir la información inexacta utilizada en la toma de decisiones.

Derechos del consumidor

Se están concediendo nuevos derechos a los consumidores en virtud de la legislación propuesta sobre IA:

  • Derecho a la notificación y explicación: Recibir información clara y accesible sobre el uso de la IA en los procesos de toma de decisiones. Esto incluye comprender el propósito del sistema y cómo funciona.
  • Derecho de rectificación: Rectificar los datos personales erróneos utilizados por el sistema de IA, especialmente si se tomó una decisión adversa.
  • Derecho de apelación o exclusión voluntaria: Algunas legislaciones prevén el derecho a recurrir una decisión basada en la IA para que sea revisada por un ser humano o a excluirse por completo de la toma de decisiones automatizada.

Mecanismos de aplicación

La aplicación suele ser gestionada por el Fiscal General del estado. Los mecanismos comunes incluyen:

  • Informes afirmativos: Los desarrolladores revelan los riesgos potenciales asociados con los sistemas de IA.
  • Producción de documentos: Exigir a los desarrolladores e implementadores que mantengan y produzcan documentación.
  • Derecho de subsanación: Dar a las organizaciones la oportunidad de corregir las infracciones en un plazo específico.
  • Presunción refutable: Proporcionar una «presunción refutable» de cumplimiento si las empresas cumplen con los requisitos reglamentarios.
  • Defensa afirmativa: Proporcionar defensas contra la acción si los desarrolladores subsanan cualquier violación en 30 días y cumplen con los marcos de gestión de riesgos reconocidos.

Cabe señalar que los legisladores estatales dudan en incluir un derecho de acción privado en la legislación sobre IA, porque esto podría conducir potencialmente a un litigio excesivo.

El panorama emergente de la gobernanza de la IA a nivel estatal revela un esfuerzo multifacético para equilibrar la innovación con protecciones sólidas. Estos marcos, aunque varían en alcance y aplicación, subrayan un compromiso con la equidad, la transparencia y la rendición de cuentas en el despliegue de la IA. A medida que los estados lidian con la definición de sistemas de alto riesgo, abordan la discriminación algorítmica y establecen obligaciones claras, el enfoque se mantiene en empoderar a las personas y garantizar que la IA beneficie a la sociedad en su conjunto. La trayectoria del desarrollo responsable de la IA depende de un diálogo continuo que refine las regulaciones, fomente la colaboración entre desarrolladores, implementadores y legisladores, y priorice las consideraciones éticas en los algoritmos que dan forma a nuestro futuro.

More Insights

Gobernanza de IA en Salud: Desafíos y Oportunidades

El paisaje regulatorio de la IA ha experimentado cambios monumentales en los últimos seis meses, con un enfoque creciente en la innovación en lugar de la regulación. Sin embargo, es crucial mantener...

La industria de IA exige un retraso en la ley básica ante regulaciones vagas

Se han planteado preocupaciones en la industria de que los estándares regulatorios ambiguos dentro de la ley básica de IA podrían obstaculizar el crecimiento del sector. Recientemente, Huang Jeong-a...

Cumpliendo con el GDPR y la Ley de IA de la UE en Marketing

Como comercializadores o dueños de negocios, sabemos lo desafiante que puede ser llegar a la audiencia adecuada en el momento oportuno. La conformidad con el GDPR es crucial para garantizar la...

La pirámide de riesgos de la Ley de IA de la UE

Una de las características definitorias de la Ley de IA de la UE es su enfoque basado en el riesgo, donde los sistemas de IA no se tratan por igual. La ley clasifica los sistemas de IA en cuatro...

Empresas de IA afirman que las regulaciones existentes pueden gobernar la IA agentiva

Las empresas de inteligencia artificial están adoptando la IA agentiva, que se considera la próxima evolución de la IA generativa. A medida que la innovación avanza, los desarrolladores de IA...

La UE prohíbe el uso de software de IA en reuniones en línea

La Comisión Europea ha prohibido inesperadamente el uso de asistentes virtuales impulsados por IA durante las reuniones en línea, a pesar de su creciente popularidad. Este movimiento ha suscitado...

Diseñando Confianza en la IA Responsable

El rápido avance de la inteligencia artificial (IA) en la tecnología cotidiana presenta grandes oportunidades, así como desafíos éticos significativos. Los diseñadores de productos están en la...

Interoperabilidad en la Regulación de la IA: Caminos hacia un Futuro Sostenible

A medida que nos encontramos en una encrucijada crítica en el desarrollo de la IA, surge un desafío de gobernanza que podría sofocar la innovación y crear divisiones digitales globales. La actual...