El uso de la IA en la regulación: ¿es razonable?

Determinando la Razonabilidad de Regular con IA

Este artículo es la quinta contribución al simposio sobre IA y la APA. Entre los principios operativos del derecho administrativo se encuentra el requisito de que las agencias “examinen los datos relevantes y articulen una explicación satisfactoria” para sus acciones, conocido como el requisito de toma de decisiones razonadas. Esto significa que las agencias deben mostrar su trabajo y proporcionar un registro completo que permita a un tribunal concluir, tras una revisión bajo la Ley de Procedimiento Administrativo (APA), que una agencia no actuó de manera arbitraria y caprichosa.

Factores para la Revisión Judicial

En los primeros días del gobierno por IA, se proponen tres factores para guiar a los tribunales al revisar el uso de IA en el proceso regulatorio:

  1. El grado en que el Congreso, en su mandato estatutario a la agencia, le otorgó a esta una amplia discreción para participar en la toma de decisiones cargadas de valor.
  2. Dónde y cómo se utiliza la IA en la formulación de acciones de la agencia.
  3. Si el tema de la acción de la agencia afecta a derechos o áreas de seguridad.

Se postula que los tribunales deben revisar el uso de IA por parte de las agencias con mayor escrutinio cuando estas la utilizan para implementar mandatos estatutarios amplios, redactar sustancialmente o producir análisis, o regular dominios que impactan derechos o seguridad. Por el contrario, los tribunales deberían ser menos escépticos respecto a la IA cuando se use para implementar mandatos relativamente estrechos, en aspectos intersticiales del proceso regulatorio, o en dominios que no impactan derechos ni seguridad.

Características de los Sistemas de IA

Es fundamental tener en cuenta ciertas características básicas de los sistemas de IA que subyacen a este análisis. Algunos sistemas de IA se basan en patrones en sus datos de entrenamiento, realizando cálculos para predecir la respuesta más probable a un determinado aviso. A diferencia de las agencias que sirven al público, los desarrolladores de IA no buscan discernir la verdad o compartir hechos, sino diseñar sistemas que puedan predecir la siguiente palabra más lógica. Esto puede llevar a “alucinaciones”, donde los sistemas producen respuestas que contienen información contradictoria o incorrecta.

Uso de IA en el Proceso Regulatorio

Bajo el primer factor, los tribunales deben considerar la amplitud de la autoridad estatutaria que la agencia está utilizando. Cuando el Congreso otorga un amplio margen de discreción, como en el caso de la administración de productos de tabaco, las agencias tienen un deber complementario de ejercerlo con mayor cuidado cuando se utiliza IA.

El segundo factor implica examinar cuándo se despliega la IA en el proceso regulatorio y qué papel desempeña. Si la IA se usa para generar resúmenes de documentos o recuperar información específica, se plantean menos preocupaciones. Sin embargo, cuando se utiliza para fines más sustantivos, los tribunales deben aumentar su revisión.

Finalmente, los tribunales deben ser especialmente cautelosos cuando la IA se utiliza en la formulación de políticas que afectan derechos o seguridad. Ambos aspectos requieren decisiones cargadas de valor, y el uso de IA en estas áreas debe ser tratado con una mayor documentación y transparencia.

Conclusión

Los factores discutidos son solo pautas preliminares para los tribunales, así como para los legisladores y el público, cuando surgen preguntas sobre si una agencia ha fallado en su obligación fundamental de articular una explicación satisfactoria de sus acciones. A medida que la tecnología y la ley relacionada con la IA continúan evolucionando, la capacidad de la ley administrativa para adaptarse al uso de IA dependerá de los hechos de cada caso particular.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...