Hacia Estándares Mínimos de Derecho Administrativo para el Uso de IA por Parte de las Agencias
Gran parte del pensamiento emergente sobre la relación entre el derecho administrativo y la inteligencia artificial generativa se basa, de manera expresa o implícita, en la suposición de que los sistemas de IA podrían desempeñar un papel fundamental en la configuración y explicación de la acción administrativa. Esto se debe a que una de las características principales de la Ley de Procedimiento Administrativo es que obliga a los formuladores de políticas a ofrecer relatos coherentes y escritos de su razonamiento, una tarea que a menudo puede ser complicada y consumir tiempo.
Actualmente, los modelos de lenguaje grandes son capaces de generar rápidamente prosa de alta veracidad, incluso sobre temas técnicos. La posibilidad de que las agencias utilicen máquinas para generar y justificar propuestas regulatorias ya no parece tan descabellada. Recientemente, se obtuvo una propuesta para usar IA con el fin de facilitar la derogación de la mitad de todas las regulaciones federales.
Implicaciones del Uso de IA en el Proceso Regulatorio
La propuesta sugiere que la IA revolucionará el proceso de formulación de reglas, ahorrando un porcentaje considerable de horas hombre y automatizando la investigación, redacción y análisis de comentarios públicos. Sin embargo, el futuro de esta propuesta y de la agencia en cuestión es incierto. Aunque la administración ha indicado su deseo de usar inteligencia artificial para acelerar el proceso de formulación de reglas, la implementación efectiva de estas propuestas aún no se ha materializado.
La idea de que un modelo de lenguaje grande identifique áreas para la acción regulatoria, decida qué acción tomar y ofrezca justificaciones, todo ello sujeto a una revisión humana mínima, presenta riesgos significativos. La ley administrativa requiere una participación humana sustantiva en el proceso de formulación de reglas, lo que podría impedir que las agencias deleguen completamente su trabajo a la IA.
Decisiones Razonadas y Participación Humana
La Ley de Procedimiento Administrativo establece que las acciones de las agencias que sean «arbitrarias» o «caprichosas» deben ser anuladas. Actualmente, los modelos de lenguaje grandes tienen limitaciones y son propensos a errores sistémicos. Por ejemplo, estos modelos pueden «alucinar» información falsa y replicar sesgos presentes en sus datos de entrenamiento. Dado que los modelos de lenguaje tienen ventanas de contexto limitadas, pueden tener dificultades para procesar documentos extensos, lo cual es crucial en el contexto de la formulación de reglas.
Estos problemas reflejan categorías clásicas de errores que podrían considerarse arbitrarios dentro del marco legal. Por lo tanto, las agencias que opten por confiar en la IA deben explicar y justificar esta elección metodológica. Esta exigencia no es nueva, ya que las agencias han tenido que justificar sus métodos incluso al usar modelos matemáticos para informar reglas.
Riesgos de la Automatización en el Proceso Regulatorio
La dependencia de un modelo de lenguaje para responder a comentarios públicos y la revisión superficial de las respuestas generadas podría violar la Ley de Procedimiento Administrativo. Las agencias tienen la obligación de considerar y abordar comentarios públicos significativos, y si se confía en un modelo de lenguaje sin un esfuerzo humano independiente, se corre el riesgo de incumplir esta obligación.
Además, la introducción de IA podría cambiar el análisis relacionado con la apertura mental de los funcionarios encargados de la toma de decisiones. Dependiendo de cómo se configure un sistema de IA, podría ser incapaz de desafiar las premisas de sus indicaciones, lo que plantea preocupaciones sobre la imparcialidad y la deliberación en el proceso administrativo.
Conclusión
Este análisis preliminar sugiere que los estándares mínimos de participación humana deberían ser solo un punto de partida. Si bien la idea de un proceso regulatorio impulsado por IA puede parecer atractiva, la implementación de un modelo de «sello de goma» es poco realista y podría resultar problemática. La necesidad de supervisión humana y la responsabilidad final de las decisiones políticas deben mantenerse firmes para evitar que las agencias se desentiendan de su deber fundamental de deliberar y explicar sus decisiones.