Em Direção a Padrões Mínimos de Direito Administrativo para o Uso de IA por Agências
O pensamento emergente sobre a relação entre o direito administrativo e a inteligência artificial generativa parte, de forma expressa ou implícita, da suposição de que os sistemas de IA podem desempenhar um papel central na formulação e explicação das ações administrativas. Isso ocorre porque uma das principais características da Lei de Procedimento Administrativo é que ela força os formuladores de políticas a oferecer relatos escritos coerentes de seu raciocínio, uma tarefa que pode ser complicada e demorada.
Mesmo em seu estágio atual de desenvolvimento, os grandes modelos de linguagem são capazes de gerar rapidamente textos com alta verossimilhança, mesmo sobre assuntos técnicos. A possibilidade de agências liberarem máquinas para gerar e justificar propostas regulatórias, que antes parecia distante, agora é uma realidade.
Nos últimos meses, foi obtida uma proposta que sugere o uso de IA para facilitar a revogação de metade de todas as regulamentações federais até janeiro de 2026. Essa proposta alega que a IA revolucionará o processo de elaboração de regras, economizando “93% do tempo dos homens” e “automatizando” a pesquisa, redação e análise de comentários públicos.
Implicações e Riscos do Uso de IA
As propostas trazem à tona a possibilidade de uma visão maximalista do papel da IA no processo de elaboração de regras: um modelo de linguagem identificando áreas para ação regulatória, decidindo que ação tomar, oferecendo justificativas e rebatendo comentários públicos, tudo sujeito a uma revisão humana mínima.
Entretanto, agências que atuam dessa maneira podem enfrentar obstáculos legais significativos. As regras criadas por modelos de linguagem podem ser particularmente vulneráveis a desafios legais, pois a Lei de Procedimento Administrativo exige uma certa forma de envolvimento humano substancial no processo de elaboração de regras.
Os modelos de linguagem, atualmente, apresentam limitações e são propensos a erros sistêmicos. Por exemplo, podem gerar informações falsas e replicar preconceitos presentes em seus dados de treinamento. Esses problemas levantam questões sobre a capacidade de um modelo de linguagem de revisar adequadamente um registro administrativo e, consequentemente, aumentar a exposição a alegações de arbitrariedade.
Necessidade de Envolvimento Humano
A Lei de Procedimento Administrativo exige que as agências justifiquem suas escolhas metodológicas ao utilizar IA. Agências são obrigadas a explicar seus métodos, o que inclui a escolha e o desenvolvimento de seu modelo, como validaram suas saídas e por que consideram esses resultados como confiáveis.
Além disso, as agências devem fornecer razões claras para suas ações e considerar comentários públicos significativos. A dependência de análises geradas por IA, sem a revisão e consideração independentes, pode violar as obrigações da agência de considerar comentários relevantes.
Por fim, o uso de IA pode afetar a imparcialidade do processo de tomada de decisão. A capacidade da IA de desafiar premissas e reconhecer pontos importantes levantados em comentários adversos pode ser severamente limitada, resultando em um processo de decisão que pode ser considerado fechado.
Conclusão
Esta análise provisória não reflete necessariamente o conjunto completo de salvaguardas legais e políticas que devem reger o uso de IA por agências. O envolvimento humano substancial deve ser considerado um piso, e não um teto. O modelo de “carimbo de borracha” de elaboração de regras impulsionado por IA pode se revelar irrealista, dado que as agências ainda necessitam de especialistas humanos para realizar um trabalho substancial mesmo após aproveitar todas as ferramentas de IA disponíveis.