Verso standard minimi di diritto amministrativo per l’uso dell’IA da parte delle agenzie
Gran parte del pensiero emergente riguardo alla relazione tra diritto amministrativo e intelligenza artificiale generativa si basa sull’assunzione che i sistemi IA possano svolgere un ruolo importante nel plasmare e spiegare le azioni amministrative. È facile capire perché. Una delle caratteristiche principali dell’Administrative Procedure Act è che costringe i responsabili delle politiche a fornire resoconti scritti e coerenti delle loro motivazioni, un compito che può risultare complicato e dispendioso in termini di tempo. Anche nella loro attuale fase di sviluppo, i modelli di linguaggio di grandi dimensioni sono capaci di generare rapidamente prosa di alta verosimiglianza, anche su questioni tecniche.
Se la prospettiva di agenzie che utilizzano macchine per generare e giustificare proposte normative sembrava in passato poco plausibile, ora non lo è più. Durante l’estate, è emersa una proposta di un’agenzia governativa per utilizzare l’IA al fine di facilitare la rescissione della metà di tutte le normative federali entro gennaio 2026, affermando che l’IA rivoluzionerebbe il processo di creazione delle norme, risparmiando “il 93% delle ore lavorative” e “automatizzando” la ricerca, la scrittura e l’analisi dei commenti pubblici.
Decisioni ragionate e coinvolgimento umano
Le agenzie che agiscono in questo modo potrebbero affrontare significativi ostacoli legali. Le norme prodotte da modelli di linguaggio, anche se giudicate nei loro termini, potrebbero essere particolarmente vulnerabili a contestazioni legali. Inoltre, l’Administrative Procedure Act richiede forme sostanziali di coinvolgimento umano nel processo di creazione delle norme, il che escluderebbe la possibilità di esternalizzare completamente il lavoro all’IA.
Il principio di decisione ragionata impone che le agenzie forniscano motivazioni chiare per le loro azioni, che devono essere il risultato di un processo deliberativo. L’agenzia che semplicemente approva un’azione scelta da un modello di linguaggio, senza un’adeguata revisione umana, rischia di violare le norme amministrative e potrebbe essere considerata arbitraria e capricciosa.
Implicazioni e rischi
Le preoccupazioni riguardo all’affidabilità dei modelli di linguaggio evidenziano la necessità di un coinvolgimento umano sostanziale nel processo di creazione delle norme. Un’agenzia che desidera utilizzare l’IA deve giustificare questa scelta metodologica, spiegando come ha scelto e sviluppato il modello, come ha validato i suoi output e perché considera questi risultati affidabili. Ignorare questi requisiti potrebbe comportare la produzione di norme che violano le evidenze o le considerazioni pertinenti.
Inoltre, l’uso dell’IA potrebbe comportare il rischio di generare risposte distorte ai commenti pubblici, violando così le procedure di notifica e commento previste dalla legge. Le agenzie devono considerare e affrontare i commenti pubblici significativi, il che richiede un’analisi critica e non può essere delegato unicamente a un modello di linguaggio.
Conclusione
Questa analisi è provvisoria e non riflette necessariamente l’intero insieme di salvaguardie legali e politiche che dovrebbero governare l’uso dell’IA da parte delle agenzie. Anche se il modello di approvazione automatica delle norme avanzato da alcune proposte governative potrebbe rivelarsi irrealistico, serve come strumento per delineare i principi fondamentali che potrebbero governare l’uso dell’IA nelle decisioni normative.