Standard minimi per l’uso dell’IA nelle agenzie amministrative

Verso standard minimi di diritto amministrativo per l’uso dell’IA da parte delle agenzie

Gran parte del pensiero emergente riguardo alla relazione tra diritto amministrativo e intelligenza artificiale generativa si basa sull’assunzione che i sistemi IA possano svolgere un ruolo importante nel plasmare e spiegare le azioni amministrative. È facile capire perché. Una delle caratteristiche principali dell’Administrative Procedure Act è che costringe i responsabili delle politiche a fornire resoconti scritti e coerenti delle loro motivazioni, un compito che può risultare complicato e dispendioso in termini di tempo. Anche nella loro attuale fase di sviluppo, i modelli di linguaggio di grandi dimensioni sono capaci di generare rapidamente prosa di alta verosimiglianza, anche su questioni tecniche.

Se la prospettiva di agenzie che utilizzano macchine per generare e giustificare proposte normative sembrava in passato poco plausibile, ora non lo è più. Durante l’estate, è emersa una proposta di un’agenzia governativa per utilizzare l’IA al fine di facilitare la rescissione della metà di tutte le normative federali entro gennaio 2026, affermando che l’IA rivoluzionerebbe il processo di creazione delle norme, risparmiando “il 93% delle ore lavorative” e “automatizzando” la ricerca, la scrittura e l’analisi dei commenti pubblici.

Decisioni ragionate e coinvolgimento umano

Le agenzie che agiscono in questo modo potrebbero affrontare significativi ostacoli legali. Le norme prodotte da modelli di linguaggio, anche se giudicate nei loro termini, potrebbero essere particolarmente vulnerabili a contestazioni legali. Inoltre, l’Administrative Procedure Act richiede forme sostanziali di coinvolgimento umano nel processo di creazione delle norme, il che escluderebbe la possibilità di esternalizzare completamente il lavoro all’IA.

Il principio di decisione ragionata impone che le agenzie forniscano motivazioni chiare per le loro azioni, che devono essere il risultato di un processo deliberativo. L’agenzia che semplicemente approva un’azione scelta da un modello di linguaggio, senza un’adeguata revisione umana, rischia di violare le norme amministrative e potrebbe essere considerata arbitraria e capricciosa.

Implicazioni e rischi

Le preoccupazioni riguardo all’affidabilità dei modelli di linguaggio evidenziano la necessità di un coinvolgimento umano sostanziale nel processo di creazione delle norme. Un’agenzia che desidera utilizzare l’IA deve giustificare questa scelta metodologica, spiegando come ha scelto e sviluppato il modello, come ha validato i suoi output e perché considera questi risultati affidabili. Ignorare questi requisiti potrebbe comportare la produzione di norme che violano le evidenze o le considerazioni pertinenti.

Inoltre, l’uso dell’IA potrebbe comportare il rischio di generare risposte distorte ai commenti pubblici, violando così le procedure di notifica e commento previste dalla legge. Le agenzie devono considerare e affrontare i commenti pubblici significativi, il che richiede un’analisi critica e non può essere delegato unicamente a un modello di linguaggio.

Conclusione

Questa analisi è provvisoria e non riflette necessariamente l’intero insieme di salvaguardie legali e politiche che dovrebbero governare l’uso dell’IA da parte delle agenzie. Anche se il modello di approvazione automatica delle norme avanzato da alcune proposte governative potrebbe rivelarsi irrealistico, serve come strumento per delineare i principi fondamentali che potrebbero governare l’uso dell’IA nelle decisioni normative.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...