Rafforzare l’integrità giudiziaria nell’era dell’IA

Attacchi non hanno ucciso la regola sull’IA della magistratura, potrebbero rafforzarla

Giovedì, i consiglieri della magistratura federale hanno affrontato la più ampia opposizione finora nella loro campagna per garantire l’affidabilità delle prove che utilizzano l’intelligenza artificiale, ma le critiche sono sembrate costruttive, aumentando le probabilità di un’aggiunta alle regole in una nuova era digitale nei tribunali statunitensi.

Proposta di emendamento alla Regola 26

Un emendamento proposto richiederebbe agli avvocati di certificare che il contenuto generato dall’IA nelle loro presentazioni in tribunale è accurato. Questo ha superato un voto del comitato martedì, con i giudici del comitato consultivo che sembrano favorire un compromesso piuttosto che l’eliminazione, nonostante ore di dibattito e oltre una dozzina di commenti pubblici che hanno avanzato cambiamenti significativi.

La Regola 26 richiede, per esempio, che i legali “certifichino che la presentazione è sostanzialmente vera e accurata” o che “è sostanzialmente vera e accurata secondo la migliore conoscenza, informazione e convinzione del firmatario”.

Critiche costruttive

I membri del Comitato Consultivo sulle Regole di Prova hanno ascoltato diversi avvocati e accademici che hanno sostenuto che il comitato dovrebbe richiedere agli avvocati di “affermare” o “attestare” l’accuratezza del contenuto generato dall’IA nelle loro presentazioni, rispetto al linguaggio più morbido di “certificare” proposto dal comitato.

Alcuni commentatori hanno anche suggerito di richiedere agli avvocati di indicare nelle loro presentazioni quando è stata utilizzata l’IA per generare contenuti, mentre altri hanno proposto di rimandare l’emendamento fino a quando la tecnologia IA non diventi più standardizzata.

Discussioni future e implicazioni

Il comitato ha deciso di proseguire con il linguaggio proposto, sebbene con alcune modifiche. L’opposizione, proveniente da varie associazioni forensi, avvocati praticanti e studiosi accademici, è sembrata costruttiva, aumentando le probabilità di un’aggiunta alle regole nel contesto della nuova era digitale nei tribunali statunitensi nei prossimi anni.

Un avvocato ha affermato: “Il comitato sembra segnalare che riconosce le sfide associate all’IA nel contenzioso, ma indica anche disponibilità a impegnarsi per trovare un equilibrio”.

Preoccupazioni sui rischi dell’IA

Dozzine di commentatori hanno espresso preoccupazione che la proposta della Regola 26 non affronti sufficientemente i rischi di disinformazione generata dall’IA, mentre altri hanno sostenuto che i tribunali dovrebbero avere maggiore flessibilità nel modo in cui affrontano le prove generate dall’IA.

Un membro del comitato ha dichiarato: “Non dobbiamo soffocare l’innovazione, ma dobbiamo anche garantire che l’integrità del processo giudiziario sia mantenuta”.

Conclusione

Il comitato ha anche esaminato una proposta di modifica della Regola 702 delle Regole Federali di Prova, che disciplina l’ammissibilità della testimonianza degli esperti. L’emendamento proposto chiarirebbe che la regola si applica alla testimonianza basata su prove generate dall’IA, ma non richiede agli avvocati di certificare l’accuratezza di tali prove.

Il comitato prevede di continuare le discussioni su questa proposta; potrebbero passare diversi mesi prima che vengano prese decisioni finali. La modifica della regola dovrebbe essere presentata alla Corte Suprema degli Stati Uniti in primavera.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...