AI nell’Arbitrato: Il Regolamento AI dell’UE Ostacolerà l’Esecuzione?
Negli ultimi anni, l’Unione Europea ha intrapreso un passo senza precedenti regolando l’intelligenza artificiale (AI) attraverso il Regolamento AI dell’UE, il primo quadro giuridico completo al mondo per la governance dell’AI. Questo regolamento classifica gli strumenti AI utilizzati nei processi decisionali legali o amministrativi, inclusa la risoluzione alternativa delle controversie (ADR), come ad alto rischio, imponendo loro di rispettare requisiti rigorosi.
Le disposizioni del Regolamento mirano a garantire trasparenza, responsabilità e rispetto dei diritti fondamentali. Queste obbligazioni entreranno in vigore il 2 agosto 2026. Un aspetto cruciale del regolamento è la sua portata estraterritoriale, che si applica a qualsiasi sistema AI che influisce sugli individui all’interno dell’Unione Europea, indipendentemente da dove sia sviluppato o utilizzato.
Scenario di Conflitto Legale
Immagina due aziende tecnologiche con sede nell’UE, una belga e una tedesca, che decidono di risolvere le loro controversie tramite arbitrato negli Stati Uniti. Se il centro ADR utilizza strumenti AI che non rispettano i requisiti del Regolamento AI dell’UE, sorgerebbe un conflitto legale. Se la parte vincente cerca di far valere il lodo in un tribunale di uno Stato membro dell’UE, potrebbero emergere due motivi ben consolidati per rifiutare l’esecuzione.
Il primo è l’articolo V(1)(d) della Convenzione di New York del 1958, che consente di contestare l’esecuzione per irregolarità procedurali. La parte perdente potrebbe sostenere che l’affidamento su sistemi AI non conformi costituisce una violazione del procedimento concordato.
Il secondo motivo è l’articolo V(2)(b) della stessa convenzione, che consente al tribunale di rifiutare il riconoscimento se l’uso di AI non conforme viola l’ordine pubblico del forum, in particolare quando sono in gioco diritti fondamentali e equità procedurale.
Scenario 1: Irregolarità Procedurale
Supponiamo che il centro ADR utilizzi uno strumento AI per assistere il tribunale nella redazione del lodo. Se questo sistema non produce spiegazioni trasparenti, la parte perdente potrebbe contestare l’esecuzione sostenendo che il lodo manca di motivazione adeguata, violando un’importante garanzia procedurale.
Inoltre, se l’accordo di arbitrato prevedeva l’uso di arbitri umani, e il tribunale ha fatto affidamento su strumenti AI che hanno influenzato materialmente il ragionamento, questo potrebbe costituire un’irregolarità procedurale.
Scenario 2: Politica Pubblica
In questo caso, il tribunale può rifiutare di eseguire il lodo se risulta contrario all’ordine pubblico ai sensi dell’articolo V(2)(b) della Convenzione di New York. Se il tribunale utilizza sistemi AI non trasparenti senza fornire giustificazioni comprensibili, il processo potrebbe violare il diritto a un giudizio equo garantito dalla Carta dei Diritti Fondamentali dell’Unione Europea.
Le corti belghe hanno costantemente affermato che il riconoscimento e l’esecuzione devono essere rifiutati quando i procedimenti sottostanti non sono compatibili con l’ordine pubblico internazionale belga, specialmente quando vengono compromessi principi fondamentali come trasparenza e parità di trattamento.
Conclusione
Il rapporto tra il Regolamento AI dell’UE e l’esecuzione dei lodi arbitrali evidenzia come la regolamentazione tecnologica stia plasmando il concetto di equità procedurale nella risoluzione delle controversie transfrontaliere. Con l’AI che si integra sempre di più nella pratica arbitrale, la conformità alle norme diventerà non solo un obbligo normativo, ma una necessità strategica per garantire l’eseguibilità dei lodi in giurisdizioni chiave.