Rischi inaccettabili: l’abbandono della direttiva sulla responsabilità dell’IA

Op-ed: Abbandonare la Direttiva sulla Responsabilità dell’IA comporta rischi inaccettabili

Non è un segreto che l’Europa abbia bisogno di tagliare la burocrazia. Questa esigenza emerge in tutti i miei frequenti incontri con le aziende, che si tratti di startup, scale-up o aziende consolidate. La Commissione Europea ha promesso di intervenire. Condivido pienamente questo obiettivo, ma dubito sempre più dei mezzi.

La Direttiva sulla Responsabilità dell’IA (AILD), che la Commissione Europea ha deciso di abbandonare, è un caso emblematico. I sostenitori di questo passo, tra cui Henna Virkkunen, il Commissario responsabile per la sovranità tecnologica, la sicurezza e la democrazia, hanno sostenuto che ulteriori regole di responsabilità potrebbero soffocare l’innovazione e gli investimenti in Europa. Tuttavia, abbandonando la direttiva, la Commissione raggiungerà ciò che desidera evitare: lasciare le aziende senza linee guida legali chiare ridurrà i loro incentivi a investire.

Incertezza legale: Un ostacolo all’innovazione dell’IA nell’UE

Gli investitori in Europa sono già noti per la loro avversione al rischio. Con le tecnologie IA che interagiscono sempre più con i mondi reale e virtuale, i rischi stanno aumentando, e la decisione della Commissione aggiunge opacità legale e frammentazione al mix.

Le catene di responsabilità rimangono poco chiare. Chi è responsabile quando i rischi inevitabilmente si materializzano: coloro che sviluppano, distribuiscono, vendono o progettano? E cosa succede se condividono le responsabilità tra di loro? Non è necessario guardare Netflix per sapere che lo specchio in cui stiamo cercando risposte non è solo nero, ma rotto in 27 pezzi.

Attualmente, le aziende che si occupano di tecnologie basate sull’IA hanno poca idea di quanto innovativo possa essere il giudice che si troveranno di fronte, né quale dei 27 quadri giuridici dovranno affrontare.

Il ruolo dell’AILD nel codice digitale dell’Europa

Alcuni oppositori della direttiva affermano che non c’è bisogno di ulteriori regolamentazioni poiché la Legge sull’IA e la nuova Direttiva sulla Responsabilità dei Prodotti (PLD) coprono lo stesso ambito. Questo è sbagliato, disinformato o manipolativo, a seconda di quanto beneficio del dubbio vogliamo concedere ai critici.

Né la Legge sull’IA né la PLD rivista sono sostituti dell’AILD. La differenza è molto chiara: la Legge sull’IA si occupa della gestione preventiva del rischio, dicendo agli attori dell’IA cosa dovrebbero fare per evitare danni. Non affronta chi è responsabile dopo che il danno è avvenuto.

La Direttiva sulla Responsabilità dei Prodotti, nel frattempo, copre i danni successivi a un incidente, ma questi sono danni diversi da quelli affrontati dall’AILD. Le differenze tra responsabilità del prodotto (PLD) e responsabilità del produttore (AILD) sono ben note a qualsiasi studente di legge e dovrebbero essere conosciute dalla Commissione.

Senza AILD, i rischi dell’IA minano fiducia e sicurezza

I danni causati dall’IA spesso vanno oltre i difetti del prodotto. Cosa succede se l’IA causa danni in un contesto professionale su strumenti professionali? E se il danno deriva non da un difetto di fabbricazione, ma da una cattiva istruzione degli utenti? Cosa succede se l’infortunio scaturisce da un comportamento “fuori controllo” dell’IA non radicato in un difetto tecnico ma nella cattiva gestione della distribuzione?

Esiste anche una crescente classe di casi d’uso in cui i programmatori utilizzano l’IA generativa priva di apparenti difetti per codificare applicazioni che includono alcuni elementi di IA. Cosa succede se tali applicazioni utilizzate privatamente e prodotte privatamente causano danni a terzi? Ignorare questi scenari non è solo un punto cieco legale — è una responsabilità politica. Abbiamo una “Direttiva sulla Responsabilità Politica” e coprirebbe omissioni sbagliate dai piani di lavoro della Commissione? La risposta è no.

La Commissione dovrebbe sapere di meglio. Rifiutando di adottare regole armonizzate sulla responsabilità dell’IA, lascia le imprese esposte a un mosaico di standard nazionali e interpretazioni contrastanti, proprio quando stiamo cercando di accelerare l’adozione dell’IA in tutto il continente.

Invece di chiarezza, otteniamo una roulette legale. In questo caso, l’armonizzazione non significa sovraregolamentazione; significa regole intelligenti, mirate e basate su fatti che diano sia agli innovatori che ai consumatori certezza legale.

La mancanza di trasparenza, la presunta autonomia e l’imprevedibilità per gli utenti rendono difficile individuare la responsabilità. L’AILD mirava a colmare queste lacune attraverso strumenti ragionevoli e moderni come i doveri di divulgazione e le presunzioni di colpa ripetibili — misure progettate per i rischi unici dell’IA.

Le vaghe allusioni della Commissione a “approcci legali futuri” offrono poco conforto. Le aziende hanno bisogno di certezza legale ora, non promesse indefinite per il futuro.

Al cuore del dibattito c’è una questione più grande: vogliamo davvero un mercato unico digitale in Europa che vada oltre le chiacchiere? Se la risposta è sì, l’armonizzazione è essenziale e deve essere radicata nei fatti. Senza di essa, otteniamo più frammentazione, non prevedibilità; più confusione, non chiarezza. Con il suo ultimo ritiro, la Commissione non sta semplificando — sta capitolando.

More Insights

Ingegneri AI e Ingegneri Responsabili: Innovazione e Etica a Confronto

L'intelligenza artificiale ha fatto esplodere le sue capacità, portando gli ingegneri dell'IA a essere in prima linea nell'innovazione. Tuttavia, questa potenza comporta responsabilità, e garantire...

AI Responsabile: Oltre il Buzzword

La dottoressa Anna Zeiter sottolinea che "l'IA responsabile non è solo un termine di moda, ma un imperativo fondamentale" per garantire la fiducia e la responsabilità nell'uso delle tecnologie...

Integrare l’IA rispettando la compliance

L'adozione dell'IA nelle aziende e nella produzione sta fallendo almeno due volte più spesso di quanto non abbia successo. Il Cloud Security Alliance (CSA) afferma che il problema reale è che le...

La preservazione dei dati nell’era dell’IA generativa

Gli strumenti di intelligenza artificiale generativa (GAI) sollevano preoccupazioni legali come la privacy dei dati e la sicurezza. È fondamentale che le organizzazioni stabiliscano politiche di...

Intelligenza Artificiale Responsabile: Principi e Vantaggi

Oggi, l'IA sta cambiando il nostro modo di vivere e lavorare, quindi è molto importante utilizzarla nel modo giusto. L'IA responsabile significa creare e utilizzare IA che sia equa, chiara e...

Intelligenza Artificiale: Costruire Fiducia e Governance per il Successo Aziendale

Negli ultimi venti anni, l'intelligenza artificiale (AI) è diventata fondamentale per prendere decisioni aziendali e affrontare sfide complesse. È essenziale costruire fiducia nell'AI attraverso...

Regolamentazione dell’IA in Spagna: Innovazioni e Sfide

La Spagna è all'avanguardia nella governance dell'IA con il primo regolatore europeo per l'IA (AESIA) e una legge nazionale sull'IA in fase di sviluppo. Questa legge mira a implementare e integrare il...

Regolamentare l’IA: sfide e opportunità globali

L'intelligenza artificiale (AI) ha fatto enormi progressi negli ultimi anni, diventando sempre più presente nella consapevolezza pubblica. I governi e gli organismi di regolamentazione in tutto il...

AI e scommesse: opportunità e responsabilità nel futuro del gioco

L'implementazione dell'Intelligenza Artificiale (IA) nel settore del gioco d'azzardo offre opportunità significative, ma comporta anche crescenti aspettative normative e rischi di responsabilità. È...