Rischi inaccettabili: l’abbandono della direttiva sulla responsabilità dell’IA

Op-ed: Abbandonare la Direttiva sulla Responsabilità dell’IA comporta rischi inaccettabili

Non è un segreto che l’Europa abbia bisogno di tagliare la burocrazia. Questa esigenza emerge in tutti i miei frequenti incontri con le aziende, che si tratti di startup, scale-up o aziende consolidate. La Commissione Europea ha promesso di intervenire. Condivido pienamente questo obiettivo, ma dubito sempre più dei mezzi.

La Direttiva sulla Responsabilità dell’IA (AILD), che la Commissione Europea ha deciso di abbandonare, è un caso emblematico. I sostenitori di questo passo, tra cui Henna Virkkunen, il Commissario responsabile per la sovranità tecnologica, la sicurezza e la democrazia, hanno sostenuto che ulteriori regole di responsabilità potrebbero soffocare l’innovazione e gli investimenti in Europa. Tuttavia, abbandonando la direttiva, la Commissione raggiungerà ciò che desidera evitare: lasciare le aziende senza linee guida legali chiare ridurrà i loro incentivi a investire.

Incertezza legale: Un ostacolo all’innovazione dell’IA nell’UE

Gli investitori in Europa sono già noti per la loro avversione al rischio. Con le tecnologie IA che interagiscono sempre più con i mondi reale e virtuale, i rischi stanno aumentando, e la decisione della Commissione aggiunge opacità legale e frammentazione al mix.

Le catene di responsabilità rimangono poco chiare. Chi è responsabile quando i rischi inevitabilmente si materializzano: coloro che sviluppano, distribuiscono, vendono o progettano? E cosa succede se condividono le responsabilità tra di loro? Non è necessario guardare Netflix per sapere che lo specchio in cui stiamo cercando risposte non è solo nero, ma rotto in 27 pezzi.

Attualmente, le aziende che si occupano di tecnologie basate sull’IA hanno poca idea di quanto innovativo possa essere il giudice che si troveranno di fronte, né quale dei 27 quadri giuridici dovranno affrontare.

Il ruolo dell’AILD nel codice digitale dell’Europa

Alcuni oppositori della direttiva affermano che non c’è bisogno di ulteriori regolamentazioni poiché la Legge sull’IA e la nuova Direttiva sulla Responsabilità dei Prodotti (PLD) coprono lo stesso ambito. Questo è sbagliato, disinformato o manipolativo, a seconda di quanto beneficio del dubbio vogliamo concedere ai critici.

Né la Legge sull’IA né la PLD rivista sono sostituti dell’AILD. La differenza è molto chiara: la Legge sull’IA si occupa della gestione preventiva del rischio, dicendo agli attori dell’IA cosa dovrebbero fare per evitare danni. Non affronta chi è responsabile dopo che il danno è avvenuto.

La Direttiva sulla Responsabilità dei Prodotti, nel frattempo, copre i danni successivi a un incidente, ma questi sono danni diversi da quelli affrontati dall’AILD. Le differenze tra responsabilità del prodotto (PLD) e responsabilità del produttore (AILD) sono ben note a qualsiasi studente di legge e dovrebbero essere conosciute dalla Commissione.

Senza AILD, i rischi dell’IA minano fiducia e sicurezza

I danni causati dall’IA spesso vanno oltre i difetti del prodotto. Cosa succede se l’IA causa danni in un contesto professionale su strumenti professionali? E se il danno deriva non da un difetto di fabbricazione, ma da una cattiva istruzione degli utenti? Cosa succede se l’infortunio scaturisce da un comportamento “fuori controllo” dell’IA non radicato in un difetto tecnico ma nella cattiva gestione della distribuzione?

Esiste anche una crescente classe di casi d’uso in cui i programmatori utilizzano l’IA generativa priva di apparenti difetti per codificare applicazioni che includono alcuni elementi di IA. Cosa succede se tali applicazioni utilizzate privatamente e prodotte privatamente causano danni a terzi? Ignorare questi scenari non è solo un punto cieco legale — è una responsabilità politica. Abbiamo una “Direttiva sulla Responsabilità Politica” e coprirebbe omissioni sbagliate dai piani di lavoro della Commissione? La risposta è no.

La Commissione dovrebbe sapere di meglio. Rifiutando di adottare regole armonizzate sulla responsabilità dell’IA, lascia le imprese esposte a un mosaico di standard nazionali e interpretazioni contrastanti, proprio quando stiamo cercando di accelerare l’adozione dell’IA in tutto il continente.

Invece di chiarezza, otteniamo una roulette legale. In questo caso, l’armonizzazione non significa sovraregolamentazione; significa regole intelligenti, mirate e basate su fatti che diano sia agli innovatori che ai consumatori certezza legale.

La mancanza di trasparenza, la presunta autonomia e l’imprevedibilità per gli utenti rendono difficile individuare la responsabilità. L’AILD mirava a colmare queste lacune attraverso strumenti ragionevoli e moderni come i doveri di divulgazione e le presunzioni di colpa ripetibili — misure progettate per i rischi unici dell’IA.

Le vaghe allusioni della Commissione a “approcci legali futuri” offrono poco conforto. Le aziende hanno bisogno di certezza legale ora, non promesse indefinite per il futuro.

Al cuore del dibattito c’è una questione più grande: vogliamo davvero un mercato unico digitale in Europa che vada oltre le chiacchiere? Se la risposta è sì, l’armonizzazione è essenziale e deve essere radicata nei fatti. Senza di essa, otteniamo più frammentazione, non prevedibilità; più confusione, non chiarezza. Con il suo ultimo ritiro, la Commissione non sta semplificando — sta capitolando.

More Insights

Leggi Biometriche in Ungheria: Violazione dei Diritti Fondamentali

Le nuove leggi ungheresi sulla sorveglianza biometrica violano l'AI Act, consentendo l'uso della tecnologia di riconoscimento facciale anche per infrazioni minori e manifestazioni pacifiche. Questa...

Pressione dell’amministrazione Trump sull’Europa per abbandonare le regole sull’IA

L'amministrazione di Donald Trump sta esercitando pressioni sull'Europa per abbandonare un regolamento che obbligherebbe gli sviluppatori di intelligenza artificiale avanzata a seguire standard più...

Evitare gli Incubi da Violazioni di Conformità AI

Le violazioni della conformità dell'IA possono portare a seri problemi sul posto di lavoro. È fondamentale comprendere come evitarli per garantire un ambiente di lavoro sicuro e produttivo...

Governanza dell’IA: Fondamentale per i Brand e le Agenzie

L'intelligenza artificiale è ormai parte integrante delle decisioni quotidiane di marchi e agenzie, influenzando ogni aspetto del marketing. Tuttavia, con questo potere arriva anche la responsabilità...

Agenti AI: Opportunità e Rischi Inaspettati

Le aziende stanno rapidamente adottando agenti AI, che sono sistemi di intelligenza artificiale generativa progettati per agire autonomamente e svolgere compiti senza input umano diretto. Tuttavia...

Governanza AI: Il Futuro Istituzionalizzato degli Emirati Arabi Uniti

Esperti affermano che gli Emirati Arabi Uniti stanno vivendo una governance dell'IA istituzionalizzata. Questo sviluppo segna un passo significativo verso l'integrazione dell'intelligenza artificiale...

USA contro l’UE: il futuro dell’IA in gioco

Gli Stati Uniti vogliono annullare il codice di condotta dell'Atto sull'IA dell'UE, lasciando le aziende a sviluppare i propri standard di rischio. I critici affermano che le nuove regole soffocano...

Cosa desiderano i giganti della tecnologia per il futuro dell’IA negli Stati Uniti

Le grandi aziende tecnologiche e le startup di intelligenza artificiale hanno espresso le loro opinioni sul piano d'azione dell'AI della Casa Bianca, chiedendo unificazione delle normative federali e...

Legge AI dell’UE: Cosa sta facendo la Repubblica Ceca

Con l'aumento dell'intelligenza artificiale, l'Unione Europea ha introdotto regolamenti per standardizzare alcune regole per il suo utilizzo. La cosiddetta Legge sull'Intelligenza Artificiale...