Rischi inaccettabili: l’abbandono della direttiva sulla responsabilità dell’IA

Op-ed: Abbandonare la Direttiva sulla Responsabilità dell’IA comporta rischi inaccettabili

Non è un segreto che l’Europa abbia bisogno di tagliare la burocrazia. Questa esigenza emerge in tutti i miei frequenti incontri con le aziende, che si tratti di startup, scale-up o aziende consolidate. La Commissione Europea ha promesso di intervenire. Condivido pienamente questo obiettivo, ma dubito sempre più dei mezzi.

La Direttiva sulla Responsabilità dell’IA (AILD), che la Commissione Europea ha deciso di abbandonare, è un caso emblematico. I sostenitori di questo passo, tra cui Henna Virkkunen, il Commissario responsabile per la sovranità tecnologica, la sicurezza e la democrazia, hanno sostenuto che ulteriori regole di responsabilità potrebbero soffocare l’innovazione e gli investimenti in Europa. Tuttavia, abbandonando la direttiva, la Commissione raggiungerà ciò che desidera evitare: lasciare le aziende senza linee guida legali chiare ridurrà i loro incentivi a investire.

Incertezza legale: Un ostacolo all’innovazione dell’IA nell’UE

Gli investitori in Europa sono già noti per la loro avversione al rischio. Con le tecnologie IA che interagiscono sempre più con i mondi reale e virtuale, i rischi stanno aumentando, e la decisione della Commissione aggiunge opacità legale e frammentazione al mix.

Le catene di responsabilità rimangono poco chiare. Chi è responsabile quando i rischi inevitabilmente si materializzano: coloro che sviluppano, distribuiscono, vendono o progettano? E cosa succede se condividono le responsabilità tra di loro? Non è necessario guardare Netflix per sapere che lo specchio in cui stiamo cercando risposte non è solo nero, ma rotto in 27 pezzi.

Attualmente, le aziende che si occupano di tecnologie basate sull’IA hanno poca idea di quanto innovativo possa essere il giudice che si troveranno di fronte, né quale dei 27 quadri giuridici dovranno affrontare.

Il ruolo dell’AILD nel codice digitale dell’Europa

Alcuni oppositori della direttiva affermano che non c’è bisogno di ulteriori regolamentazioni poiché la Legge sull’IA e la nuova Direttiva sulla Responsabilità dei Prodotti (PLD) coprono lo stesso ambito. Questo è sbagliato, disinformato o manipolativo, a seconda di quanto beneficio del dubbio vogliamo concedere ai critici.

Né la Legge sull’IA né la PLD rivista sono sostituti dell’AILD. La differenza è molto chiara: la Legge sull’IA si occupa della gestione preventiva del rischio, dicendo agli attori dell’IA cosa dovrebbero fare per evitare danni. Non affronta chi è responsabile dopo che il danno è avvenuto.

La Direttiva sulla Responsabilità dei Prodotti, nel frattempo, copre i danni successivi a un incidente, ma questi sono danni diversi da quelli affrontati dall’AILD. Le differenze tra responsabilità del prodotto (PLD) e responsabilità del produttore (AILD) sono ben note a qualsiasi studente di legge e dovrebbero essere conosciute dalla Commissione.

Senza AILD, i rischi dell’IA minano fiducia e sicurezza

I danni causati dall’IA spesso vanno oltre i difetti del prodotto. Cosa succede se l’IA causa danni in un contesto professionale su strumenti professionali? E se il danno deriva non da un difetto di fabbricazione, ma da una cattiva istruzione degli utenti? Cosa succede se l’infortunio scaturisce da un comportamento “fuori controllo” dell’IA non radicato in un difetto tecnico ma nella cattiva gestione della distribuzione?

Esiste anche una crescente classe di casi d’uso in cui i programmatori utilizzano l’IA generativa priva di apparenti difetti per codificare applicazioni che includono alcuni elementi di IA. Cosa succede se tali applicazioni utilizzate privatamente e prodotte privatamente causano danni a terzi? Ignorare questi scenari non è solo un punto cieco legale — è una responsabilità politica. Abbiamo una “Direttiva sulla Responsabilità Politica” e coprirebbe omissioni sbagliate dai piani di lavoro della Commissione? La risposta è no.

La Commissione dovrebbe sapere di meglio. Rifiutando di adottare regole armonizzate sulla responsabilità dell’IA, lascia le imprese esposte a un mosaico di standard nazionali e interpretazioni contrastanti, proprio quando stiamo cercando di accelerare l’adozione dell’IA in tutto il continente.

Invece di chiarezza, otteniamo una roulette legale. In questo caso, l’armonizzazione non significa sovraregolamentazione; significa regole intelligenti, mirate e basate su fatti che diano sia agli innovatori che ai consumatori certezza legale.

La mancanza di trasparenza, la presunta autonomia e l’imprevedibilità per gli utenti rendono difficile individuare la responsabilità. L’AILD mirava a colmare queste lacune attraverso strumenti ragionevoli e moderni come i doveri di divulgazione e le presunzioni di colpa ripetibili — misure progettate per i rischi unici dell’IA.

Le vaghe allusioni della Commissione a “approcci legali futuri” offrono poco conforto. Le aziende hanno bisogno di certezza legale ora, non promesse indefinite per il futuro.

Al cuore del dibattito c’è una questione più grande: vogliamo davvero un mercato unico digitale in Europa che vada oltre le chiacchiere? Se la risposta è sì, l’armonizzazione è essenziale e deve essere radicata nei fatti. Senza di essa, otteniamo più frammentazione, non prevedibilità; più confusione, non chiarezza. Con il suo ultimo ritiro, la Commissione non sta semplificando — sta capitolando.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...