Rischi inaccettabili: l’abbandono della direttiva sulla responsabilità dell’IA

Op-ed: Abbandonare la Direttiva sulla Responsabilità dell’IA comporta rischi inaccettabili

Non è un segreto che l’Europa abbia bisogno di tagliare la burocrazia. Questa esigenza emerge in tutti i miei frequenti incontri con le aziende, che si tratti di startup, scale-up o aziende consolidate. La Commissione Europea ha promesso di intervenire. Condivido pienamente questo obiettivo, ma dubito sempre più dei mezzi.

La Direttiva sulla Responsabilità dell’IA (AILD), che la Commissione Europea ha deciso di abbandonare, è un caso emblematico. I sostenitori di questo passo, tra cui Henna Virkkunen, il Commissario responsabile per la sovranità tecnologica, la sicurezza e la democrazia, hanno sostenuto che ulteriori regole di responsabilità potrebbero soffocare l’innovazione e gli investimenti in Europa. Tuttavia, abbandonando la direttiva, la Commissione raggiungerà ciò che desidera evitare: lasciare le aziende senza linee guida legali chiare ridurrà i loro incentivi a investire.

Incertezza legale: Un ostacolo all’innovazione dell’IA nell’UE

Gli investitori in Europa sono già noti per la loro avversione al rischio. Con le tecnologie IA che interagiscono sempre più con i mondi reale e virtuale, i rischi stanno aumentando, e la decisione della Commissione aggiunge opacità legale e frammentazione al mix.

Le catene di responsabilità rimangono poco chiare. Chi è responsabile quando i rischi inevitabilmente si materializzano: coloro che sviluppano, distribuiscono, vendono o progettano? E cosa succede se condividono le responsabilità tra di loro? Non è necessario guardare Netflix per sapere che lo specchio in cui stiamo cercando risposte non è solo nero, ma rotto in 27 pezzi.

Attualmente, le aziende che si occupano di tecnologie basate sull’IA hanno poca idea di quanto innovativo possa essere il giudice che si troveranno di fronte, né quale dei 27 quadri giuridici dovranno affrontare.

Il ruolo dell’AILD nel codice digitale dell’Europa

Alcuni oppositori della direttiva affermano che non c’è bisogno di ulteriori regolamentazioni poiché la Legge sull’IA e la nuova Direttiva sulla Responsabilità dei Prodotti (PLD) coprono lo stesso ambito. Questo è sbagliato, disinformato o manipolativo, a seconda di quanto beneficio del dubbio vogliamo concedere ai critici.

Né la Legge sull’IA né la PLD rivista sono sostituti dell’AILD. La differenza è molto chiara: la Legge sull’IA si occupa della gestione preventiva del rischio, dicendo agli attori dell’IA cosa dovrebbero fare per evitare danni. Non affronta chi è responsabile dopo che il danno è avvenuto.

La Direttiva sulla Responsabilità dei Prodotti, nel frattempo, copre i danni successivi a un incidente, ma questi sono danni diversi da quelli affrontati dall’AILD. Le differenze tra responsabilità del prodotto (PLD) e responsabilità del produttore (AILD) sono ben note a qualsiasi studente di legge e dovrebbero essere conosciute dalla Commissione.

Senza AILD, i rischi dell’IA minano fiducia e sicurezza

I danni causati dall’IA spesso vanno oltre i difetti del prodotto. Cosa succede se l’IA causa danni in un contesto professionale su strumenti professionali? E se il danno deriva non da un difetto di fabbricazione, ma da una cattiva istruzione degli utenti? Cosa succede se l’infortunio scaturisce da un comportamento “fuori controllo” dell’IA non radicato in un difetto tecnico ma nella cattiva gestione della distribuzione?

Esiste anche una crescente classe di casi d’uso in cui i programmatori utilizzano l’IA generativa priva di apparenti difetti per codificare applicazioni che includono alcuni elementi di IA. Cosa succede se tali applicazioni utilizzate privatamente e prodotte privatamente causano danni a terzi? Ignorare questi scenari non è solo un punto cieco legale — è una responsabilità politica. Abbiamo una “Direttiva sulla Responsabilità Politica” e coprirebbe omissioni sbagliate dai piani di lavoro della Commissione? La risposta è no.

La Commissione dovrebbe sapere di meglio. Rifiutando di adottare regole armonizzate sulla responsabilità dell’IA, lascia le imprese esposte a un mosaico di standard nazionali e interpretazioni contrastanti, proprio quando stiamo cercando di accelerare l’adozione dell’IA in tutto il continente.

Invece di chiarezza, otteniamo una roulette legale. In questo caso, l’armonizzazione non significa sovraregolamentazione; significa regole intelligenti, mirate e basate su fatti che diano sia agli innovatori che ai consumatori certezza legale.

La mancanza di trasparenza, la presunta autonomia e l’imprevedibilità per gli utenti rendono difficile individuare la responsabilità. L’AILD mirava a colmare queste lacune attraverso strumenti ragionevoli e moderni come i doveri di divulgazione e le presunzioni di colpa ripetibili — misure progettate per i rischi unici dell’IA.

Le vaghe allusioni della Commissione a “approcci legali futuri” offrono poco conforto. Le aziende hanno bisogno di certezza legale ora, non promesse indefinite per il futuro.

Al cuore del dibattito c’è una questione più grande: vogliamo davvero un mercato unico digitale in Europa che vada oltre le chiacchiere? Se la risposta è sì, l’armonizzazione è essenziale e deve essere radicata nei fatti. Senza di essa, otteniamo più frammentazione, non prevedibilità; più confusione, non chiarezza. Con il suo ultimo ritiro, la Commissione non sta semplificando — sta capitolando.

More Insights

Politica AI del Quebec per Università e Cégeps

Il governo del Quebec ha recentemente rilasciato una politica sull'intelligenza artificiale per le università e i CÉGEP, quasi tre anni dopo il lancio di ChatGPT. Le linee guida includono principi...

L’alfabetizzazione AI: la nuova sfida per la conformità aziendale

L'adozione dell'IA nelle aziende sta accelerando, ma con essa emerge la sfida dell'alfabetizzazione all'IA. La legislazione dell'UE richiede che tutti i dipendenti comprendano gli strumenti che...

Legge sull’IA: Germania avvia consultazioni per l’attuazione

I regolatori esistenti assumeranno la responsabilità di monitorare la conformità delle aziende tedesche con l'AI Act dell'UE, con un ruolo potenziato per l'Agenzia Federale di Rete (BNetzA). Il...

Governare l’AI nell’Economia Zero Trust

Nel 2025, l'intelligenza artificiale non è più solo un concetto astratto, ma è diventata una realtà operativa che richiede un governance rigorosa. In un'economia a zero fiducia, le organizzazioni...

Il nuovo segretariato tecnico per l’IA: un cambiamento nella governance

Il prossimo quadro di governance sull'intelligenza artificiale potrebbe prevedere un "segreteria tecnica" per coordinare le politiche sull'IA tra i vari dipartimenti governativi. Questo rappresenta un...

Innovazione sostenibile attraverso la sicurezza dell’IA nei Paesi in via di sviluppo

Un crescente tensione si è sviluppata tra i sostenitori della regolamentazione dei rischi legati all'IA e coloro che desiderano liberare l'IA per l'innovazione. Gli investimenti in sicurezza e...

Verso un approccio armonioso alla governance dell’IA in ASEAN

Quando si tratta di intelligenza artificiale, l'ASEAN adotta un approccio consensuale. Mentre i membri seguono percorsi diversi nella governance dell'IA, è fondamentale che questi principi volontari...

Italia guida l’UE con una legge innovativa sull’IA

L'Italia è diventata il primo paese nell'UE ad approvare una legge completa che regola l'uso dell'intelligenza artificiale, imponendo pene detentive a chi utilizza la tecnologia per causare danni. La...

Regolamentare l’Intelligenza Artificiale in Ucraina: Verso un Futuro Etico

Nel giugno del 2024, quattordici aziende IT ucraine hanno creato un'organizzazione di autoregolamentazione per sostenere approcci etici nell'implementazione dell'intelligenza artificiale in Ucraina...