Rischi inaccettabili: l’abbandono della direttiva sulla responsabilità dell’IA

Op-ed: Abbandonare la Direttiva sulla Responsabilità dell’IA comporta rischi inaccettabili

Non è un segreto che l’Europa abbia bisogno di tagliare la burocrazia. Questa esigenza emerge in tutti i miei frequenti incontri con le aziende, che si tratti di startup, scale-up o aziende consolidate. La Commissione Europea ha promesso di intervenire. Condivido pienamente questo obiettivo, ma dubito sempre più dei mezzi.

La Direttiva sulla Responsabilità dell’IA (AILD), che la Commissione Europea ha deciso di abbandonare, è un caso emblematico. I sostenitori di questo passo, tra cui Henna Virkkunen, il Commissario responsabile per la sovranità tecnologica, la sicurezza e la democrazia, hanno sostenuto che ulteriori regole di responsabilità potrebbero soffocare l’innovazione e gli investimenti in Europa. Tuttavia, abbandonando la direttiva, la Commissione raggiungerà ciò che desidera evitare: lasciare le aziende senza linee guida legali chiare ridurrà i loro incentivi a investire.

Incertezza legale: Un ostacolo all’innovazione dell’IA nell’UE

Gli investitori in Europa sono già noti per la loro avversione al rischio. Con le tecnologie IA che interagiscono sempre più con i mondi reale e virtuale, i rischi stanno aumentando, e la decisione della Commissione aggiunge opacità legale e frammentazione al mix.

Le catene di responsabilità rimangono poco chiare. Chi è responsabile quando i rischi inevitabilmente si materializzano: coloro che sviluppano, distribuiscono, vendono o progettano? E cosa succede se condividono le responsabilità tra di loro? Non è necessario guardare Netflix per sapere che lo specchio in cui stiamo cercando risposte non è solo nero, ma rotto in 27 pezzi.

Attualmente, le aziende che si occupano di tecnologie basate sull’IA hanno poca idea di quanto innovativo possa essere il giudice che si troveranno di fronte, né quale dei 27 quadri giuridici dovranno affrontare.

Il ruolo dell’AILD nel codice digitale dell’Europa

Alcuni oppositori della direttiva affermano che non c’è bisogno di ulteriori regolamentazioni poiché la Legge sull’IA e la nuova Direttiva sulla Responsabilità dei Prodotti (PLD) coprono lo stesso ambito. Questo è sbagliato, disinformato o manipolativo, a seconda di quanto beneficio del dubbio vogliamo concedere ai critici.

Né la Legge sull’IA né la PLD rivista sono sostituti dell’AILD. La differenza è molto chiara: la Legge sull’IA si occupa della gestione preventiva del rischio, dicendo agli attori dell’IA cosa dovrebbero fare per evitare danni. Non affronta chi è responsabile dopo che il danno è avvenuto.

La Direttiva sulla Responsabilità dei Prodotti, nel frattempo, copre i danni successivi a un incidente, ma questi sono danni diversi da quelli affrontati dall’AILD. Le differenze tra responsabilità del prodotto (PLD) e responsabilità del produttore (AILD) sono ben note a qualsiasi studente di legge e dovrebbero essere conosciute dalla Commissione.

Senza AILD, i rischi dell’IA minano fiducia e sicurezza

I danni causati dall’IA spesso vanno oltre i difetti del prodotto. Cosa succede se l’IA causa danni in un contesto professionale su strumenti professionali? E se il danno deriva non da un difetto di fabbricazione, ma da una cattiva istruzione degli utenti? Cosa succede se l’infortunio scaturisce da un comportamento “fuori controllo” dell’IA non radicato in un difetto tecnico ma nella cattiva gestione della distribuzione?

Esiste anche una crescente classe di casi d’uso in cui i programmatori utilizzano l’IA generativa priva di apparenti difetti per codificare applicazioni che includono alcuni elementi di IA. Cosa succede se tali applicazioni utilizzate privatamente e prodotte privatamente causano danni a terzi? Ignorare questi scenari non è solo un punto cieco legale — è una responsabilità politica. Abbiamo una “Direttiva sulla Responsabilità Politica” e coprirebbe omissioni sbagliate dai piani di lavoro della Commissione? La risposta è no.

La Commissione dovrebbe sapere di meglio. Rifiutando di adottare regole armonizzate sulla responsabilità dell’IA, lascia le imprese esposte a un mosaico di standard nazionali e interpretazioni contrastanti, proprio quando stiamo cercando di accelerare l’adozione dell’IA in tutto il continente.

Invece di chiarezza, otteniamo una roulette legale. In questo caso, l’armonizzazione non significa sovraregolamentazione; significa regole intelligenti, mirate e basate su fatti che diano sia agli innovatori che ai consumatori certezza legale.

La mancanza di trasparenza, la presunta autonomia e l’imprevedibilità per gli utenti rendono difficile individuare la responsabilità. L’AILD mirava a colmare queste lacune attraverso strumenti ragionevoli e moderni come i doveri di divulgazione e le presunzioni di colpa ripetibili — misure progettate per i rischi unici dell’IA.

Le vaghe allusioni della Commissione a “approcci legali futuri” offrono poco conforto. Le aziende hanno bisogno di certezza legale ora, non promesse indefinite per il futuro.

Al cuore del dibattito c’è una questione più grande: vogliamo davvero un mercato unico digitale in Europa che vada oltre le chiacchiere? Se la risposta è sì, l’armonizzazione è essenziale e deve essere radicata nei fatti. Senza di essa, otteniamo più frammentazione, non prevedibilità; più confusione, non chiarezza. Con il suo ultimo ritiro, la Commissione non sta semplificando — sta capitolando.

More Insights

Fiducia e Rischio nell’Era dell’AI

Per i marketer, l'IA promette un salto in produttività, ma solo se guidata da una strategia chiara e supervisione umana. La questione non è se utilizzare l'IA, ma come usarla in modo responsabile ed...

Governanza Cloud: Rilanciare l’Innovazione nell’Era dell’AI

Molti si concentrano sulle ultime innovazioni dell'IA, ma pochi prestano attenzione a un gap critico: i modelli di governance del cloud obsoleti. Questi modelli non sono stati costruiti per il ritmo...

Guida pratica per un’adozione responsabile dell’IA

Con l'intelligenza artificiale (IA) che diventa una parte fondamentale delle moderne attività commerciali, la Confederazione dell'Industria Indiana (CII) ha pubblicato una nuova guida per aiutare i...

Automazione Intelligente e Sicurezza: Rischi e Opportunità nel DevSecOps

L'adozione rapida dell'automazione alimentata dall'IA nel DevSecOps introduce opportunità e sfide significative. Sebbene l'automazione possa migliorare l'efficienza, è fondamentale garantire che le...

Centro di Eccellenza per l’Intelligenza Artificiale: La Nuova Frontiera del Diritto

In un importante sviluppo che pone l'India in prima linea nel dibattito globale sulla regolamentazione dell'intelligenza artificiale (AI), è stato annunciato l'istituzione del Centro Cyril Shroff per...

Politica AI: Semplificare la Governance per le Agenzie Pubbliche

Darwin ha annunciato il lancio del suo AI Policy Wizard, uno strumento gratuito e interattivo progettato per aiutare i governi locali e le agenzie pubbliche a creare politiche AI pratiche e conformi...

Riconquistare la Fiducia nell’Intelligenza Artificiale con la Governance

Le minacce poco chiare e il comportamento imprevedibile complicano la fiducia globale nell'IA. È essenziale utilizzare misure di governance come il Regolamento sull'IA dell'UE per stabilire una...

Cultura e AI: Costruire Fiducia nel Futuro Tecnologico

Questo rapporto esamina le soluzioni che enfatizzano gli accordi collaborativi e le iniziative interorganizzative per creare un input diversificato di idee. È fondamentale che la governance dell'IA...

La conformità al copyright nell’era dell’IA generativa

Una delle sfide principali nella formazione dei modelli di intelligenza artificiale generativa è garantire la conformità alle leggi sul copyright. L'AI Act dell'UE sottolinea la necessità di...