Nuove Regole di Responsabilità per l’IA in Europa

Legislazione dell’UE Dopo l’Atto sull’IA: Bruxelles Considera Nuove Regole di Responsabilità

La Commissione Europea ha avviato una consultazione su una proposta di Direttiva sulla Responsabilità dell’IA (AILD). Questa direttiva stabilirebbe un regime di responsabilità per gli sviluppatori e gli utenti di sistemi di intelligenza artificiale.

I principali interrogativi che la consultazione esaminerà includono se sia necessaria una tale direttiva e se qualsiasi nuova legislazione debba prevedere l’ assicurazione di responsabilità per l’IA.

Con l’Atto sull’IA dell’UE ora ufficialmente in vigore, i legislatori si sono concentrati sulla proposta legislativa successiva volta alla tecnologia dell’intelligenza artificiale.

Necessità di Ulteriori Regole sull’IA?

Quando la Commissione Europea ha inizialmente proposto l’AILD, l’IA era regolata da un mosaico di leggi nazionali e dell’UE, molte delle quali scritte in contesti tecnologici completamente diversi.

Tuttavia, da allora, l’Atto sull’IA ha armonizzato il quadro normativo che copre l’uso e lo sviluppo della tecnologia.

Nel 2024, l’UE ha anche aggiornato la Direttiva sulla Responsabilità del Prodotto (PLD) per adattarla all’era digitale, incorporando una nuova sezione sui sistemi software e IA che delinea le responsabilità degli sviluppatori nei confronti degli utenti.

Alcuni stakeholder sostengono che la PLD copra sufficientemente tutti gli scenari di responsabilità potenziali legati all’IA e che l’AILD non sia più necessaria.

Tuttavia, una valutazione d’impatto del Parlamento Europeo ha concluso che diversi aspetti rimangono non affrontati dalla PLD aggiornata.

Per esempio, la PLD stabilisce responsabilità solo per gli utenti professionali o aziendali di IA, lasciando un “vuoto normativo” per quanto riguarda i danni causati da utenti non professionali di IA.

Inoltre, la PLD specifica attualmente un range ristretto di danni idonei per il risarcimento, creando “significativi vuoti” nella copertura.

Legislatori Considerano l’Obbligo di Assicurazione per Responsabilità dell’IA

Una delle questioni sollevate dalla consultazione sull’AILD è se la proposta di direttiva debba includere un’obbligo di assicurazione contro i rischi di responsabilità dell’IA.

La posizione della Commissione Europea è che tutti gli operatori di sistemi di IA ad alto rischio debbano possedere un’assicurazione di responsabilità. Ciò potrebbe comportare costi aggiuntivi significativi per le aziende che sviluppano tecnologie considerate ad alto rischio secondo l’Articolo 6 dell’Atto sull’IA.

Ad esempio, gli sviluppatori di strumenti di sorveglianza biometrica potrebbero essere tenuti ad assicurarsi contro il rischio di falsa identificazione.

Come delineato nella consultazione, la prospettiva di richiedere un’assicurazione per la responsabilità dell’IA solleva la questione se gli assicuratori abbiano dati sufficienti per sottoscrivere rischi legati all’IA in modo efficace.

Secondo un recente rapporto, una penuria globale di prodotti assicurativi legati all’IA è stata identificata, notando che “la mancanza di dati storici sulle prestazioni dei modelli di IA e la velocità con cui evolvono rendono difficile la valutazione e la determinazione dei rischi”.

Prossimi Passi per la Direttiva sulla Responsabilità dell’IA

Dopo la consultazione di sei settimane, il relatore dell’AILD del Parlamento Europeo, Axel Voss, presenterà i risultati a giugno. Aprirà quindi una seconda consultazione di dodici settimane.

Il Parlamento e la Commissione Europea terranno negoziati sulla proposta di direttiva tra settembre e dicembre. La Commissione Giuridica è attesa a votare sul documento finale a gennaio 2026 prima di una sessione plenaria finale a febbraio.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...