Veicoli autonomi: perché non dovrebbero essere considerati AI ad alto rischio

Perché i veicoli autonomi non dovrebbero essere etichettati come ‘AI ad alto rischio’

Nonostante non abbiano ancora raggiunto il livello di robotaxi completamente autonomi, i veicoli autonomi supervisionati sono ormai una vista comune sulle strade. Un produttore di veicoli autonomi ha venduto più veicoli autonomi in tutto il mondo rispetto ad altre aziende, generando profitti e acquisendo enormi quantità di dati di guida senza costi aggiuntivi. Questi dati vengono utilizzati per addestrare e sviluppare ulteriormente l’intelligenza artificiale. Recentemente, è stato annunciato che a partire da metà febbraio, il sistema di guida autonoma sarà offerto attraverso un modello di abbonamento mensile.

La posizione della Corea nel settore dei veicoli autonomi

La Corea detiene una posizione di leadership mondiale nella densità di robot industriali, grazie ai suoi punti di forza nell’elettronica e nell’automobile. L’industria automobilistica sta entrando in una fase in cui l’AI e i robot costruiscono veicoli, l’AI li gestisce e gli esseri umani viaggiano dentro queste macchine pagando per l’uso dell’AI. È stata ridefinita l’automobile nell’era dell’AI come un software fornito come servizio.

Legislazione coreana e preoccupazioni globali

La Legge fondamentale sull’AI della Corea è entrata in vigore il 22 gennaio. Sebbene le sanzioni per le violazioni siano state sospese, la legge ha già stabilito un precedente globale come il primo statuto completo che regola gli operatori di AI ad alto rischio. Tuttavia, l’Unione Europea ha recentemente posticipato le proprie normative sull’AI ad alto rischio, preoccupata che una risposta rapida allo sviluppo dell’AI possa far perdere competitività alla regione.

La legge della Corea, come l’Atto sull’AI dell’UE, assegna responsabilità agli operatori di AI per gestire i rischi alti e impone sanzioni per le violazioni. Tuttavia, c’è crescente preoccupazione su come sia difficile determinare oggettivamente cosa costituisca effettivamente un’AI ad alto rischio.

La sfida degli AI di uso generale

I sistemi di AI di uso generale pongono un dilemma normativo poiché i loro usi e scopi non possono essere definiti in anticipo. Di conseguenza, l’UE ha spostato l’attenzione verso l’imposizione di obblighi di trasparenza e sicurezza per gli sviluppatori nella fase di progettazione del modello. Questo approccio ha suscitato forti opposizioni dagli Stati Uniti.

Dopo l’emergere di tecnologie come i chatbot, l’AI è diventata sempre più radicata nella vita quotidiana, ma le categorie di AI ad alto rischio e l’approccio normativo adottato dal governo coreano rimangono in gran parte bloccati nel quadro del 2021 dell’UE.

Rischi per la competitività nazionale

Secondo la legge coreana, i veicoli autonomi di livello 4 già in fase di sperimentazione, così come i robotaxi commercializzati all’estero, rientrerebbero sotto la regolazione ad alto rischio. È importante notare che l’AI fisica non si riferisce solo ai robot umanoidi, ma anche ai veicoli autonomi che percepiscono l’ambiente circostante e guidano nel traffico reale. L’intenzione di proteggere gli esseri umani classificando tali tecnologie come ad alto rischio è comprensibile, ma se i robot umanoidi in casa sono trattati come innovazione mentre i veicoli autonomi sono etichettati come attività ad alto rischio, la Corea rischia di compromettere la propria competitività nazionale.

Possibili alternative e conclusione

Per competere con aziende che vendono veicoli a prezzi relativamente bassi e raccolgono enormi quantità di dati sul comportamento dei conducenti, la Corea deve ripensare ciò che costituisce un’AI ad alto rischio e come tali rischi debbano essere regolati. Un approccio alternativo potrebbe essere quello di adottare un sistema simile a quello britannico, dove le compagnie assicurative risarciscono prima le vittime in caso di incidenti con veicoli autonomi e poi esercitano diritti di regresso. Questo ridurrebbe l’onere immediato di responsabilità per i produttori di automobili. È anche possibile implementare politiche che supportino attivamente lo sviluppo di applicazioni AI ad alto rischio piuttosto che scoraggiarle attraverso una regolamentazione prematura.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...