Perché i veicoli autonomi non dovrebbero essere etichettati come ‘AI ad alto rischio’
Nonostante non abbiano ancora raggiunto il livello di robotaxi completamente autonomi, i veicoli autonomi supervisionati sono ormai una vista comune sulle strade. Un produttore di veicoli autonomi ha venduto più veicoli autonomi in tutto il mondo rispetto ad altre aziende, generando profitti e acquisendo enormi quantità di dati di guida senza costi aggiuntivi. Questi dati vengono utilizzati per addestrare e sviluppare ulteriormente l’intelligenza artificiale. Recentemente, è stato annunciato che a partire da metà febbraio, il sistema di guida autonoma sarà offerto attraverso un modello di abbonamento mensile.
La posizione della Corea nel settore dei veicoli autonomi
La Corea detiene una posizione di leadership mondiale nella densità di robot industriali, grazie ai suoi punti di forza nell’elettronica e nell’automobile. L’industria automobilistica sta entrando in una fase in cui l’AI e i robot costruiscono veicoli, l’AI li gestisce e gli esseri umani viaggiano dentro queste macchine pagando per l’uso dell’AI. È stata ridefinita l’automobile nell’era dell’AI come un software fornito come servizio.
Legislazione coreana e preoccupazioni globali
La Legge fondamentale sull’AI della Corea è entrata in vigore il 22 gennaio. Sebbene le sanzioni per le violazioni siano state sospese, la legge ha già stabilito un precedente globale come il primo statuto completo che regola gli operatori di AI ad alto rischio. Tuttavia, l’Unione Europea ha recentemente posticipato le proprie normative sull’AI ad alto rischio, preoccupata che una risposta rapida allo sviluppo dell’AI possa far perdere competitività alla regione.
La legge della Corea, come l’Atto sull’AI dell’UE, assegna responsabilità agli operatori di AI per gestire i rischi alti e impone sanzioni per le violazioni. Tuttavia, c’è crescente preoccupazione su come sia difficile determinare oggettivamente cosa costituisca effettivamente un’AI ad alto rischio.
La sfida degli AI di uso generale
I sistemi di AI di uso generale pongono un dilemma normativo poiché i loro usi e scopi non possono essere definiti in anticipo. Di conseguenza, l’UE ha spostato l’attenzione verso l’imposizione di obblighi di trasparenza e sicurezza per gli sviluppatori nella fase di progettazione del modello. Questo approccio ha suscitato forti opposizioni dagli Stati Uniti.
Dopo l’emergere di tecnologie come i chatbot, l’AI è diventata sempre più radicata nella vita quotidiana, ma le categorie di AI ad alto rischio e l’approccio normativo adottato dal governo coreano rimangono in gran parte bloccati nel quadro del 2021 dell’UE.
Rischi per la competitività nazionale
Secondo la legge coreana, i veicoli autonomi di livello 4 già in fase di sperimentazione, così come i robotaxi commercializzati all’estero, rientrerebbero sotto la regolazione ad alto rischio. È importante notare che l’AI fisica non si riferisce solo ai robot umanoidi, ma anche ai veicoli autonomi che percepiscono l’ambiente circostante e guidano nel traffico reale. L’intenzione di proteggere gli esseri umani classificando tali tecnologie come ad alto rischio è comprensibile, ma se i robot umanoidi in casa sono trattati come innovazione mentre i veicoli autonomi sono etichettati come attività ad alto rischio, la Corea rischia di compromettere la propria competitività nazionale.
Possibili alternative e conclusione
Per competere con aziende che vendono veicoli a prezzi relativamente bassi e raccolgono enormi quantità di dati sul comportamento dei conducenti, la Corea deve ripensare ciò che costituisce un’AI ad alto rischio e come tali rischi debbano essere regolati. Un approccio alternativo potrebbe essere quello di adottare un sistema simile a quello britannico, dove le compagnie assicurative risarciscono prima le vittime in caso di incidenti con veicoli autonomi e poi esercitano diritti di regresso. Questo ridurrebbe l’onere immediato di responsabilità per i produttori di automobili. È anche possibile implementare politiche che supportino attivamente lo sviluppo di applicazioni AI ad alto rischio piuttosto che scoraggiarle attraverso una regolamentazione prematura.