Regolamentazione globale dell’IA: una nuova era

L’AI Act ha fornito una piattaforma per una regolamentazione efficace a livello mondiale

Negli ultimi settimane, l’attenzione degli osservatori dell’IA in Europa è stata rivolta a eventi significativi, tra cui l’emissione di nuove linee guida riguardanti l’AI Act, il framework normativo più completo per l’IA fino ad oggi, e il AI Action Summit, ospitato dalla Francia e co-presieduto dall’India.

Il summit ha visto la partecipazione di quasi 100 paesi e oltre 1.000 rappresentanti del settore privato e della società civile, il che ha garantito un dibattito vivace e costruttivo.

Concentrazione sulla regolamentazione

Parte del summit si è concentrata sulle questioni legate alla regolamentazione, in particolare a seguito dell’ultima emissione dell’AI Act. Durante l’evento, è stata lanciata l’iniziativa EU InvestAI da 200 miliardi di euro (210 miliardi di dollari) per finanziare quattro gigafabbriche di IA destinate alla formazione di grandi modelli di IA, come parte di una strategia più ampia per promuovere lo sviluppo aperto e collaborativo di modelli avanzati di IA nell’UE.

Innovazione contro regolamentazione

Il summit ha fornito una piattaforma per interrogarsi se l’innovazione superi la regolamentazione. Tuttavia, si può sostenere che ignorare i rischi intrinseci all’IA non accelererà l’innovazione, e che le attuali sfide europee riguardano più la frammentazione del mercato e una minore dinamicità in termini di capitale di rischio.

È cruciale per i governi democratici attuare misure pratiche, piuttosto che offrire platitudini, concentrandosi sui rischi per la stabilità sociale, politica ed economica a livello globale derivanti dall’abuso dei modelli di IA.

Il quadro normativo

Un’analista di GlobalData ha commentato che una regolamentazione completa fornisce un quadro di stabilità di mercato che può portare a una maggiore adozione dell’IA, poiché le organizzazioni si sentono più sicure riguardo alla compliance, il che porta a maggiori investimenti. La spiegabilità è anche sancita da questa legislazione, il che promuove e favorisce un’IA responsabile.

Le aziende potrebbero dover condividere informazioni su perché un sistema di IA ha fatto una previsione e ha intrapreso un’azione; questo accelera anche la ricerca e avvantaggia tutti.

Classificazione dei rischi

L’AI Act segue un sistema di classificazione basato su quattro livelli di rischio. Il livello più alto, il “rischio inaccettabile”, include i sistemi di IA considerati una chiara minaccia per la sicurezza della società.

Otto pratiche sono incluse in questo livello, tra cui: manipolazione e inganno basati sull’IA; sfruttamento di vulnerabilità; punteggio sociale; valutazione o previsione del rischio di reato individuale; scraping non mirato di internet o materiale da CCTV per creare o ampliare banche dati di riconoscimento facciale; riconoscimento emotivo nei luoghi di lavoro e nelle istituzioni educative; categorizzazione biometrica per dedurre determinati tratti protetti; e identificazione biometrica remota in tempo reale per scopi di polizia in spazi pubblicamente accessibili.

Obblighi legali per sistemi ad alto rischio

Il livello successivo, il “rischio elevato”, comprende casi d’uso dell’IA che possono presentare seri rischi per la salute, la sicurezza o i diritti fondamentali. Anche se non saranno banditi, i sistemi di IA ad alto rischio saranno soggetti a obblighi legali prima di poter essere immessi sul mercato, inclusi adeguati sistemi di valutazione e mitigazione del rischio e una documentazione dettagliata che fornisca tutte le informazioni necessarie.

I sistemi di IA a rischio limitato hanno obblighi di trasparenza specifici. Potrebbe significare che gli sviluppatori e i fornitori devono garantire che gli utenti finali siano consapevoli di interagire con l’IA, in casi pratici come chatbot e deepfake.

Conseguenze per la non conformità

Le aziende che non rispettano le regole saranno multate. Le sanzioni potrebbero arrivare fino al 7% del fatturato annuale globale per violazioni delle applicazioni di IA vietate, fino al 3% per violazioni di altre obbligazioni e fino al 1,5% per la fornitura di informazioni errate.

Riflessioni finali

Durante il summit, è stato discusso il potenziale impatto di queste nuove linee guida, con il contributo degli Stati Uniti limitato principalmente a criticare la regolamentazione europea e avvertire contro la cooperazione con la Cina. Gli Stati Uniti e il Regno Unito hanno rifiutato di firmare la Dichiarazione sull’IA, una dichiarazione di summit sull’IA ‘inclusiva’, un gesto che ha deluso le speranze di un approccio unificato alla regolamentazione della tecnologia.

Il documento è stato sostenuto da 60 firmatari, tra cui Australia, Canada, Cina, Francia, India e Giappone. Gli Stati Uniti hanno dichiarato di preferire dare priorità a politiche di IA pro-crescita piuttosto che alla sicurezza, mentre la Francia, in qualità di ospite del summit, ha affermato che è necessaria una regolamentazione che stabilisca le basi per un’adozione e una crescita più rapida.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...