L’AI Act ha fornito una piattaforma per una regolamentazione efficace a livello mondiale

Negli ultimi settimane, l’attenzione degli osservatori dell’IA in Europa è stata rivolta a eventi significativi, tra cui l’emissione di nuove linee guida riguardanti l’AI Act, il framework normativo più completo per l’IA fino ad oggi, e il AI Action Summit, ospitato dalla Francia e co-presieduto dall’India.

Il summit ha visto la partecipazione di quasi 100 paesi e oltre 1.000 rappresentanti del settore privato e della società civile, il che ha garantito un dibattito vivace e costruttivo.

Concentrazione sulla regolamentazione

Parte del summit si è concentrata sulle questioni legate alla regolamentazione, in particolare a seguito dell’ultima emissione dell’AI Act. Durante l’evento, è stata lanciata l’iniziativa EU InvestAI da 200 miliardi di euro (210 miliardi di dollari) per finanziare quattro gigafabbriche di IA destinate alla formazione di grandi modelli di IA, come parte di una strategia più ampia per promuovere lo sviluppo aperto e collaborativo di modelli avanzati di IA nell’UE.

Innovazione contro regolamentazione

Il summit ha fornito una piattaforma per interrogarsi se l’innovazione superi la regolamentazione. Tuttavia, si può sostenere che ignorare i rischi intrinseci all’IA non accelererà l’innovazione, e che le attuali sfide europee riguardano più la frammentazione del mercato e una minore dinamicità in termini di capitale di rischio.

È cruciale per i governi democratici attuare misure pratiche, piuttosto che offrire platitudini, concentrandosi sui rischi per la stabilità sociale, politica ed economica a livello globale derivanti dall’abuso dei modelli di IA.

Il quadro normativo

Un’analista di GlobalData ha commentato che una regolamentazione completa fornisce un quadro di stabilità di mercato che può portare a una maggiore adozione dell’IA, poiché le organizzazioni si sentono più sicure riguardo alla compliance, il che porta a maggiori investimenti. La spiegabilità è anche sancita da questa legislazione, il che promuove e favorisce un’IA responsabile.

Le aziende potrebbero dover condividere informazioni su perché un sistema di IA ha fatto una previsione e ha intrapreso un’azione; questo accelera anche la ricerca e avvantaggia tutti.

Classificazione dei rischi

L’AI Act segue un sistema di classificazione basato su quattro livelli di rischio. Il livello più alto, il “rischio inaccettabile”, include i sistemi di IA considerati una chiara minaccia per la sicurezza della società.

Otto pratiche sono incluse in questo livello, tra cui: manipolazione e inganno basati sull’IA; sfruttamento di vulnerabilità; punteggio sociale; valutazione o previsione del rischio di reato individuale; scraping non mirato di internet o materiale da CCTV per creare o ampliare banche dati di riconoscimento facciale; riconoscimento emotivo nei luoghi di lavoro e nelle istituzioni educative; categorizzazione biometrica per dedurre determinati tratti protetti; e identificazione biometrica remota in tempo reale per scopi di polizia in spazi pubblicamente accessibili.

Obblighi legali per sistemi ad alto rischio

Il livello successivo, il “rischio elevato”, comprende casi d’uso dell’IA che possono presentare seri rischi per la salute, la sicurezza o i diritti fondamentali. Anche se non saranno banditi, i sistemi di IA ad alto rischio saranno soggetti a obblighi legali prima di poter essere immessi sul mercato, inclusi adeguati sistemi di valutazione e mitigazione del rischio e una documentazione dettagliata che fornisca tutte le informazioni necessarie.

I sistemi di IA a rischio limitato hanno obblighi di trasparenza specifici. Potrebbe significare che gli sviluppatori e i fornitori devono garantire che gli utenti finali siano consapevoli di interagire con l’IA, in casi pratici come chatbot e deepfake.

Conseguenze per la non conformità

Le aziende che non rispettano le regole saranno multate. Le sanzioni potrebbero arrivare fino al 7% del fatturato annuale globale per violazioni delle applicazioni di IA vietate, fino al 3% per violazioni di altre obbligazioni e fino al 1,5% per la fornitura di informazioni errate.

Riflessioni finali

Durante il summit, è stato discusso il potenziale impatto di queste nuove linee guida, con il contributo degli Stati Uniti limitato principalmente a criticare la regolamentazione europea e avvertire contro la cooperazione con la Cina. Gli Stati Uniti e il Regno Unito hanno rifiutato di firmare la Dichiarazione sull’IA, una dichiarazione di summit sull’IA ‘inclusiva’, un gesto che ha deluso le speranze di un approccio unificato alla regolamentazione della tecnologia.

Il documento è stato sostenuto da 60 firmatari, tra cui Australia, Canada, Cina, Francia, India e Giappone. Gli Stati Uniti hanno dichiarato di preferire dare priorità a politiche di IA pro-crescita piuttosto che alla sicurezza, mentre la Francia, in qualità di ospite del summit, ha affermato che è necessaria una regolamentazione che stabilisca le basi per un’adozione e una crescita più rapida.

More Insights

Legge sull’Intelligenza Artificiale: Un Nuovo Orizzonte per l’Europa

Questo documento fornisce un riepilogo della legge sull'intelligenza artificiale dell'UE, evidenziando le categorie di rischio associate ai sistemi di IA. La legge stabilisce requisiti specifici per i...

Battaglia per la Trasparenza: L’AI Act e i Diritti dei Creatori

L'Unione Europea ha approvato una legge storica sull'IA che richiede alle aziende di informare il pubblico quando un contenuto è generato da IA. Tuttavia, la legge ha suscitato preoccupazioni tra i...

Il pericolo dell’AI-washing nel settore della nutrizione

L'AI-washing è una tattica di marketing ingannevole in cui le aziende esagerano il ruolo dell'AI nella promozione dei loro prodotti o servizi. I consumatori e i regolatori dovrebbero affrontare con...

Leggi e Intelligenza Artificiale: Nuove Frontiere di Regolamentazione

Il 12 luglio 2024, l'UE ha pubblicato ufficialmente il Regolamento (UE) 2024/1689, noto come legge sull'intelligenza artificiale (AI Act), che rappresenta il primo quadro giuridico completo per...

Guardrails AI: Sicurezza e Etica nel Futuro delle Imprese

L'assenza di un quadro normativo globale armonizzato significa che, mentre le aziende potrebbero soddisfare i requisiti di conformità in un paese, potrebbero violarli involontariamente in un altro...

Legge dell’Arkansas: Protezione delle Immagini e Voci AI

L'Arkansas ha adottato una legge per proteggere le immagini e le voci generate dall'IA, nota come HB1071, che richiede il consenso esplicito per l'uso commerciale di tali riproduzioni. Questa legge...

Giganti della tecnologia sfidano l’UE sull’AI Act

L'Atto sull'IA dell'UE è stato elogiato come il più completo insieme di normative sull'intelligenza artificiale nel mondo. Tuttavia, si tratta di principi generali senza dettagli per...

La battaglia per la regolamentazione dell’IA a Hartford

Durante un'udienza pubblica, il presidente dell'AFL-CIO del Connecticut ha sottolineato l'importanza di regolamentare l'intelligenza artificiale per proteggere i lavoratori e i consumatori. La...

Azioni per un’Intelligenza Artificiale Inclusiva

L'ultimo summit sull'IA di Parigi si è concluso con una "Dichiarazione sull'Intelligenza Artificiale Inclusiva e Sostenibile per le Persone e il Pianeta". Le priorità indicate mirano a ridurre i...