Regolamentazione globale dell’IA: una nuova era

L’AI Act ha fornito una piattaforma per una regolamentazione efficace a livello mondiale

Negli ultimi settimane, l’attenzione degli osservatori dell’IA in Europa è stata rivolta a eventi significativi, tra cui l’emissione di nuove linee guida riguardanti l’AI Act, il framework normativo più completo per l’IA fino ad oggi, e il AI Action Summit, ospitato dalla Francia e co-presieduto dall’India.

Il summit ha visto la partecipazione di quasi 100 paesi e oltre 1.000 rappresentanti del settore privato e della società civile, il che ha garantito un dibattito vivace e costruttivo.

Concentrazione sulla regolamentazione

Parte del summit si è concentrata sulle questioni legate alla regolamentazione, in particolare a seguito dell’ultima emissione dell’AI Act. Durante l’evento, è stata lanciata l’iniziativa EU InvestAI da 200 miliardi di euro (210 miliardi di dollari) per finanziare quattro gigafabbriche di IA destinate alla formazione di grandi modelli di IA, come parte di una strategia più ampia per promuovere lo sviluppo aperto e collaborativo di modelli avanzati di IA nell’UE.

Innovazione contro regolamentazione

Il summit ha fornito una piattaforma per interrogarsi se l’innovazione superi la regolamentazione. Tuttavia, si può sostenere che ignorare i rischi intrinseci all’IA non accelererà l’innovazione, e che le attuali sfide europee riguardano più la frammentazione del mercato e una minore dinamicità in termini di capitale di rischio.

È cruciale per i governi democratici attuare misure pratiche, piuttosto che offrire platitudini, concentrandosi sui rischi per la stabilità sociale, politica ed economica a livello globale derivanti dall’abuso dei modelli di IA.

Il quadro normativo

Un’analista di GlobalData ha commentato che una regolamentazione completa fornisce un quadro di stabilità di mercato che può portare a una maggiore adozione dell’IA, poiché le organizzazioni si sentono più sicure riguardo alla compliance, il che porta a maggiori investimenti. La spiegabilità è anche sancita da questa legislazione, il che promuove e favorisce un’IA responsabile.

Le aziende potrebbero dover condividere informazioni su perché un sistema di IA ha fatto una previsione e ha intrapreso un’azione; questo accelera anche la ricerca e avvantaggia tutti.

Classificazione dei rischi

L’AI Act segue un sistema di classificazione basato su quattro livelli di rischio. Il livello più alto, il “rischio inaccettabile”, include i sistemi di IA considerati una chiara minaccia per la sicurezza della società.

Otto pratiche sono incluse in questo livello, tra cui: manipolazione e inganno basati sull’IA; sfruttamento di vulnerabilità; punteggio sociale; valutazione o previsione del rischio di reato individuale; scraping non mirato di internet o materiale da CCTV per creare o ampliare banche dati di riconoscimento facciale; riconoscimento emotivo nei luoghi di lavoro e nelle istituzioni educative; categorizzazione biometrica per dedurre determinati tratti protetti; e identificazione biometrica remota in tempo reale per scopi di polizia in spazi pubblicamente accessibili.

Obblighi legali per sistemi ad alto rischio

Il livello successivo, il “rischio elevato”, comprende casi d’uso dell’IA che possono presentare seri rischi per la salute, la sicurezza o i diritti fondamentali. Anche se non saranno banditi, i sistemi di IA ad alto rischio saranno soggetti a obblighi legali prima di poter essere immessi sul mercato, inclusi adeguati sistemi di valutazione e mitigazione del rischio e una documentazione dettagliata che fornisca tutte le informazioni necessarie.

I sistemi di IA a rischio limitato hanno obblighi di trasparenza specifici. Potrebbe significare che gli sviluppatori e i fornitori devono garantire che gli utenti finali siano consapevoli di interagire con l’IA, in casi pratici come chatbot e deepfake.

Conseguenze per la non conformità

Le aziende che non rispettano le regole saranno multate. Le sanzioni potrebbero arrivare fino al 7% del fatturato annuale globale per violazioni delle applicazioni di IA vietate, fino al 3% per violazioni di altre obbligazioni e fino al 1,5% per la fornitura di informazioni errate.

Riflessioni finali

Durante il summit, è stato discusso il potenziale impatto di queste nuove linee guida, con il contributo degli Stati Uniti limitato principalmente a criticare la regolamentazione europea e avvertire contro la cooperazione con la Cina. Gli Stati Uniti e il Regno Unito hanno rifiutato di firmare la Dichiarazione sull’IA, una dichiarazione di summit sull’IA ‘inclusiva’, un gesto che ha deluso le speranze di un approccio unificato alla regolamentazione della tecnologia.

Il documento è stato sostenuto da 60 firmatari, tra cui Australia, Canada, Cina, Francia, India e Giappone. Gli Stati Uniti hanno dichiarato di preferire dare priorità a politiche di IA pro-crescita piuttosto che alla sicurezza, mentre la Francia, in qualità di ospite del summit, ha affermato che è necessaria una regolamentazione che stabilisca le basi per un’adozione e una crescita più rapida.

More Insights

Rafforzare la Sicurezza dell’IA: L’Allineamento Responsabile di phi-3

Il documento discute l'importanza della sicurezza nell'intelligenza artificiale attraverso il modello phi-3, sviluppato secondo i principi di AI responsabile di Microsoft. Viene evidenziato come il...

AI Sovrana: Il Futuro della Produzione Intelligente

Le nuvole AI sovrane offrono sia controllo che conformità, affrontando le crescenti preoccupazioni riguardo alla residenza dei dati e al rischio normativo. Per i fornitori di servizi gestiti, questa è...

Etica dell’IA: Progresso e Inclusività in Scozia

L'Allianza Scozzese per l'IA ha pubblicato il suo Rapporto di Impatto 2024/2025, evidenziando un anno di progressi nella promozione di un'intelligenza artificiale etica e inclusiva in Scozia. Il...

L’Urgenza del Regolamento sull’IA: Preparati al Cambiamento

L'annuncio della Commissione UE venerdì scorso che non ci sarà un ritardo nell'Atto sull'IA dell'UE ha suscitato reazioni contrastanti. È tempo di agire e ottenere alcuni fatti, poiché le scadenze di...

Affidabilità dei Modelli Linguistici nella Prospettiva della Legge AI dell’UE

Lo studio sistematico esamina la fiducia nei grandi modelli linguistici (LLM) alla luce del Regolamento sull'IA dell'UE, evidenziando le preoccupazioni relative all'affidabilità e ai principi di...

La pausa sull’AI Act dell’UE: opportunità o rischio?

Il 8 luglio 2025, la Commissione Europea ha ribadito il proprio impegno per rispettare il calendario dell'AI Act, nonostante le richieste di rinvio da parte di alcune aziende. Il Primo Ministro...

Controlli Trump sull’IA: Rischi e Opportunità nel Settore Tecnologico

L'amministrazione Trump si sta preparando a nuove restrizioni sulle esportazioni di chip AI verso Malesia e Thailandia, al fine di prevenire l'accesso della Cina a processori avanzati. Le nuove...

Governance AI: Fondamenti per un Futuro Etico

La governance dell'intelligenza artificiale e la governance dei dati sono diventate cruciali per garantire lo sviluppo di soluzioni AI affidabili ed etiche. Questi framework di governance sono...

LLMOps: Potenziare l’IA Responsabile con Python

In un panorama ipercompetitivo, non è sufficiente distribuire modelli di linguaggio di grandi dimensioni (LLM); è necessario un robusto framework LLMOps per garantire affidabilità e conformità...