Regolamentazione globale dell’IA: una nuova era

L’AI Act ha fornito una piattaforma per una regolamentazione efficace a livello mondiale

Negli ultimi settimane, l’attenzione degli osservatori dell’IA in Europa è stata rivolta a eventi significativi, tra cui l’emissione di nuove linee guida riguardanti l’AI Act, il framework normativo più completo per l’IA fino ad oggi, e il AI Action Summit, ospitato dalla Francia e co-presieduto dall’India.

Il summit ha visto la partecipazione di quasi 100 paesi e oltre 1.000 rappresentanti del settore privato e della società civile, il che ha garantito un dibattito vivace e costruttivo.

Concentrazione sulla regolamentazione

Parte del summit si è concentrata sulle questioni legate alla regolamentazione, in particolare a seguito dell’ultima emissione dell’AI Act. Durante l’evento, è stata lanciata l’iniziativa EU InvestAI da 200 miliardi di euro (210 miliardi di dollari) per finanziare quattro gigafabbriche di IA destinate alla formazione di grandi modelli di IA, come parte di una strategia più ampia per promuovere lo sviluppo aperto e collaborativo di modelli avanzati di IA nell’UE.

Innovazione contro regolamentazione

Il summit ha fornito una piattaforma per interrogarsi se l’innovazione superi la regolamentazione. Tuttavia, si può sostenere che ignorare i rischi intrinseci all’IA non accelererà l’innovazione, e che le attuali sfide europee riguardano più la frammentazione del mercato e una minore dinamicità in termini di capitale di rischio.

È cruciale per i governi democratici attuare misure pratiche, piuttosto che offrire platitudini, concentrandosi sui rischi per la stabilità sociale, politica ed economica a livello globale derivanti dall’abuso dei modelli di IA.

Il quadro normativo

Un’analista di GlobalData ha commentato che una regolamentazione completa fornisce un quadro di stabilità di mercato che può portare a una maggiore adozione dell’IA, poiché le organizzazioni si sentono più sicure riguardo alla compliance, il che porta a maggiori investimenti. La spiegabilità è anche sancita da questa legislazione, il che promuove e favorisce un’IA responsabile.

Le aziende potrebbero dover condividere informazioni su perché un sistema di IA ha fatto una previsione e ha intrapreso un’azione; questo accelera anche la ricerca e avvantaggia tutti.

Classificazione dei rischi

L’AI Act segue un sistema di classificazione basato su quattro livelli di rischio. Il livello più alto, il “rischio inaccettabile”, include i sistemi di IA considerati una chiara minaccia per la sicurezza della società.

Otto pratiche sono incluse in questo livello, tra cui: manipolazione e inganno basati sull’IA; sfruttamento di vulnerabilità; punteggio sociale; valutazione o previsione del rischio di reato individuale; scraping non mirato di internet o materiale da CCTV per creare o ampliare banche dati di riconoscimento facciale; riconoscimento emotivo nei luoghi di lavoro e nelle istituzioni educative; categorizzazione biometrica per dedurre determinati tratti protetti; e identificazione biometrica remota in tempo reale per scopi di polizia in spazi pubblicamente accessibili.

Obblighi legali per sistemi ad alto rischio

Il livello successivo, il “rischio elevato”, comprende casi d’uso dell’IA che possono presentare seri rischi per la salute, la sicurezza o i diritti fondamentali. Anche se non saranno banditi, i sistemi di IA ad alto rischio saranno soggetti a obblighi legali prima di poter essere immessi sul mercato, inclusi adeguati sistemi di valutazione e mitigazione del rischio e una documentazione dettagliata che fornisca tutte le informazioni necessarie.

I sistemi di IA a rischio limitato hanno obblighi di trasparenza specifici. Potrebbe significare che gli sviluppatori e i fornitori devono garantire che gli utenti finali siano consapevoli di interagire con l’IA, in casi pratici come chatbot e deepfake.

Conseguenze per la non conformità

Le aziende che non rispettano le regole saranno multate. Le sanzioni potrebbero arrivare fino al 7% del fatturato annuale globale per violazioni delle applicazioni di IA vietate, fino al 3% per violazioni di altre obbligazioni e fino al 1,5% per la fornitura di informazioni errate.

Riflessioni finali

Durante il summit, è stato discusso il potenziale impatto di queste nuove linee guida, con il contributo degli Stati Uniti limitato principalmente a criticare la regolamentazione europea e avvertire contro la cooperazione con la Cina. Gli Stati Uniti e il Regno Unito hanno rifiutato di firmare la Dichiarazione sull’IA, una dichiarazione di summit sull’IA ‘inclusiva’, un gesto che ha deluso le speranze di un approccio unificato alla regolamentazione della tecnologia.

Il documento è stato sostenuto da 60 firmatari, tra cui Australia, Canada, Cina, Francia, India e Giappone. Gli Stati Uniti hanno dichiarato di preferire dare priorità a politiche di IA pro-crescita piuttosto che alla sicurezza, mentre la Francia, in qualità di ospite del summit, ha affermato che è necessaria una regolamentazione che stabilisca le basi per un’adozione e una crescita più rapida.

More Insights

USA rifiuta la governance globale dell’IA all’ONU

I funzionari statunitensi hanno rifiutato una spinta per stabilire un quadro di governance globale sull'intelligenza artificiale durante l'Assemblea generale delle Nazioni Unite di questa settimana...

Rischi e governance dell’AI agentica nelle aziende

Nel mondo in rapida evoluzione dell'intelligenza artificiale, le aziende stanno sempre più adottando sistemi AI agentici—programmi autonomi che possono prendere decisioni ed eseguire compiti senza...

Il ruolo crescente dell’IA come custode delle opinioni e le sue implicazioni sui bias nascosti

L'aumento del ruolo dei modelli di linguaggio di grandi dimensioni (LLM) come custodi delle opinioni solleva preoccupazioni riguardo ai bias nascosti che potrebbero distorcere il dibattito pubblico...

Regole e Responsabilità nell’Intelligenza Artificiale

Il mondo in crescita dell'intelligenza artificiale (AI) è a un punto critico, poiché un'ondata di azioni normative sottolinea una svolta globale verso la responsabilità e l'uso etico. Le recenti...

Strumenti di Governance AI: Scegliere con Intelligenza

Con l'adozione dell'IA generativa in rapido aumento, aumentano anche i rischi associati. Gli strumenti di governance dell'IA offrono un modo per gestire questi rischi, ma scegliere la soluzione giusta...

Consenso Globale per un’Intelligenza Artificiale Sicura e Affidabile

Le Nazioni Unite stanno facendo pressione per influenzare direttamente le politiche globali sull'intelligenza artificiale, promuovendo standard tecnici e normativi per un'IA "sicura, protetta e...

La governance dell’IA: Regole e pratiche per un futuro sostenibile

Recentemente, davanti a un pubblico attento a Singapore, si è svolta una conversazione che potrebbe riformulare il pensiero globale sulla regolamentazione dell'IA. I relatori hanno discusso di come il...

Prepararsi alle nuove normative europee sull’IA per le PMI

Immagina di essere il responsabile delle risorse umane di un'azienda di produzione di medie dimensioni con 250 dipendenti distribuiti in Europa e Nord America. La tua piccola squadra HR non può...

Nuove Normative sulla Segnalazione di Incidenti per l’IA in Europa

Il 26 settembre 2025, la Commissione Europea ha pubblicato una bozza di guida sui requisiti di segnalazione degli incidenti gravi per i sistemi di intelligenza artificiale ad alto rischio ai sensi...