Regolamentazione globale dell’IA: una nuova era

L’AI Act ha fornito una piattaforma per una regolamentazione efficace a livello mondiale

Negli ultimi settimane, l’attenzione degli osservatori dell’IA in Europa è stata rivolta a eventi significativi, tra cui l’emissione di nuove linee guida riguardanti l’AI Act, il framework normativo più completo per l’IA fino ad oggi, e il AI Action Summit, ospitato dalla Francia e co-presieduto dall’India.

Il summit ha visto la partecipazione di quasi 100 paesi e oltre 1.000 rappresentanti del settore privato e della società civile, il che ha garantito un dibattito vivace e costruttivo.

Concentrazione sulla regolamentazione

Parte del summit si è concentrata sulle questioni legate alla regolamentazione, in particolare a seguito dell’ultima emissione dell’AI Act. Durante l’evento, è stata lanciata l’iniziativa EU InvestAI da 200 miliardi di euro (210 miliardi di dollari) per finanziare quattro gigafabbriche di IA destinate alla formazione di grandi modelli di IA, come parte di una strategia più ampia per promuovere lo sviluppo aperto e collaborativo di modelli avanzati di IA nell’UE.

Innovazione contro regolamentazione

Il summit ha fornito una piattaforma per interrogarsi se l’innovazione superi la regolamentazione. Tuttavia, si può sostenere che ignorare i rischi intrinseci all’IA non accelererà l’innovazione, e che le attuali sfide europee riguardano più la frammentazione del mercato e una minore dinamicità in termini di capitale di rischio.

È cruciale per i governi democratici attuare misure pratiche, piuttosto che offrire platitudini, concentrandosi sui rischi per la stabilità sociale, politica ed economica a livello globale derivanti dall’abuso dei modelli di IA.

Il quadro normativo

Un’analista di GlobalData ha commentato che una regolamentazione completa fornisce un quadro di stabilità di mercato che può portare a una maggiore adozione dell’IA, poiché le organizzazioni si sentono più sicure riguardo alla compliance, il che porta a maggiori investimenti. La spiegabilità è anche sancita da questa legislazione, il che promuove e favorisce un’IA responsabile.

Le aziende potrebbero dover condividere informazioni su perché un sistema di IA ha fatto una previsione e ha intrapreso un’azione; questo accelera anche la ricerca e avvantaggia tutti.

Classificazione dei rischi

L’AI Act segue un sistema di classificazione basato su quattro livelli di rischio. Il livello più alto, il “rischio inaccettabile”, include i sistemi di IA considerati una chiara minaccia per la sicurezza della società.

Otto pratiche sono incluse in questo livello, tra cui: manipolazione e inganno basati sull’IA; sfruttamento di vulnerabilità; punteggio sociale; valutazione o previsione del rischio di reato individuale; scraping non mirato di internet o materiale da CCTV per creare o ampliare banche dati di riconoscimento facciale; riconoscimento emotivo nei luoghi di lavoro e nelle istituzioni educative; categorizzazione biometrica per dedurre determinati tratti protetti; e identificazione biometrica remota in tempo reale per scopi di polizia in spazi pubblicamente accessibili.

Obblighi legali per sistemi ad alto rischio

Il livello successivo, il “rischio elevato”, comprende casi d’uso dell’IA che possono presentare seri rischi per la salute, la sicurezza o i diritti fondamentali. Anche se non saranno banditi, i sistemi di IA ad alto rischio saranno soggetti a obblighi legali prima di poter essere immessi sul mercato, inclusi adeguati sistemi di valutazione e mitigazione del rischio e una documentazione dettagliata che fornisca tutte le informazioni necessarie.

I sistemi di IA a rischio limitato hanno obblighi di trasparenza specifici. Potrebbe significare che gli sviluppatori e i fornitori devono garantire che gli utenti finali siano consapevoli di interagire con l’IA, in casi pratici come chatbot e deepfake.

Conseguenze per la non conformità

Le aziende che non rispettano le regole saranno multate. Le sanzioni potrebbero arrivare fino al 7% del fatturato annuale globale per violazioni delle applicazioni di IA vietate, fino al 3% per violazioni di altre obbligazioni e fino al 1,5% per la fornitura di informazioni errate.

Riflessioni finali

Durante il summit, è stato discusso il potenziale impatto di queste nuove linee guida, con il contributo degli Stati Uniti limitato principalmente a criticare la regolamentazione europea e avvertire contro la cooperazione con la Cina. Gli Stati Uniti e il Regno Unito hanno rifiutato di firmare la Dichiarazione sull’IA, una dichiarazione di summit sull’IA ‘inclusiva’, un gesto che ha deluso le speranze di un approccio unificato alla regolamentazione della tecnologia.

Il documento è stato sostenuto da 60 firmatari, tra cui Australia, Canada, Cina, Francia, India e Giappone. Gli Stati Uniti hanno dichiarato di preferire dare priorità a politiche di IA pro-crescita piuttosto che alla sicurezza, mentre la Francia, in qualità di ospite del summit, ha affermato che è necessaria una regolamentazione che stabilisca le basi per un’adozione e una crescita più rapida.

More Insights

Politica AI del Quebec per Università e Cégeps

Il governo del Quebec ha recentemente rilasciato una politica sull'intelligenza artificiale per le università e i CÉGEP, quasi tre anni dopo il lancio di ChatGPT. Le linee guida includono principi...

L’alfabetizzazione AI: la nuova sfida per la conformità aziendale

L'adozione dell'IA nelle aziende sta accelerando, ma con essa emerge la sfida dell'alfabetizzazione all'IA. La legislazione dell'UE richiede che tutti i dipendenti comprendano gli strumenti che...

Legge sull’IA: Germania avvia consultazioni per l’attuazione

I regolatori esistenti assumeranno la responsabilità di monitorare la conformità delle aziende tedesche con l'AI Act dell'UE, con un ruolo potenziato per l'Agenzia Federale di Rete (BNetzA). Il...

Governare l’AI nell’Economia Zero Trust

Nel 2025, l'intelligenza artificiale non è più solo un concetto astratto, ma è diventata una realtà operativa che richiede un governance rigorosa. In un'economia a zero fiducia, le organizzazioni...

Il nuovo segretariato tecnico per l’IA: un cambiamento nella governance

Il prossimo quadro di governance sull'intelligenza artificiale potrebbe prevedere un "segreteria tecnica" per coordinare le politiche sull'IA tra i vari dipartimenti governativi. Questo rappresenta un...

Innovazione sostenibile attraverso la sicurezza dell’IA nei Paesi in via di sviluppo

Un crescente tensione si è sviluppata tra i sostenitori della regolamentazione dei rischi legati all'IA e coloro che desiderano liberare l'IA per l'innovazione. Gli investimenti in sicurezza e...

Verso un approccio armonioso alla governance dell’IA in ASEAN

Quando si tratta di intelligenza artificiale, l'ASEAN adotta un approccio consensuale. Mentre i membri seguono percorsi diversi nella governance dell'IA, è fondamentale che questi principi volontari...

Italia guida l’UE con una legge innovativa sull’IA

L'Italia è diventata il primo paese nell'UE ad approvare una legge completa che regola l'uso dell'intelligenza artificiale, imponendo pene detentive a chi utilizza la tecnologia per causare danni. La...

Regolamentare l’Intelligenza Artificiale in Ucraina: Verso un Futuro Etico

Nel giugno del 2024, quattordici aziende IT ucraine hanno creato un'organizzazione di autoregolamentazione per sostenere approcci etici nell'implementazione dell'intelligenza artificiale in Ucraina...