Regolamentazione AI: Nuove Frontiere per l’Innovazione

L’Atto sull’IA: Regolamentazione Storica Entrata in Vigore

Il 4 febbraio 2025, la Commissione Europea ha pubblicato le linee guida sulle pratiche di IA vietate, come definite dall’Atto sull’IA, che è entrato in vigore il 1 agosto 2024.

Il Summit sull’IA

Il AI Action Summit si è tenuto a Parigi il 10 e 11 febbraio 2025, con la partecipazione di capi di stato e di governo, leader di organizzazioni internazionali e CEO.

Negli ultimi giorni, è stata un periodo intenso per gli osservatori dell’IA nel continente europeo: in primo luogo, l’emissione di nuove linee guida riguardanti l’Atto sull’IA, il quadro normativo più completo per l’IA fino ad oggi; in secondo luogo, il summit, ospitato dalla Francia e co-presieduto dall’India. Le scommesse erano alte, con quasi 100 paesi e oltre 1.000 rappresentanti del settore privato e della società civile presenti.

Regolazione vs Innovazione

Il summit sull’IA ha fornito una piattaforma per riflettere sulla questione: l’innovazione supera la regolamentazione? Tuttavia, si può sostenere che ignorare i rischi inerenti all’IA non accelererà necessariamente l’innovazione. Le attuali sfide europee riguardano maggiormente la frammentazione del mercato e la mancanza di capitale di rischio.

È importante considerare la necessità di governi democratici di attuare misure pratiche, piuttosto che platitudini, concentrandosi sui rischi per la stabilità sociale, politica ed economica globale derivanti dall’abuso dei modelli di IA.

Il Sistema di Rischio dell’Atto sull’IA

L’Atto sull’IA segue un sistema di rischio a quattro livelli. Il livello più alto, il “rischio inaccettabile”, include i sistemi di IA considerati una chiara minaccia per la sicurezza sociale. Otto pratiche sono incluse in questo livello: manipolazione e inganno basati su IA dannosi; sfruttamento di vulnerabilità; punteggio sociale; valutazione del rischio di reati individuali; scraping non mirato di internet o materiale CCTV per creare o ampliare database di riconoscimento facciale; riconoscimento delle emozioni in luoghi di lavoro e istituzioni educative; categorizzazione biometrica per dedurre certe caratteristiche protette; e identificazione biometrica remota in tempo reale per scopi di law enforcement in spazi pubblici accessibili.

Le disposizioni all’interno di questo livello, che includono lo scraping di internet per creare database di riconoscimento facciale, sono entrate in vigore il 2 febbraio 2025. Questi sistemi sono ora vietati e le aziende affrontano multe fino a 35 milioni di euro o il 7% dei loro ricavi annuali globali, a seconda di quale sia maggiore, se non si conformano.

Livello di Rischio Alto

Il livello successivo, il “rischio alto”, include casi d’uso dell’IA che possono comportare seri rischi per la salute, la sicurezza o i diritti fondamentali, comprese le minacce alle infrastrutture critiche (ad es. trasporti), il fallimento delle quali potrebbe mettere a rischio la vita e la salute dei cittadini.

Le soluzioni di IA utilizzate nelle istituzioni educative, che possono determinare l’accesso all’istruzione e il corso della vita professionale di qualcuno (ad es. punteggio degli esami), così come i componenti di sicurezza basati su IA dei prodotti (ad es. applicazione dell’IA nella chirurgia assistita da robot). Anche se non saranno vietati, i sistemi di IA ad alto rischio saranno soggetti a obblighi legali prima di poter essere immessi sul mercato, inclusi adeguati sistemi di valutazione e mitigazione del rischio e documentazione dettagliata fornendo tutte le informazioni necessarie.

Minimo o Nessun Rischio

Seguendo il livello di rischio alto, c’è “rischio minimo o assente”. Questo comporta obblighi di trasparenza più leggeri, il che può significare che gli sviluppatori e i distributori devono garantire che gli utenti finali siano consapevoli di interagire con l’IA, ad esempio in casi pratici come con chatbot e deepfake. La spiegabilità è anche sancita in questa legislazione, poiché le aziende di IA potrebbero dover condividere informazioni su perché un sistema di IA ha fatto una previsione e ha preso un’azione.

Critiche e Sfide

Durante il summit, l’impatto di queste nuove linee guida è stato discusso, con gli Stati Uniti che hanno criticato la regolamentazione europea e avvertito contro la cooperazione con la Cina. Gli Stati Uniti e il Regno Unito hanno rifiutato di firmare la dichiarazione del summit sull’IA “inclusiva”, un affronto che ha deluso le speranze di un approccio unificato alla regolamentazione della tecnologia. Il documento è stato sostenuto da 60 firmatari, tra cui Francia, Cina, India, Giappone, Australia e Canada.

Startup come OpenAI, che non molto tempo fa ammonivano il Congresso degli Stati Uniti sulla necessità di regolare l’IA, hanno sostenuto che l’Atto sull’IA potrebbe frenare l’Europa nello sviluppo commerciale dell’IA.

Innovazione e Competizione Globale

Il summit si è svolto in un momento di cambiamento rapido, con la startup cinese DeepSeek che sfida gli Stati Uniti con il rilascio recente del modello open-weight R1. Un altro attore open-source, la startup francese Mistral AI, che ha appena rilasciato il suo modello Le Chat, ha giocato un ruolo significativo. La società ha annunciato partnership con l’agenzia nazionale per l’impiego in Francia, la compagnia di difesa europea Helsing e Stellantis, il produttore automobilistico che possiede i marchi Peugeot, Citroën, Fiat e Jeep.

Il lancio dell’iniziativa InvestAI da 200 miliardi di euro, per finanziare quattro gigafabbriche di IA per addestrare grandi modelli di IA, è stato visto come parte di una strategia più ampia per promuovere lo sviluppo aperto e collaborativo di modelli avanzati di IA nell’UE.

More Insights

Politica AI del Quebec per Università e Cégeps

Il governo del Quebec ha recentemente rilasciato una politica sull'intelligenza artificiale per le università e i CÉGEP, quasi tre anni dopo il lancio di ChatGPT. Le linee guida includono principi...

L’alfabetizzazione AI: la nuova sfida per la conformità aziendale

L'adozione dell'IA nelle aziende sta accelerando, ma con essa emerge la sfida dell'alfabetizzazione all'IA. La legislazione dell'UE richiede che tutti i dipendenti comprendano gli strumenti che...

Legge sull’IA: Germania avvia consultazioni per l’attuazione

I regolatori esistenti assumeranno la responsabilità di monitorare la conformità delle aziende tedesche con l'AI Act dell'UE, con un ruolo potenziato per l'Agenzia Federale di Rete (BNetzA). Il...

Governare l’AI nell’Economia Zero Trust

Nel 2025, l'intelligenza artificiale non è più solo un concetto astratto, ma è diventata una realtà operativa che richiede un governance rigorosa. In un'economia a zero fiducia, le organizzazioni...

Il nuovo segretariato tecnico per l’IA: un cambiamento nella governance

Il prossimo quadro di governance sull'intelligenza artificiale potrebbe prevedere un "segreteria tecnica" per coordinare le politiche sull'IA tra i vari dipartimenti governativi. Questo rappresenta un...

Innovazione sostenibile attraverso la sicurezza dell’IA nei Paesi in via di sviluppo

Un crescente tensione si è sviluppata tra i sostenitori della regolamentazione dei rischi legati all'IA e coloro che desiderano liberare l'IA per l'innovazione. Gli investimenti in sicurezza e...

Verso un approccio armonioso alla governance dell’IA in ASEAN

Quando si tratta di intelligenza artificiale, l'ASEAN adotta un approccio consensuale. Mentre i membri seguono percorsi diversi nella governance dell'IA, è fondamentale che questi principi volontari...

Italia guida l’UE con una legge innovativa sull’IA

L'Italia è diventata il primo paese nell'UE ad approvare una legge completa che regola l'uso dell'intelligenza artificiale, imponendo pene detentive a chi utilizza la tecnologia per causare danni. La...

Regolamentare l’Intelligenza Artificiale in Ucraina: Verso un Futuro Etico

Nel giugno del 2024, quattordici aziende IT ucraine hanno creato un'organizzazione di autoregolamentazione per sostenere approcci etici nell'implementazione dell'intelligenza artificiale in Ucraina...