L’Atto sull’IA: Regolamentazione Storica Entrata in Vigore
Il 4 febbraio 2025, la Commissione Europea ha pubblicato le linee guida sulle pratiche di IA vietate, come definite dall’Atto sull’IA, che è entrato in vigore il 1 agosto 2024.
Il Summit sull’IA
Il AI Action Summit si è tenuto a Parigi il 10 e 11 febbraio 2025, con la partecipazione di capi di stato e di governo, leader di organizzazioni internazionali e CEO.
Negli ultimi giorni, è stata un periodo intenso per gli osservatori dell’IA nel continente europeo: in primo luogo, l’emissione di nuove linee guida riguardanti l’Atto sull’IA, il quadro normativo più completo per l’IA fino ad oggi; in secondo luogo, il summit, ospitato dalla Francia e co-presieduto dall’India. Le scommesse erano alte, con quasi 100 paesi e oltre 1.000 rappresentanti del settore privato e della società civile presenti.
Regolazione vs Innovazione
Il summit sull’IA ha fornito una piattaforma per riflettere sulla questione: l’innovazione supera la regolamentazione? Tuttavia, si può sostenere che ignorare i rischi inerenti all’IA non accelererà necessariamente l’innovazione. Le attuali sfide europee riguardano maggiormente la frammentazione del mercato e la mancanza di capitale di rischio.
È importante considerare la necessità di governi democratici di attuare misure pratiche, piuttosto che platitudini, concentrandosi sui rischi per la stabilità sociale, politica ed economica globale derivanti dall’abuso dei modelli di IA.
Il Sistema di Rischio dell’Atto sull’IA
L’Atto sull’IA segue un sistema di rischio a quattro livelli. Il livello più alto, il “rischio inaccettabile”, include i sistemi di IA considerati una chiara minaccia per la sicurezza sociale. Otto pratiche sono incluse in questo livello: manipolazione e inganno basati su IA dannosi; sfruttamento di vulnerabilità; punteggio sociale; valutazione del rischio di reati individuali; scraping non mirato di internet o materiale CCTV per creare o ampliare database di riconoscimento facciale; riconoscimento delle emozioni in luoghi di lavoro e istituzioni educative; categorizzazione biometrica per dedurre certe caratteristiche protette; e identificazione biometrica remota in tempo reale per scopi di law enforcement in spazi pubblici accessibili.
Le disposizioni all’interno di questo livello, che includono lo scraping di internet per creare database di riconoscimento facciale, sono entrate in vigore il 2 febbraio 2025. Questi sistemi sono ora vietati e le aziende affrontano multe fino a 35 milioni di euro o il 7% dei loro ricavi annuali globali, a seconda di quale sia maggiore, se non si conformano.
Livello di Rischio Alto
Il livello successivo, il “rischio alto”, include casi d’uso dell’IA che possono comportare seri rischi per la salute, la sicurezza o i diritti fondamentali, comprese le minacce alle infrastrutture critiche (ad es. trasporti), il fallimento delle quali potrebbe mettere a rischio la vita e la salute dei cittadini.
Le soluzioni di IA utilizzate nelle istituzioni educative, che possono determinare l’accesso all’istruzione e il corso della vita professionale di qualcuno (ad es. punteggio degli esami), così come i componenti di sicurezza basati su IA dei prodotti (ad es. applicazione dell’IA nella chirurgia assistita da robot). Anche se non saranno vietati, i sistemi di IA ad alto rischio saranno soggetti a obblighi legali prima di poter essere immessi sul mercato, inclusi adeguati sistemi di valutazione e mitigazione del rischio e documentazione dettagliata fornendo tutte le informazioni necessarie.
Minimo o Nessun Rischio
Seguendo il livello di rischio alto, c’è “rischio minimo o assente”. Questo comporta obblighi di trasparenza più leggeri, il che può significare che gli sviluppatori e i distributori devono garantire che gli utenti finali siano consapevoli di interagire con l’IA, ad esempio in casi pratici come con chatbot e deepfake. La spiegabilità è anche sancita in questa legislazione, poiché le aziende di IA potrebbero dover condividere informazioni su perché un sistema di IA ha fatto una previsione e ha preso un’azione.
Critiche e Sfide
Durante il summit, l’impatto di queste nuove linee guida è stato discusso, con gli Stati Uniti che hanno criticato la regolamentazione europea e avvertito contro la cooperazione con la Cina. Gli Stati Uniti e il Regno Unito hanno rifiutato di firmare la dichiarazione del summit sull’IA “inclusiva”, un affronto che ha deluso le speranze di un approccio unificato alla regolamentazione della tecnologia. Il documento è stato sostenuto da 60 firmatari, tra cui Francia, Cina, India, Giappone, Australia e Canada.
Startup come OpenAI, che non molto tempo fa ammonivano il Congresso degli Stati Uniti sulla necessità di regolare l’IA, hanno sostenuto che l’Atto sull’IA potrebbe frenare l’Europa nello sviluppo commerciale dell’IA.
Innovazione e Competizione Globale
Il summit si è svolto in un momento di cambiamento rapido, con la startup cinese DeepSeek che sfida gli Stati Uniti con il rilascio recente del modello open-weight R1. Un altro attore open-source, la startup francese Mistral AI, che ha appena rilasciato il suo modello Le Chat, ha giocato un ruolo significativo. La società ha annunciato partnership con l’agenzia nazionale per l’impiego in Francia, la compagnia di difesa europea Helsing e Stellantis, il produttore automobilistico che possiede i marchi Peugeot, Citroën, Fiat e Jeep.
Il lancio dell’iniziativa InvestAI da 200 miliardi di euro, per finanziare quattro gigafabbriche di IA per addestrare grandi modelli di IA, è stato visto come parte di una strategia più ampia per promuovere lo sviluppo aperto e collaborativo di modelli avanzati di IA nell’UE.