Costruire una volta, rispettare due volte: la prossima fase dell’Atto sull’IA dell’UE è alle porte
La Commissione Europea ha dato avvio a una nuova era di regolamentazione dell’IA. Con l’Atto sull’Intelligenza Artificiale (“l’Atto”), entrato in vigore il 1° agosto 2024, l’UE ha stabilito il primo quadro giuridico completo per l’intelligenza artificiale al mondo. Questa legislazione storica sta già rimodellando il modo in cui l’IA viene sviluppata, implementata e governata, non solo in Europa, ma a livello globale.
Le prime obbligazioni sostanziali dell’Atto hanno cominciato ad applicarsi all’inizio del 2025, e la prossima scadenza critica—l’imposizione di ampie obbligazioni per i modelli di IA di uso generale (GPAI) e nuove strutture di governance—entrerà in vigore il 2 agosto 2025. Per gli sviluppatori, i fornitori e i distributori di IA—soprattutto quelli che operano oltre confine—questa scadenza segna un passaggio cruciale dalla preparazione all’implementazione. Comprendere ciò che sta per arrivare è essenziale per rimanere conformi e competitivi in un panorama dell’IA sempre più regolato.
Implementazione Fase per Fase
Per facilitare la transizione verso questo nuovo regime normativo, l’Atto sull’IA dell’UE viene attuato in fasi. Ogni fase introduce nuove obbligazioni, dando alle organizzazioni il tempo di adattare le proprie operazioni, governance e infrastruttura tecnica.
- 2 febbraio 2025: questa data segna la prima scadenza di conformità importante. Da questo momento, le proibizioni dell’Atto su pratiche di IA ad alto rischio e inaccettabili—come indicato nell’Articolo 5—diventano applicabili. Tra queste ci sono divieti su tecniche manipolative, sistemi sfruttatori che prendono di mira gruppi vulnerabili e sorveglianza biometrica in tempo reale negli spazi pubblici.
- 2 agosto 2025: inizia la prossima ondata di obbligazioni, con un focus sulla governance e sui modelli GPAI. Questa fase attiva l’Ufficio Europeo per l’IA e il Consiglio Europeo per l’Intelligenza Artificiale, che supervisioneranno l’applicazione e il coordinamento tra gli Stati membri.
- 2 agosto 2026: il quadro più ampio entrerà in pieno effetto, comprese le obbligazioni per la maggior parte dei sistemi di IA ad alto rischio.
- 2 agosto 2027: scadenza finale di conformità, quando le obbligazioni dell’Articolo 6(1) per i sistemi ad alto rischio saranno pienamente applicabili.
Che cos’è l’Atto sull’IA dell’UE?
Classificazioni Basate sul Rischio
L’Atto sull’IA dell’UE (Regolamento (UE) 2024/1689) stabilisce un quadro giuridico completo per la regolamentazione dell’intelligenza artificiale. Introduce un approccio basato sul rischio e mira a garantire che i sistemi di IA immessi nel mercato dell’UE siano sicuri e rispettino i diritti fondamentali. I sistemi di IA sono classificati in base al rischio associato:
- Rischio Inaccettabile: Pratiche di IA che rappresentano una chiara minaccia per la sicurezza, il benessere o i diritti sono vietate. Ciò include sistemi che utilizzano tecniche subliminali per manipolare il comportamento.
- Alto Rischio: Sistemi di IA coinvolti in funzioni critiche come identificazione biometrica remota, sicurezza delle infrastrutture e accesso ai servizi pubblici.
- Rischio Limitato: I chatbot di IA rientrano generalmente in questa categoria e devono soddisfare specifiche obbligazioni di trasparenza.
- Minimo o Nessun Rischio: La maggior parte dei sistemi di IA attualmente utilizzati nell’UE rientrano in questa categoria e non sono soggetti a obbligazioni legali aggiuntive.
Modelli e Sistemi di IA di Uso Generale
L’Atto distingue tra modelli GPAI e sistemi GPAI. Un modello GPAI è la base su cui può essere integrato un sistema di IA. Gli obblighi normativi per i fornitori di modelli GPAI sono indicati negli Articoli 53-55.
Il Prossimo Traguardo: Obbligazioni GPAI Entrano in Vigore il 2 Agosto 2025
Il capitolo V dell’Atto stabilisce le esigenze di classificazione e conformità per i modelli di IA di uso generale. I fornitori di modelli GPAI devono preparare e aggiornare la documentazione tecnica, fornire informazioni ai fornitori downstream e garantire il rispetto del diritto d’autore dell’UE.
Considerazioni Strategiche
Il mancato rispetto delle obbligazioni previste dall’Atto può comportare sanzioni amministrative fino a 35 milioni di euro o il 7% del fatturato globale annuale, a seconda di quale sia maggiore. Per gli sviluppatori di IA statunitensi, l’Atto crea un perimetro normativo che deve essere considerato parallelamente ai quadri legali ed etici statunitensi.
Le aziende dovrebbero prendere in considerazione azioni proattiva ora, come:
- Mappare l’Esposizione all’UE: Identificare quali modelli o servizi di IA sono accessibili da utenti o entità con sede nell’UE.
- Classificare i Sistemi di IA: Effettuare una valutazione strutturata dei rischi per determinare a quale classificazione appartiene un sistema di IA.
- Pianificare la Governance Interna: Creare o rafforzare le funzioni di conformità con competenze specifiche per l’IA.
Con le sue obbligazioni di trasparenza, documentazione e copyright—soprattutto per i modelli di IA di uso generale—l’Atto dell’UE potrebbe diventare un modello normativo globale.