L’Atto AI dell’UE — Una Pietra Miliare nella Regolamentazione dell’Intelligenza Artificiale
L’Unione Europea ha compiuto un passo significativo nella governance dell’IA con l’Atto sull’Intelligenza Artificiale (Atto AI), la prima regolamentazione al mondo in questo settore. Questo atto stabilisce un quadro strutturato per gestire le tecnologie di intelligenza artificiale, assicurando un uso etico e promuovendo l’innovazione.
Le piattaforme di sviluppo low-code, che consentono la creazione di applicazioni con un minimo di codice manuale, spesso incorporano componenti di IA per fornire nuove funzionalità. Considerando le disposizioni dell’Atto AI, è cruciale per gli sviluppatori che utilizzano piattaforme low-code valutare il livello di rischio delle loro integrazioni IA, per garantire la conformità e un’implementazione responsabile.
Atto AI dell’UE — Principali Aspetti
- Responsabilità delle aziende per l’IA sviluppata internamente e per l’IA di terze parti inclusa nel software acquistato.
- Diffusione dell’adozione dell’IA nelle organizzazioni, con alcune costruite appositamente e altre incorporate in strumenti software come configurazioni invisibili.
- Possibili multe per non conformità fino a €35 milioni o il 7% del fatturato globale.
Obiettivi dell’Atto AI
L’Atto AI adotta un approccio normativo basato sul rischio per garantire che i sistemi siano sicuri, trasparenti e allineati ai diritti fondamentali. Classifica le applicazioni di IA in base ai potenziali rischi, applicando obblighi volti a:
- Promuovere la fiducia nelle tecnologie di IA.
- Proteggere i diritti fondamentali e i valori della società.
- Fornire un quadro di conformità strutturato per le aziende.
- Assicurare la responsabilità nell’implementazione dell’IA.
Timeline dell’Atto AI
L’Atto AI è entrato in vigore il 1° agosto 2024, con un’implementazione graduale:
- Febbraio 2025: Obblighi di formazione sulla alfabetizzazione dell’IA e pratica per vietare i sistemi IA ad alto rischio diventano effettivi.
- Agosto 2025: Inizio degli obblighi per i fornitori di modelli di IA di uso generale, insieme alla nomina delle autorità competenti nazionali.
- Agosto 2026: Gli obblighi di conformità si estendono ai sistemi IA ad alto rischio.
- Agosto 2030: Entrata in vigore delle rimanenti regole specifiche per settore.
Classificazione dell’Atto AI
La classificazione dei sistemi IA dell’Atto AI, basata sul rischio, è divisa in quattro livelli:
- Rischio Inaccettabile: Sistemi IA che pongono minacce significative alla sicurezza o ai diritti fondamentali sono vietati.
- Alto Rischio: Applicazioni IA nei settori critici come l’occupazione e la sanità sono classificate come ad alto rischio.
- Rischio Limitato: I sistemi IA con rischio limitato sono soggetti a obblighi di trasparenza.
- Rischio Minimo: La maggior parte delle applicazioni IA, inclusi gli algoritmi di raccomandazione, è soggetta a requisiti minimi o assenti.
Atto AI e Impatto Globale
L’Atto AI si applica non solo alle entità con sede nell’UE, ma anche alle aziende di tutto il mondo che implementano sistemi IA nel mercato dell’UE. Le organizzazioni devono valutare e allineare i loro quadro di governance dell’IA con i requisiti dell’Atto per evitare sanzioni.
Conformità all’Atto AI
Le organizzazioni che sviluppano o implementano IA nell’UE devono garantire la conformità operativa e procedere con le seguenti misure:
- Condurre valutazioni del rischio per classificare le applicazioni IA.
- Assicurare la trasparenza nei processi decisionali dell’IA.
- Eseguire valutazioni di impatto sui diritti fondamentali delle applicazioni IA ad alto rischio.
Innovazione e Piccole Medie Imprese (PMI)
Per mitigare il peso normativo sulle PMI, l’Atto AI introduce:
- Sandbox normativi per facilitare l’innovazione sotto la supervisione regolamentare.
- Misure proporzionate per prevenire restrizioni eccessive per le PMI.
Conclusione
L’Atto AI dell’UE stabilisce un precedente per la regolamentazione dell’IA a livello mondiale, bilanciando l’innovazione con una supervisione etica. Promuovendo la governance etica dell’IA, la trasparenza e la responsabilità, questo atto potrebbe ispirare simili iniziative a livello globale.
Le aziende devono prepararsi proattivamente per la conformità, assicurando che i loro sistemi IA siano allineati con i requisiti di trasparenza, sicurezza e responsabilità.