Mancano tre mesi all’adeguamento delle normative sull’IA nell’UE

Tre mesi prima della scadenza, i paesi dell’UE non sono pronti per la supervisione dell’IA

Con meno di tre mesi rimasti prima che i 27 stati membri dell’UE debbano nominare un regolatore incaricato di sovrintendere alla conformità delle imprese con il AI Act, rimane poco chiaro in almeno metà degli stati membri quale autorità sarà nominata, secondo un’analisi di Euronews.

Entro il 2 agosto, gli stati membri devono notificare alla Commissione quali autorità di sorveglianza del mercato sono nominate; inoltre, i paesi devono adottare una legge di attuazione che stabilisca sanzioni e che abiliti le loro autorità.

Discussione e preparazione

L’ultimo incontro del AI Board a fine marzo, che aiuta a coordinare la cooperazione tra gli stati membri, ha mostrato che la maggior parte dei paesi ha inviato rappresentanti dei ministeri. Solo un numero limitato – Danimarca, Grecia, Italia, Portogallo e Romania – ha avuto la presenza di regolatori nazionali.

Nonostante l’esecutivo dell’UE non voglia commentare quali paesi siano pronti, un funzionario dell’AI Office ha dichiarato a Euronews che il processo in quegli stati membri che hanno recentemente affrontato elezioni, come la Germania, sarà probabilmente ritardato.

Struttura di supervisione

Il funzionario ha affermato che gli stati stanno avendo “discussioni intense” nel AI Board, poiché ci sono modi diversi di impostare la struttura di supervisione. I paesi sono liberi di decidere come farlo e se nominare un solo regolatore o più di uno.

“Credo che il 95% di loro abbia certamente scelto la struttura che desidera avere e abbia iniziato il processo per nominare le autorità. Vedremo se il 2 agosto le cose saranno finalizzate o meno. A volte è difficile dirlo perché il processo nei parlamenti può essere più o meno lungo”, ha affermato il funzionario.

Ritardi e incertezze

Il AI Act – che mira a regolamentare gli strumenti di intelligenza artificiale in base al rischio che pongono per la società – è entrato in vigore nell’agosto 2024 e ha iniziato ad applicarsi gradualmente. Sarà completamente in vigore nel 2027.

Un ritardo nella nomina degli organi di supervisione comporterà incertezze per le imprese che dovranno iniziare a conformarsi alle regole.

Alcuni stati membri hanno istituito un regolatore completamente nuovo, come la Spagna, dove l’AESIA, un’agenzia indipendente del Ministero della Trasformazione Digitale spagnolo, assumerà probabilmente il ruolo.

In Polonia, un atto di attuazione in sospeso stabilisce un nuovo organismo, il Comitato per lo Sviluppo e la Sicurezza dell’IA, come autorità di sorveglianza del mercato.

La Danimarca, d’altra parte, ha designato la sua preesistente Agenzia per il Governo Digitale come autorità di supervisione dell’IA.

Per la Germania, sembra probabile che l’Agenzia Federale delle Reti assuma il ruolo.

Altri, inclusi i Paesi Bassi, probabilmente espanderanno i compiti dell’ente di protezione dei dati per controllare anche la conformità con l’AI Act, che ha il Regolamento Generale sulla Protezione dei Dati (GDPR) come base legale.

I regolatori della privacy stessi hanno chiesto agli stati membri di garantire che si prendano carico dei sistemi ad alto rischio, come l’identificazione biometrica, l’applicazione della legge, nonché la gestione dell’immigrazione, dell’asilo e del controllo delle frontiere.

More Insights

Rischi dell’IA: Impatti sulla Conformità Normativa

La rapida crescita dell'intelligenza artificiale (IA), in particolare dell'IA generativa e dei chatbot, offre alle aziende numerose opportunità per migliorare il loro lavoro con i clienti. Tuttavia...

Competenze di intelligenza artificiale: costruire un programma efficace

L'obbligo di alfabetizzazione sull'IA della legge sull'IA dell'UE si applica a chiunque utilizzi sistemi di IA connessi all'UE, richiedendo misure per garantire un livello sufficiente di...

Etica e Intelligenza Artificiale: Sfide e Opportunità

L'intelligenza artificiale (IA) sta trasformando il modo in cui le organizzazioni prendono decisioni critiche, ma solleva preoccupazioni riguardo a potenziali pregiudizi e mancanza di trasparenza. È...

Preparazione della Croazia per la Legge sull’IA: Rischi e Salvaguardie

L'affiliato di EDRi, Politiscope, ha recentemente ospitato un evento in Croazia per discutere l'impatto dei diritti umani dell'intelligenza artificiale (AI) e sensibilizzare sui danni legati all'AI...

Intelligenza Artificiale: Dovrebbe Avere Personalità Giuridica?

L'intelligenza artificiale non è più emergente, ma è consolidata, e le sue capacità stanno evolvendo più rapidamente dei quadri giuridici che dovrebbero regolarla. Dobbiamo affrontare la questione...

Provenienza dei dati: la chiave per la governance dell’IA

L'adozione dell'intelligenza artificiale nelle aziende è avvenuta in modo silenzioso e incrementale, ma ciò che preoccupa è l'assunzione di sicurezza che deriva dall'uso di modelli popolari. La vera...

Equilibrio e Innovazione nella Governance dell’IA nelle Filippine

Un legislatore nelle Filippine chiede un approccio cauto e consultivo alla regolamentazione dell'intelligenza artificiale (IA), sottolineando la necessità di garantire che le politiche promuovano un...

La Cina e il Futuro della Governance dell’AI: Un Modello Open-Source

La Cina sta facendo rapidi progressi nell'intelligenza artificiale (IA), guidata da aziende tecnologiche come Alibaba e Baidu, enfatizzando la collaborazione open-source. Questo approccio non solo...

Governare l’Intelligenza Artificiale: 9 Passi Fondamentali

Le organizzazioni stanno abbracciando il potenziale trasformativo dell'intelligenza artificiale (AI) e una verità diventa sempre più chiara: non è possibile scalare l'AI in modo sicuro senza...