Forza e responsabilità: l’applicazione della legge sull’IA nell’UE

Il Regolamento sull’Intelligenza Artificiale: L’Applicazione della Legge AI

Il Regolamento sull’Intelligenza Artificiale dell’Unione Europea è entrato in vigore il 1 agosto 2024. Questo regolamento stabilisce un approccio basato sul rischio per l’IA, vietando pratiche ritenute inaccettabili, come il social scoring o la manipolazione del comportamento umano, e imponendo requisiti specifici sui sistemi di IA ad alto rischio, come quelli utilizzati nella salute, nel lavoro o nell’applicazione della legge.

Tuttavia, una delle sfide principali è rappresentata dall’implementazione pratica di queste norme.

1. Autorità di Sorveglianza del Mercato

Gli Stati Membri giocheranno un ruolo chiave nell’applicazione del Regolamento AI. Ogni Stato Membro designa almeno un’autorità di notifica e un’autorità di sorveglianza del mercato, che insieme costituiscono le autorità competenti nazionali:

  • Autorità di Notifica: Queste autorità intervengono nella fase di pre-implementazione dei sistemi di IA e sono responsabili dell’applicazione del quadro per gli organismi di valutazione della conformità.
  • Autorità di Sorveglianza del Mercato: Supervisionano i sistemi di IA dopo la loro implementazione e hanno il potere di imporre sanzioni per la non conformità.

Le autorità di sorveglianza del mercato possono agire d’ufficio o su segnalazione di un reclamo. Chiunque possa ritenere che ci sia stata una violazione del Regolamento AI può presentare un reclamo all’autorità competente.

2. Commissione Europea e Ufficio AI

La Commissione Europea ha poteri esclusivi per supervisione e enforcement degli obblighi per i modelli di IA di uso generale. Questi compiti sono affidati all’Ufficio AI, una funzione dedicata all’interno della Commissione.

L’Ufficio AI può agire d’iniziativa propria, ricevere reclami o allerta qualificate dal pannello scientifico. Ha poteri investigativi e correttivi, inclusa la possibilità di richiedere documentazione e informazioni dai fornitori di modelli di IA di uso generale.

3. Supervisore Europeo per la Protezione dei Dati

Il Supervisore Europeo per la Protezione dei Dati (EDPS) è designato come autorità di sorveglianza del mercato competente per le istituzioni, agenzie e organi dell’Unione, e ha poteri simili alle autorità nazionali, inclusi poteri di sanzione.

4. Cooperazione e Coordinamento

Il Regolamento AI include meccanismi per garantire cooperazione e coordinamento tra le autorità nazionali competenti e la Commissione. Se un’autorità di sorveglianza del mercato rileva che la non conformità si estende oltre il proprio territorio nazionale, deve informare la Commissione e gli altri Stati Membri senza indugi.

5. Sfide

Il framework di enforcement del Regolamento AI è complesso e solleva domande sulla sua implementazione pratica. Alcune delle principali sfide includono:

  • La mancanza di un meccanismo di uno sportello unico per gli operatori, che dovranno interagire con più autorità in diversi Stati Membri.
  • L’assenza di armonizzazione per gli aspetti procedurali, che può portare a frammentazioni significative.
  • Il doppio ruolo dell’Ufficio AI, che potrebbe influire sulla sua imparzialità.

La varietà di competenze delle autorità di sorveglianza del mercato potrebbe portare a interpretazioni e azioni di enforcement inconsistenti, a seconda dello Stato Membro coinvolto.

More Insights

Politica AI del Quebec per Università e Cégeps

Il governo del Quebec ha recentemente rilasciato una politica sull'intelligenza artificiale per le università e i CÉGEP, quasi tre anni dopo il lancio di ChatGPT. Le linee guida includono principi...

L’alfabetizzazione AI: la nuova sfida per la conformità aziendale

L'adozione dell'IA nelle aziende sta accelerando, ma con essa emerge la sfida dell'alfabetizzazione all'IA. La legislazione dell'UE richiede che tutti i dipendenti comprendano gli strumenti che...

Legge sull’IA: Germania avvia consultazioni per l’attuazione

I regolatori esistenti assumeranno la responsabilità di monitorare la conformità delle aziende tedesche con l'AI Act dell'UE, con un ruolo potenziato per l'Agenzia Federale di Rete (BNetzA). Il...

Governare l’AI nell’Economia Zero Trust

Nel 2025, l'intelligenza artificiale non è più solo un concetto astratto, ma è diventata una realtà operativa che richiede un governance rigorosa. In un'economia a zero fiducia, le organizzazioni...

Il nuovo segretariato tecnico per l’IA: un cambiamento nella governance

Il prossimo quadro di governance sull'intelligenza artificiale potrebbe prevedere un "segreteria tecnica" per coordinare le politiche sull'IA tra i vari dipartimenti governativi. Questo rappresenta un...

Innovazione sostenibile attraverso la sicurezza dell’IA nei Paesi in via di sviluppo

Un crescente tensione si è sviluppata tra i sostenitori della regolamentazione dei rischi legati all'IA e coloro che desiderano liberare l'IA per l'innovazione. Gli investimenti in sicurezza e...

Verso un approccio armonioso alla governance dell’IA in ASEAN

Quando si tratta di intelligenza artificiale, l'ASEAN adotta un approccio consensuale. Mentre i membri seguono percorsi diversi nella governance dell'IA, è fondamentale che questi principi volontari...

Italia guida l’UE con una legge innovativa sull’IA

L'Italia è diventata il primo paese nell'UE ad approvare una legge completa che regola l'uso dell'intelligenza artificiale, imponendo pene detentive a chi utilizza la tecnologia per causare danni. La...

Regolamentare l’Intelligenza Artificiale in Ucraina: Verso un Futuro Etico

Nel giugno del 2024, quattordici aziende IT ucraine hanno creato un'organizzazione di autoregolamentazione per sostenere approcci etici nell'implementazione dell'intelligenza artificiale in Ucraina...