La mancanza di linee guida dell’UE sulle restrizioni all’IA

La mancanza di linee guida dell’UE sulle proibizioni dell’IA

Con l’approssimarsi della data di applicazione delle regole sull’intelligenza artificiale, l’UE si trova in una situazione critica. Le norme del AI Act che riguardano i sistemi di intelligenza artificiale vietati, inclusi i sistemi di riconoscimento facciale, entreranno in vigore il 2 febbraio. Tuttavia, ci sono preoccupazioni significative riguardo alla mancanza di linee guida da parte della Commissione Europea su questi sistemi vietati.

Preoccupazioni della società civile

Le organizzazioni della società civile hanno espresso forti preoccupazioni riguardo alla mancanza di orientamenti per il rispetto delle norme. Mentre le aziende hanno tempo fino alla metà dell’anno prossimo per allineare le proprie politiche alla maggior parte delle disposizioni dell’AI Act, il divieto di sistemi di social scoring, profilazione e riconoscimento facciale sarà effettivo prima.

Il AI Office della Commissione, responsabile per la questione, ha dichiarato che svilupperà linee guida per aiutare i fornitori nel rispetto delle norme entro l’inizio del 2025. Tuttavia, fino ad ora, tali documenti non sono stati pubblicati.

Gaps e preoccupazioni

Ella Jakubowska, responsabile delle politiche presso il gruppo di advocacy EDRi, ha affermato che ci sono “gaps significativi e molte domande aperte riguardo all’AI Office”. Ha aggiunto che è preoccupante che le linee guida interpretative non siano state pubblicate, sperando che non rappresentino un cattivo presagio su come l’AI Act sarà applicato in futuro.

Scappatoie nel AI Act

Il AI Act prevede divieti per i sistemi considerati a rischio a causa dei loro potenziali impatti negativi sulla società. Tuttavia, ci sono eccezioni previste dove l’interesse pubblico supera il rischio potenziale, come nei casi di applicazione della legge.

Caterina Rodelli, analista di politiche dell’organizzazione per i diritti umani Access Now, è scettica riguardo a queste eccezioni, affermando: “Se un divieto contiene eccezioni, non è più un divieto”. Le eccezioni sembrano favorire principalmente le autorità di law enforcement e di migrazione, consentendo l’uso di sistemi inaffidabili e pericolosi.

Regolatori nazionali

Il AI Act avrà un ambito extra-territoriale, il che significa che anche le aziende non basate nell’UE possono essere soggette alle sue disposizioni. Le aziende possono essere multate fino al 7% del fatturato globale annuale per violazioni dell’atto.

La maggior parte delle disposizioni dell’AI Act entrerà in vigore il prossimo anno, consentendo che vengano preparati standard e linee guida. Nel frattempo, gli stati membri hanno tempo fino ad agosto di quest’anno per istituire i loro regolatori nazionali, che saranno incaricati di supervisionare l’AI Act. Alcuni paesi hanno già avviato passi preparatori, affidando alle autorità di protezione dei dati o di telecomunicazioni la supervisione.

Jakubowska ha commentato che “sembra un po’ un mosaico, con poco o nulla noto in diversi paesi riguardo alle autorità di vigilanza del mercato o agli organismi notificati che sorveglieranno le norme a livello nazionale”.

More Insights

Politica AI del Quebec per Università e Cégeps

Il governo del Quebec ha recentemente rilasciato una politica sull'intelligenza artificiale per le università e i CÉGEP, quasi tre anni dopo il lancio di ChatGPT. Le linee guida includono principi...

L’alfabetizzazione AI: la nuova sfida per la conformità aziendale

L'adozione dell'IA nelle aziende sta accelerando, ma con essa emerge la sfida dell'alfabetizzazione all'IA. La legislazione dell'UE richiede che tutti i dipendenti comprendano gli strumenti che...

Legge sull’IA: Germania avvia consultazioni per l’attuazione

I regolatori esistenti assumeranno la responsabilità di monitorare la conformità delle aziende tedesche con l'AI Act dell'UE, con un ruolo potenziato per l'Agenzia Federale di Rete (BNetzA). Il...

Governare l’AI nell’Economia Zero Trust

Nel 2025, l'intelligenza artificiale non è più solo un concetto astratto, ma è diventata una realtà operativa che richiede un governance rigorosa. In un'economia a zero fiducia, le organizzazioni...

Il nuovo segretariato tecnico per l’IA: un cambiamento nella governance

Il prossimo quadro di governance sull'intelligenza artificiale potrebbe prevedere un "segreteria tecnica" per coordinare le politiche sull'IA tra i vari dipartimenti governativi. Questo rappresenta un...

Innovazione sostenibile attraverso la sicurezza dell’IA nei Paesi in via di sviluppo

Un crescente tensione si è sviluppata tra i sostenitori della regolamentazione dei rischi legati all'IA e coloro che desiderano liberare l'IA per l'innovazione. Gli investimenti in sicurezza e...

Verso un approccio armonioso alla governance dell’IA in ASEAN

Quando si tratta di intelligenza artificiale, l'ASEAN adotta un approccio consensuale. Mentre i membri seguono percorsi diversi nella governance dell'IA, è fondamentale che questi principi volontari...

Italia guida l’UE con una legge innovativa sull’IA

L'Italia è diventata il primo paese nell'UE ad approvare una legge completa che regola l'uso dell'intelligenza artificiale, imponendo pene detentive a chi utilizza la tecnologia per causare danni. La...

Regolamentare l’Intelligenza Artificiale in Ucraina: Verso un Futuro Etico

Nel giugno del 2024, quattordici aziende IT ucraine hanno creato un'organizzazione di autoregolamentazione per sostenere approcci etici nell'implementazione dell'intelligenza artificiale in Ucraina...