Normative sull’IA nell’UE: Nuove Regole e Rischi Proibiti

Legge sull’IA dell’UE: Entrata in vigore delle prime regole sui sistemi di IA vietati e alfabetizzazione sull’IA

La Legge sull’Intelligenza Artificiale dell’Unione Europea, il primo quadro giuridico globale sull’IA, è entrata in vigore il 1° agosto 2024. Questa legge stabilisce scadenze di conformità scaglionate per le varie aree che regola.

Situazione Attuale

La prima scadenza di conformità della legge è stata il 2 febbraio 2025. A partire da questa data, l’UE applica la categoria di rischio vietato, vietando quindi l’uso di sistemi di IA ritenuti che pongano rischi inaccettabili.

Sistemi di IA Vietati

I sistemi di IA vietati includono strumenti che effettuano valutazioni sociali, manipolano o sfruttano individui, inferiscono emozioni in contesti lavorativi o educativi, utilizzano l’identificazione biometrica in tempo reale in spazi pubblici e effettuano scraping di internet o CCTV per immagini facciali al fine di costruire o espandere database di riconoscimento facciale.

Il 2 febbraio 2025, la Commissione Europea ha pubblicato linee guida sui sistemi di IA vietati e pratiche, mirate a garantire l’applicazione efficace e uniforme della legge sull’IA in tutta l’UE.

Regole di Alfabetizzazione sull’IA

Le regole di alfabetizzazione sull’IA richiedono a tutti i fornitori e utilizzatori di sistemi di IA, anche quelli classificati come a basso rischio o nessun rischio, di garantire che il loro personale abbia un livello sufficiente di comprensione dell’IA, incluse le sue opportunità e rischi, per utilizzare i sistemi di IA in modo efficace e responsabile.

Prossime Scadenze di Conformità

Una delle prossime scadenze importanti sarà il 2 agosto 2025, data in cui gli Stati membri dell’UE dovranno designare le autorità nazionali responsabili dell’applicazione della legge sull’IA. In questa data entreranno in vigore anche regole riguardanti le sanzioni, la governance e la riservatezza.

Il 2 agosto 2026, la maggior parte delle altre obbligazioni della legge sull’IA diventerà effettiva, incluse regole applicabili ai sistemi di IA ad alto rischio, utilizzati in vari contesti critici, come la gestione dei lavoratori e l’accesso a servizi pubblici essenziali.

Passi Immediati da Seguire

Le aziende devono valutare se e come la legge sull’IA si applica ai loro sistemi di IA o modelli di IA generali, seguendo questi passaggi:

  • Identificare e documentare tutti i sistemi di IA o modelli di IA generali che l’azienda sviluppa o utilizza, e i loro casi d’uso previsti;
  • Classificare tutti i sistemi di IA o modelli di IA generali secondo la rispettiva categoria di rischio e requisiti di conformità;
  • Eseguire un’analisi delle lacune di conformità e dei rischi per identificare e affrontare eventuali problemi o sfide di conformità.

Conclusione

Con l’entrata in vigore delle regole sui sistemi di IA vietati e sull’alfabetizzazione sull’IA, e con ulteriori scadenze di conformità all’orizzonte, le aziende devono agire ora per garantire che i loro sistemi di IA siano conformi alle normative in evoluzione.

More Insights

Dati Fidati per l’AI: La Chiave della Trasformazione nel Settore Telecomunicazioni

L'intelligenza artificiale (AI) non è più un concetto futuristico nel settore delle telecomunicazioni, ma è la forza trainante dietro la trasformazione dell'industria. Tuttavia, questa rivoluzione...

Marocco: Pioniere nella Governance Globale dell’IA

Il Marocco ha preso un'iniziativa precoce nel promuovere la governance globale dell'intelligenza artificiale, collaborando con gli Stati Uniti e aderendo all'iniziativa cinese. L'ambasciatore Omar...

La battaglia per la regolamentazione dell’IA

La battaglia su chi deve regolare l'IA è tutt'altro che finita. Nonostante il passaggio del One Big Beautiful Bill Act al Senato, l'emendamento controverso che imponeva un divieto di regolamentazione...

Pronti per l’AI: Valutare l’Adattamento nel Settore Farmaceutico

L'intelligenza artificiale è destinata a trasformare ogni angolo dell'industria farmaceutica, dalla scoperta delle molecole alle sperimentazioni cliniche. È fondamentale che le organizzazioni...

Rafforzare la Sicurezza dell’IA: L’Allineamento Responsabile di phi-3

Il documento discute l'importanza della sicurezza nell'intelligenza artificiale attraverso il modello phi-3, sviluppato secondo i principi di AI responsabile di Microsoft. Viene evidenziato come il...

AI Sovrana: Il Futuro della Produzione Intelligente

Le nuvole AI sovrane offrono sia controllo che conformità, affrontando le crescenti preoccupazioni riguardo alla residenza dei dati e al rischio normativo. Per i fornitori di servizi gestiti, questa è...

Etica dell’IA: Progresso e Inclusività in Scozia

L'Allianza Scozzese per l'IA ha pubblicato il suo Rapporto di Impatto 2024/2025, evidenziando un anno di progressi nella promozione di un'intelligenza artificiale etica e inclusiva in Scozia. Il...

L’Urgenza del Regolamento sull’IA: Preparati al Cambiamento

L'annuncio della Commissione UE venerdì scorso che non ci sarà un ritardo nell'Atto sull'IA dell'UE ha suscitato reazioni contrastanti. È tempo di agire e ottenere alcuni fatti, poiché le scadenze di...

Affidabilità dei Modelli Linguistici nella Prospettiva della Legge AI dell’UE

Lo studio sistematico esamina la fiducia nei grandi modelli linguistici (LLM) alla luce del Regolamento sull'IA dell'UE, evidenziando le preoccupazioni relative all'affidabilità e ai principi di...