Rivoluzione dell’Intelligenza Artificiale: Nuove Regole per Rischi Inaccettabili

Entrata in vigore delle disposizioni del Regolamento UE sull’IA

Il Regolamento UE n. 2024/1689, che stabilisce regole armonizzate sull’intelligenza artificiale, ha visto l’entrata in vigore delle sue disposizioni relative all’alfabetizzazione sull’IA e al divieto di utilizzo di sistemi di IA che comportano rischi inaccettabili, a partire dal 2 febbraio 2025.

Obblighi di alfabetizzazione sull’IA

A partire dal 2 febbraio 2025, i fornitori di sistemi di IA, così come i loro utilizzatori, devono adottare misure per garantire un adeguato livello di alfabetizzazione sull’IA del proprio personale e di altri soggetti coinvolti nell’operazione e nell’uso di tali sistemi. L’alfabetizzazione sull’IA è definita come le competenze, le conoscenze e la comprensione necessarie per facilitare l’uso informato dei sistemi di IA, nonché la consapevolezza delle opportunità e dei rischi che questi comportano.

Attualmente, non sono previsti specifici provvedimenti sanzionatori per le violazioni degli obblighi di alfabetizzazione, ma si prevede che il rispetto o il mancato rispetto di tali obblighi possa essere considerato dalle autorità competenti nel determinare le sanzioni per altre violazioni del Regolamento.

Sistemi di IA vietati

Con l’entrata in vigore del Regolamento, i rischi inaccettabili riferiti ai sistemi di IA che minacciano i diritti fondamentali e i valori dell’Unione Europea sono ora vietati. Tra le pratiche di IA proibite troviamo:

  • Manipolazione e tecniche ingannevoli: utilizzo di sistemi di IA che impiegano tecniche subliminali o manipolative per distorcere il comportamento umano.
  • Sfruttamento di vulnerabilità: uso di sistemi di IA che sfruttano vulnerabilità di persone naturali, come età o condizioni socio-economiche.
  • Punteggio sociale: utilizzo di sistemi di IA per la valutazione o classificazione di persone in base a attributi comportamentali o personali.
  • Valutazione del rischio di reati individuali: utilizzo di sistemi di IA per profilare individui al fine di valutare il loro comportamento criminale.
  • Database di riconoscimento facciale non autorizzati: creazione di database di riconoscimento facciale attraverso la raccolta non mirata di immagini.
  • Riconoscimento delle emozioni: utilizzo di sistemi di IA per inferire emozioni in contesti lavorativi o educativi, salvo che giustificato per motivi medici o di sicurezza.
  • Categorizzazione biometrica: uso di sistemi di IA per categorizzare individui in base a dati biometrici per dedurre informazioni sensibili.
  • Identificazione biometrica in tempo reale: utilizzo di sistemi di identificazione biometrica in spazi pubblici da parte delle forze dell’ordine è generalmente vietato, salvo eccezioni ben definite.

Le sanzioni per la non conformità a tali divieti entreranno in vigore il 2 agosto 2025, e prevedono sanzioni amministrative fino a 35.000.000 EUR o il 7% del fatturato annuale totale dell’entità in violazione.

Chi è interessato?

Il Regolamento UE sull’IA ha un ambito di applicazione ampio, coprendo una vasta gamma di attività e soggetti coinvolti. Si applica ai fornitori che immettono sul mercato dell’UE sistemi di IA, indipendentemente dal loro paese di origine, così come agli utilizzatori di sistemi di IA all’interno dell’UE. Inoltre, si estende anche alle entità stabilite in paesi terzi i cui output di sistemi di IA sono utilizzati nell’UE.

Le organizzazioni coinvolte nell’importazione, distribuzione o produzione di prodotti che integrano sistemi di IA sono anch’esse soggette ai requisiti del Regolamento.

More Insights

Guida Pratica all’IA Responsabile per Sviluppatori .NET

L'era dell'intelligenza artificiale (IA) è ora, ma ci sono sfide da affrontare: possiamo fidarci dei sistemi IA? Questo articolo esplora i sei principi di Microsoft per costruire un'IA responsabile e...

Linee guida sull’AI dell’UE: chiarimenti sulle normative sul copyright

L'Ufficio dell'AI dell'UE ha pubblicato una bozza del Codice di Pratica che chiarisce le responsabilità relative al copyright per i fornitori di modelli di intelligenza artificiale a scopo generale...

Fiducia e Trasparenza nell’Era dell’Intelligenza Artificiale

L'intelligenza artificiale offre un valore straordinario per i marketer, ma solo se alimentata da dati di qualità raccolti in modo responsabile. Durante una sessione alla MarTech Conference di...

Il ruolo dell’AI nella gestione del rischio bancario

Nel complesso panorama delle operazioni bancarie di oggi, l'IA sta diventando il nuovo motore di gestione del rischio, fondamentale per le istituzioni finanziarie nel riconoscere le minacce e gestire...

Legge Italiana sulla Trasparenza dell’IA: Un Passo Avanti per la Responsabilità Tecnologica

I legislatori della California hanno fatto notizia a livello globale approvando una legge fondamentale sulla trasparenza nell'IA, focalizzata specificamente sui "modelli di frontiera" — i sistemi di...

Ufficio AI: L’autorità centrale per la legge UE

Il governo ha designato 15 autorità competenti nell'ambito della AI Act dell'UE e ha annunciato l'intenzione di istituire un Ufficio Nazionale per l'Intelligenza Artificiale. Questo ufficio agirà come...

Rischi e opportunità dell’AI nel reclutamento

L'uso di strumenti di intelligenza artificiale nel processo di assunzione consente alle aziende di ottimizzare le loro procedure, ma è fondamentale garantire che i sistemi siano trasparenti e non...

Quattro pilastri per un’IA responsabile

L'introduzione dell'IA generativa sta trasformando il modo in cui le aziende operano, ma implementare sistemi di IA senza adeguate protezioni è rischioso. Questo articolo esplora quattro categorie...

Intelligenza Artificiale Responsabile per i Mercati Emergenti

L'intelligenza artificiale sta trasformando il nostro mondo a una velocità sorprendente, ma i benefici non vengono raggiunti da tutti in modo equo. La soluzione è "Inclusion by Design", costruendo...