Impostare uno Standard Globale | Regolamentazione Completa dell’Intelligenza Artificiale
L’Atto sull’IA dell’UE: Cosa Fa
L’Atto sull’IA stabilisce un quadro normativo per i sistemi di intelligenza artificiale, fissando standard in base alla natura della loro applicazione e al livello di rischio che pongono.
Pratiche Proibite
Allo stato attuale, l’Atto proibisce l’uso dell’IA che infrange diritti fondamentali, in particolare la privacy. Queste pratiche includono:
- La sorveglianza biometrica in luoghi pubblici, come il riconoscimento facciale o l’analisi della camminata utilizzati per identificare e tracciare individui senza il loro consenso, pratiche che sollevano gravi preoccupazioni per la privacy e le libertà civili.
- I sistemi di punteggio sociale che valutano gli individui in base al loro comportamento, azioni o tratti personali per determinare l’accesso a servizi, benefici o per imporre sanzioni. Tali sistemi sono ampiamente criticati per favorire la discriminazione e violare i diritti umani.
Trasparenza
L’Atto enfatizza anche la trasparenza nello sviluppo e nell’implementazione delle tecnologie IA:
- Promuovendo sistemi che siano spiegabili, responsabili e accessibili alla comprensione umana, allontanandosi dai modelli opachi “black box”.
- Richiedendo chiarezza riguardo al design di un sistema di IA, ai dati che elabora e alla logica dietro le sue decisioni.
L’Atto mira a costruire fiducia nell’IA, garantire equità, supportare la conformità normativa e consentire l’identificazione e la mitigazione di potenziali pregiudizi.
Classificazione del Rischio dei Sistemi di IA
L’Atto adotta un quadro di regolamentazione basato sul rischio, categorizzando i sistemi in quattro classi distinte in base al loro potenziale impatto:
- Rischio minimo: Questi sistemi pongono poco o nessun rischio per gli utenti o la società. Un esempio è un algoritmo di IA che raccomanda video in base alla cronologia di visualizzazione.
- Rischio limitato: Questa categoria include modelli di base—sistemi di IA su larga scala addestrati su set di dati ampi e diversificati. Servono come base per molte applicazioni di IA generativa, come chatbot che assistono gli utenti sui siti web. Sebbene generalmente siano sicuri, richiedono trasparenza e divulgazione per garantire un uso responsabile.
- Rischio elevato: I sistemi di IA in questa classe hanno un potenziale significativo di influenzare la salute, la sicurezza o i diritti fondamentali. Esempi includono algoritmi utilizzati nelle assunzioni o nelle valutazioni delle prestazioni dei dipendenti, dove risultati distorti potrebbero portare a discriminazione o trattamento ingiusto.
- Rischio inaccettabile: Questi usi sono considerati incompatibili con i valori dell’UE e sono severamente proibiti. Includono sistemi di IA progettati per manipolare il comportamento o violare diritti.
Penali e Portata Globale
L’Atto impone severe penali finanziarie per violazioni gravi, con multe che possono raggiungere il 7% del fatturato annuale globale totale di un’azienda. Le sue disposizioni si applicano non solo alle organizzazioni con sede nell’UE, ma anche alle aziende al di fuori dell’UE che offrono servizi o prodotti di IA all’interno dei suoi confini. Dato che le tecnologie IA sono in uso da oltre cinquant’anni, la regolamentazione potrebbe influenzare sistemi esistenti già implementati in vari settori.
Implicazioni Assicurative dei Rischi Guidati dall’IA
Eventi Scatenanti
Le tecnologie IA introducono una serie di potenziali esposizioni che possono innescare richieste di risarcimento assicurativo, tra cui:
- Informazioni manipolate e falsificate: Video deepfake e clonazione vocale possono abilitare violazioni della sicurezza e sofisticati attacchi di ingegneria sociale.
- Allucinazioni e disinformazione: Output generati dall’IA che sono falsi o fuorvianti possono portare a responsabilità per i direttori, funzionari e professionisti che si basano su di essi nelle decisioni.
- Violazioni della privacy: Condivisione di dati sensibili con sistemi di IA può violare contratti, leggi sulla privacy o obblighi normativi.
- Violazione della proprietà intellettuale: Contenuti generati dall’IA possono replicare o utilizzare illegalmente beni protetti come immagini, codice, musica, marchi o identificatori personali utilizzati nei set di dati di addestramento.
- Pregiudizio del modello: Errori sistematici nei modelli di IA possono produrre risultati discriminatori o ingiusti, esponendo le organizzazioni a rischi reputazionali e legali.
- Pubblicità ingannevole (AI washing): Rappresentare in modo errato le capacità dell’IA o minimizzare i rischi associati può portare a controlli normativi o richieste da parte dei consumatori.
Questi rischi possono portare a perdite finanziarie, responsabilità legali, danni materiali o anche lesioni corporee, implicando un ampio spettro di copertura assicurativa. Le polizze rilevanti possono includere Responsabilità Cyber, Direttori e Funzionari (D&O), Errori e Omissioni (E&O), Responsabilità Media, Responsabilità Pratiche Occupazionali (EPL), Responsabilità per Prodotti e Responsabilità Generale.
Per affrontare queste esposizioni emergenti, sono stati sviluppati prodotti assicurativi specifici per l’IA. I broker possono assistere le organizzazioni nell’identificazione e nella sicurezza della copertura su misura per il loro profilo di rischio legato all’IA.
Il Paesaggio Evolving della Regolamentazione dell’IA
La governance dell’IA sta rapidamente cambiando in tutte le giurisdizioni. Mentre l’amministrazione Biden ha introdotto regole di conformità federali programmate per entrare in vigore il 15 maggio 2025, tali regolamenti sono stati annullati dall’attuale amministrazione. Tuttavia, un’Ordine Esecutivo che delinea principi guida per lo sviluppo dell’IA rimane in vigore. L’amministrazione Trump ha enfatizzato la competenza nell’IA come priorità strategica per mantenere la leadership degli Stati Uniti nella tecnologia, rendendo improbabile una legislazione federale completa nel prossimo futuro.
In assenza di mandati federali, gli stati individuali hanno iniziato ad agire. Il Colorado ha approvato una legislazione modellata sull’Atto dell’IA dell’UE, e altri stati sono attesi a seguire.
A livello internazionale, si sta costruendo un slancio normativo. Le autorità del Regno Unito stanno perseguendo regole specifiche per settore sull’IA, mentre l’Unione Europea sta avanzando un quadro legale unificato che si applica a tutti i settori, regolamentati o meno. L’UE sta anche riformando gli standard di responsabilità per i sistemi di IA e i prodotti potenziati dall’IA, mirati a semplificare il processo per le vittime per cercare un risarcimento.
A livello globale, gli esperti hanno identificato oltre 70 giurisdizioni con progetti di legge sull’IA in fase di revisione. Con il ritmo dell’innovazione nell’IA che accelera, i quadri normativi continueranno ad espandersi, modellando il modo in cui le organizzazioni sviluppano e implementano tecnologie IA. I professionisti del rischio devono rimanere vigili, assicurandosi che le loro strategie di trasferimento del rischio e i programmi di gestione evolvano in sintonia con questo ambiente normativo dinamico.