Implicazioni del Regolamento AI dell’UE sui Sistemi di Intelligenza Artificiale Obsoleti

Il Regolamento sull’IA dell’UE si Applica ai Sistemi di IA “Vecchi”?

La questione centrale è: cosa accade ai sistemi di IA costruiti e implementati prima dell’entrata in vigore del Regolamento sull’IA? Le nuove norme si applicano retroattivamente?

La risposta breve è: Generalmente no, ma con importanti eccezioni e obblighi di transizione.

Il Principio di Non Retroattività

Il Regolamento sull’IA non è retroattivo. Ciò significa che:

  • I sistemi di IA immessi sul mercato o messi in servizio prima del 2 agosto 2025 sono in gran parte esenti dai nuovi obblighi del Regolamento.
  • Tuttavia, questa esenzione non si applica ad alcune pratiche di IA vietate ai sensi dell’Articolo 5 del Regolamento.

Pratiche Proibite Chiave che Riguardano Tutti i Sistemi di IA

Indipendentemente da quando è stato implementato, le seguenti applicazioni sono vietate e devono essere eliminate:

  • Scoring sociale da parte dei governi
  • Identificazione biometrica in tempo reale negli spazi pubblici (con eccezioni limitate)
  • Manipolazione sfruttatrice di gruppi vulnerabili
  • IA con pattern oscuri progettati per distorcere materialmente il comportamento degli utenti

Qualsiasi IA legacy che rientra in queste categorie deve essere immediatamente rimediata o dismessa.

Date di Transizione Importanti e Attivatori di Conformità

Quando Devono Conformarsi i Sistemi di IA Legacy?

1. Modifica Sostanziale

Se un sistema di IA immesso sul mercato prima del 2 agosto 2025 è modificato sostanzialmente dopo il 2 agosto 2026, è trattato come un nuovo sistema e deve rispettare pienamente il Regolamento sull’IA.

  • La modifica sostanziale si riferisce a cambiamenti significativi nel design, funzionalità o scopo previsto.
  • La parte che esegue la modifica potrebbe essere considerata un quasi-fornitore e quindi assumere obblighi legali.

2. Regole Speciali per i Modelli di IA di Uso Generale (GPAI)

Per modelli di base come GPT, LLaMA e sistemi simili:

  • I modelli già sul mercato prima del 2 agosto 2025 devono conformarsi a determinate obbligazioni di trasparenza, gestione del rischio e copyright a partire dal 2 agosto 2027.
  • Questo periodo di transizione consente l’audit, gli aggiornamenti delle politiche e l’implementazione di misure di sicurezza contro i rischi sistemici.

3. Sistemi di IA ad Alto Rischio nel Settore Pubblico

Le autorità pubbliche che utilizzano sistemi di IA ad alto rischio implementati prima del 2 agosto 2025 hanno tempo fino al 2 agosto 2030 per garantire la piena conformità.

  • Il Regolamento sull’IA riconosce la complessità e i cicli di bilancio delle amministrazioni pubbliche.
  • I fornitori e gli utilizzatori in questo settore devono retrofittare, sostituire o dismettere l’IA più vecchia per rispettare i requisiti entro questa scadenza.

4. Considerazione Speciale: Sistemi Informativi Europei su Larga Scala

I sistemi di IA legacy utilizzati nelle infrastrutture pubbliche critiche dell’UE (ai sensi dell’Allegato X, ad esempio, Sistema Informativo di Schengen, Eurodac):

  • Esentati solo temporaneamente se implementati prima del 2 agosto 2027.
  • Qualsiasi modifica sostanziale attiva la conformità immediatamente.
  • Nuove implementazioni dopo questa data devono conformarsi pienamente fin dall’inizio.

Riepilogo: Applicabilità del Regolamento sull’IA all’IA Legacy

Anche se il Regolamento sull’IA esenta generalmente i sistemi legacy da gran parte dei nuovi obblighi, la non conformità, specialmente riguardo a pratiche vietate o IA ad alto rischio, può comportare sanzioni sostanziali ai sensi dell’Articolo 99. Queste sanzioni possono raggiungere fino a €35 milioni o il 7% del fatturato annuale globale.

È importante notare che il Regolamento sull’IA non è inteso a ostacolare il progresso tecnologico. Al contrario, riflette l’impegno dell’UE a trovare un equilibrio tra innovazione e protezione dei diritti fondamentali e delle infrastrutture critiche.

Una governance efficace dell’IA inizia con una prontezza proattiva. Le organizzazioni dovrebbero prima identificare i loro sistemi di IA più opachi o ad alto impatto, quelli in cui i rischi e le incertezze convergono, e dare priorità a questi. Da lì, costruire un approccio strutturato e basato sul rischio per la gestione dell’IA diventa non solo una necessità normativa, ma un vantaggio strategico.

More Insights

Politica AI del Quebec per Università e Cégeps

Il governo del Quebec ha recentemente rilasciato una politica sull'intelligenza artificiale per le università e i CÉGEP, quasi tre anni dopo il lancio di ChatGPT. Le linee guida includono principi...

L’alfabetizzazione AI: la nuova sfida per la conformità aziendale

L'adozione dell'IA nelle aziende sta accelerando, ma con essa emerge la sfida dell'alfabetizzazione all'IA. La legislazione dell'UE richiede che tutti i dipendenti comprendano gli strumenti che...

Legge sull’IA: Germania avvia consultazioni per l’attuazione

I regolatori esistenti assumeranno la responsabilità di monitorare la conformità delle aziende tedesche con l'AI Act dell'UE, con un ruolo potenziato per l'Agenzia Federale di Rete (BNetzA). Il...

Governare l’AI nell’Economia Zero Trust

Nel 2025, l'intelligenza artificiale non è più solo un concetto astratto, ma è diventata una realtà operativa che richiede un governance rigorosa. In un'economia a zero fiducia, le organizzazioni...

Il nuovo segretariato tecnico per l’IA: un cambiamento nella governance

Il prossimo quadro di governance sull'intelligenza artificiale potrebbe prevedere un "segreteria tecnica" per coordinare le politiche sull'IA tra i vari dipartimenti governativi. Questo rappresenta un...

Innovazione sostenibile attraverso la sicurezza dell’IA nei Paesi in via di sviluppo

Un crescente tensione si è sviluppata tra i sostenitori della regolamentazione dei rischi legati all'IA e coloro che desiderano liberare l'IA per l'innovazione. Gli investimenti in sicurezza e...

Verso un approccio armonioso alla governance dell’IA in ASEAN

Quando si tratta di intelligenza artificiale, l'ASEAN adotta un approccio consensuale. Mentre i membri seguono percorsi diversi nella governance dell'IA, è fondamentale che questi principi volontari...

Italia guida l’UE con una legge innovativa sull’IA

L'Italia è diventata il primo paese nell'UE ad approvare una legge completa che regola l'uso dell'intelligenza artificiale, imponendo pene detentive a chi utilizza la tecnologia per causare danni. La...

Regolamentare l’Intelligenza Artificiale in Ucraina: Verso un Futuro Etico

Nel giugno del 2024, quattordici aziende IT ucraine hanno creato un'organizzazione di autoregolamentazione per sostenere approcci etici nell'implementazione dell'intelligenza artificiale in Ucraina...