Regolamento sull’IA dell’UE: Bilanciare Innovazione, Conformità e Competizione

L’intelligenza artificiale sta rapidamente cambiando il nostro mondo, spingendo la necessità di linee guida e regolamenti chiari. L’AI Act dell’Unione Europea rappresenta un passo audace verso la definizione dello sviluppo e dell’implementazione di queste potenti tecnologie. Un pilastro centrale di questa legislazione riguarda la creazione e l’implementazione di standard tecnici. Questi standard mirano a tradurre i principi di alto livello dell’AI Act in passaggi concreti e attuabili per le imprese. Tuttavia, il processo di definizione di questi standard e di garanzia della loro efficace adozione presenta una serie unica di sfide e opportunità che potrebbero determinare il futuro dell’innovazione e della concorrenza nel campo dell’IA all’interno dell’UE e oltre. Esaminare gli obiettivi, gli stakeholder chiave e le implicazioni pratiche di questi standard è fondamentale per comprendere il potenziale impatto dell’AI Act.

Quali sono gli obiettivi fondamentali dell’AI Act dell’UE?

L’AI Act europeo mira a stabilire norme giuridiche armonizzate per lo sviluppo e l’implementazione sicuri dell’IA all’interno dell’UE. La standardizzazione tecnica svolge una funzione vitale, traducendo requisiti legali astratti in linee guida concrete e attuabili. Ciò dovrebbe ridurre le incertezze legali e rafforzare la competitività nel mercato interno.

In particolare, gli standard mirano a:

  • Stabilire condizioni competitive coerenti.
  • Semplificare i processi per ridurre i costi di implementazione normativa.
  • Facilitare uno sviluppo e operazioni di prodotto più efficienti.

Principali Preoccupazioni Regolatorie

L’AI Act dell’UE cerca di rendere operativi i requisiti legali ad alto rischio, rendendoli più prescrittivi attraverso standard tecnici. L’allineamento a questi standard fornisce una “presunzione di conformità”, semplificando la conformità e riducendo la necessità di soluzioni personalizzate ad alta intensità di risorse. Tuttavia, impone una rigorosa aderenza ai requisiti che coprono aree come la gestione del rischio, la governance dei dati, la trasparenza e la sicurezza informatica.

Implicazioni Pratiche

Per realizzare gli obiettivi dell’AI Act, è necessario considerare l’impatto su vari settori e partecipanti al mercato. L’AI Act potrebbe diventare uno strumento cruciale per implementare standard tecnici come barriere all’ingresso del mercato, in particolare per le startup e le PMI che non dispongono delle risorse per partecipare ai processi di standardizzazione. Ciò potrebbe rimodellare la concorrenza nell’IA e richiedere aggiustamenti politici per garantire un accesso equo e prevenire oneri eccessivi per gli operatori più piccoli.

Quali sono le principali parti interessate coinvolte nel processo di standardizzazione dell’IA?

Il processo globale di standardizzazione dell’IA coinvolge molteplici parti interessate chiave. Queste possono essere principalmente classificate come organismi di standardizzazione, attori del settore, gruppi della società civile e organizzazioni scientifiche.

Organismi di standardizzazione

Esistono tre comitati degni di nota che si concentrano sulla standardizzazione dell’IA:

  • ISO/IEC JTC 1/SC 42 (IA) – Organizzato dall’Organizzazione internazionale per la standardizzazione (ISO) in collaborazione con la Commissione elettrotecnica internazionale (IEC). Ha pubblicato 34 standard, con 40 ancora in fase di sviluppo.
  • IEEE AI Standards Committee – Organizzato all’interno dell’Institute of Electrical and Electronics Engineers (IEEE). Ha prodotto 12 standard e sta lavorando su 59 standard aggiuntivi.
  • CEN-CENELEC JTC 21 (IA) – Un comitato congiunto del Comitato europeo di normalizzazione (CEN) e del Comitato europeo per la normalizzazione elettrotecnica (CENELEC). Ha pubblicato 10 standard, con 33 ancora in fase di sviluppo.

A livello di stato membro dell’UE, gli organismi di standardizzazione nazionali hanno installato comitati di lavoro che rispecchiano principalmente il lavoro di ISO/IEC JTC 1/SC 42 (IA) e CEN-CENELEC JTC 21 (IA). Ciò aiuta a bilanciare gli sforzi nazionali con quelli internazionali generali (ad esempio, europei) e garantisce l’attuazione coordinata delle norme europee negli Stati membri dell’UE.

Attori del settore e organizzazioni scientifiche

Gli attori del settore e le organizzazioni scientifiche contribuiscono alla standardizzazione dell’IA, in particolare attraverso standard di settore, cataloghi di audit dell’IA e framework di test. Esempi notevoli includono:

  • AI HLEG ALTAI – L’elenco di valutazione del gruppo di esperti di alto livello sull’IA per l’IA affidabile, che rende operativi gli orientamenti etici AI HLEG.
  • NIST AI RMF – Il framework del National Institute of Standards and Technology degli Stati Uniti per gestire i rischi dell’IA.
  • Mission KI Standard – Un’iniziativa tedesca che sviluppa uno standard di qualità volontario per le applicazioni di IA.
  • Catalogo Fraunhofer IAIS – L’AI Assessment Catalog del Fraunhofer Institute for Intelligent Analysis and Information Systems (IAIS). Offre una linea guida strutturata che può essere utilizzata per definire standard di qualità AI astratti in criteri di valutazione specifici per l’applicazione che coprono sei dimensioni di affidabilità.
  • BSI AIC4 – L’AI Cloud Service Compliance Catalogue dell’Ufficio federale tedesco per la sicurezza delle informazioni, che specifica i requisiti minimi per l’apprendimento automatico sicuro nei servizi cloud.

Quali sono le funzioni principali degli standard armonizzati ai sensi dell’AI Act?

Gli standard armonizzati sono fondamentali per un’efficace conformità con l’AI Act dell’UE. Offrono un percorso accessibile per soddisfare i requisiti normativi e ridurre le incertezze legali, stimolando in definitiva la concorrenza e la crescita nel mercato dell’UE. Mirano a creare condizioni di parità per la progettazione e lo sviluppo di sistemi di IA.

Ecco una ripartizione delle funzioni principali:

  • Operazionalizzazione dei requisiti legali: I requisiti ad alto rischio dell’AI Act sono deliberatamente astratti. Gli standard armonizzati forniscono le specifiche tecniche necessarie per renderli prescrittivi e attuabili.
  • Presunzione di conformità: La conformità a questi standard armonizzati conferisce ai sistemi di IA una presunzione di conformità ai pertinenti requisiti dell’AI Act.
  • Marchio CE e accesso al mercato: Questi standard aprono la strada alla marcatura CE (conformité européenne), semplificando l’accesso al mercato dell’UE.
  • Riduzione dei costi normativi: Standard ben progettati semplificano i processi, evitando potenzialmente la necessità di R&S personalizzata, rendendo così più efficiente lo sviluppo del prodotto.

L’articolo 40, paragrafo 1, dell’AI Act pone le basi per gli standard armonizzati e la presunzione di conformità. Questi standard si applicano ai sistemi di IA ad alto rischio come definiti nell’articolo 6 e negli allegati I e III dell’atto.

La Commissione Europea ha incaricato il CEN e il CENELEC di sviluppare questi standard (articolo 40, paragrafo 2, dell’AI Act). Questi standard fungeranno da base per la presunzione di conformità, semplificando la conformità, fornendo certezza giuridica e, idealmente, riducendo l’onere amministrativo per i fornitori di IA.

È importante notare che, sebbene gli standard internazionali siano presi in considerazione, l’AI Act richiede spesso nuovi standard europei per affrontare la protezione dei diritti fondamentali e gli impatti sociali, garantendo l’allineamento con i valori dell’UE.

In che modo gli standard verticali sull’IA influenzano l’implementazione dell’AI Act?

Sebbene l’AI Act sia progettato per essere una regolamentazione orizzontale e indipendente dal settore, la Commissione europea ha preso in considerazione specifiche verticali per settori particolari. Ecco il punto cruciale di come questi standard verticali influenzano l’implementazione dell’AI Act:

L’allineamento del settore è fondamentale: il coinvolgimento delle parti interessate provenienti da settori con requisiti tecnici esistenti, come macchinari, dispositivi medici, aviazione, automotive e finanza, è fondamentale per lo sviluppo di successo di standard armonizzati ai sensi dell’AI Act. Questo approccio collaborativo garantisce che le nuove normative siano ben informate e praticamente implementabili.

Gli atti delegati incorporeranno i requisiti dell’AI Act: l’articolo 102 e seguenti dell’AI Act stabilisce che i suoi requisiti sull’IA ad alto rischio siano integrati nelle normative esistenti sull’accesso al mercato per settori come automotive, aviazione e ferroviario. Come verrà fatto? Tramite atti delegati che fanno leva su specifiche tecniche. Ci si aspetta che gli organismi di normazione abbiano il compito di aggiungere le clausole dell’AI Act agli standard specifici del settore esistenti relativi all’omologazione.

Stanno emergendo standard specifici per settore: sebbene la maggior parte dei settori attualmente manchi di standard specifici per l’IA, alcuni stanno sperimentando iniziative pionieristiche. Gli esempi includono BS 30440:2023 del British Standards Institute (BSI) per l’intelligenza artificiale nell’assistenza sanitaria e ISO/PAS 8800 per i sistemi di IA critici per la sicurezza nei veicoli stradali. Quest’ultimo potrebbe essere fondamentale nell’incorporare i requisiti dell’AI Act tramite il Type Approval Act (Regolamento (UE) n. 168/2013), come da articolo 104 AI Act. Allo stesso modo, la Society of Automotive Engineers (SAE) sta sviluppando SAE ARP6983 per i prodotti di sicurezza aeronautica basati sull’IA.

Considerazioni sul settore della difesa: anche se in gran parte escluso dall’ambito diretto dell’AI Act (Art. 2(3) AI Act), il settore della difesa riconosce la necessità di standard specifici per l’IA per il settore e sta lavorando attivamente per raggiungerli.

Conformità volontaria: i settori non direttamente coperti dagli standard dell’AI Act o dagli standard AI specifici per settore stanno mostrando interesse. Alcuni intendono conformarsi volontariamente agli standard corrispondenti, prevedendo che i loro clienti potrebbero essere soggetti in futuro ai requisiti dell’AI Act relativi all’IA ad alto rischio.

Effetti indiretti

Ssia il settore della mobilità/automotive che quello della difesa, pur essendo parzialmente al di fuori dell’ambito diretto dell’AI Act (come definito dall’articolo 103 e seguenti dell’AI Act), prevedono importanti implicazioni derivanti dall’AI Act. I fornitori di IA nel settore della mobilità vedono gli standard come un’arma a doppio taglio, che offre trasparenza e vantaggi in termini di sicurezza, ma impone oneri operativi significativi, soprattutto per i sistemi complessi che richiedono funzionalità avanzate di spiegabilità e sicurezza informatica.

Le aziende della difesa, sebbene esplicitamente escluse per motivi di sicurezza nazionale, devono affrontare pressioni indirette attraverso gli impatti dell’ecosistema e le considerazioni sul duplice uso. Queste aziende monitorano attentamente l’impatto dell’AI Act sulla disponibilità di modelli di IA open source e sugli standard generali di IA, spesso aderendo a rigidi standard di sicurezza paragonabili alle applicazioni civili.

Alcune aziende del settore della mobilità stanno prendendo in considerazione mercati con oneri normativi inferiori a causa di sfide finanziarie e operative. Le aziende della difesa, al contrario, vedono potenziali vantaggi competitivi nell’adozione di standard ad altro rischio, favorendo la collaborazione civile-militare e la fiducia nei sistemi di collaborazione uomo-IA.

Quali sono le principali sfide nella tempistica per la standardizzazione dell’AI Act?

Gli standard tecnici sono fondamentali per la conformità all’AI Act, ma il processo di standardizzazione affronta pressioni temporali critiche, dinamiche complesse tra le parti interessate e preoccupazioni sui costi e sulla messa in opera.

Compressione Critica della Tempistica

La scadenza iniziale per lo sviluppo degli standard era aprile 2025, ma è probabile che venga estesa ad agosto 2025. Anche con questa estensione, la tempistica rimane stretta, lasciando potenzialmente solo 6-8 mesi alle aziende per conformarsi dopo la pubblicazione degli standard nella Gazzetta ufficiale dell’Unione Europea, prevista per l’inizio del 2026. Questo è significativamente inferiore ai 12 mesi minimi che la maggior parte delle aziende, in particolare le startup e le PMI, dichiara di aver bisogno per un’implementazione efficace.

Squilibrio nella Rappresentanza delle Parti Interessate

La composizione dei comitati di standardizzazione, come il CEN-CENELEC JTC 21, è fortemente sbilanciata verso le grandi imprese, con le principali società tecnologiche e di consulenza statunitensi che spesso detengono una presenza maggioritaria. Ciò crea uno squilibrio, limitando la partecipazione e l’influenza delle PMI, delle startup, delle organizzazioni della società civile e del mondo accademico. Questa disparità può portare a standard che non affrontano adeguatamente le esigenze e le preoccupazioni dei partecipanti al mercato più piccoli, creando potenzialmente barriere all’ingresso sproporzionate.

Preoccupazioni sui Costi

Le aziende affrontano anche sfide legate al costo della comprensione e dell’implementazione degli standard tecnici applicabili. Il caso “Malamud” della Corte di Giustizia Europea ha messo in evidenza se gli standard armonizzati debbano essere liberamente accessibili, sollevando interrogativi sul diritto d’autore e sulla monetizzazione. A seconda dei futuri casi giudiziari, la standardizzazione europea potrebbe perdere contributi critici da organismi di standardizzazione internazionali. Se le aziende non possono permettersi di acquistare standard tecnici pertinenti, rischiano una “presunzione negativa di conformità”, il che significa che i loro sforzi di conformità alternativi potrebbero essere visti con pregiudizio dalle autorità di vigilanza. La non conformità può comportare multe salate (fino a 35 milioni di euro), accesso limitato al mercato e danni alla reputazione.

Ostacoli alla Messa in Opera

Una sfida significativa è la necessità di una maggiore messa in opera degli standard tecnici. Attualmente, questi standard sono disponibili principalmente come PDF, che richiedono interpretazione e applicazione manuale. Affrontando questo problema, gli organismi di standardizzazione tedeschi come DIN e DKE stanno lavorando verso “SMART Standards” machine-readable, -interpretable, -executable e -controllable. Il successo di questo obiettivo può determinare la possibilità di riduzione dei costi associata all’applicazione degli standard.

In che modo le dinamiche degli stakeholder influenzano il processo di standardizzazione dell’AI Act?

Gli sforzi di standardizzazione per l’AI Act coinvolgono oltre 1.000 esperti nei comitati nazionali specchio, rivelando una sfida strutturale nella rappresentanza degli stakeholder. Principalmente, le grandi imprese, comprese le principali aziende tecnologiche e di consulenza statunitensi, dominano questi comitati. Ciò crea una disparità, con un impatto sulle PMI, le startup, la società civile, le istituzioni indipendenti e il mondo accademico.

La partecipazione alla definizione degli standard offre alle aziende vantaggi strategici attraverso il trasferimento di conoscenze e la costruzione di relazioni. Tuttavia, la sottorappresentazione dei stakeholder più piccoli deriva dalle risorse necessarie per la partecipazione ai comitati. Le associazioni di categoria sono emerse come intermediari, aggregando e rappresentando gli interessi di questi stakeholder all’interno degli organismi di standardizzazione.

Questo squilibrio strutturale genera vantaggi competitivi per le imprese più grandi nel mercato UE, consentendo loro di influenzare lo sviluppo degli standard tecnici. La notevole influenza delle aziende statunitensi solleva anche preoccupazioni sulla rappresentazione dei valori e delle prospettive dell’UE. La limitata partecipazione da parte di entità più piccole esclude potenzialmente conoscenze cruciali, compromettendo lo sviluppo di una sicurezza completa.

Sfide nelle dinamiche degli stakeholder:

  • Partecipazione asimmetrica: gli attori più piccoli sono spesso messi in ombra dalle grandi imprese.
  • Vincoli di risorse: le PMI e le startup faticano ad allocare le risorse necessarie per la partecipazione.
  • Rappresentazione dei valori: esistono preoccupazioni sull’adeguata rappresentazione dei valori dell’UE data l’influenza delle aziende statunitensi.

La mancanza di inclusività sottolinea la necessità di processi di standardizzazione più equilibrati che incorporino efficacemente diverse prospettive e competenze per evitare standard che influiscano in modo sproporzionato sui partecipanti al mercato più piccoli.

Quali sono le potenziali implicazioni finanziarie relative all’accesso agli standard di IA?

Il panorama degli standard di IA non riguarda solo le specifiche tecniche; è profondamente intrecciato con considerazioni finanziarie che potrebbero avere un impatto significativo sui fornitori di IA, in particolare sulle startup e le PMI. Ecco un’analisi delle principali implicazioni finanziarie:

Costi Diretti della Conformità

Sebbene i documenti degli standard stessi dovrebbero essere gratuiti, grazie a una sentenza della più alta corte europea, il costo per implementare tali standard è tutt’altro che trascurabile. Le aziende prevedono oneri finanziari significativi:

  • Personale Dedicato: Le aziende potrebbero aver bisogno di stanziare circa € 100.000 all’anno per il personale dedicato alla conformità.
  • Tempo del Management: I fondatori e il management potrebbero dedicare il 10-20% del loro tempo a questioni relative agli standard.
  • Costi di Certificazione: Alcune stime indicano che le spese di certificazione del sistema di IA superano i € 200.000.

Costi Indiretti e Accesso al Mercato

Le ramificazioni finanziarie vanno oltre l’ovvio:

  • Potenziale impatto sul time-to-market e la quota di mercato competitiva

Le aziende che non rispettano le scadenze di conformità rischiano multe fino al 7% del fatturato globale o € 35 milioni, il che potrebbe essere paralizzante, soprattutto per le aziende più piccole. La non conformità può anche limitare l’accesso al mercato dell’UE, ponendo le aziende conformi in una posizione più forte.

Rischio Reputazionale

Oltre alle sanzioni finanziarie dirette, c’è il rischio di danni alla reputazione. La copertura mediatica negativa e la perdita della fiducia dei clienti possono mettere a repentaglio le relazioni commerciali a lungo termine, soprattutto nei settori avversi al rischio.

Partecipazione Asimmetrica alla Standardizzazione

Le aziende più piccole spesso non hanno le risorse per partecipare efficacemente ai comitati di standardizzazione. Le imprese più grandi possono influenzare lo sviluppo degli standard a proprio vantaggio, portando potenzialmente a costi di conformità più elevati per le PMI:

  • Influenza: I player più grandi possono “incorporare” standard tecnici che favoriscono i loro obiettivi di business.
  • Conoscenza: L’influenza asimmetrica può significare che prospettive cruciali vengono escluse dagli standard che definiscono il mercato.

Il Caso Malamud e l’Accessibilità agli Standard

Il caso “Malamud” richiede che gli standard armonizzati siano liberamente accessibili. Tuttavia, ISO e IEC stanno contestando questo in tribunale, sollevando preoccupazioni sulla potenziale monetizzazione degli standard tecnici. Ciò ha sollevato importanti preoccupazioni sulla sostenibilità finanziaria delle Organizzazioni di Normazione Europee che fanno affidamento sulle entrate derivanti dalla vendita degli standard per sostenere le loro operazioni.

Qual è il significato dell’operazionalizzazione degli standard tecnici nel contesto dell’AI Act?

L’AI Act dell’UE, in quanto primo insieme completo di regole che disciplinano lo sviluppo e l’implementazione dell’IA, si affida alla standardizzazione tecnica come strumento chiave per l’attuazione. I requisiti per l’IA ad alto rischio nell’AI Act sono deliberatamente astratti, il che rende difficile per le organizzazioni implementarli direttamente. Gli standard tecnici sono vitali per l’operazionalizzazione di questi requisiti legali, trasformandoli in linee guida più prescrittive e attuabili.

Standard Armonizzati e Presunzione di Conformità

Gli standard armonizzati, sviluppati da organizzazioni europee di standardizzazione come CEN, CENELEC ed ETSI su richiesta della Commissione Europea, rappresentano un quadro critico per la conformità all’AI Act. Questi standard, dopo la pubblicazione nella Gazzetta Ufficiale dell’Unione Europea (GUUE), forniscono una “presunzione di conformità” per i sistemi di IA ad alto rischio che li soddisfano. Ciò semplifica la conformità, offre certezza giuridica e, idealmente, riduce l’onere amministrativo per i fornitori di IA.

Impatto sull’Accesso al Mercato e sulla Concorrenza

Standard tecnici progettati e implementati correttamente possono aiutare a:

  • Stabilire condizioni di parità per la progettazione e lo sviluppo di sistemi di IA.
  • Ridurre i costi di attuazione della normativa.
  • Razionalizzare i processi ed eliminare potenzialmente la necessità di soluzioni di R&S personalizzate.
  • Rendere più efficienti lo sviluppo del prodotto e le operazioni.

Tuttavia, l’ascesa degli standard per l’IA rimodella anche la concorrenza globale nel settore dell’IA e potrebbe aumentare le barriere all’ingresso nel mercato, in particolare per le startup e le piccole e medie imprese (PMI).

Sfide e Preoccupazioni

Sebbene gli standard tecnici siano progettati per facilitare la conformità all’AI Act, è necessario affrontare diverse sfide:

  • Pressione Temporale: L’attuale cronologia per lo sviluppo e l’implementazione degli standard potrebbe essere troppo ambiziosa, lasciando ai fornitori un tempo insufficiente per adeguarsi.
  • Rappresentanza degli Stakeholder: Le grandi imprese, comprese le aziende tecnologiche e di consulenza statunitensi, spesso dominano i comitati di standardizzazione, con conseguente sottorappresentazione delle PMI, delle startup e della società civile.
  • Accessibilità e Costo: Il costo per identificare gli standard tecnici applicabili e accedervi potrebbe mettere in svantaggio le aziende più piccole. Un caso pendente presso la Corte di Giustizia Europea potrebbe cambiare la questione se gli standard armonizzati debbano essere liberamente accessibili.
  • Operazionalizzazione: Gli standard tecnici devono essere ulteriormente operazionalizzati per semplificare la conformità e garantire che le organizzazioni possano applicare in modo efficiente gli standard ai loro specifici casi d’uso.

Qual è lo stato attuale del processo di standardizzazione dell’AI Act?

La richiesta di standardizzazione della Commissione Europea per l’AI Act ha delineato dieci risultati essenziali che affrontano i requisiti normativi chiave. Questi risultati sono la base per il lavoro di standardizzazione al CEN-CENELEC JTC 21, con la maggior parte degli elementi di lavoro in corso focalizzati sull’adempimento di questo mandato. Ove possibile, gli elementi di lavoro si basano o sono co-sviluppati con gli standard ISO/IEC (circa 2/3 degli elementi di lavoro).

Aree chiave di standardizzazione

Il lavoro di standardizzazione si basa su circa 35 standard, con la maggior parte che affronta i singoli risultati richiesti dalla standardizzazione. Altri risultati, come il Framework di Affidabilità dell’Intelligenza Artificiale e gli standard di supporto sulla terminologia, toccano più risultati richiesti dalla standardizzazione. Questi standard formeranno un framework integrato attraverso varie interrelazioni, come l’integrazione gerarchica o le dipendenze operative.

Ecco un’analisi dello stato del lavoro di standardizzazione in bozza, come si presentava alla fine del 2024:

  • Gestione del rischio: ISO/IEC 23894 già pubblicata, ma è in fase di sviluppo uno standard europeo “fatto in casa” sulla gestione del rischio AI (WI: JT021024), con una data di votazione prevista per il 30 settembre 2026. Questo standard europeo affronterà le carenze dell’altro, soprattutto per quanto riguarda la conformità all’AI Act.
  • Governance e qualità dei dataset: Sono in corso sei elementi di lavoro, che includono sia standard ISO/IEC che standard europei. Gli standard ancora in fase di redazione/approvazione si concentreranno su misure quantificabili della qualità dei dati e sulle proprietà statistiche durante tutto il ciclo di vita del sistema di IA.
  • Conservazione dei registri: Sono in esecuzione due elementi di lavoro: ISO/IEC 24970 sulla registrazione del sistema AI e il Framework europeo di affidabilità dell’Intelligenza Artificiale (WI: JT021008).
  • Trasparenza e informazione agli utenti: Sono pianificati due elementi di lavoro del CEN-CENELEC JTC 21. ISO/IEC 12792 già in fase di consultazione.
  • Supervisione umana: Affrontato solo dal Framework di affidabilità dell’Intelligenza Artificiale (WI: JT021008).
  • Specifiche di accuratezza per i sistemi di IA: Sono in corso sette elementi di lavoro, che includono sia standard ISO/IEC che standard “fatti in casa”, che stabiliranno requisiti al di là delle metriche di performance di base.
  • Specifiche di robustezza per i sistemi di IA: Il CEN-CENELEC JTC 21 ha assegnato quattro elementi di lavoro agli standard AI e europei.
  • Specifiche di cybersecurity per i sistemi di IA: Con (almeno) due standard “fatti in casa” pianificati.
  • Sistema di gestione della qualità: Fa riferimento ai requisiti dell’Art. 17 AI Act (Sistema di gestione della qualità) e si prevede che sarà completato con 2 standard.
  • Valutazione della conformità per i sistemi di IA: Con un rilascio previsto di 5 standard o documenti, questo risultato completa il lavoro esistente con le specifiche richieste dall’EU AI Act.

Tuttavia, vale la pena notare che alcuni elementi di lavoro avevano date di votazione previste a metà del 2026, superando di oltre un anno la scadenza originale della richiesta di standardizzazione.

Sfide e critiche

La Commissione Europea ha già espresso critiche riguardo al lavoro di standardizzazione del CEN-CENELEC, in particolare per quanto riguarda la portata e il numero di standard a cui si fa riferimento. Lo stato dei lavori sottolinea la natura ambiziosa del processo di standardizzazione dell’AI Act e le sfide nel rispettare le tempistiche previste. Valutazioni più recenti sono previste nell’estate e nell’autunno del 2025.

Qual è l’intento principale degli standard che riguardano la gestione del rischio?

Mentre l’AI Act dell’UE si prepara all’entrata in vigore, i fornitori di IA si confrontano con i suoi requisiti di gestione del rischio. Gli standard armonizzati sono al centro di questa regolamentazione, offrendo un percorso per stabilire la conformità e ridurre le incertezze legali. Ma qual è l’intento principale di questi standard, in particolare quando si gestisce il rischio?

Conformità all’AI Act

L’intento è tradurre gli ampi requisiti giuridicamente vincolanti dell’AI Act in procedure attuabili e tecnicamente definite. Questi standard mirano a:

  • Garantire la Protezione dei Diritti Individuali: Enfatizzare la protezione dei diritti individuali attraverso un approccio incentrato sul prodotto, in linea con l’attenzione dell’AI Act sulla salvaguardia della salute, della sicurezza e dei diritti fondamentali.
  • Fornire un Quadro Chiaro: Offrire specifiche per un sistema di gestione del rischio su misura per i sistemi di IA.
  • Rendere Obbligatorio il Collaudo: Rendere obbligatorio il collaudo dei sistemi di IA come indicato negli articoli 9(6) e 9(8) dell’AI Act.

Lo sforzo coinvolge due standard chiave:

  • ISO/IEC 23894: Questo standard fornisce indicazioni generali sulla gestione del rischio per quanto riguarda l’IA, ma è limitato dalla sua visione incentrata sull’organizzazione e da una definizione di rischio non allineata con l’Articolo 3 dell’AI Act.
  • AI Risk Management (WI: JT021024): Questo è uno standard “fatto in casa” attualmente in fase di sviluppo per affrontare specificamente le carenze degli standard esistenti, fornendo un approccio incentrato sul prodotto e allineato con l’AI Act. Il completamento è previsto entro settembre 2026.

Le organizzazioni che mirano a conformarsi all’AI Act devono comprendere le sfumature di questi standard, assicurando che le loro pratiche di gestione del rischio riflettano l’enfasi dell’Act sui diritti individuali e sulla sicurezza.

Qual è lo scopo della standardizzazione in materia di governance e qualità dei dati?

La standardizzazione svolge un ruolo cruciale nel garantire una governance solida e dati di alta qualità all’interno dei sistemi di IA. Gli standard tecnici offrono un percorso chiaro e accessibile per soddisfare le richieste normative e mitigare le ambiguità legali, rafforzando la competitività e promuovendo la crescita all’interno del mercato interno.

L’AI Act dell’UE enfatizza la validazione statistica e la prevenzione dei bias quando si tratta di governare i dati e garantirne la qualità. I requisiti sono dettagliati nell’Art. 10 dell’AI Act (Dati e Governance dei dati) e affrontano la gestione dei bias indesiderati e garantiscono la qualità dei dati.

CEN-CENELEC JTC 21, in collaborazione con ISO/IEC, definisce il percorso per affrontare la governance dei dati con l’IA:

  • ISO/IEC/TS 12791 fornisce supporto tecnologico per trattare i bias indesiderati per attività di machine learning di classificazione e regressione.
  • ISO/IEC 8183 pone le basi per l’AI Data Life Cycle Framework.
  • ISO/IEC 5259-1 – 5259-4 fornisce una guida sulla qualità dei dati per l’analisi e il machine learning (ML).

Il percorso continua con standard “fatti in casa”:

  • IA – Concetti, misure e requisiti per la gestione dei bias nei sistemi di IA (WI: JT021036)
  • IA – Qualità e governance dei dataset nell’IA (WI: JT021037)
  • CEN/CLC/TR 18115 Governance dei dati e qualità per l’IA nel contesto europeo.

Inoltre, gli standard ancora in fase di elaborazione/approvazione si concentreranno su misure quantificabili della qualità dei dati e proprietà statistiche durante l’intero ciclo di vita del sistema di IA. Particolarmente significativo è il requisito dell’Art. 10 dell’AI Act per la validazione empirica delle tecniche di mitigazione dei bias e la capacità di dimostrare l’efficacia delle misure di garanzia della qualità.

Questa enfasi sui risultati misurabili rappresenta un passaggio metodologico dalla standardizzazione descrittiva a quella prescrittiva, che richiede alle organizzazioni di implementare controlli verificabili per la rappresentatività, la correttezza e la completezza dei dati.

Come affrontano gli standard i requisiti per la tenuta dei registri?

L’AI Act europeo impone la tenuta dei registri per i sistemi di IA ad alto rischio, concentrandosi in particolare sulla tracciabilità e sull’acquisizione di eventi che potrebbero avere un impatto sulle prestazioni del sistema o comportare rischi.

Il panorama degli standard sta affrontando questo requisito attraverso due voci di lavoro principali:

  • ISO/IEC 24970 – AI System Logging: questo standard, attualmente in fase di sviluppo in collaborazione con ISO/IEC, si concentra sulla definizione dei requisiti per i piani di registrazione. Questi piani devono trovare un equilibrio tra l’acquisizione completa degli eventi e l’efficienza operativa, tenendo conto delle diverse architetture di sistema e delle esigenze di prestazione. Ad esempio, i sistemi di trading ad alta frequenza, in cui la registrazione delle transazioni a livello di millisecondi è fondamentale, avranno requisiti diversi rispetto alle applicazioni meno sensibili al fattore tempo.
  • Artificial Intelligence Trustworthiness Framework (WI: JT021008): questo framework fornisce una struttura generale che integra lo standard ISO/IEC.

Lo standard ISO/IEC fornirà specifiche più granulari, sottolineando la necessità di definire requisiti che consentano di soddisfare le esigenze specifiche del sistema. Questo è fondamentale per garantire capacità di verifica coerenti tra diverse applicazioni di IA.

Ecco i punti dati critici per gli standard di tenuta dei registri:

  • Obiettivo: Tracciabilità delle operazioni/prestazioni del sistema di IA.
  • Stato: Standard ISO/IEC in fase di stesura.
  • Equilibrio: Tra acquisizione di eventi ed efficienza operativa.
  • Flessibilità: Adattamento alle esigenze specifiche del settore per garantire capacità di verifica affidabili.

Quali sono le principali caratteristiche degli standard relativi alla trasparenza per gli utenti dei sistemi di IA?

Sono in fase di sviluppo standard tecnici per supportare i requisiti dell’articolo 13 dell’AI Act dell’UE, che si concentra sulla trasparenza e sulla fornitura di informazioni agli utenti. Gli sforzi di standardizzazione sono intesi a risolvere il problema della “scatola nera”, dove i processi decisionali interni dei sistemi di IA sono opachi.

Standard Chiave in Sviluppo

  • ISO/IEC 12792 (Tassonomia della trasparenza dei sistemi di IA): Questo standard stabilisce i requisiti per gli artefatti di trasparenza per garantire che le informazioni correlate siano complete, significative, accessibili e comprensibili per il pubblico di destinazione.
  • Artificial Intelligence Trustworthiness Framework (WI: JT021008): Questo framework fornisce un quadro generale per i requisiti di affidabilità e trasparenza.

Per ISO/IEC 12792, viene prestata particolare attenzione ai requisiti normativi europei. Questi standard mirano a rendere comprensibili agli utenti i risultati dei sistemi di IA specificando quali informazioni devono essere rivelate e quanto dovrebbero essere accessibili.

Qual è il ruolo degli standard nel garantire la supervisione umana dei sistemi di IA?

Gli standard svolgono un ruolo fondamentale nello specificare i requisiti dell’Articolo 14 dell’EU AI Act, che si concentra sulla supervisione umana dei sistemi di IA. Questi standard sono principalmente affrontati dal quadro di riferimento sulla affidabilità dell’Intelligenza Artificiale (Work Item: JT021008) in fase di sviluppo da parte di CEN-CENELEC JTC 21.

Ecco una suddivisione degli aspetti chiave:

L’obiettivo generale è garantire un efficace controllo umano sui sistemi di IA in diversi contesti operativi:

  • Nel settore manifatturiero, gli standard devono consentire l’intervento umano senza sacrificare l’efficienza della produzione.
  • Nel settore finanziario, i meccanismi di supervisione sono fondamentali per i sistemi algoritmici che operano a velocità superiori ai tempi di reazione umani. Ciò comporta l’impostazione di interfacce di monitoraggio e meccanismi di controllo, nonché misure organizzative come i protocolli di formazione.

Più specificamente, questi standard devono stabilire criteri chiari per la selezione di misure di supervisione appropriate che siano allineate all’uso previsto di un sistema di IA e ai rischi identificati.

Le considerazioni chiave includono:

  • Misure tecniche: interfacce di monitoraggio e meccanismi di controllo.
  • Misure organizzative: protocolli di formazione.
  • Procedure di verifica: garantire che i meccanismi di supervisione umana siano efficaci.

Gli standard devono anche definire risultati verificabili in merito alla supervisione del sistema. Le persone fisiche dovrebbero essere in grado di mantenere efficacemente il controllo operativo e intervenire quando necessario, anche con sistemi di IA sempre più complessi e veloci.

In breve, gli standard mirano a fornire un quadro di riferimento per garantire che gli esseri umani mantengano un controllo significativo e capacità di intervento sui sistemi di IA, indipendentemente dalla loro applicazione o complessità.

Qual è il focus delle specifiche di accuratezza nei sistemi di IA?

Le specifiche di accuratezza all’interno dei sistemi di IA, come stabilito dagli articoli 15(1) e (3) dell’AI Act UE, non riguardano solo il raggiungimento di parametri di performance. Il focus è garantire che tali misurazioni siano dimostrabilmente appropriate ed efficaci nell’affrontare gli obiettivi normativi dell’Atto.

Ecco cosa significa in termini pratici:

Definizione di metriche e soglie appropriate

Le aziende possono aspettarsi che gli standard offrano istruzioni precise sulla selezione delle metriche di accuratezza e sull’impostazione di soglie chiare. Sono previsti protocolli di test rigorosi e pratiche di documentazione dettagliate.

Benchmarking per uso generale

Gli standard emergenti specificano processi e framework di valutazione per la valutazione dei modelli di IA rispetto a compiti standardizzati, in particolare in aree come il benchmarking generale, che può avere un impatto significativo sull’applicabilità pratica e ridurre le incertezze normative.

Metriche e mitigazione del rischio

La chiave, man mano che questi standard prendono forma, sarà collegare in modo dimostrabile le metriche di accuratezza alle strategie di mitigazione del rischio. Ciò implica la selezione, la misurazione e la convalida delle metriche in base all’uso previsto del sistema di IA e ai rischi identificati.

Attualmente, il CEN-CENELEC JTC 21, il comitato congiunto che lavora agli standard sull’IA, ha assegnato sette elementi di lavoro a questo risultato. Questi includono diversi standard che vengono co-sviluppati con ISO/IEC, così come diversi standard “fatti in casa”. Si prevede che questi standard saranno finalizzati alla fine del 2025 o all’inizio del 2026.

Quali sono i principali obiettivi delle specifiche di robustezza per i sistemi di IA?

Le specifiche di robustezza per i sistemi di IA sono un punto chiave del Regolamento UE sull’IA, con l’obiettivo di garantire che questi sistemi siano resistenti a vari tipi di rischi e vulnerabilità. L’articolo 15(1) e (4) del Regolamento sull’IA stabilisce i requisiti che gli sforzi di standardizzazione devono affrontare per migliorare la resilienza dell’IA.

Il CEN-CENELEC JTC 21, incaricato di sviluppare standard armonizzati, ha assegnato quattro elementi di lavoro per affrontare queste specifiche di robustezza:

  • Standard internazionali:
    • ISO/IEC 24029-2, -3, -5 – AI – Assessment of the Robustness of Neural Networks (parzialmente preliminare senza una data di votazione prevista)
    • ISO/IEC/TR 24029-1 – AI – Assessment of the Robustness of Neural Networks (Pubblicato)
  • Standard “fatti in casa”:
    • AI – Concepts, Measures and Requirements for Managing Bias in AI Systems (WI: JT021036) (in fase di redazione; votazione prevista: 3 giugno 2024)
    • Artificial Intelligence Trustworthiness Framework (WI: JT021008)

Per allinearsi pienamente alle richieste normative, è necessario fornire linee guida a complemento della serie ISO/IEC 24029. L’obiettivo è quello di definire metriche pratiche, soglie e metodi adattati a casi d’uso specifici. Pertanto, gli standard aggiuntivi stanno estendendo le considerazioni sulla robustezza oltre i test e la misurazione, includendo principi di design, in particolare per i sistemi che si evolvono dopo l’implementazione.

Ecco le intuizioni fondamentali alla base di queste specifiche:

  • Oltre i test: gli standard devono evolvere oltre la semplice fase di test e misurazione per incorporare le considerazioni sulla robustezza direttamente nei principi di progettazione.
  • Principi di progettazione e sistemi in evoluzione: gli standard dovrebbero tenere conto dei sistemi che continuano a evolversi dopo l’implementazione.
  • Metriche e soglie pratiche: è importante definire metriche pratiche, soglie e metodi adattati a casi d’uso specifici.

Qual è lo scopo delle specifiche di sicurezza informatica per i sistemi di IA?

I sistemi di IA, specialmente quelli classificati come ad alto rischio dall’AI Act dell’UE, sono sempre più vulnerabili a sofisticati attacchi informatici che possono compromettere la loro integrità, affidabilità e sicurezza. Riconoscendo questa crescente minaccia, l’AI Act dell’UE impone specifiche di sicurezza informatica per proteggere questi sistemi da interferenze dannose.

Lo scopo di queste specifiche, secondo i continui sforzi di standardizzazione, è multiforme:

Obiettivi Chiave

  • Definizione dei requisiti di sicurezza: Stabilire standard chiari e oggettivi per implementare una solida valutazione del rischio di sicurezza e un piano di mitigazione specificamente personalizzato per i sistemi di IA ad alto rischio.
  • Affrontare le vulnerabilità specifiche dell’IA: Gli standard mirano a catturare proattivamente aspetti relativi a minacce specifiche dell’IA come l’avvelenamento dei dati, l’avvelenamento dei modelli, l’elusione dei modelli e gli attacchi alla riservatezza – aree spesso trascurate dai tradizionali framework di sicurezza informatica.
  • Definizione di approcci tecnici e organizzativi: Le specifiche comprenderanno sia misure tecniche che procedure organizzative necessarie per stabilire una resiliente postura di sicurezza per i sistemi di IA.
  • Definizione di metodi di verifica: Definire specifici obiettivi di sicurezza da raggiungere e verificare attraverso test è cruciale, specialmente a livello di sistema, quando le misure di mitigazione per le vulnerabilità a livello di componente potrebbero non essere pienamente efficaci.

Man mano che il panorama della standardizzazione si evolve, il lavoro in corso sta iniziando ad affrontare le minacce specifiche dell’IA, principalmente sotto forma di guida. Tuttavia, poiché nuove minacce e contromisure emergono costantemente, un obiettivo chiave della nuova standardizzazione sulla sicurezza informatica dell’IA sarà definire i requisiti essenziali per l’implementazione di una valutazione del rischio di sicurezza e di un piano di mitigazione per i sistemi di IA ad alto rischio.

Rispettare queste specifiche di sicurezza informatica non significa semplicemente spuntare una casella; si tratta di costruire fiducia e garantire una diffusione responsabile dei sistemi di IA che possono avere un profondo impatto sugli individui e sulla società. Le aziende che non soddisfano questi requisiti rischiano multe significative (fino a 35 milioni di euro o il 7% del fatturato globale) e l’accesso limitato al mercato dell’UE.

Qual è l’intento principale degli standard dei sistemi di gestione della qualità?

Gli standard dei sistemi di gestione della qualità, in particolare nel contesto dell’AI Act dell’UE, mirano a garantire che i fornitori di sistemi di IA aderiscano a specifici benchmark di qualità. Questi standard non riguardano solo la qualità generale; sono specificamente progettati per affrontare i rischi associati all’IA, garantendo che i sistemi ad alto rischio siano affidabili, robusti e sicuri per gli utenti.

Ecco a cosa si riduce l’intento:

  • Conformità normativa: Gli standard sono progettati per rendere operativi i requisiti legali ad alto rischio dell’AI Act. Soddisfare questi standard offre una presunzione di conformità, semplificando la conformità e idealmente riducendo l’onere amministrativo per i fornitori di IA.

  • Mitigazione del rischio: Gli standard enfatizzano un approccio centrato sul prodotto alla gestione del rischio con l’obiettivo di promuovere la protezione dei diritti individuali.

  • Accesso al mercato: La conformità semplifica il processo di marcatura CE (conformité européenne), facilitando l’accesso al mercato europeo.

  • Creare condizioni di parità: Gli standard supportano la creazione di pari condizioni di concorrenza e condizioni di parità per la progettazione tecnica e lo sviluppo di sistemi di IA.

Lo standard più rilevante in questo settore è ISO/IEC 42001, completato da uno standard “fatto in casa”, AI – Sistema di gestione della qualità per scopi normativi. Quest’ultimo standard si basa su molteplici standard ISO/IEC e si concentra sulla conformità normativa e sui rischi specifici affrontati dall’AI Act da un punto di vista centrato sul prodotto.

In che modo gli standard di valutazione della conformità supportano l’AI Act?

Gli standard di valutazione della conformità sono fondamentali per orientarsi tra i complessi requisiti dell’AI Act. Questi standard, principalmente in fase di sviluppo da parte del CEN-CENELEC JTC 21, mirano a specificare come i sistemi di IA possono essere valutati per garantire che soddisfino gli obblighi dell’Act. Ciò include la definizione dei requisiti per gli enti che eseguono audit e certificazioni dei sistemi di gestione dell’IA.

Il ruolo di ISO/IEC 42006 e 29119-11

Gli attuali ISO/IEC 42006 (Requisiti per gli enti che eseguono audit e certificazione dei sistemi di gestione dell’IA) e ISO/IEC 29119-11 (Testing dei sistemi di IA) servono come punto di partenza. Tuttavia, sono necessari nuovi standard per affrontare le vulnerabilità specifiche dell’IA e la valutazione della conformità.

Aree con standard in fase di sviluppo

I principali sforzi in corso includono:

  • Requisiti di competenza: Sviluppo di standard per i requisiti di competenza degli auditor e dei professionisti dei sistemi di IA.
  • Quadro di riferimento per la valutazione della conformità dell’IA: Creazione di un quadro di riferimento specifico per la valutazione della conformità dell’IA. (Work Item: JT021038)
  • Affrontare le vulnerabilità specifiche dell’IA: Valutazione delle soluzioni tecniche per affrontare le vulnerabilità specifiche dell’IA.

L’importanza degli standard armonizzati

Una volta che questi standard sono armonizzati (pubblicati nella Gazzetta Ufficiale dell’Unione Europea), creano una “presunzione di conformità”. Ciò significa che i sistemi di IA che aderiscono a questi standard si presumono automaticamente conformi ai requisiti pertinenti dell’AI Act, semplificando la conformità e riducendo l’onere amministrativo per i fornitori di IA.

Sfide nell’implementazione e nella valutazione degli standard

Tuttavia, rimangono diverse sfide:

  • Allineamento: Questi standard sfruttano il lavoro esistente, come la cassetta degli attrezzi ISO CASCO, che fornisce una base per principi e linee guida generiche sulla valutazione della conformità. Tuttavia, dovranno anche definire come questi quadri di valutazione della conformità debbano essere adattati e applicati specificamente alle caratteristiche uniche dei sistemi di IA ad alto rischio.
  • Ritardo nell’implementazione: Una delle principali preoccupazioni è il breve lasso di tempo che le aziende avranno per implementare questi standard dopo che saranno finalizzati e pubblicati (probabilmente all’inizio del 2026). Ciò potrebbe lasciare appena 6-8 mesi prima che i requisiti ad alto rischio dell’AI Act diventino applicabili.
  • Coordinamento: È necessario uno stretto coordinamento tra i lavori di normazione paralleli per garantire che gli standard risultanti siano complementari e adatti allo scopo nel supportare l’implementazione del quadro normativo.

In definitiva, il successo dell’AI Act dipende dallo sviluppo e dall’efficace implementazione di questi standard di valutazione della conformità. Le parti interessate devono impegnarsi attivamente per garantire che gli standard siano pratici, completi e allineati con gli obiettivi normativi.

Quali sono le sfide comuni di implementazione intersettoriale degli standard di IA?

In vari settori industriali, la conformità agli standard di IA emergenti presenta diverse difficoltà condivise. Le startup di IA in fase di crescita in settori ad alto rischio hanno già iniziato ad allinearsi agli standard previsti, mentre le imprese più giovani sono in difficoltà a causa di tempistiche poco chiare e della mancanza di indicazioni specifiche.

Un ostacolo primario è l’ambiguità interpretativa in questi standard. Definire la conformità può essere nebuloso, specialmente quando i sistemi integrano vari componenti o si basano su modelli di terze parti. Le divergenti leggi sul segreto tra gli Stati membri dell’UE aggiungono un ulteriore livello di complessità, creando conflitti operativi per settori come il legal tech. Inoltre, anche i veterani di settori altamente regolamentati come quello sanitario faticano a conciliare i requisiti dell’AI Act con le normative esistenti, in particolare quando si combinano tecniche di IA come l’elaborazione di immagini e l’analisi del linguaggio.

Nonostante le aspettative che gli standard tecnici stessi saranno gratuiti, i fornitori di IA sono preoccupati per i sostanziali costi indiretti. La conformità potrebbe richiedere investimenti annuali di circa €100.000-€300.000 annui, oltre al tempo dedicato da figure chiave del management. Anche i fornitori non considerati “ad alto rischio” potrebbero sentirsi spinti a conformarsi volontariamente per limitare la propria responsabilità, incorrendo potenzialmente in spese eccessive.

L’analisi dei fornitori di IA intervistati dipinge un quadro sfumato di come l’AI Act impatta sull’innovazione, distinguendo tra aziende consolidate ed emergenti. La tendenza mostra che per le aziende in settori dove esiste già una regolamentazione, come quello sanitario, l’adattamento è facilitato dalla loro precedente esperienza con accordi simili. Mentre, per quelle senza precedente esperienza di regolamentazione, l’implementazione della conformità è molto più difficile.

Per quanto riguarda l’integrazione dei quadri giuridici. Molti riferiscono che le discrepanze tra i quadri normativi nell’UE ritardano già l’ingresso nel mercato UE, rendendo gli Stati Uniti un’opzione più ragionevole per iniziare. Crea anche problemi per i quadri normativi già consolidati come il GDPR, ed è ulteriormente problematizzato da leggi contrastanti a livello nazionale e locale che variano nei diversi Stati membri.

La maggior parte delle aziende ritiene che l’agosto 2026 sia impraticabile. Ciò è enfatizzato stimando che ci vorrà un anno per soddisfare un solo standard tecnico (ad esempio ISO/IEC 27001), anche con il supporto di esperti. Un’opzione migliore sarebbe un’introduzione graduale, specialmente per le PMI, per consentire periodi di adattamento più pratici.

Partecipazione Asimmetrica al Processo di Definizione degli Standard

La partecipazione alle riunioni del JTC 21, ai gruppi di lavoro e ai comitati specchio degli Stati membri è sembrata molto scarsa rispetto alla quantità di fornitori. La maggior parte dei fornitori di piccole e medie dimensioni ha ammesso di essere “raramente” o “irregolarmente” coinvolta in attività volte alla standardizzazione a causa della minima conoscenza e delle risorse. La standardizzazione favorisce le grandi aziende e lo squilibrio sta creando un ambiente sproporzionato per le aziende più piccole, affermano diversi fornitori.

In che modo la complessità della conformità all’IA influisce sul mercato?

La complessità della conformità all’IA, in particolare ai sensi dell’EU AI Act, è destinata a rimodellare significativamente il panorama del mercato. Le sfide emergenti, derivanti da ambiguità nei confini della conformità, requisiti di segretezza divergenti e regole di classificazione complesse, richiedono una comprensione più granulare di come questi fattori influenzino i diversi attori.

Principali Sfide di Conformità

Ecco un’analisi delle principali sfide di conformità identificate dai fornitori di IA:

  • Ambiguità Interpretative: Definire i confini della conformità è complesso, soprattutto quando i sistemi di IA integrano più componenti o modelli di terze parti.
  • Divergenze Settoriali: I requisiti di segretezza divergenti tra gli Stati membri dell’UE creano conflitti operativi. Conciliare le leggi sul segreto professionale con i requisiti normativi di registrazione sta risultando difficile.
  • Incertezza di Classificazione: Incertezza su come la classificazione del rischio si applichi in diversi casi, evidenziando le preoccupazioni relative alle tecnologie a duplice uso.
  • Complessità di Integrazione: Allineare i requisiti dell’AI Act con le normative esistenti può essere difficile quando i sistemi combinano più modalità di IA, come l’elaborazione di immagini e i modelli linguistici.
  • Incertezza di Applicazione: L’ambiguità relativa alle prove specifiche richieste per dimostrare la conformità, in particolare per quanto riguarda i test di bias e la robustezza del modello, sta causando inquietudine.

Impatto sulle Aziende

I dati delle interviste suggeriscono una prospettiva preoccupante su come l’AI Act stia influenzando l’innovazione, evidenziando in particolare una divisione tra aziende consolidate ed emergenti.

  • Oneri di Costo: Si prevedono costi sostanziali relativi ai requisiti dell’AI Act, che portano le aziende a preoccuparsi dei costi indiretti.
  • Requisiti di Personale: I flussi di lavoro di conformità all’AI Act possono richiedere la dedica di risorse di personale molto significative. Ciò si traduce in costi operativi continui al di là degli investimenti iniziali in conformità.
  • Barriere all’Innovazione: Le PMI temono che i requisiti di conformità influiscano in modo sproporzionato sulle loro capacità di scalabilità.
  • Pressioni Competitive: Gli oneri normativi dell’UE potrebbero far perdere terreno a giurisdizioni come gli Stati Uniti, dove oneri normativi inferiori consentono cicli di innovazione più rapidi e una maggiore flessibilità.

D’altra parte, i fornitori di tecnologia sanitaria e legale sembrano meglio posizionati per adattarsi grazie alla loro esperienza con i quadri normativi esistenti, quindi vedono la regolamentazione come potenzialmente vantaggiosa per la fiducia del mercato.

Vale anche la pena notare che la frammentazione tra le giurisdizioni porta a ritardi negli ingressi sul mercato dell’UE.

Impatto sulla Standardizzazione

Esiste un modello di partecipazione asimmetrica al processo di sviluppo degli standard. Il processo di standardizzazione potrebbe favorire le corporations più grandi.

Nel complesso, questi fattori hanno il potenziale per rendere la standardizzazione molto difficile per l’attore medio.

Quali risorse sono necessarie per raggiungere la conformità all’IA?

Raggiungere la conformità all’IA, in particolare ai sensi dell’AI Act dell’UE, richiede un approccio multiforme che coinvolge risorse significative e pianificazione strategica. La sfida non riguarda semplicemente la comprensione della regolamentazione; si tratta di rendere operative le esigenze astratte in pratiche tangibili.

Personale e competenza

Un’area chiave è l’allocazione di personale qualificato. I responsabili della conformità sono fondamentali, ma sempre più spesso le organizzazioni richiedono competenze legali-tecnologiche specifiche per l’IA e una profonda comprensione del comportamento dei modelli di IA. Il personale tecnico deve adattare gli strumenti di gestione del rischio dell’IA, i sistemi di qualità e un solido monitoraggio post-commercializzazione. Le organizzazioni intervistate riferiscono di aver allocato personale specificamente per la conformità all’AI Act. Il livello di competenza interna o le risorse utilizzate per acquisire supporto esterno devono essere presi in considerazione nel costo delle risorse.

Il costo della competenza è ulteriormente aggravato dall’attuale stato di standardizzazione dell’IA. Ciò è evidente quando le organizzazioni si confrontano con la definizione dei confini della conformità se integrano più componenti o si affidano a modelli di terze parti.

Considerazioni finanziarie

L’implementazione e la manutenzione di sistemi di IA conformi all’AI Act creeranno un onere finanziario per le organizzazioni. I costi includono il personale dedicato alla conformità, il tempo dei dirigenti dedicato alle questioni di conformità e i costi di certificazione. Le startup e le PMI con meno di 20 dipendenti saranno drasticamente colpite dalle allocazioni dei costi, con stime di €100.000 all’anno da dedicare al mantenimento della conformità. Con questi costi generali, i fornitori di IA prevedono costi annuali di conformità di ca. €100.000 per il personale dedicato alla conformità e il 10-20% del tempo del fondatore/management dedicato a questioni standard.

Anche le aziende preparate per l’implementazione e il mantenimento dei costi, come le aziende di tecnologia medica, stimano che i costi di certificazione potrebbero superare i €200.000, e le aziende di tecnologia legale riferiscono un costo annuale stimato tra €200.000 e €300.000.

Gestire l’ambiguità e l’incertezza

Una risorsa chiave finale è la capacità di investire in supporto normativo e legale per gestire in modo proattivo l’ambiguità. Con interpretazioni divergenti del segreto professionale rispetto ai requisiti di registrazione tra le leggi nazionali e dell’UE, queste sono tutte aree da considerare nella pianificazione.

Le aziende dovrebbero anche aspettarsi costi nello sviluppo e nell’implementazione di protocolli di verifica chiari per dimostrare la conformità. Per dimostrare la conformità, le prove devono mostrare il lavoro relativo ai test di bias e alla robustezza del modello.

Qual è l’impatto dell’AI Act sulla reputazione del mercato e sull’innovazione?

L’impatto dell’AI Act sulla reputazione del mercato e sull’innovazione è una questione complessa, in particolare per le piccole e medie imprese (PMI). Mentre le aziende consolidate in settori come la sanità e la tecnologia legale considerano la regolamentazione come un potenziale stimolo alla fiducia del mercato, le aziende emergenti nel campo dell’IA esprimono preoccupazioni sulle barriere all’innovazione legate a questi nuovi standard.

Barriere all’innovazione per le PMI

  • Capacità di scalabilità: La maggior parte delle PMI classificate come ad alto rischio ai sensi dell’AI Act teme che la conformità influisca in modo sproporzionato sulla loro capacità di scalare.
  • Incertezza nella classificazione del rischio: Le aziende affrontano incertezze sulla classificazione del rischio durante il passaggio dal supporto alla progettazione ai sistemi operativi.
  • Svantaggio competitivo: C’è preoccupazione di perdere terreno rispetto a giurisdizioni più flessibili come gli Stati Uniti, dove minori oneri normativi consentono cicli di innovazione più rapidi.

Fiducia del mercato e preparazione del settore

Le aziende in settori già regolamentati, come la sanità, sembrano più preparate ad adattarsi grazie alla loro esperienza con i quadri normativi esistenti come il Regolamento sui dispositivi medici (MDR). Al contrario, le aziende in settori precedentemente non regolamentati affrontano sfide di adattamento più complesse, lottando per interpretare e implementare gli standard di IA senza una precedente esperienza normativa.

Limitazioni alla sperimentazione

Le aziende in fase iniziale sono particolarmente frustrate da condizioni non trasparenti e burocratiche che limitano la sperimentazione.

Partecipazione asimmetrica alla definizione degli standard

I dati delle interviste rivelano un modello di partecipazione limitata al processo di sviluppo degli standard di JTC 21, dei suoi gruppi di lavoro e dei comitati speculari negli stati membri. Tra i fornitori intervistati, solo una piccola parte riferisce un impegno attivo negli sforzi di standardizzazione dell’IA o nelle consultazioni formali, con livelli di partecipazione notevolmente bassi tra le aziende più piccole.

  • Vincoli di risorse: La maggior parte dei piccoli e medi fornitori riconosce di essere coinvolta “raramente” o “irregolarmente” nelle attività di standardizzazione, citando i vincoli di risorse e le lacune di conoscenza come barriere principali.
  • Favoritismo dei grandi attori: Diversi intervistati caratterizzano il processo di standardizzazione come favorevole alle grandi aziende, descrivendo le discussioni come “unilaterali”. Molti fornitori esprimono preoccupazione per il fatto che questo squilibrio possa portare a standard che creano barriere sproporzionate per i partecipanti al mercato più piccoli.
  • Mancanza di meccanismi di supporto: Mentre alcune aziende indicano interesse per la partecipazione futura, sottolineano la necessità di meccanismi di supporto strutturati.

In che modo la partecipazione alla definizione degli standard influenza la concorrenza?

La partecipazione alla definizione degli standard può essere un’arma a doppio taglio per le aziende di IA, influenzando profondamente il panorama competitivo, secondo un recente rapporto. Pur essendo apparentemente tecnici, questi standard hanno implicazioni di vasta portata, soprattutto per le startup e le PMI che si destreggiano nell’AI Act dell’UE.

Vantaggi strategici della partecipazione

Il coinvolgimento attivo nella standardizzazione offre chiari vantaggi strategici:

  • Trasferimento di conoscenze: Far parte del processo di sviluppo degli standard consente alle imprese di comprendere intimamente le sfumature tecniche della conformità.
  • Costruzione di relazioni: La partecipazione favorisce relazioni cruciali, che vanno oltre il semplice lobbying, e facilita una conformità tecnica più agevole in futuro.

Tuttavia, il campo di gioco non è livellato.

L’asimmetria dell’influenza

I comitati di standardizzazione sono spesso dominati da grandi imprese, tra cui importanti società tecnologiche e di consulenza statunitensi. Questo crea una disparità significativa, lasciando sottorappresentate le PMI, le startup, la società civile e il mondo accademico. Il rapporto evidenzia che questo squilibrio porta a:

  • Vantaggi competitivi per le grandi aziende: Le aziende più grandi hanno le risorse per plasmare gli standard a loro vantaggio, ottenendo vantaggi sia in termini di conoscenza che di implementazione.
  • Preoccupazioni sui valori dell’UE: La notevole influenza delle aziende statunitensi solleva preoccupazioni sull’adeguata rappresentazione dei valori dell’UE, soprattutto per quanto riguarda la protezione dei diritti fondamentali. Gli standard necessitano di un bilanciamento orientato ai valori di questi diritti, potenzialmente esaminato dalla Corte di giustizia europea.
  • Esclusione di conoscenze cruciali: La limitata partecipazione di entità più piccole significa che conoscenze essenziali sono escluse dagli standard che definiranno l’accesso al mercato, compromettendo potenzialmente la sicurezza globale.

Il problema si riduce alle risorse. Una partecipazione efficace richiede un investimento sostanziale, rendendo difficile per le organizzazioni più piccole darle la priorità rispetto alle attività operative principali. Le associazioni di categoria spesso intervengono, ma la loro capacità di rappresentare pienamente i diversi interessi di tutti gli stakeholder è limitata.

La strada da percorrere

Per una concorrenza leale, è fondamentale un processo di standardizzazione più inclusivo. Ciò significa incorporare diverse prospettive e competenze per garantire che gli standard risultanti siano robusti ed equi. Sono necessari interventi politici per livellare il campo di gioco e impedire che gli standard diventino una barriera all’ingresso per gli innovatori di IA più piccoli.

In che modo la frammentazione normativa crea sfide di conformità?

La frammentazione normativa pone significative sfide di conformità per i fornitori di IA, in particolare quelli che operano in più giurisdizioni. Ciò deriva da diverse questioni chiave:

Divergenza nei requisiti di segretezza: Diversi Stati membri dell’UE hanno leggi sulla segretezza diverse, creando conflitti operativi per settori come la tecnologia legale. Questo rende difficile stabilire pratiche di conformità coerenti oltre confine.

Ambiguità di classificazione: L’ambito di applicazione dell’AI Act può essere poco chiaro, soprattutto per le aziende che operano in più settori. Le tecnologie a duplice uso, che servono sia scopi regolamentati che non regolamentati, creano incertezza sulla classificazione del rischio. Lo stesso vale per i modelli di IA per scopi generali (GPAI).

Sovrapposizione di quadri normativi: Le aziende devono affrontare conflitti operativi a causa della sovrapposizione di leggi a livello UE e nazionale. Interpretaazioni diverse di requisiti simili tra gli Stati membri complicano l’implementazione, analogamente alle precedenti esperienze con PSD2.

Preparazione degli organi di regolamentazione dell’UE: Esistono preoccupazioni in merito alla preparazione degli organi di regolamentazione dell’UE a gestire le certificazioni in modo coerente. Ritardi e incongruenze nel processo di certificazione potrebbero interrompere l’accesso al mercato, anche per i sistemi di IA conformi. Interpretazioni e processi di certificazione frammentati pongono problemi notevoli per le startup che non dispongono delle risorse per affrontarli.

In che modo le tempistiche di implementazione influiscono sulle aziende?

L’imminente AI Act dell’UE introduce standard armonizzati sull’IA, ma crescono le preoccupazioni sulla fattibilità di rispettare le scadenze di conformità, in particolare per le startup e le PMI. Poiché lo sviluppo degli standard è in ritardo, con i risultati chiave previsti per l’inizio del 2026, rimangono solo 6-8 mesi prima che la conformità diventi obbligatoria nell’agosto 2026. Questo lasso di tempo ristretto, soprattutto considerando il potenziale volume di circa 35 standard tecnici, solleva seri interrogativi sulla capacità delle aziende di adattarsi.

Ricerche di settore suggeriscono che le aziende richiedono in genere almeno 12 mesi per la conformità a un singolo standard, il che indica significativi ritardi nell’accesso al mercato per i nuovi arrivati ​​che si avventurano nello spazio dell’IA. Inoltre, le organizzazioni più grandi con precedente esperienza in settori regolamentati sono in una posizione migliore, aumentando il divario tra le grandi aziende e le startup innovative. Le startup e le PMI affrontano svantaggi sproporzionati e potrebbero perdere terreno competitivo se non riescono a rispondere in modo proattivo.

Le brevi tempistiche di implementazione comportano seri rischi:

  • Sanzioni finanziarie: la non conformità potrebbe comportare multe fino a 35 milioni di euro o al 7% del fatturato globale, rappresentando una grave minaccia per le imprese più piccole.
  • Restrizioni all’accesso al mercato: i ritardi nella conformità potrebbero limitare l’accesso al mercato dell’UE, offrendo un vantaggio alle aziende conformi.
  • Danno alla reputazione: una copertura mediatica negativa può portare a una perdita di fiducia dei clienti e danneggiare le relazioni commerciali.

Per affrontare questi problemi stringenti di tempistica, si raccomandano diverse misure:

  • Rinviare la legislazione: il legislatore dell’UE deve posticipare le scadenze di attuazione dell’AI Act per consentire alle organizzazioni un tempo sufficiente per la conformità basata sugli standard.
  • Pubblicazione di standard: pubblicare rapidamente standard quasi definitivi potrebbe consentire alle aziende di iniziare ad adattarsi con largo anticipo rispetto alle scadenze obbligatorie.
  • Accesso trasparente: la creazione di un portale online centralizzato in cui le aziende potrebbero monitorare lo sviluppo e i requisiti degli standard creerebbe trasparenza e incoraggerebbe il feedback.
  • Approccio orientato al servizio: l’Ufficio per l’IA e le autorità nazionali devono impegnarsi in un dialogo continuo e orientato al servizio con le imprese interessate.

Quali sono le implicazioni settoriali specifiche dell’implementazione di standard orizzontali?

L’implementazione degli standard orizzontali dell’AI Act dell’UE avrà implicazioni diverse a seconda della maturità normativa esistente di un settore e della natura delle sue applicazioni di IA.

Sanità e MedTech

Pur discutendo spesso l’equilibrio tra privacy, accuratezza e qualità dell’assistenza, le organizzazioni con esperienza normativa nel settore sanitario stanno trovando soluzioni pratiche sfruttando la propria conformità al Regolamento sui Dispositivi Medici (MDR). Questo settore trae vantaggio dagli standard dell’AI Act, migliorando potenzialmente l’interoperabilità e integrando senza problemi gli strumenti di IA nei sistemi esistenti, concentrandosi al tempo stesso sull’accuratezza clinica e sulla fiducia del pubblico.

Produzione

Il settore manifatturiero prevede uno stretto allineamento tra gli standard tecnici e i framework consolidati (ISO 9001, ISO 31000 e protocolli Industry 4.0). Questa integrazione offre opportunità per migliorare il controllo qualità e standardizzare l’elaborazione dei dati. Tuttavia, sorgono sfide nel mantenere una documentazione completa per le decisioni guidate dall’IA, specialmente in contesti di produzione ad alta velocità. Inoltre, test pre-distribuzione estesi potrebbero rallentare l’adozione di soluzioni di automazione in tempo reale, incidendo sui produttori più piccoli che potrebbero avere difficoltà con i costi di conformità.

Legal Tech

Le aziende Legal Tech sono preoccupate dall’intensità di risorse necessarie per mantenere audit trail per gli output dell’IA, in particolare quando si gestiscono dati sensibili dei clienti. L’integrazione di normative, incluso il GDPR, richiede aggiornamenti tecnici e un’attenta considerazione della governance dei dati. Tuttavia, queste aziende vedono la conformità come un’opportunità per affermarsi come leader nelle pratiche etiche di IA e aumentare la fiducia dei clienti nei mercati regolamentati.

FinTech

Il settore FinTech teme che requisiti eccessivamente prescrittivi possano favorire le istituzioni consolidate rispetto alle startup. Questi intervistati tracciano parallelismi con le loro esperienze con PSD2. Sebbene la standardizzazione possa catalizzare la fiducia e la chiarezza in aree come l’autenticazione del cliente, le aziende temono che requisiti di conformità complessi potrebbero gravare in modo sproporzionato sulle aziende più piccole, come nelle precedenti normative del settore finanziario.

Mobilità (Automotive) e Difesa

Sebbene questi settori possano rientrare parzialmente al di fuori dell’ambito di applicazione dell’AI Act, dovranno comunque affrontare implicazioni derivanti dai requisiti di IA ad alto rischio derivati dagli standard armonizzati. I fornitori di IA nel settore della mobilità vedono questi standard come un miglioramento della trasparenza e della sicurezza, imponendo al contempo oneri operativi, in particolare per i sistemi complessi che necessitano di spiegabilità e misure di cybersecurity. Il settore della difesa, sebbene escluso esplicitamente per motivi di sicurezza nazionale, subirà una pressione indiretta attraverso gli impatti sull’ecosistema e le considerazioni sul duplice uso, soprattutto per quanto riguarda i sistemi autonomi che operano in ambienti ad alto rischio.

In che modo gli standard sull’IA hanno effetti a catena su diversi settori?

L’implementazione degli standard sull’IA, guidata in gran parte dall’AI Act dell’UE, sta causando ripercussioni in diversi settori, anche in quelli che non rientrano direttamente nell’ambito di applicazione del regolamento. Mentre settori come l’assistenza sanitaria e la finanza sono alle prese con la conformità diretta, altri stanno sentendo la pressione indiretta e prevedono effetti a lungo raggio. Analizziamo come si sta svolgendo tutto questo.

Mobilità e settore automobilistico

Il settore della mobilità presenta un caso affascinante. I dati delle interviste suggeriscono che le aziende considerano gli standard sull’IA come un’arma a doppio taglio. Da un lato, una maggiore trasparenza e sicurezza sono allettanti. Dall’altro, si prevedono oneri operativi sostanziali, soprattutto per quanto riguarda i sistemi complessi che richiedono una spiegabilità avanzata e una solida sicurezza informatica. Un risultato chiave è la misura in cui si applica l’etichetta di IA “ad alto rischio”. I fornitori di mobilità si stanno rendendo conto che processi apparentemente di routine, come la pianificazione del percorso, possono rientrare in questa classificazione a causa della loro natura dinamica e della dipendenza da molteplici punti dati. Questo crea notevoli ostacoli operativi e di conformità.

Difesa

Il settore della difesa, in gran parte escluso dall’AI Act a causa di problemi di sicurezza nazionale, sta sperimentando una pressione indiretta attraverso gli effetti dell’ecosistema e le considerazioni sul “duplice uso” – tecnologie con applicazioni sia civili che militari. Sebbene non siano direttamente regolate, le aziende del settore della difesa stanno monitorando attentamente l’AI Act perché influisce sulla disponibilità di modelli di IA open-source e sugli standard generali di IA. Una intuizione sorprendente? Il settore aderisce spesso a rigorosi standard di sicurezza paragonabili alle applicazioni civili, un fattore che può spingere all’allineamento volontario con i requisiti dell’AI Act.

L’integrazione di standard IA ad alto rischio, come la spiegabilità, la gestione del rischio e i quadri di trasparenza, potrebbe migliorare la sicurezza e l’interoperabilità dei sistemi IA per la difesa, in particolare dei sistemi autonomi che funzionano in ambienti ad alto rischio come zone di combattimento urbano o risposta a calamità. I dati delle interviste suggeriscono che alcune aziende stanno valutando di adottare volontariamente alcuni degli IA ad alto rischio perché ritengono che ciò consentirà una maggiore collaborazione civile-militare e promuoverà la fiducia nei sistemi di collaborazione IA-uomo.

Sfide finanziarie e nel mondo reale

Queste implicazioni intersettoriali stanno portando a risposte diverse. Alcune aziende di mobilità stanno valutando mercati alternativi con oneri normativi inferiori, citando sfide finanziarie e operative. Al contrario, le aziende del settore della difesa vedono potenziali vantaggi competitivi nell’adozione di standard ad alto rischio. Il filo conduttore? Entrambi i settori riconoscono che l’allineamento a queste linee guida per la trasparenza e l’interoperabilità è in definitiva vantaggioso, nonostante gli ostacoli iniziali all’implementazione.

In sostanza, anche i settori che si trovano al di fuori della portata diretta dell’AI Act dell’UE si trovano ad affrontare la sfida di gestire standard IA rigorosi. Man mano che l’IA diventa più pervasiva, è probabile che questi effetti a cascata si espandano, rimodellando le operazioni e potenzialmente influenzando la concorrenza sul mercato. Questo rende la comprensione e l’adattamento agli standard IA cruciali per le aziende, indipendentemente da dove operano.

Come ottimizzare la cronologia di implementazione dell’AI Act?

L’ambizioso obiettivo dell’Unione Europea di regolamentare l’IA attraverso l’EU AI Act affronta sfide a causa delle tempistiche di implementazione ristrette, delle complesse dinamiche tra le parti interessate e dei costi di implementazione. Ecco come la cronologia può essere ottimizzata, secondo le opinioni del settore:

Adeguamento delle scadenze di implementazione

L’attuale ritmo di sviluppo degli standard sull’IA solleva preoccupazioni. Il divario tra la pubblicazione prevista degli standard (inizio 2026) e la scadenza per la conformità (agosto 2026) fornisce solo 6-8 mesi per l’implementazione. Le organizzazioni segnalano di aver bisogno di almeno 12 mesi per standard. Le opzioni includono:

  • Azione legislativa: Il legislatore dell’UE dovrebbe prendere in considerazione il rinvio delle scadenze di implementazione per allinearle con i tempi di adozione realistici.
  • Riduzione dell’ambito degli standard: Diminuire la quantità e la complessità dei 35 standard tecnici in fase di sviluppo.
  • Pubblicazione anticipata: Pubblicare tempestivamente standard quasi definitivi, ma riconoscere che potrebbero subire modifiche.
  • Portale di trasparenza: Creare una piattaforma online per l’accesso gratuito alle bozze degli standard e fornire un sistema di feedback, soprattutto per le PMI.
  • Dialogo continuo: L’AI Office e le autorità nazionali dovrebbero impegnarsi in un dialogo continuo con le imprese durante l’implementazione, simile alle autorità di vigilanza finanziaria.

Riduzione delle barriere alla partecipazione

La rappresentanza delle parti interessate nei comitati di standardizzazione è disomogenea, con le grandi imprese che spesso dominano. Secondo la sentenza Malamud della Corte di giustizia dell’Unione europea (CGUE), gli standard armonizzati devono essere accessibili gratuitamente ai cittadini dell’UE. Ulteriori strategie per un maggiore coinvolgimento sono:

  • Reti di esperti: La Commissione europea o il CEN-CENELEC dovrebbero creare reti di esperti specifiche per il settore per guidare la conformità specifica per il settore.
  • Sostegno finanziario: Istituire meccanismi di finanziamento sostanziali a livello UE e federale per sovvenzionare la partecipazione delle PMI, escludendo le grandi aziende che dispongono di risorse sufficienti. Concentrare i finanziamenti in base alle spese effettive per il personale impegnato nel comitato.
  • Programmi di tutoraggio: Implementare programmi di tutoraggio che abbinino esperti con rappresentanti di startup e PMI.
  • Accesso ai comitati: Trasformare i comitati di standardizzazione dell’IA in organismi trasparenti che forniscano informazioni e semplifichino i processi di ingresso. I membri esperti possono quindi guidare i nuovi arrivati.

Aiuto pratico per l’implementazione

Fornire strumenti di guida pragmatici per la conformità all’AI Act, con l’AI Office dell’UE e le successive autorità che si concentrano sulle PMI:

  • Guida pragmatica: Stabilire una guida interpretativa regolare, suggerimenti concreti per l’implementazione e supporto diretto attraverso persone di contatto dedicate, specificamente progettati per le PMI.
  • Documentazione di guida specifica: Fornire documenti di guida specifici per settore, esempi concreti e guide di implementazione passo-passo, nonché prevedere aggiornamenti coerenti del settore in considerazione degli sviluppi dell’IA.
  • Comunicazione operativa: Per consentire la comprensione delle sfide e delle esigenze e garantire che il supporto soddisfi le effettive esigenze del mercato, è necessario implementare un sistema di comunicazione pratico tra i regolatori e i settori chiave.
  • Framework di valutazione: Creare tale framework per misurare i progressi, garantire la responsabilità e monitorare i miglioramenti attraverso metriche quantificabili.

Ulteriori considerazioni

Oltre a quanto sopra, i sandbox normativi come previsto dall’Art. 57 dell’AI Act potrebbero facilitare la comunicazione e la collaborazione tra la comunità di sviluppo dell’IA ad alto rischio e i regolatori dell’UE.

Affrontando i vincoli di tempo sopra menzionati, lo squilibrio di standardizzazione e gli elevati costi di conformità all’IA, gli adeguamenti politici per l’implementazione dell’EU AI Act sono ottimizzati.

Come si può migliorare la partecipazione allo sviluppo di standard sull’IA?

L’ambizioso AI Act dell’UE dipende da standard tecnici, rendendo cruciale il loro sviluppo efficace. Tuttavia, la partecipazione ai comitati di standardizzazione è sbilanciata verso le imprese più grandi, spesso con una rappresentanza significativa dei giganti tecnologici statunitensi. Questo squilibrio lascia le PMI, le startup, la società civile e il mondo accademico sottorappresentati, portando potenzialmente a standard che non affrontano le loro specifiche esigenze e sfide.

Per livellare il campo di gioco e promuovere una partecipazione più ampia, è possibile intraprendere diverse azioni concrete:

Supporto Finanziario

Stabilire solidi meccanismi di finanziamento a livello europeo e nazionale per sovvenzionare la partecipazione di PMI e startup a questi comitati. Questo supporto dovrebbe coprire i costi effettivi della dedicazione di personale al lavoro di standardizzazione, garantendo che possano permettersi di contribuire in modo significativo.

Programmi di Tutoraggio

Implementare programmi di tutoraggio che mettano in contatto esperti di standardizzazione con rappresentanti di PMI e startup. Ciò fornirebbe una guida e un supporto preziosi, aiutandoli a orientarsi nel complesso processo.

Semplificare l’Accesso ai Comitati

Rivedere l’accessibilità dei comitati di standardizzazione creando una piattaforma centralizzata e di facile utilizzo con informazioni trasparenti e processi di ingresso semplificati. Un sistema di “guida alla standardizzazione”, in cui membri esperti assistono i nuovi arrivati, faciliterebbe ulteriormente il processo di onboarding e promuoverebbe una collaborazione più attiva tra le diverse parti interessate.

È fondamentale che l’industria e soprattutto le aziende al di fuori della comunità Safe AI partecipino attivamente allo sviluppo degli standard. La collaborazione attiva tra aziende grandi e piccole dovrebbe essere promossa dagli organismi di standardizzazione per favorire una standardizzazione collaborativa sfaccettata.

Affrontando queste barriere pratiche, possiamo garantire che lo sviluppo degli standard sull’IA sia più inclusivo, equilibrato e, in definitiva, più efficace nel promuovere un’innovazione responsabile dell’IA nel panorama europeo.

Come si può migliorare il supporto pratico per l’implementazione dell’IA?

Per i fornitori di IA che mirano a navigare le richieste di standardizzazione dell’EU AI Act, è essenziale una strategia multiforme incentrata su una guida accessibile, assistenza finanziaria e approcci collaborativi. Le seguenti raccomandazioni affrontano le sfide chiave identificate attraverso interviste con organizzazioni di vari settori.

Adeguamento delle tempistiche e dell’ambito di implementazione

L’attuale tempistica per l’implementazione dell’AI Act pone una sfida concreta. Occorre integrare competenze tecniche nei comitati di standardizzazione. È necessario ritardare la scadenza dell’Atto di almeno 12 mesi, in modo che più aziende possano raggiungere la conformità.

  • Ridurre l’enorme volume di standard tecnici previsti come risultati finali.
  • Fornire un accesso anticipato alle bozze quasi definitive degli standard, riconoscendo il rischio di modifiche successive.
  • Creare un portale online centralizzato che offra accesso gratuito alle bozze degli standard e un sistema di feedback a bassa soglia.
  • Promuovere un dialogo continuo tra l’AI Office, le autorità nazionali e le imprese interessate, emulando pratiche normative orientate al servizio.

Abbassare gli ostacoli alla partecipazione alla standardizzazione

La partecipazione delle PMI alla standardizzazione deve essere sostenuta finanziariamente, ad esempio dalla Commissione Europea, a causa della mancanza di risorse delle PMI e delle startup. Promuovere ciò che le startup possono guadagnare dalla partecipazione a tali comitati – un’influenza diretta nel plasmare le normative che governano le loro tecnologie.

  • Creare meccanismi di finanziamento a livello UE e nazionale per sovvenzionare la partecipazione delle PMI ai comitati di standardizzazione.
  • Implementare programmi di mentorship che abbinino esperti di standardizzazione esperti con rappresentanti di startup e PMI per fornire guida e supporto.
  • Rivedere l’accessibilità dei comitati di standardizzazione attraverso una piattaforma centralizzata e di facile utilizzo, processi trasparenti e priorità chiare.

Fornire aiuto pratico per l’implementazione

Di seguito sono riportati alcuni strumenti di guida pragmatica e punti di azione che aiuteranno la conformità all’AI Act, con particolare attenzione alle PMI. Ciò include una guida interpretativa regolare, suggerimenti concreti per l’implementazione e supporto diretto attraverso persone di contatto dedicate che mantengono relazioni continue con la comunità dei fornitori di IA.

  • La Commissione Europea e gli Stati membri dell’UE dovrebbero creare programmi per le startup pre-fatturato, al fine di perseguire la conformità all’AI Act.
  • La Commissione Europea e l’AI Office potrebbero fornire linee guida pratiche e specifiche per settore per aiutare le parti a determinare se rientrano nelle categorie ad alto rischio dell’AI Act.
  • Per efficienza, i requisiti basati su soglie dovrebbero essere considerati più fortemente per la standardizzazione. Inoltre, l’accesso digitale più facile è cruciale.

Integrazione strutturata delle PMI nell’implementazione

Il forum consultivo e il panel scientifico, come menzionato dall’Art. 67 AI Act, devono includere la rappresentanza di startup e PMI per garantire che le loro sfide siano prese in considerazione nelle linee guida per l’implementazione. Inoltre, dovrebbero esserci canali di consultazione diretti tra le piccole imprese e gli organismi di regolamentazione, al di là delle strutture consultive formali.

Allineamento degli standard

Gli organismi di standardizzazione dovrebbero allineare tutti gli standard di settore esistenti con l’AI Act per semplificare la conformità. Gli standard IA europei e internazionali dovrebbero anche essere allineati per semplificare gli sforzi di conformità per le organizzazioni.

  • Dovrebbe esserci un’azione precoce per i settori per assicurarsi che stiano seguendo i requisiti futuri.
  • Gli organismi di standardizzazione internazionali, europei e nazionali devono aumentare i loro livelli di cooperazione tra loro.

Come può essere migliorata l’integrazione strutturata delle PMI nell’implementazione dell’IA?

Le piccole e medie imprese (PMI) che sviluppano e implementano sistemi di IA affrontano ostacoli unici nel rispetto dell’EU AI Act. Le sfide derivano da tempistiche di implementazione ristrette, dinamiche complesse tra le parti interessate e costi di conformità significativi. Pertanto, un approccio strutturato all’integrazione delle PMI è fondamentale per promuovere l’innovazione e garantire parità di condizioni.

Sfide chiave per le PMI:

  • Temporale: Il divario tra la pubblicazione prevista delle norme armonizzate (inizio 2026) e il termine ultimo per la conformità (agosto 2026) lascia solo una finestra ristretta per l’implementazione, insufficiente per la maggior parte delle PMI.
  • Strutturale: La limitata partecipazione al processo di sviluppo degli standard (CEN-CENELEC JTC 21) impedisce alle PMI di plasmare le normative che incidono direttamente sulle loro attività.
  • Operativa: Costi di conformità significativi (stimati tra 100.000 e 300.000 euro all’anno) e le complessità normative pongono un onere sproporzionato, in particolare per le entità più piccole.

Raccomandazioni politiche per una migliore integrazione delle PMI:

Per affrontare queste sfide, è possibile implementare diverse raccomandazioni politiche:

Adeguare le scadenze di implementazione

Il legislatore dell’UE dovrebbe prendere in considerazione l’estensione dei tempi di implementazione dell’AI Act per mitigare il collo di bottiglia causato dai ritardi nello sviluppo di standard armonizzati. Ciò ripristinerebbe l’equilibrio e consentirebbe alle aziende di scegliere il loro approccio ottimale alla conformità, sia attraverso standard armonizzati, specifiche comuni o pareri di esperti.

Abbassare le barriere alla partecipazione

L’accesso ai comitati di standardizzazione deve essere meglio supportato finanziariamente per le PMI e le startup più piccole, consentendo un supporto specializzato per i requisiti del settore e affrontando efficacemente le sfide di conformità specifiche del settore.

La Commissione Europea o il CEN-CENELEC dovrebbero creare reti di esperti specifiche per settore a livello dell’UE che possano fornire una guida mirata per le sfide di conformità specifiche del settore.

Rivedere l’accessibilità dei comitati di standardizzazione tramite una piattaforma centralizzata e di facile utilizzo, processi e priorità.

Aiuto pratico per l’implementazione

Stabilire strumenti pratici di guida per la conformità all’AI Act, con particolare attenzione alle PMI. Ciò si allineerebbe all’obbligo dell’AI Office derivante dall’Art. 62 dell’AI Act, che copre nello specifico modelli standardizzati, un’unica piattaforma informativa e campagne di comunicazione.

Creare programmi di sostegno finanziario progettati per le startup pre-ricavi che perseguono la conformità all’AI Act. Questi programmi fornirebbero finanziamenti diretti per coprire i costi relativi alla conformità prima che le startup abbiano stabilito flussi di entrate.

Gli enti regolatori, tra cui l’AI Office e le autorità nazionali, dovrebbero agire come fornitori di servizi, monitorando e analizzando sistematicamente come le organizzazioni implementano gli standard tecnici.

Integrazione strutturata delle PMI

Istituire e dotare rapidamente di personale il forum consultivo e il comitato scientifico come delineato dall’Art. 67 dell’AI Act. Questi organismi devono includere la rappresentanza delle startup e delle PMI e la conoscenza del settore settoriale.

Costruire canali di consultazione diretti tra startup/PMI nel settore dell’IA e organismi di regolamentazione, supportati da punti di contatto chiari a livello dell’UE ed estendendo oltre le strutture consultive formali.

Allineamento degli standard

Gli organismi di standardizzazione (specialmente ISO/IEC e CEN-CENELEC) dovrebbero allineare gli standard verticali specifici del settore con l’articolo 40 dell’AI Act per i sistemi di IA ad alto rischio. Questo approccio si allinea con i risultati secondo cui alcuni settori, come l’assistenza sanitaria e la produzione, stanno già sfruttando l’esperienza normativa esistente per affrontare le sfide dell’IA.

Gli oneri di conformità possono essere ridotti sfruttando sistematicamente gli standard esistenti per la coerenza e l’interoperabilità e facilitando l’ingresso nei mercati internazionali.

Durante lo sviluppo e l’implementazione di standard armonizzati, è fondamentale evitare di creare una presunzione negativa di conformità, che può aumentare significativamente l’onere di conformità sui fornitori.

Implementando queste raccomandazioni, i responsabili politici possono garantire un’integrazione strutturata delle PMI nell’implementazione dell’IA, promuovendo l’innovazione e favorendo lo sviluppo etico dell’IA all’interno dell’UE.

Come dovrebbero essere allineati gli standard per facilitare la conformità?

Per semplificare la conformità e ridurre l’onere per i fornitori di IA, in particolare le PMI e le startup, è fondamentale che gli organismi di normazione allineino gli standard verticali specifici del settore con i requisiti orizzontali dell’AI Act UE (Art. 40). Poiché l’articolo 103 e seguenti probabilmente impone questo allineamento, un’azione tempestiva può preparare i settori agli obblighi futuri.

Questo approccio è supportato dall’osservazione che settori come quello sanitario e manifatturiero stanno già sfruttando la loro esperienza normativa esistente per affrontare le sfide legate all’IA. Allineare il più possibile gli standard europei e internazionali sull’IA semplificherà ulteriormente gli sforzi di conformità.

Aspetti chiave dell’allineamento degli standard:

Gli organismi di normazione europei e internazionali devono cooperare più strettamente, garantendo al contempo che tale cooperazione rispetti i valori europei. Durante lo sviluppo e l’implementazione di standard armonizzati, è fondamentale evitare una presunzione negativa di conformità. Una presunzione negativa di conformità – in cui il mancato rispetto integrale degli standard tecnici implica automaticamente la non conformità all’AI Act – deve essere evitata con cura. Sebbene l’adesione agli standard possa semplificare la dimostrazione della conformità ai requisiti dell’AI Act, deve rimanere un certo grado di flessibilità per tenere conto delle realtà tecnologiche ed evitare barriere all’ingresso basate sugli standard.

Ecco alcune best practice:

  • Sfruttare gli standard esistenti: utilizzare sistematicamente gli standard esistenti per promuovere la coerenza e l’interoperabilità, facilitando l’accesso a mercati internazionali più ampi.
  • L’armonizzazione è fondamentale: Questo vale per i settori che operano alla periferia dell’ambito diretto dell’AI Act, come la difesa e l’automotive.
  • Adattare i framework esistenti: Invece di creare regolamenti o standard completamente nuovi, modificare i framework esistenti a livello federale e dell’UE per incorporare i requisiti di conformità all’IA.

Promuovendo una standardizzazione strategica e mirata, i responsabili politici possono evitare sforzi ridondanti, mantenere la coerenza tra i settori e promuovere un panorama di conformità più snello e accessibile per tutti gli stakeholder.

In definitiva, il successo dipende dalla gestione di una complessa interazione tra specifiche tecniche, dinamiche degli stakeholder e realtà finanziarie. La tempistica di implementazione richiede un’attenta ricalibratura, garantendo un tempo sufficiente per l’adattamento di tutti gli attori. È essenziale una più ampia partecipazione, in particolare per le PMI e le startup, al fine di garantire uno sviluppo degli standard più inclusivo ed equilibrato. Attraverso una guida mirata, un supporto pratico e un impegno di standardizzazione più armonizzato, l’AI Act dell’UE può raggiungere i suoi obiettivi di promozione dell’innovazione e, al contempo, di salvaguardia dei diritti fondamentali e di promozione di un ecosistema di IA responsabile.

More Insights

Regolamentazione dell’IA: verso un futuro più sicuro nel settore assicurativo

Il Chartered Insurance Institute (CII) ha richiesto chiari quadri di responsabilità e una strategia di competenze a livello settoriale per guidare l'uso dell'intelligenza artificiale (AI) nei servizi...

Regolamentazione dell’IA nel settore MedTech in APAC

La regolamentazione dell'intelligenza artificiale (AI) nella regione Asia-Pacifico è ancora agli inizi, principalmente governata da normative esistenti progettate per altre tecnologie. Nonostante ciò...

Sviluppi dell’Intelligenza Artificiale a New York: Cosa Sapere per il Futuro del Lavoro

Nel primo semestre del 2025, New York ha iniziato a regolare l'intelligenza artificiale (AI) a livello statale con l'introduzione di leggi per affrontare la discriminazione algoritmica, in particolare...

Gestire i Rischi dell’Intelligenza Artificiale: Un Approccio Strategico

L'articolo discute l'importanza della gestione dei rischi nell'intelligenza artificiale, evidenziando che il rischio AI può derivare da dati errati o da attacchi esterni. Utilizzare un framework di...

Comprendere l’Atto sull’Intelligenza Artificiale dell’UE

L'Unione Europea ha introdotto l'Artificial Intelligence Act (AI Act), una regolamentazione storica progettata per gestire i rischi e le opportunità delle tecnologie AI in Europa. Questo articolo...

Legge Fondamentale sull’IA in Corea: Un Nuovo Orizzonte Normativo

La Corea del Sud ha adottato la Legge di Base sull'Intelligenza Artificiale, diventando il primo mercato asiatico a stabilire un quadro normativo completo per l'IA. Questa legislazione avrà un impatto...

Intelligenza Artificiale e Regolamentazione: Preparati al Cambiamento

L'atto sull'IA dell'UE e il DORA stanno creando una nuova complessità per le entità finanziarie, richiedendo un approccio basato sul rischio. È fondamentale quantificare l'impatto finanziario delle...

Regolamentare l’IA: Sfide e Opportunità nell’Atlantico

L'intelligenza artificiale (IA) è diventata una delle forze tecnologiche più decisive del nostro tempo, con il potere di rimodellare le economie e le società. Questo capitolo esplora il momento...

Strategia Europea per l’Intelligenza Artificiale: Verso le Gigafabbriche

La Commissione Europea vuole ridurre le barriere per l'implementazione dell'intelligenza artificiale, promuovendo la costruzione di "gigafabbriche AI" per migliorare l'infrastruttura dei centri dati...