Impatto della legge sull’IA dell’UE sulle imprese: verso una semplificazione?

L’impatto della legge sull’IA dell’UE sulle imprese

La legge sull’IA dell’Unione Europea sta già avendo un impatto significativo sulle attività sia all’interno che all’esterno del blocco economico. Tra gli effetti ci sono l’aggiunta di ulteriori strati di complessità, le sfide di adattamento e i costi di conformità.

Tuttavia, ci sono anche alcuni aspetti positivi, secondo gli esperti di business citati da fonti di media specializzate in finanza. L’UE ha dimostrato un’applicazione rigorosa delle normative nei confronti delle aziende di IA straniere operanti nel suo mercato, comprese le restrizioni su app e avviando indagini relative alla privacy. Queste azioni di enforcement dimostrano che l’UE è preoccupata per l’opacità dei dati di addestramento, che potrebbe portare a normative più severe sui trasferimenti internazionali di dati.

Le implicazioni della legge sull’IA sono maggiori per i piccoli sviluppatori di IA europei, in parte perché le grandi aziende tecnologiche hanno già controlli rigorosi per i loro prodotti di IA. Tuttavia, la regolamentazione creerà anche opportunità per le aziende specializzate in IA affidabile, spiegabilità e sicurezza dell’IA. Le grandi aziende europee potrebbero trarre vantaggio da soluzioni di IA conformi e guidate dalla regolamentazione.

C’è ancora molta incertezza su come sarà applicata e fatta rispettare la più completa regolamentazione sull’IA al mondo. L’impatto dipenderà dall’applicazione da parte degli stati membri dell’UE, che potrebbe non essere uniforme. La legge sull’IA sarà inoltre probabilmente oggetto di dibattito durante i negoziati commerciali con gli Stati Uniti.

L’UE considera la semplificazione della legge sull’IA

Mentre il settore commerciale discute gli effetti potenziali della legge sull’IA, i burocrati europei stanno già proponendo di semplificare la regolamentazione basandosi sui feedback dell’industria. L’UE desidera che l’IA diventi il “modello di innovazione” e uno strumento per aiutare “ogni azienda”, ha dichiarato Roberto Viola, direttore del dipartimento digitale della Commissione Europea.

“Siamo molto determinati a semplificare – quando necessario – le regole,” afferma Viola. “Abbiamo ascoltato attentamente il rischio potenziale che ci sia un ulteriore onere per le aziende, specialmente in termini di obblighi di reporting, e in termini di come potrebbe essere complicato conformarsi a una o all’altra disposizione della legge sull’IA.”

Una delle aree che potrebbe essere semplificata è l’obbligo di reporting. Secondo il regolamento, i fornitori e gli utenti di sistemi di IA devono informare qualsiasi persona esposta a esso, a meno che non sia ovvio dal contesto. Si prevede che gli stati membri dell’UE inizino consultazioni per semplificare la legge la prossima settimana.

Viola ha anche sottolineato l’importanza degli standard per l’approccio dell’UE all’IA, inclusi quelli che misurano, valutano o effettuano valutazioni di conformità di terze parti. Tuttavia, gli standard tecnici hanno ancora molta strada da fare prima di essere ufficialmente riconosciuti.

UK AISI: Il test dell’IA non è “sufficientemente maturo”

Nell’UK, il governo sta adottando un approccio più liberale alla regolamentazione dell’IA. L’UK AI Security Institute (UK AISI), l’agenzia governativa incaricata della sicurezza dell’IA, afferma che le valutazioni del rischio dell’IA sono una “scienza emergente” e non sufficientemente mature per rilasciare certificati di sicurezza. Le opinioni sono state condivise questa settimana dal direttore dell’istituto, Oliver Ilott, durante il Global Summit dell’AI Standards Hub a Londra.

“Le valutazioni che stiamo eseguendo non coprono ogni rischio, e le valutazioni sono una scienza emergente,” afferma Ilott. “Pensiamo che non sia sufficientemente maturo da poter rilasciare un certificato di sicurezza.”

Attualmente, non esiste una regolamentazione nel Regno Unito che richieda agli sviluppatori di modelli di IA di testare i loro modelli pre-deployment tramite enti come l’UK AISI. L’istituto non fornisce nemmeno un certificato di sicurezza al completamento.

Poiché l’istituto non può forzare i test, la cooperazione da parte degli sviluppatori si basa sul loro desiderio di scoprire problemi nella tecnologia che hanno creato, afferma Ilott. Non ci si possono aspettare standard maturi per le attuali applicazioni di IA perché gli sviluppatori stanno concentrando i loro sforzi sulla creazione di tecnologie ancora più dirompenti.

More Insights

Opportunità mancate per l’AI: il G7 e la governance globale

I leader del G7 si sono riuniti in Alberta, Canada, ma la questione della governance dell'intelligenza artificiale è stata praticamente assente dai dibattiti. Questa omissione è particolarmente...

Intelligenza Artificiale: L’Africa Riscopre la Sovranità

I leader africani hanno chiesto azioni urgenti per costruire sistemi di intelligenza artificiale sovrani ed etici, adattati alle esigenze locali. È fondamentale garantire che l'IA supporti la...

Regolamenti AI: Le Sfide di Compliance e Innovazione

Con lo sviluppo dell'IA in tutto il mondo, diventa sempre più difficile applicare regolamenti efficaci. Le aziende tecnologiche multinazionali devono affrontare sfide complesse a causa della diversità...

Il Futuro dell’Intelligenza Artificiale in Cina: Un Percorso Unico

La competizione tra Stati Uniti e Cina nell'intelligenza artificiale è considerata la rivalità tecnologica definitoria del nostro tempo. Cina e Stati Uniti potrebbero sviluppare "varietà" diverse di...

AI e Finanza: Sfide e Opportunità di Compliance

Un nuovo sondaggio di Smarsh ha rivelato che, mentre gli strumenti di intelligenza artificiale vengono rapidamente adottati nei servizi finanziari del Regno Unito, molti dipendenti rimangono...

Etica dell’IA: le nuove sfide nella rivalità USA-Cina

Con l'approfondirsi della rivalità tecnologica tra Stati Uniti e Cina, un'agenzia delle Nazioni Unite sta spingendo per standard globali sull'etica dell'IA. UNESCO ha tenuto il suo terzo Forum Globale...

Sicurezza e AI: Adattarsi al Regolamento UE

Il DSPM gioca un ruolo fondamentale nell'aiutare le organizzazioni a conformarsi ai requisiti rigorosi del Regolamento sull'IA dell'UE, garantendo una distribuzione sicura dell'IA e la sicurezza dei...

Legge contro l’IA avversaria: la nuova frontiera della sicurezza nazionale

Un gruppo bipartisan di legislatori statunitensi ha introdotto il "No Adversarial AI Act", che mira a vietare l'uso di strumenti di intelligenza artificiale sviluppati in nazioni avversarie come Cina...

Personalizza l’IA responsabile con i nuovi livelli di sicurezza in Amazon Bedrock Guardrails

Amazon Bedrock Guardrails fornisce salvaguardie configurabili per costruire applicazioni di intelligenza artificiale generativa affidabili su larga scala. Con i nuovi livelli di salvaguardia, le...