Impatto della legge sull’IA dell’UE sulle imprese: verso una semplificazione?

L’impatto della legge sull’IA dell’UE sulle imprese

La legge sull’IA dell’Unione Europea sta già avendo un impatto significativo sulle attività sia all’interno che all’esterno del blocco economico. Tra gli effetti ci sono l’aggiunta di ulteriori strati di complessità, le sfide di adattamento e i costi di conformità.

Tuttavia, ci sono anche alcuni aspetti positivi, secondo gli esperti di business citati da fonti di media specializzate in finanza. L’UE ha dimostrato un’applicazione rigorosa delle normative nei confronti delle aziende di IA straniere operanti nel suo mercato, comprese le restrizioni su app e avviando indagini relative alla privacy. Queste azioni di enforcement dimostrano che l’UE è preoccupata per l’opacità dei dati di addestramento, che potrebbe portare a normative più severe sui trasferimenti internazionali di dati.

Le implicazioni della legge sull’IA sono maggiori per i piccoli sviluppatori di IA europei, in parte perché le grandi aziende tecnologiche hanno già controlli rigorosi per i loro prodotti di IA. Tuttavia, la regolamentazione creerà anche opportunità per le aziende specializzate in IA affidabile, spiegabilità e sicurezza dell’IA. Le grandi aziende europee potrebbero trarre vantaggio da soluzioni di IA conformi e guidate dalla regolamentazione.

C’è ancora molta incertezza su come sarà applicata e fatta rispettare la più completa regolamentazione sull’IA al mondo. L’impatto dipenderà dall’applicazione da parte degli stati membri dell’UE, che potrebbe non essere uniforme. La legge sull’IA sarà inoltre probabilmente oggetto di dibattito durante i negoziati commerciali con gli Stati Uniti.

L’UE considera la semplificazione della legge sull’IA

Mentre il settore commerciale discute gli effetti potenziali della legge sull’IA, i burocrati europei stanno già proponendo di semplificare la regolamentazione basandosi sui feedback dell’industria. L’UE desidera che l’IA diventi il “modello di innovazione” e uno strumento per aiutare “ogni azienda”, ha dichiarato Roberto Viola, direttore del dipartimento digitale della Commissione Europea.

“Siamo molto determinati a semplificare – quando necessario – le regole,” afferma Viola. “Abbiamo ascoltato attentamente il rischio potenziale che ci sia un ulteriore onere per le aziende, specialmente in termini di obblighi di reporting, e in termini di come potrebbe essere complicato conformarsi a una o all’altra disposizione della legge sull’IA.”

Una delle aree che potrebbe essere semplificata è l’obbligo di reporting. Secondo il regolamento, i fornitori e gli utenti di sistemi di IA devono informare qualsiasi persona esposta a esso, a meno che non sia ovvio dal contesto. Si prevede che gli stati membri dell’UE inizino consultazioni per semplificare la legge la prossima settimana.

Viola ha anche sottolineato l’importanza degli standard per l’approccio dell’UE all’IA, inclusi quelli che misurano, valutano o effettuano valutazioni di conformità di terze parti. Tuttavia, gli standard tecnici hanno ancora molta strada da fare prima di essere ufficialmente riconosciuti.

UK AISI: Il test dell’IA non è “sufficientemente maturo”

Nell’UK, il governo sta adottando un approccio più liberale alla regolamentazione dell’IA. L’UK AI Security Institute (UK AISI), l’agenzia governativa incaricata della sicurezza dell’IA, afferma che le valutazioni del rischio dell’IA sono una “scienza emergente” e non sufficientemente mature per rilasciare certificati di sicurezza. Le opinioni sono state condivise questa settimana dal direttore dell’istituto, Oliver Ilott, durante il Global Summit dell’AI Standards Hub a Londra.

“Le valutazioni che stiamo eseguendo non coprono ogni rischio, e le valutazioni sono una scienza emergente,” afferma Ilott. “Pensiamo che non sia sufficientemente maturo da poter rilasciare un certificato di sicurezza.”

Attualmente, non esiste una regolamentazione nel Regno Unito che richieda agli sviluppatori di modelli di IA di testare i loro modelli pre-deployment tramite enti come l’UK AISI. L’istituto non fornisce nemmeno un certificato di sicurezza al completamento.

Poiché l’istituto non può forzare i test, la cooperazione da parte degli sviluppatori si basa sul loro desiderio di scoprire problemi nella tecnologia che hanno creato, afferma Ilott. Non ci si possono aspettare standard maturi per le attuali applicazioni di IA perché gli sviluppatori stanno concentrando i loro sforzi sulla creazione di tecnologie ancora più dirompenti.

More Insights

Governanza dell’AI in Salute: Tra Innovazione e Sicurezza

Negli ultimi sei mesi, il panorama normativo sull'IA ha subito cambiamenti monumentali, con una crescente retorica che considera la regolamentazione come un ostacolo all'innovazione. È fondamentale...

Regole Ambigue: L’Industria AI Chiede un Rinvio della Legge Fondamentale

L'industria dell'IA esprime preoccupazioni riguardo agli standard normativi ambigui della legge fondamentale sull'IA, temendo che possano ostacolare la crescita del settore. Recentemente, Huang...

GDPR e AI: Rispettare la Privacy nel Marketing

Gli esperti di marketing devono affrontare le sfide della privacy dei dati con la conformità al GDPR e il nuovo EU AI Act. Queste normative richiedono trasparenza e consenso chiaro nell'uso dei dati...

La Piramide del Rischio nell’Atto UE sull’IA

Una delle caratteristiche distintive dell'EU AI Act è il suo approccio basato sul rischio. I sistemi di intelligenza artificiale non sono trattati allo stesso modo; come vengono regolati dipende dal...

AI agenti: le nuove frontiere della sicurezza e della regolamentazione

Le aziende di intelligenza artificiale affermano che le attuali normative possono governare l'intelligenza artificiale agentica, considerata la prossima evoluzione dell'IA generativa. Gli sviluppatori...

Divieto di AI nelle riunioni online: una scelta controversa

La Commissione Europea ha vietato l'uso di assistenti virtuali basati sull'IA durante le riunioni online, nonostante la crescente popolarità di tali strumenti. Questo divieto ha suscitato...

Riformare le Regole dell’AI: Un Futuro per l’Innovazione in Europa

OpenAI sollecita l'Unione Europea a semplificare le normative sull'intelligenza artificiale per evitare di soffocare l'innovazione e la competitività globale. La società afferma che regole...

Progettare Fiducia nell’AI Responsabile

L'integrazione rapida dell'intelligenza artificiale (AI) nella tecnologia quotidiana ha portato a grandi opportunità, ma anche a sfide etiche significative. I progettisti di prodotti stanno...

Interoperabilità nell’IA: Un Futuro Senza Fratture

Mentre ci troviamo a un punto critico nello sviluppo dell'IA, emerge una sfida di governance che potrebbe soffocare l'innovazione e creare divisioni digitali globali. L'attuale paesaggio della...