Regno Unito: Innovazione nell’AI mentre l’UE frena

Le aziende britanniche guidano la corsa all’IA, mentre la regolamentazione frena l’UE

Le aziende britanniche stanno dimostrando di essere molto più propense ad avere piani per l’implementazione dell’Intelligenza Artificiale (IA) rispetto ai loro omologhi europei, che si trovano ad affrontare difficoltà legate alla regolamentazione.

Un divario significativo nell’adozione dell’IA

Una nuova ricerca condotta da Harris per conto della piattaforma Dataiku ha messo in luce un divario significativo nell’adozione dell’IA tra il Regno Unito e l’Unione Europea a causa delle preoccupazioni legate alla regolamentazione.

Secondo il rapporto, solo il 26% dei CEO britannici ha riportato di aver ritardato iniziative a causa di regolamenti poco chiari o in evoluzione, rispetto al 59% in Francia.

Piani strutturati per l’implementazione dell’IA

Le aziende del Regno Unito sembrano adottare un approccio più strutturato, con il 23% dei CEO che ha tracciato una roadmap formale per l’implementazione dell’IA nel prossimo anno. Questo è quasi il doppio della media globale del 12% e ben oltre il 5% dei dirigenti tedeschi che hanno riferito di avere un piano in atto.

Florian Douetteau, CEO di Dataiku, ha dichiarato: “La ricerca di mercato nel nostro rapporto suggerisce che una ridotta incertezza normativa sta dando alle aziende britanniche la chiarezza necessaria per agire, accelerando l’innovazione e l’adozione, anche mentre l’IA evolve a un ritmo incessante”.

La differenza di approccio regolamentare tra Regno Unito e UE

L’approccio normativo dell’UE nei confronti della tecnologia è generalmente stato più rigoroso rispetto a quello del Regno Unito. Il loro AI Act è il framework più completo introdotto fino ad oggi.

Inoltre, insieme agli Stati Uniti, il Regno Unito ha rifiutato di firmare l’accordo che prometteva un approccio aperto, inclusivo ed etico allo sviluppo dell’IA. Un portavoce del governo ha spiegato che il Regno Unito “riteneva che la dichiarazione non fornisse sufficiente chiarezza pratica sulla governance globale, né affrontasse adeguatamente le questioni più difficili relative alla sicurezza nazionale e alle sfide che l’IA pone”.

Non sorprende che il vicepresidente degli Stati Uniti, JD Vance, abbia avvertito contro l’adozione di un approccio che disincentivi “gli innovatori dal prendere i rischi necessari per progredire”.

Costruire un’IA responsabile

Jacob Beswick, direttore senior della governance dell’IA presso Dataiku, ha affermato: “Il EU AI Act ha sollevato più domande di quante ne abbia risposte, e nel processo, le aziende all’interno della sua giurisdizione sono diventate sempre più esitanti riguardo ai loro programmi di IA”.

“Mentre il Regno Unito ha meno restrizioni, le aziende devono assicurarsi di costruire l’IA con uno scopo e responsabilità, piuttosto che semplicemente perché possono”.

More Insights

Regolamentazione dell’IA: verso un futuro più sicuro nel settore assicurativo

Il Chartered Insurance Institute (CII) ha richiesto chiari quadri di responsabilità e una strategia di competenze a livello settoriale per guidare l'uso dell'intelligenza artificiale (AI) nei servizi...

Regolamentazione dell’IA nel settore MedTech in APAC

La regolamentazione dell'intelligenza artificiale (AI) nella regione Asia-Pacifico è ancora agli inizi, principalmente governata da normative esistenti progettate per altre tecnologie. Nonostante ciò...

Sviluppi dell’Intelligenza Artificiale a New York: Cosa Sapere per il Futuro del Lavoro

Nel primo semestre del 2025, New York ha iniziato a regolare l'intelligenza artificiale (AI) a livello statale con l'introduzione di leggi per affrontare la discriminazione algoritmica, in particolare...

Gestire i Rischi dell’Intelligenza Artificiale: Un Approccio Strategico

L'articolo discute l'importanza della gestione dei rischi nell'intelligenza artificiale, evidenziando che il rischio AI può derivare da dati errati o da attacchi esterni. Utilizzare un framework di...

Comprendere l’Atto sull’Intelligenza Artificiale dell’UE

L'Unione Europea ha introdotto l'Artificial Intelligence Act (AI Act), una regolamentazione storica progettata per gestire i rischi e le opportunità delle tecnologie AI in Europa. Questo articolo...

Legge Fondamentale sull’IA in Corea: Un Nuovo Orizzonte Normativo

La Corea del Sud ha adottato la Legge di Base sull'Intelligenza Artificiale, diventando il primo mercato asiatico a stabilire un quadro normativo completo per l'IA. Questa legislazione avrà un impatto...

Intelligenza Artificiale e Regolamentazione: Preparati al Cambiamento

L'atto sull'IA dell'UE e il DORA stanno creando una nuova complessità per le entità finanziarie, richiedendo un approccio basato sul rischio. È fondamentale quantificare l'impatto finanziario delle...

Regolamentare l’IA: Sfide e Opportunità nell’Atlantico

L'intelligenza artificiale (IA) è diventata una delle forze tecnologiche più decisive del nostro tempo, con il potere di rimodellare le economie e le società. Questo capitolo esplora il momento...

Strategia Europea per l’Intelligenza Artificiale: Verso le Gigafabbriche

La Commissione Europea vuole ridurre le barriere per l'implementazione dell'intelligenza artificiale, promuovendo la costruzione di "gigafabbriche AI" per migliorare l'infrastruttura dei centri dati...