Ritardi nella Regolamentazione dell’IA: Una Nuova Strada per il Regno Unito

Ritardo nella Regolamentazione dell’IA nel Regno Unito

Le proposte per regolamentare l’intelligenza artificiale (IA) sono state posticipate di almeno un anno, poiché i ministri britannici pianificano un progetto di legge completo per regolamentare la tecnologia e il suo utilizzo dei materiali protetti da copyright.

Un Progetto di Legge Completo

Il segretario alla tecnologia, Peter Kyle, intende presentare un “comprehensive” progetto di legge sull’IA nella prossima sessione parlamentare per affrontare preoccupazioni riguardanti questioni come la sicurezza e il copyright.

Questo non sarà pronto prima del prossimo discorso del re, e probabilmente genererà preoccupazioni riguardo ai ritardi nella regolamentazione della tecnologia. La data per il prossimo discorso del re non è stata ancora fissata, ma diverse fonti indicano che potrebbe avvenire a maggio 2026.

Origini del Progetto di Legge

Il partito laburista aveva inizialmente pianificato di introdurre un breve progetto di legge sull’IA nei mesi successivi all’assunzione del governo, focalizzandosi su modelli di linguaggio di grandi dimensioni, come ChatGPT.

La legislazione avrebbe richiesto alle aziende di consegnare i loro modelli per test presso l’AI Security Institute del Regno Unito. L’obiettivo era affrontare preoccupazioni che i modelli di IA potessero diventare così avanzati da costituire un rischio per l’umanità.

Collegamenti con l’Amministrazione Trump

Questo progetto di legge è stato ritardato, poiché i ministri hanno scelto di attendere e allinearsi con l’amministrazione di Donald Trump negli Stati Uniti, per timore che una regolamentazione potesse indebolire l’attrattiva del Regno Unito per le aziende di IA.

Inclusione delle Regole sul Copyright

I ministri ora vogliono includere le regole sul copyright per le aziende di IA come parte del progetto di legge sull’IA. “Riteniamo di poter utilizzare quel veicolo per trovare una soluzione sul copyright,” ha dichiarato una fonte governativa. “Abbiamo avuto incontri con creatori e tecnici e ci sono idee interessanti per andare avanti. Quel lavoro inizierà seriamente una volta approvata la legge sui dati.”

Controversie e Resistenza

Il governo è già bloccato in uno stallo con la Camera dei Lords riguardo alle regole sul copyright in un separato progetto di legge sui dati. Questo progetto permetterebbe alle aziende di IA di addestrare i propri modelli utilizzando materiali protetti da copyright a meno che il titolare dei diritti non scelga di rinunciare.

Ha provocato una feroce reazione da parte del settore creativo, con artisti come Elton John, Paul McCartney e Kate Bush che hanno sostenuto una campagna per opporsi ai cambiamenti.

Amendamenti e Impegni del Governo

Questa settimana, i membri della Camera dei Lords hanno sostenuto un emendamento al progetto di legge sui dati che richiederebbe alle aziende di IA di divulgare se stavano utilizzando materiali protetti da copyright per addestrare i propri modelli, nel tentativo di far rispettare la legge attuale sul copyright.

Tuttavia, i ministri hanno rifiutato di cedere, anche se Kyle ha espresso rimpianto riguardo al modo in cui il governo ha gestito i cambiamenti. Il governo insiste sul fatto che il progetto di legge sui dati non è il veicolo giusto per la questione del copyright e ha promesso di pubblicare una valutazione di impatto economico e una serie di rapporti tecnici sui problemi di copyright e IA.

Opinioni Pubbliche e Futuro

In una lettera ai deputati, Kyle ha fatto un ulteriore impegno per stabilire un gruppo di lavoro interpartitico di parlamentari su IA e copyright.

La maggior parte del pubblico britannico (88%) crede che il governo dovrebbe avere il potere di fermare l’uso di un prodotto IA se è ritenuto costituire un serio rischio, secondo un sondaggio pubblicato dall’Ada Lovelace Institute e dall’Alan Turing Institute. Più del 75% ha affermato che il governo o le autorità di regolamentazione dovrebbero supervisionare la sicurezza dell’IA piuttosto che le sole aziende private.

Scott Singer, un esperto di IA presso il Carnegie Endowment for International Peace, ha dichiarato: “Il Regno Unito si sta posizionando strategicamente tra gli Stati Uniti e l’UE. Come gli Stati Uniti, la Gran Bretagna sta cercando di evitare una regolamentazione eccessivamente aggressiva che potrebbe danneggiare l’innovazione, esplorando nel contempo modi per proteggere in modo significativo i consumatori. Questo è l’equilibrio da mantenere.”

More Insights

Classifica il tuo sistema AI in pochi minuti

L'EU AI Act cambierà il modo in cui l'IA viene costruita, valutata e distribuita in Europa. Per facilitare la classificazione del rischio dei sistemi di intelligenza artificiale, è disponibile un...

Intelligenza artificiale e armonizzazione legale a Yokohama

L'Associazione Internazionale per la Protezione della Proprietà Intellettuale (AIPPI) si riunirà a Yokohama dal 13 al 16 settembre 2025, affrontando temi cruciali come l'intelligenza artificiale e il...

Legge sull’Intelligenza Artificiale in Colorado: Impatti e Responsabilità per le Aziende

La settimana scorsa, i legislatori del Colorado hanno tenuto una sessione speciale che ha portato a una decisione di posticipare l'implementazione della Colorado Artificial Intelligence Act (CAIA)...

Sorveglianza AI: Sicurezza e Privacy in Equilibrio

La sorveglianza guidata dall'IA offre vantaggi operativi reali, ma presenta anche rischi significativi per la privacy e le libertà civili. È fondamentale trovare un equilibrio umano che rispetti i...

AI Responsabile nel Settore Finanziario: Dalla Teoria alla Pratica

La discussione globale sull'intelligenza artificiale è entrata in una nuova fase, spostandosi verso la domanda su come utilizzare questi strumenti in modo responsabile, specialmente nei servizi...

Costruire AI di fiducia per un futuro sostenibile

La certificazione può trasformare la regolamentazione da un vincolo a un'opportunità, facilitando l'adozione di AI fidate e sostenibili. Con normative come l'AI Act dell'Unione Europea, le aziende che...

Intelligenza Artificiale Spiegabile: Costruire Fiducia nel Futuro

L'Intelligenza Artificiale Spiegabile (XAI) è essenziale per costruire fiducia, garantire trasparenza e consentire responsabilità in settori ad alto rischio come la sanità e la finanza. Le normative...

Regolamentare l’IA: Rischi e Opportunità per il Futuro

L'intelligenza artificiale è la tecnologia rivoluzionaria più trasformativa della nostra era, ma porta con sé enormi rischi. Senza una regolamentazione adeguata, questi rischi possono minare la...

Flussi AI Responsabili per la Ricerca UX

Questo articolo esplora come l'intelligenza artificiale può essere integrata in modo responsabile nei flussi di lavoro della ricerca UX, evidenziando i benefici e i rischi associati. L'AI può...