Ritardi e Regole: Il Futuro dell’Intelligenza Artificiale in Europa

Codice di Pratica per le Regole sull’Intelligenza Artificiale dell’UE

Secondo recenti dichiarazioni della Commissione Europea, un codice di pratica progettato per assistere le aziende nella conformità alle normative sull’intelligenza artificiale (IA) potrebbe essere rilasciato solo alla fine del 2025. Questo ritardo potrebbe superare i sei mesi rispetto alla scadenza inizialmente prevista.

Richieste di Rinvio

Numerose aziende, tra cui Google e Meta Platforms, insieme a diverse aziende europee come Mistral e ASML, hanno richiesto un rinvio nell’implementazione dell’ Artificial Intelligence Act. Questa richiesta è motivata in parte dalla mancanza di un codice di pratica adeguato.

Pubblicazione del Codice di Pratica

La pubblicazione del Codice di Pratica per i modelli di linguaggio di grandi dimensioni (GPAI) come ChatGPT di OpenAI e modelli simili lanciati da Google e Mistral era originariamente pianificata per il 2 maggio. Tuttavia, attualmente la Commissione sta considerando la fine del 2025 come possibile scadenza per l’implementazione.

Conseguenze per le Aziende

Iscriversi al codice di pratica sarà volontario, ma le aziende che decidono di non farlo, come alcune grandi aziende tecnologiche hanno già indicato, non beneficeranno della certezza legale fornita ai firmatari.

Impegno della Commissione

La Commissione ha respinto le richieste di rinvio per l’implementazione delle regole sull’IA, ribadendo che il loro impegno verso gli obiettivi dell’ Artificial Intelligence Act, come l’istituzione di regole armonizzate basate sul rischio in tutta l’UE e la garanzia della sicurezza dei sistemi di IA nel mercato europeo, rimane invariato.

Con la crescente attenzione verso la regolamentazione dell’IA, il codice di pratica rappresenta un passo cruciale per garantire che le aziende possano operare in un ambiente normativo chiaro e sicuro, mentre si sforzano di innovare in un campo in rapida evoluzione.

More Insights

Ritardi e Regole: Il Futuro dell’Intelligenza Artificiale in Europa

Un codice di pratiche progettato per aiutare le aziende a conformarsi alle normative sull'intelligenza artificiale dell'Unione Europea potrebbe essere emesso solo alla fine del 2025. La Commissione ha...

Texas e la Nuova Legge sull’IA: Trasparenza e Sicurezza in Arrivo

Il 22 giugno 2025, il governatore del Texas, Greg Abbott, ha firmato la legge House Bill 149, che istituisce il Texas Responsible Artificial Intelligence Governance Act (TRAIGA). La legge impone...

Rinominare l’Istituto di Sicurezza dell’AI: una questione di priorità

La recente decisione del Segretario del Commercio degli Stati Uniti, Howard Lutnick, di rinominare l'Istituto di Sicurezza AI degli Stati Uniti in Centro per gli Standard e l'Innovazione AI...

AI Responsabile: Innovazione e Fiducia nel Futuro

NetApp sostiene l'AI responsabile sia internamente che esternamente, integrando principi etici e strutture di governance nei suoi quadri di governance dell'AI. Questo approccio non solo riduce i...

Dati Fidati per l’AI: La Chiave della Trasformazione nel Settore Telecomunicazioni

L'intelligenza artificiale (AI) non è più un concetto futuristico nel settore delle telecomunicazioni, ma è la forza trainante dietro la trasformazione dell'industria. Tuttavia, questa rivoluzione...

Marocco: Pioniere nella Governance Globale dell’IA

Il Marocco ha preso un'iniziativa precoce nel promuovere la governance globale dell'intelligenza artificiale, collaborando con gli Stati Uniti e aderendo all'iniziativa cinese. L'ambasciatore Omar...

La battaglia per la regolamentazione dell’IA

La battaglia su chi deve regolare l'IA è tutt'altro che finita. Nonostante il passaggio del One Big Beautiful Bill Act al Senato, l'emendamento controverso che imponeva un divieto di regolamentazione...

Pronti per l’AI: Valutare l’Adattamento nel Settore Farmaceutico

L'intelligenza artificiale è destinata a trasformare ogni angolo dell'industria farmaceutica, dalla scoperta delle molecole alle sperimentazioni cliniche. È fondamentale che le organizzazioni...

Rafforzare la Sicurezza dell’IA: L’Allineamento Responsabile di phi-3

Il documento discute l'importanza della sicurezza nell'intelligenza artificiale attraverso il modello phi-3, sviluppato secondo i principi di AI responsabile di Microsoft. Viene evidenziato come il...