Piani dell’UE per un’estensione dei termini per le aziende per rispettare le regole sull’AI Acth2>
La Commissione Europea sta preparando una b>pausab> nell’applicazione di alcune parti fondamentali delle sue normative sull’intelligenza artificiale (AI), concedendo così alle aziende più tempo per adattarsi ai requisiti più rigorosi della legge. Recentemente, è stato annunciato che l’applicazione delle regole relative ai sistemi AI ad alto rischio sarà posticipata fino a b>dicembre 2027b>. Questa decisione è stata presa dopo mesi di pressioni da parte di aziende tecnologiche globali e gruppi imprenditoriali.p>
Cosa copre il rinvioh3>
Le modifiche interessano le parti dell’AI Act, che è stata approvata l’anno scorso e prevedeva l’introduzione di nuovi obblighi per le aziende nei prossimi tre anni. Le regole per i sistemi ad alto rischio – come l’identificazione biometrica, la valutazione del credito, la selezione del personale, i servizi sanitari, gli strumenti per le forze dell’ordine, i sistemi di traffico e la gestione dei servizi pubblici – avrebbero dovuto entrare in vigore entro la metà del b>2026b>. Con il nuovo piano, l’applicazione completa non inizierà fino alla fine del b>2027b>.p>
Le preoccupazioni sollevateh3>
Questi sistemi sollevano preoccupazioni poiché possono influenzare decisioni riguardanti l’identità di una persona, l’accesso ai servizi, la mobilità o i diritti legali. La Commissione sostiene che le aziende necessitano di più tempo per soddisfare le b>esigenze tecnicheb> e legali associate a questi strumenti.p>
Il pacchetto Digital Omnibush3>
Il pacchetto Digital Omnibus include anche modifiche al GDPR, alla direttiva e-Privacy e alla Data Act. Una delle proposte più discusse è un aggiornamento del GDPR che consentirebbe alle aziende – tra cui b>Googleb>, b>Metab>, b>OpenAIb> e altre – di utilizzare i dati personali delle persone in Europa per addestrare modelli AI. Sebbene ciò si basi su regole e salvaguardie chiare, i gruppi per la privacy avvertono che potrebbe indebolire le protezioni in vigore dal b>2018b>.p>
Pressioni esterne e reazionih3>
La Commissione afferma che il rallentamento non indebolisce la sua posizione sulla sicurezza dell’AI. Gli ufficiali sostengono che l’Europa necessita di un insieme di regole più chiare che le aziende possano effettivamente seguire, piuttosto che un quadro ambizioso che diventa troppo difficile da applicare in pratica. Inoltre, le aziende tecnologiche degli Stati Uniti e dell’Asia hanno avvertito che regole rigorose potrebbero scoraggiare gli investimenti o rallentare la ricerca sull’AI in Europa.p>
I gruppi imprenditoriali hanno accolto favorevolmente il tempo supplementare, affermando che le scadenze originali erano troppo ravvicinate e rischiavano di creare confusione.p>
Critiche dai gruppi per i diritti digitalih3>
I difensori dei diritti digitali vedono le modifiche in modo diverso. Gruppi come b>European Digital Rights (EDRi)b> avvertono che il pacchetto potrebbe indebolire i diritti di protezione dei dati e facilitare la raccolta di dati personali da parte di grandi aziende. Critici affermano che l’UE sta retrocedendo dalla sua posizione di rigorosa regolamentazione.p>
Cosa succederà dopoh3>
Il pacchetto Digital Omnibus deve ancora ricevere l’approvazione del Parlamento Europeo e del Consiglio. I legislatori sono attesi a dibattere la proposta nei prossimi mesi e alcuni potrebbero spingere per modifiche prima del voto. Anche dopo l’approvazione, le date di inizio esatte per alcune regole dipendono dalla prontezza degli standard di supporto, il che aggiunge ulteriore incertezza per le aziende.p>
Per il momento, l’Europa cerca di bilanciare due obiettivi: proteggere le persone dai sistemi AI rischiosi e mantenere competitiva la sua industria tecnologica. I prossimi mesi mostreranno se il nuovo piano sarà in grado di raggiungere entrambi gli obiettivi.p>