Compliance e Innovazione sotto l’Atto sull’IA dell’UE

Legislatori dell’UE e Leader dell’Industria Tecnologica: Misure per Facilitare la Conformità alla Legge UE sull’IA

I deepfake possono essere creati e utilizzati per vari scopi. Se rivelati correttamente come deepfake e se la loro creazione non viola la legge applicabile, la loro esistenza generalmente non solleva preoccupazioni per i legislatori. Secondo alcune fonti, il principio guida è se l’esistenza del deepfake viola la privacy o i diritti di proprietà intellettuale di qualcuno, oppure se il deepfake inganna consumatori, pubblico generale o persone di rilievo non avvisate adeguatamente.

Tuttavia, esistono segnali di allerta riguardo alla minaccia per la sicurezza e la privacy che questa tecnologia rappresenta, con la sua capacità di diffondere disinformazione e influenzare i comportamenti attraverso l’inganno. La sua abilità di impersonare persone, causare danni reputazionali a livello aziendale e personale, oltre a servire come veicolo per truffatori che estraggono grandi somme di denaro, la posiziona come un terreno fertile per destabilizzare la fiducia pubblica.

Recentemente, i file deepfake sono aumentati drasticamente, passando da 500.000 nel 2023 a 8 milioni nel 2025. Con la proliferazione di questi file, si è registrato un allarmante aumento del 3000% nei tentativi di frode nel 2023. Nel 2024, si sono verificati incidenti di deepfake a un ritmo di uno ogni 5 minuti, e si prevede che le perdite finanziarie negli Stati Uniti, facilitate dall’IA generativa, aumenteranno da 12,3 miliardi di dollari nel 2023 a 40 miliardi entro il 2027, con un tasso di crescita annuo composto del 32%.

Preoccupazioni Legali e Risposte Normative

Il crescente uso improprio dei deepfake e il rischio crescente per i diritti dei consumatori, la privacy e la proprietà intellettuale hanno suscitato preoccupazioni nelle comunità internazionali. In risposta, i legislatori di tutto il mondo hanno istituito varie leggi per tutelare i diritti più vulnerabili alle violazioni da parte dei deepfake. Le normative attualmente approvate e quelle proposte si concentrano su:

  • Trasparenza: etichettatura dei contenuti generati dall’IA.
  • Consenso: permesso dalla persona il cui volto è stato pubblicato, replicato o manipolato dallo strumento IA.
  • Requisiti di rimozione: obblighi per aziende e piattaforme che pubblicano contenuti deepfake.

La Legge UE sull’IA

La Legge UE sull’IA, il primo insieme di norme a fornire un quadro giuridico per affrontare i rischi associati all’IA, è entrata in vigore nell’agosto 2024 e prevede un approccio graduale all’implementazione. Da quando è stata promulgata, ha attirato attenzione e acceso dibattiti riguardo alla sua potenziale capacità di stabilire un precedente per future leggi sull’IA a livello globale, oltre a critiche per una regolamentazione eccessiva che potrebbe limitare l’innovazione nel settore tecnologico.

Per rispondere alle preoccupazioni dell’industria tecnologica su oneri burocratici e linee guida vaghe per la conformità, la Commissione Europea ha proposto un “Pacchetto di Semplificazione Digitale” destinato a semplificare le norme della legge. La parte “Digital Omnibus” del pacchetto modifica la legge per consentire un’applicazione più prevedibile ed efficiente dei requisiti normativi.

Collaborazione con l’Industria Tecnologica

Inoltre, la Commissione ha pianificato riunioni con gruppi dell’industria tecnologica per discutere specificamente i requisiti di etichettatura previsti dalla legge, che entreranno in vigore nell’agosto 2026. Per garantire che le piattaforme responsabili della conformità comprendano come rispettare la legge, i regolatori stanno collaborando con esperti del settore per creare un codice di condotta, che fornirà indicazioni alle aziende su come conformarsi alla normativa. Le parti negozieranno i termini del codice volontario nei prossimi mesi, con una prima bozza prevista per dicembre 2025, una seconda per giugno 2026 e la versione finale per agosto 2026.

Poiché i quadri normativi variano da paese a paese, le aziende che operano a livello internazionale devono allinearsi a tutti i requisiti delle giurisdizioni in cui sono presenti commercialmente. Per le imprese che operano in qualsiasi paese dell’UE, è fondamentale rispettare i requisiti della Legge UE sull’IA. Anche le aziende che non operano in tali sedi devono prestare attenzione, poiché la legge è frequentemente citata e potrebbe fungere da modello per legislazioni simili in altre giurisdizioni, analogamente all’influenza del GDPR.

Conclusione

In evidenza l’importanza attribuita da tutte le parti a facilitare un percorso fluido verso la conformità alla legge, le aziende tecnologiche concorrenti hanno collaborato per formare una coalizione che ha sviluppato una tecnica per codificare informazioni sull’origine dei contenuti e sulla generazione tramite IA nei metadati. Con il progresso della tecnologia IA, è probabile che vedremo sempre più innovatori utilizzare tali innovazioni per semplificare la conformità normativa.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...