Rischi del Regolamento AI dell’UE per le Aziende Americane

Da Meta ad Airbnb: Le Aziende Segnalano i Rischi Legati al Regolamento UE sull’IA

Un numero crescente di aziende, tra cui Meta Platforms Inc., Adobe Inc. e almeno 70 altre aziende quotate negli Stati Uniti, stanno avvertendo gli investitori che il regolamento sull’IA dell’Unione Europea, che è il più esteso al mondo, rappresenta un rischio significativo per le loro attività.

Il Regolamento sull’Intelligenza Artificiale dell’UE impone obblighi ai fornitori, distributori e produttori di sistemi di intelligenza artificiale, e potrebbe richiedere costi di conformità notevoli, costringendo le aziende a modificare le loro offerte di prodotti.

Molte di queste aziende hanno rivelato preoccupazioni relative a questo regolamento per la prima volta nei loro rapporti annuali, specificando che il Regolamento sull’IA dell’UE rappresenta un rischio nei recenti documenti 10-K presentati alla Commissione per i Valori Mobiliari degli Stati Uniti.

Il Contesto Normativo

Il regolamento, entrato in vigore ad agosto, si aggiunge a una serie esistente di leggi relative alla tecnologia e alla privacy dei dati. Il Regolamento sull’IA ha già visto l’entrata in vigore delle sue prime disposizioni, che vietano usi eccessivamente rischiosi dell’IA nell’UE a partire da febbraio.

Le aziende temono che potrebbero affrontare richieste civili e pesanti multe se accusate di violare la legge. Secondo Minesh Tanna, esperto globale sull’IA presso Simmons & Simmons LLP, ciò riflette la possibilità di un’applicazione aggressiva della legge.

Preoccupazioni Diverse

Le regole basate sul rischio del regolamento mirano a garantire che i sistemi di IA nell’UE siano sicuri e rispettino i diritti fondamentali, cercando di eliminare pratiche come la decezione basata sull’IA.

La conformità a queste normative potrebbe imporre costi significativi alle aziende, come indicato da Gartner Inc. nel suo rapporto 10-K. Tali costi possono derivare dall’assunzione di nuovo personale, dalla consulenza esterna o da altri costi operativi.

Ad esempio, Airbnb ha avvertito che le normative, incluso il Regolamento sull’IA dell’UE, potrebbero influenzare la loro capacità di utilizzare, procurare e commercializzare strumenti di IA e machine learning in futuro.

Conseguenze Incerte

La legge potrebbe richiedere modifiche all’uso dell’IA nei prodotti disponibili a seconda del livello di rischio coinvolto. Secondo Roblox Corp., le aziende potrebbero dover affrontare requisiti di conformità più rigorosi per usi di IA considerati ad alto rischio, come l’identificazione biometrica.

Inoltre, il rispetto delle normative potrebbe comportare sanzioni fino a 35 milioni di euro (circa 36 milioni di dollari) o il 7% del fatturato globale annuale, a seconda di quale importo sia maggiore.

Futuro della Comunicazione

Il segnalare i rischi legati all’IA è previsto per creare un effetto domino man mano che le aziende apprendono di più sulla legge dell’UE. Questo potrebbe spingere le aziende a sviluppare sistemi di gestione del rischio più solidi e a garantire che i dipendenti comprendano l’intero ciclo di vita dello sviluppo dell’IA.

Le attuali divulgazioni potrebbero suscitare ulteriori preoccupazioni da parte del pubblico riguardo alla governance dell’IA da parte delle aziende, con domande sugli aspetti di responsabilità e conformità.

In sintesi, dato il potere di mercato dell’UE, le aziende non possono trascurare una delle più grandi aree di mercato al mondo riguardo alla costruzione di sistemi di IA.

More Insights

Politica AI del Quebec per Università e Cégeps

Il governo del Quebec ha recentemente rilasciato una politica sull'intelligenza artificiale per le università e i CÉGEP, quasi tre anni dopo il lancio di ChatGPT. Le linee guida includono principi...

L’alfabetizzazione AI: la nuova sfida per la conformità aziendale

L'adozione dell'IA nelle aziende sta accelerando, ma con essa emerge la sfida dell'alfabetizzazione all'IA. La legislazione dell'UE richiede che tutti i dipendenti comprendano gli strumenti che...

Legge sull’IA: Germania avvia consultazioni per l’attuazione

I regolatori esistenti assumeranno la responsabilità di monitorare la conformità delle aziende tedesche con l'AI Act dell'UE, con un ruolo potenziato per l'Agenzia Federale di Rete (BNetzA). Il...

Governare l’AI nell’Economia Zero Trust

Nel 2025, l'intelligenza artificiale non è più solo un concetto astratto, ma è diventata una realtà operativa che richiede un governance rigorosa. In un'economia a zero fiducia, le organizzazioni...

Il nuovo segretariato tecnico per l’IA: un cambiamento nella governance

Il prossimo quadro di governance sull'intelligenza artificiale potrebbe prevedere un "segreteria tecnica" per coordinare le politiche sull'IA tra i vari dipartimenti governativi. Questo rappresenta un...

Innovazione sostenibile attraverso la sicurezza dell’IA nei Paesi in via di sviluppo

Un crescente tensione si è sviluppata tra i sostenitori della regolamentazione dei rischi legati all'IA e coloro che desiderano liberare l'IA per l'innovazione. Gli investimenti in sicurezza e...

Verso un approccio armonioso alla governance dell’IA in ASEAN

Quando si tratta di intelligenza artificiale, l'ASEAN adotta un approccio consensuale. Mentre i membri seguono percorsi diversi nella governance dell'IA, è fondamentale che questi principi volontari...

Italia guida l’UE con una legge innovativa sull’IA

L'Italia è diventata il primo paese nell'UE ad approvare una legge completa che regola l'uso dell'intelligenza artificiale, imponendo pene detentive a chi utilizza la tecnologia per causare danni. La...

Regolamentare l’Intelligenza Artificiale in Ucraina: Verso un Futuro Etico

Nel giugno del 2024, quattordici aziende IT ucraine hanno creato un'organizzazione di autoregolamentazione per sostenere approcci etici nell'implementazione dell'intelligenza artificiale in Ucraina...