Intelligenza Artificiale: Le Grandi Aziende Sostengono Trump per Regole Meno Severe

Il Sostegno della Grande Tecnologia alla Proposta di Regolamentazione dell’AI da Parte del Presidente Trump

La proposta del presidente degli Stati Uniti, Donald Trump, di adottare un approccio più flessibile alla regolamentazione dell’intelligenza artificiale (AI) sta ricevendo un forte sostegno da parte di importanti aziende tecnologiche come Google, Meta e altri attori del settore come OpenAI, sostenuta da Microsoft, e Anthropic, sostenuta da Amazon.

In singole presentazioni al Piano d’Azione sull’AI della Casa Bianca, queste aziende tecnologiche hanno sostenuto che il rilascio delle normative riguardanti la costruzione di modelli di linguaggio di grandi dimensioni (LLM) e altri strumenti di AI è fondamentale per mantenere il vantaggio competitivo del paese nei confronti della Cina. Qualche mese fa, la startup cinese DeepSeek ha scosso la Silicon Valley affermando di aver costruito un modello di AI all’avanguardia a una frazione dei costi di sviluppo rispetto ai rivali statunitensi.

La Nuova Direzione del Presidente Trump

Da quando è entrato in carica a gennaio, gli sforzi del presidente Trump hanno segnato un cambiamento significativo nel focus, spostandosi dall’affrontare i rischi dell’AI, come allucinazioni, deepfake e sostituzione dei posti di lavoro, verso accelerare lo sviluppo dell’AI a tutti i costi.

Ha anche revocato l’ordine esecutivo dell’ex presidente Joe Biden sull’AI, che proponeva alcune misure di sicurezza per i modelli di AI potenti. “Il futuro dell’AI non sarà vinto con preoccupazioni eccessive sulla sicurezza,” ha affermato il vicepresidente JD Vance durante il AI Action Summit tenutosi a Parigi lo scorso mese.

Piano d’Azione sull’AI di Trump

Sottolineando la necessità per gli Stati Uniti di mantenere la propria posizione come “indiscutibile leader nella tecnologia AI”, l’amministrazione Trump ha invitato i leader del settore a fornire risposte su un piano d’azione per l’AI che dovrebbe essere redatto nei prossimi mesi estivi, secondo un rapporto di AFP.

Nel suo proposta politica, OpenAI ha definito i modelli di AI di DeepSeek come “sussidiati dallo stato” e “controllati dallo stato”, mettendo in evidenza i rischi per la privacy e la sicurezza. Ha sottolineato l’importanza di proteggere lo sviluppo dell’AI “sia dalle potenze autocratiche che priverebbero le persone delle loro libertà, sia da leggi e burocrazia che impedirebbero il loro realizzo.”

Le Risposte delle Aziende Tecnologiche

OpenAI ha anche sostenuto di dover essere autorizzata a formare i propri modelli di AI su contenuti protetti da copyright sotto l’eccezione dell’uso leale. “Senza l’accesso all’uso leale di materiali protetti da copyright… l’America perde, così come il successo dell’AI democratica,” ha affermato il creatore di ChatGPT.

Nel frattempo, la submission di Meta ha dichiarato: “I modelli open source sono essenziali per gli Stati Uniti per vincere la corsa all’AI contro la Cina e garantire il dominio dell’AI americana.” La risposta di Google si è concentrata sugli investimenti in infrastrutture per le sostanziali esigenze energetiche dell’AI. Ha anche contestato le normative a livello statale per l’AI negli Stati Uniti.

Un gruppo di artisti e celebrità di Hollywood, come Ben Stiller e Cynthia Erivo, ha invece respinto l’argomento dell’uso leale avanzato dalle aziende tecnologiche per giustificare la formazione dell’AI su materiali protetti da copyright.

La Situazione in Europa

Il approccio permissivo di Trump alla regolamentazione dell’AI non è esattamente allineato con gli sforzi dell’Unione Europea (UE), che ha adottato il Regolamento sull’AI nel 2024 per tenere sotto controllo la tecnologia.

I funzionari dell’UE stanno ora spostando il loro messaggio verso investimenti e innovazione piuttosto che sulla sicurezza, secondo rapporti. Tuttavia, il blocco sembra ancora impegnato a far rispettare normative severe contro le grandi aziende tecnologiche.

Recentemente, la Commissione Europea ha annunciato due decisioni importanti di enforcement antitrust contro Google e Apple. Nelle sue scoperte preliminari, l’organo esecutivo dell’UE ha affermato che la società madre di Google, Alphabet, ha quasi sicuramente violato le disposizioni del Digital Markets Act (DMA).

Una volta che le scoperte saranno conclusive, l’UE potrebbe imporre multe a Google che ammontano al 10% delle sue entrate annuali globali.

Inoltre, la Commissione ha delineato i passi che Apple deve seguire per conformarsi al DMA, in particolare la disposizione della legislazione sulla concorrenza che richiede ai “gatekeepers” designati di rendere i propri prodotti più facilmente e efficacemente interoperabili con dispositivi e servizi di terze parti.

“Le due scoperte preliminari che adottiamo oggi mirano a garantire che Alphabet rispetti le regole dell’UE quando si tratta di due servizi ampiamente utilizzati da aziende e consumatori in tutta l’UE, Google Search e telefoni Android,” è stata citata la commissaria alla concorrenza dell’UE, Teresa Ribera.

In risposta, Apple ha dichiarato: “Le decisioni di oggi ci avvolgono in una burocrazia, rallentando la capacità di Apple di innovare per gli utenti in Europa e costringendoci a cedere gratuitamente le nostre nuove funzionalità a aziende che non devono rispettare le stesse regole. È dannoso per i nostri prodotti e per i nostri utenti europei. Continueremo a lavorare con la Commissione Europea per aiutarli a comprendere le nostre preoccupazioni a nome dei nostri utenti.”

Google ha anche sostenuto che le scoperte preliminari della Commissione “renderanno più difficile per le persone trovare ciò che stanno cercando e ridurranno il traffico verso le aziende europee.”

More Insights

Politica AI del Quebec per Università e Cégeps

Il governo del Quebec ha recentemente rilasciato una politica sull'intelligenza artificiale per le università e i CÉGEP, quasi tre anni dopo il lancio di ChatGPT. Le linee guida includono principi...

L’alfabetizzazione AI: la nuova sfida per la conformità aziendale

L'adozione dell'IA nelle aziende sta accelerando, ma con essa emerge la sfida dell'alfabetizzazione all'IA. La legislazione dell'UE richiede che tutti i dipendenti comprendano gli strumenti che...

Legge sull’IA: Germania avvia consultazioni per l’attuazione

I regolatori esistenti assumeranno la responsabilità di monitorare la conformità delle aziende tedesche con l'AI Act dell'UE, con un ruolo potenziato per l'Agenzia Federale di Rete (BNetzA). Il...

Governare l’AI nell’Economia Zero Trust

Nel 2025, l'intelligenza artificiale non è più solo un concetto astratto, ma è diventata una realtà operativa che richiede un governance rigorosa. In un'economia a zero fiducia, le organizzazioni...

Il nuovo segretariato tecnico per l’IA: un cambiamento nella governance

Il prossimo quadro di governance sull'intelligenza artificiale potrebbe prevedere un "segreteria tecnica" per coordinare le politiche sull'IA tra i vari dipartimenti governativi. Questo rappresenta un...

Innovazione sostenibile attraverso la sicurezza dell’IA nei Paesi in via di sviluppo

Un crescente tensione si è sviluppata tra i sostenitori della regolamentazione dei rischi legati all'IA e coloro che desiderano liberare l'IA per l'innovazione. Gli investimenti in sicurezza e...

Verso un approccio armonioso alla governance dell’IA in ASEAN

Quando si tratta di intelligenza artificiale, l'ASEAN adotta un approccio consensuale. Mentre i membri seguono percorsi diversi nella governance dell'IA, è fondamentale che questi principi volontari...

Italia guida l’UE con una legge innovativa sull’IA

L'Italia è diventata il primo paese nell'UE ad approvare una legge completa che regola l'uso dell'intelligenza artificiale, imponendo pene detentive a chi utilizza la tecnologia per causare danni. La...

Regolamentare l’Intelligenza Artificiale in Ucraina: Verso un Futuro Etico

Nel giugno del 2024, quattordici aziende IT ucraine hanno creato un'organizzazione di autoregolamentazione per sostenere approcci etici nell'implementazione dell'intelligenza artificiale in Ucraina...