Le Complesse Politiche del Nuovo Ordine Esecutivo AI di Trump

Le Politiche Complesse del Nuovo Ordine Esecutivo sull’AI di Trump

Il tentativo dell’amministrazione di sopprimere la regolazione dell’AI a livello statale rischia ripercussioni legali, resistenza bipartisan e sfiducia pubblica, minando l’innovazione che cerca di promuovere.

L’amministrazione Trump ha rilasciato un ordine esecutivo (EO) volto a precludere la capacità degli stati di regolamentare l’intelligenza artificiale (AI). L’ordine mette in discussione la costituzionalità delle leggi statali sull’AI, trattiene fondi federali dagli stati considerati avere regimi normativi onerosi sull’AI, facilita la redazione di standard nazionali per l’AI e ordina la creazione di un quadro normativo federale sull’AI che potrebbe eventualmente diventare legge. Questo potrebbe raffreddare l’attività normativa statale sull’AI, provocando al contempo una valanga di sfide legali da parte degli stati e una forte reazione bipartisan, riducendo le possibilità di trasformare un quadro normativo nazionale preemptivo in legge federale.

Questo movimento avviene mentre gli stati sviluppano legislazioni per affrontare i rischi legati all’AI, rilevanti per molti elettori: sicurezza dei bambini, salute mentale, preoccupazioni lavorative e economiche, e richieste energetiche, per citarne alcuni. Almeno due volte, i legislatori hanno tentato e fallito di attuare un moratorio che condizionerebbe l’accesso degli stati ai fondi federali all’assenza di legislazione sull’AI (o impedirebbero agli stati di far rispettare le leggi sull’AI attraverso altri mezzi) per un periodo di tempo prestabilito. Il nuovo ordine esecutivo va ancora oltre, ordinando a un gruppo di lavoro di sfidare le leggi statali sull’AI e facilitare la creazione di un quadro nazionale per l’AI. L’EO sembra essere il tentativo dell’amministrazione di superare una forte opposizione da parte degli stakeholder di entrambi i lati politici alla preclusione della legislazione statale sull’AI.

Una Storia di Tentativi Falliti di Bloccare le Leggi Statali sull’AI

I precedenti tentativi di limitare la legislazione statale sull’AI hanno assunto diverse forme. Inizialmente, un senatore ha sostenuto l’aggiunta di un moratorio di 10 anni a un ampio progetto di legge fiscale e sull’immigrazione. Il moratorio ha superato la Camera, ma non il Senato, dopo le proteste di legislatori e gruppi di protezione dei consumatori. Sebbene un linguaggio simile sia stato incluso nel piano d’azione sull’AI, le raccomandazioni politiche del piano erano non vincolanti. Recentemente, un tentativo di includere un moratorio nella legge di autorizzazione della difesa nazionale è stato rapidamente bloccato dai leader dei comitati dei servizi armati per accelerare la riconciliazione dopo la chiusura del governo. L’amministrazione sembra essersi rivolta a un ordine esecutivo dopo aver fallito nel superare questi ostacoli legislativi.

La ragione principale per la preclusione federale delle leggi statali sull’AI sembra essere la scommessa dell’amministrazione che la deregolamentazione dell’AI continuerà a stimolare l’economia e mantenere il dominio globale dell’America nell’AI. Le aziende di AI e alcuni sostenitori politici sono cauti rispetto all’eccessiva regolamentazione, sostenendo che i legislatori troppo zelanti potrebbero compromettere la traiettoria dello sviluppo dell’AI americana creando un ambiente normativo frammentato che rallenta sia lo sviluppo che l’adozione dell’AI. Gli scettici della regolamentazione sperano che se gli stati rinviano l’approvazione delle leggi sull’AI, l’industria dell’AI possa continuare la sua corsa sfrenata verso i benefici promessi dalla tecnologia.

Fratture All’interno della Coalizione Repubblicana sulla Regolazione dell’AI

Il fallimento di più tentativi di bloccare le leggi statali sull’AI prima dell’EO di dicembre solleva domande interessanti sulle diverse fazioni che plasmano la politica dell’AI. La regolamentazione dell’AI è emersa come una questione divisiva tra i repubblicani, dividendo anche la base di Trump e i loro alleati ideologici. Altri repubblicani, che sono contro le grandi tecnologie, o favorevoli ai diritti degli stati, o preoccupati per la sicurezza dei bambini, sono riluttanti a annullare completamente la capacità degli stati di regolamentare una potente tecnologia per i consumatori. Altri sono preoccupati che il draft dell’ordine esecutivo consoliderebbe il potere nelle mani di un singolo consigliere. Anche i legislatori conservatori e liberali riconoscono sempre più la necessità di proteggere la popolazione statunitense dai danni attuali e futuri dell’AI. Sebbene i membri di questa coalizione possano differire sulle priorità dei rischi legati all’AI, riconoscono il valore della governance nel plasmare la traiettoria dei sistemi di AI.

Attualmente, gli stati stanno guidando lo sviluppo di meccanismi di governance legale per l’AI. Il fatto che leggi relative all’AI siano già state approvate in diversi stati riflette la crescente domanda che sarà difficile fermare, anche con un moratorio completo.

I Limiti della Leadership Federale Tramite Azione Esecutiva

Il presidente afferma che l’EO stabilirà una leadership federale nella regolazione dell’AI, sostenendo che un mosaico di leggi a livello statale causerà confusione aziendale e ostacolerà l’innovazione nell’AI. Tuttavia, in assenza di leggi federali, gli stati stanno guidando lo sviluppo di una governance efficace dell’AI che potrebbe effettivamente stimolare l’innovazione e beneficiare la sicurezza nazionale. Una sezione dell’EO cerca in parte di riconciliare questo escludendo le leggi statali relative alla sicurezza dei bambini e agli incentivi per l’infrastruttura di computazione e data center dalla preclusione federale. Queste esenzioni appaiono come un tentativo di placare i critici di un divieto generale delle leggi statali e riconoscono l’importanza di questi temi per gli alleati repubblicani dell’amministrazione.

Tuttavia, i critici probabilmente vedranno questo tentativo come inadeguato. I legislatori di tutti i partiti sono preoccupati per molte questioni oltre a quelle esentate nell’ordine. La codificazione di un quadro normativo federale basato sull’EO affronterà probabilmente opposizioni al Congresso, minando un pilastro chiave dell’ordine.

I Rischi Politici di Precludere gli Stati

Oltre al Congresso, limitare la capacità degli stati di regolamentare l’AI potrebbe comportare costi politici. Sondaggi mostrano che i cittadini americani, attraverso lo spettro politico, supportano ampiamente la regolazione dell’AI e si oppongono a un divieto. Questo divieto potrebbe alimentare paure crescenti tra gli elettori riguardo ai potenziali aumenti della disoccupazione, ai rischi per i bambini e i gruppi vulnerabili, e agli effetti energetici derivanti dalla costruzione di data center. Se gli americani percepiscono che l’amministrazione sta procedendo a tutta velocità sull’AI senza stabilire le necessarie protezioni, potrebbero essere riluttanti ad adottare l’AI e a realizzarne il pieno potenziale, compromettendo così i desideri dell’amministrazione di superare l’innovazione. Alla fine, il moratorio potrebbe rivelarsi più una responsabilità politica che un potenziatore dell’innovazione.

Limitare la capacità degli stati di governarsi da soli avrà probabilmente ripercussioni politiche negative significative. La domanda è: quanto è disposta a rischiare l’amministrazione per ottenere ciò che desidera sull’AI?

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...