Ordine Esecutivo di Trump e il Futuro della Regolamentazione dell’Intelligenza Artificiale

Un breve primer sull’Ordine Esecutivo del Presidente: “Garantire un Quadro Normativo Nazionale per l’Intelligenza Artificiale”

Il 11 dicembre 2025, il Presidente ha firmato un Ordine Esecutivo volto a limitare i poteri dei governi statali di regolamentare l’intelligenza artificiale.

Regolamentazione ridotta non significa rischio ridotto

Con un secondo Ordine Esecutivo, il Presidente degli Stati Uniti ha rafforzato la deregolamentazione dell’intelligenza artificiale, adottando un approccio che privilegia la velocità e l’innovazione rispetto ai limiti. L’Ordine Esecutivo “Garantire un Quadro Normativo Nazionale per l’Intelligenza Artificiale” mira a limitare e prevenire la regolamentazione a livello statale dell’IA. Questo Ordine stabilisce le basi affinché il governo federale sfidi le leggi statali sull’IA, persegua nuove regolamentazioni e leggi preventive e influenzi l’azione statale trattenendo fondi federali da stati che adottano leggi sull’IA in contrasto con le politiche dell’Ordine.

Lo scopo dichiarato di questo Ordine Esecutivo è quello di creare un quadro normativo nazionale. L’Ordine afferma che:

  • Un “patchwork di 50 stati con regimi normativi diversi” crea sfide di conformità e soffoca l’innovazione.
  • Le disposizioni anti-discriminazione in alcune leggi statali possono “incorporare pregiudizi ideologici nei modelli”.
  • Le leggi statali sull’IA violano la Clausola sul Commercio quando “regolano in modo inammissibile oltre i confini statali”.

Azioni dirette agli organi esecutivi

L’Ordine Esecutivo dirige le seguenti azioni da parte delle agenzie dell’Esecutivo:

  • Il Procuratore Generale deve creare un Gruppo di Lavoro per le Controversie sull’IA entro 30 giorni, con l’incarico di sfidare le leggi statali incoerenti con la politica dell’Ordine.
  • Il Segretario di Stato deve pubblicare una valutazione delle leggi statali esistenti sull’IA che sono in conflitto con l’Ordine entro 90 giorni.
  • Il Segretario di Stato deve emettere un Avviso di Politica entro 90 giorni che renda gli stati con “leggi onerose sull’IA” non idonei a ricevere rimanenti sovvenzioni federali.
  • Tutti gli altri dipartimenti e agenzie esecutive devono rivedere i loro programmi di sovvenzioni discrezionali per determinare se possano condizionare le loro sovvenzioni a leggi statali che sono in conflitto con la politica dell’Ordine.
  • La Commissione Federale delle Comunicazioni deve avviare una procedura entro 90 giorni per determinare se adottare uno standard federale di reportistica e divulgazione per i modelli di IA che prevede le leggi statali.
  • La Commissione Federale del Commercio deve creare una dichiarazione politica entro 90 giorni per spiegare quando le leggi statali sono precluse perché “richiedono modifiche agli output veritieri dei modelli di IA”.
  • I Consiglieri Presidenziali devono preparare raccomandazioni legislative per stabilire un quadro normativo federale uniforme per l’IA.

Significato e implicazioni

L’Ordine Esecutivo non preclude le leggi statali esistenti che regolano l’IA. Tutte le leggi statali e locali rimangono applicabili. Gli stati probabilmente sfideranno le azioni delle agenzie esecutive pertinenti, invocando il Decimo Emendamento, la coercizione della Clausola di Spesa e contestazioni ai poteri amministrativi della FCC o della FTC. Inoltre, i legislatori federali e i governatori statali non concordano su questa preclusione federale delle leggi che regolano l’IA.

Come dovrebbero le organizzazioni navigare nell’incertezza attorno all’IA, mentre il governo federale contempla la preclusione federale?

Le organizzazioni non dovrebbero confondere la deregolamentazione con una riduzione del rischio. Il rischio o il danno legato all’IA non si presenterà come una “richiesta di risarcimento per IA” o un “problema di IA”. Piuttosto, emergerà attraverso vie legali familiari, come responsabilità del prodotto, violazione della proprietà intellettuale, responsabilità professionale, questioni di protezione dei consumatori o reclami sulla privacy. Esistono già quadri giuridici ben consolidati che possono essere utilizzati per imporre sanzioni o azioni di enforcement.

Esempi di responsabilità legate all’IA

  • Responsabilità del prodotto: l’IA di un veicolo autonomo non rileva i pedoni a causa di difetti nei sensori o nel design del modello, causando un incidente.
  • Leggi statali UDAP: strumenti di prezzo o vendita guidati dall’IA prendono di mira ingiustamente i consumatori vulnerabili con prezzi più elevati o tattiche manipolative.
  • Legge FTC, Sezione 5 – Pratiche ingannevoli: un fornitore di IA rappresenta in modo errato come vengono raccolti, utilizzati o condivisi i dati dei consumatori per addestrare i modelli di IA.
  • Leggi antitrust – Comportamento esclusivo: una piattaforma dominante utilizza algoritmi di ranking o raccomandazione basati sull’IA per favorire i propri prodotti e sopprimere i rivali.
  • Leggi antitrust – Discriminazione algoritmica: i sistemi di IA svantaggiano sistematicamente alcune aziende o nuovi entranti, distorcendo la concorrenza.
  • Leggi sulla privacy e protezione dei dati: un sistema di IA raccoglie o tratta dati personali senza adeguata informativa, consenso o scopo lecito.
  • Leggi sulla privacy biometrica: l’IA utilizza il riconoscimento facciale o i dati vocali senza il consenso richiesto, portando a responsabilità statutaria.
  • Leggi sulla sicurezza dei dati e sulle violazioni: dati di addestramento dell’IA mal protetti espongono informazioni personali attraverso perdite di dati o output del modello.
  • Violazione della proprietà intellettuale: un modello di IA è addestrato su opere protette da copyright senza autorizzazione e produce contenuti sostanzialmente simili.
  • Appropriazione indebita di segreti commerciali: l’IA è addestrata su dati aziendali riservati ottenuti in modo improprio da un ex dipendente o partner.

Questi sono solo esempi illustrativi, ma l’incertezza continua attorno alla regolamentazione dell’IA non elimina il rischio legale; le autorità di regolamentazione esistenti e i privati possono comunque perseguire azioni di enforcement o contenzioso, e l’assenza di regole specifiche per l’IA non protegge le aziende dalla responsabilità.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...