Un breve primer sull’Ordine Esecutivo del Presidente: “Garantire un Quadro Normativo Nazionale per l’Intelligenza Artificiale”
Il 11 dicembre 2025, il Presidente ha firmato un Ordine Esecutivo volto a limitare i poteri dei governi statali di regolamentare l’intelligenza artificiale.
Regolamentazione ridotta non significa rischio ridotto
Con un secondo Ordine Esecutivo, il Presidente degli Stati Uniti ha rafforzato la deregolamentazione dell’intelligenza artificiale, adottando un approccio che privilegia la velocità e l’innovazione rispetto ai limiti. L’Ordine Esecutivo “Garantire un Quadro Normativo Nazionale per l’Intelligenza Artificiale” mira a limitare e prevenire la regolamentazione a livello statale dell’IA. Questo Ordine stabilisce le basi affinché il governo federale sfidi le leggi statali sull’IA, persegua nuove regolamentazioni e leggi preventive e influenzi l’azione statale trattenendo fondi federali da stati che adottano leggi sull’IA in contrasto con le politiche dell’Ordine.
Lo scopo dichiarato di questo Ordine Esecutivo è quello di creare un quadro normativo nazionale. L’Ordine afferma che:
- Un “patchwork di 50 stati con regimi normativi diversi” crea sfide di conformità e soffoca l’innovazione.
- Le disposizioni anti-discriminazione in alcune leggi statali possono “incorporare pregiudizi ideologici nei modelli”.
- Le leggi statali sull’IA violano la Clausola sul Commercio quando “regolano in modo inammissibile oltre i confini statali”.
Azioni dirette agli organi esecutivi
L’Ordine Esecutivo dirige le seguenti azioni da parte delle agenzie dell’Esecutivo:
- Il Procuratore Generale deve creare un Gruppo di Lavoro per le Controversie sull’IA entro 30 giorni, con l’incarico di sfidare le leggi statali incoerenti con la politica dell’Ordine.
- Il Segretario di Stato deve pubblicare una valutazione delle leggi statali esistenti sull’IA che sono in conflitto con l’Ordine entro 90 giorni.
- Il Segretario di Stato deve emettere un Avviso di Politica entro 90 giorni che renda gli stati con “leggi onerose sull’IA” non idonei a ricevere rimanenti sovvenzioni federali.
- Tutti gli altri dipartimenti e agenzie esecutive devono rivedere i loro programmi di sovvenzioni discrezionali per determinare se possano condizionare le loro sovvenzioni a leggi statali che sono in conflitto con la politica dell’Ordine.
- La Commissione Federale delle Comunicazioni deve avviare una procedura entro 90 giorni per determinare se adottare uno standard federale di reportistica e divulgazione per i modelli di IA che prevede le leggi statali.
- La Commissione Federale del Commercio deve creare una dichiarazione politica entro 90 giorni per spiegare quando le leggi statali sono precluse perché “richiedono modifiche agli output veritieri dei modelli di IA”.
- I Consiglieri Presidenziali devono preparare raccomandazioni legislative per stabilire un quadro normativo federale uniforme per l’IA.
Significato e implicazioni
L’Ordine Esecutivo non preclude le leggi statali esistenti che regolano l’IA. Tutte le leggi statali e locali rimangono applicabili. Gli stati probabilmente sfideranno le azioni delle agenzie esecutive pertinenti, invocando il Decimo Emendamento, la coercizione della Clausola di Spesa e contestazioni ai poteri amministrativi della FCC o della FTC. Inoltre, i legislatori federali e i governatori statali non concordano su questa preclusione federale delle leggi che regolano l’IA.
Come dovrebbero le organizzazioni navigare nell’incertezza attorno all’IA, mentre il governo federale contempla la preclusione federale?
Le organizzazioni non dovrebbero confondere la deregolamentazione con una riduzione del rischio. Il rischio o il danno legato all’IA non si presenterà come una “richiesta di risarcimento per IA” o un “problema di IA”. Piuttosto, emergerà attraverso vie legali familiari, come responsabilità del prodotto, violazione della proprietà intellettuale, responsabilità professionale, questioni di protezione dei consumatori o reclami sulla privacy. Esistono già quadri giuridici ben consolidati che possono essere utilizzati per imporre sanzioni o azioni di enforcement.
Esempi di responsabilità legate all’IA
- Responsabilità del prodotto: l’IA di un veicolo autonomo non rileva i pedoni a causa di difetti nei sensori o nel design del modello, causando un incidente.
- Leggi statali UDAP: strumenti di prezzo o vendita guidati dall’IA prendono di mira ingiustamente i consumatori vulnerabili con prezzi più elevati o tattiche manipolative.
- Legge FTC, Sezione 5 – Pratiche ingannevoli: un fornitore di IA rappresenta in modo errato come vengono raccolti, utilizzati o condivisi i dati dei consumatori per addestrare i modelli di IA.
- Leggi antitrust – Comportamento esclusivo: una piattaforma dominante utilizza algoritmi di ranking o raccomandazione basati sull’IA per favorire i propri prodotti e sopprimere i rivali.
- Leggi antitrust – Discriminazione algoritmica: i sistemi di IA svantaggiano sistematicamente alcune aziende o nuovi entranti, distorcendo la concorrenza.
- Leggi sulla privacy e protezione dei dati: un sistema di IA raccoglie o tratta dati personali senza adeguata informativa, consenso o scopo lecito.
- Leggi sulla privacy biometrica: l’IA utilizza il riconoscimento facciale o i dati vocali senza il consenso richiesto, portando a responsabilità statutaria.
- Leggi sulla sicurezza dei dati e sulle violazioni: dati di addestramento dell’IA mal protetti espongono informazioni personali attraverso perdite di dati o output del modello.
- Violazione della proprietà intellettuale: un modello di IA è addestrato su opere protette da copyright senza autorizzazione e produce contenuti sostanzialmente simili.
- Appropriazione indebita di segreti commerciali: l’IA è addestrata su dati aziendali riservati ottenuti in modo improprio da un ex dipendente o partner.
Questi sono solo esempi illustrativi, ma l’incertezza continua attorno alla regolamentazione dell’IA non elimina il rischio legale; le autorità di regolamentazione esistenti e i privati possono comunque perseguire azioni di enforcement o contenzioso, e l’assenza di regole specifiche per l’IA non protegge le aziende dalla responsabilità.