Regolamentazione dell’IA: Cosa Aspettarsi Dopo il Moratorium

No Moratoria sull’IA per Ora, ma Cosa Aspettarsi in Seguito?

Il recente progetto di legge di riconciliazione del budget, noto come One Big Beautiful Bill Act, presentato dall’amministrazione Trump, ha quasi introdotto una pausa decennale sulla regolamentazione dell’IA da parte dei governi statali e locali negli Stati Uniti. Tuttavia, questa controversa disposizione è stata rimossa dal Senato prima che il progetto di legge fosse firmato il 4 luglio 2025. Con la rimozione del moratoria dal progetto finale, gli stati e i governi locali rimangono indipendenti nei loro sforzi per stabilire delle normative per l’IA, almeno per il momento. Tuttavia, la saga del moratoria fallito fornisce alcune chiavi di lettura su cosa aspettarsi in futuro.

Contesto del One Big Beautiful Bill

Presentato dall’amministrazione Trump come “un’opportunità generazionale per ripristinare la forza economica dell’America”, il progetto di legge è stato introdotto come parte del processo di riconciliazione del budget del Congresso e combina vari tagli fiscali con riforme a Medicaid, SNAP, finanziamenti per l’istruzione e altro ancora. La prima versione del progetto conteneva la moratoria nella sezione Iniziativa di Modernizzazione dell’IA e della Tecnologia dell’Informazione, la quale, con alcune eccezioni, avrebbe stabilito un divieto di enforcement di dieci anni sulle restrizioni o regolamenti statali e locali riguardanti i modelli di IA, i sistemi di IA e il processo decisionale automatizzato. La moratoria è emersa in parte come uno sforzo da parte del Comitato per l’Energia e il Commercio della Camera per prevenire l’emergere di leggi statali incoerenti sull’IA e rimuovere le barriere all’innovazione, in linea con la posizione dell’amministrazione sull’IA.

Il 22 maggio, il progetto di legge, insieme alla sua disposizione sulla moratoria, è passato di misura alla Camera dei Rappresentanti con un voto di 215-214. Parte del processo di riconciliazione del Senato prevede la Byrd Rule, che è un controllo contro disposizioni estranee nei progetti di legge di riconciliazione del budget. Per aggirare la Byrd Rule, il Senato ha cercato di adattare la moratoria al budget legando la conformità della moratoria a determinati finanziamenti federali.

Ulteriori revisioni sono avvenute attraverso le negoziazioni del Senato mentre i sostenitori della moratoria, provenienti da tutto lo spettro politico, cercavano concessioni. Le negoziazioni hanno incluso tentativi di ampliare le eccezioni alla moratoria, citando preoccupazioni per la protezione dei bambini e i diritti di pubblicità. Inoltre, la moratoria è stata ribattezzata come una “pausa temporanea” e accorciata da un periodo di 10 anni a 5 anni. Alla fine, un voto inequivocabile di 99-1 ha rimosso la moratoria dal progetto di legge. Pertanto, quando il presidente Trump ha firmato il progetto di legge il 4 luglio, la versione finale non includeva restrizioni sull’applicazione delle leggi sull’IA statali o locali.

Cosa Aspettarsi in Futuro?

Sebbene la moratoria sia stata rimossa, questo non deve essere interpretato come una mancanza di interesse legislativo nel regolamentare o deregolamentare l’IA. Il processo legislativo della moratoria, comprese le opinioni emerse da entrambe le parti, fornisce preziose indicazioni sulle motivazioni e le barriere per sviluppare una politica coerente sull’IA negli Stati Uniti. Discorso è emerso durante il processo, incluso quello di 40 procuratori generali statali e 17 governatori repubblicani. Oltre alle negoziazioni e ai tentativi di ampliare le eccezioni, molti procuratori generali hanno opposto resistenza alla moratoria, citando questioni di protezione dei consumatori e dei cittadini.

D’altra parte, i sostenitori della moratoria hanno criticato l’incoerenza dell’emergere di un mosaico di leggi statali sull’IA, sottolineando le difficoltà e i costi aggiuntivi per le aziende costrette a conformarsi a un quadro legale variegato. Il dibattito continua sul fatto che questo approccio possa ostacolare gli sforzi commerciali di innovare. Questa preoccupazione non è nuova, poiché simili argomentazioni sono state fatte (e perse) mentre si sviluppava il mosaico delle leggi sulla privacy dei consumatori negli Stati Uniti. In quella situazione, il Congresso non è stato (e continua a non essere) in grado di concordare una legislazione completa sulla privacy e di preeminere le leggi statali.

Rimane da vedere se il tema dell’IA presenterà un terreno più fertile per un compromesso federale su questi argomenti. In ogni caso, ci aspettiamo che gli sforzi per la moratoria continuino e, come risultato, continueranno a essere dibattuti in Congresso. Resta da vedere se le preoccupazioni per la protezione dei consumatori o per la flessibilità aziendale e l’innovazione peseranno maggiormente in tali conversazioni. Ma una cosa è certa: c’è interesse legislativo federale nel deregolamentare l’IA.

Cosa Significa Questo per le Aziende?

Al momento della pubblicazione, centinaia di progetti di legge riguardanti l’IA sono stati presentati in tutti e 50 gli stati, e con la moratoria fuori gioco, è improbabile che questo rallenti nel prossimo futuro. Le aziende dovrebbero prestare particolare attenzione agli stati con una robusta legislazione sull’IA, come California, Colorado, Utah e Texas.

Al minimo, le leggi statali si concentrano sui requisiti di governance dell’IA, in particolare sugli strumenti di IA utilizzati in casi d’uso ad alto rischio (ad esempio, occupazione, alloggio, banche e assistenza sanitaria). Gli sviluppatori e i fornitori di IA in questi settori dovrebbero iniziare a prepararsi per gli sforzi di conformità, se non lo hanno già fatto, poiché diversi importanti provvedimenti legislativi sull’IA entreranno in vigore nel prossimo anno.

In generale, le aziende che desiderano sfruttare l’IA dovrebbero implementare politiche di IA che affrontino: (1) licenze per l’uso e la concessione in licenza dell’IA, inclusa la due diligence sui fornitori; (2) rappresentazioni e garanzie minime da parte degli sviluppatori/licenziatari riguardanti il software di IA e i dati di addestramento (inclusa la trasparenza, la discriminazione, ecc.); (3) trasferimento di responsabilità; (4) processi interni per la revisione e l’approvazione dei prodotti e dei casi d’uso dell’IA; (5) determinazione e documentazione degli usi consentiti da parte dei dipendenti; e (6) una missione/approccio organizzativo generale per guidare l’uso dell’IA all’interno dell’azienda. Data la potenziale responsabilità e l’esplosione in corso dell’IA nelle offerte di prodotti e servizi come differenziante sul mercato, tutte le aziende, anche nel loro ruolo di fornitori o clienti, devono rimanere aggiornate sulla legislazione in evoluzione.

More Insights

Politica AI del Quebec per Università e Cégeps

Il governo del Quebec ha recentemente rilasciato una politica sull'intelligenza artificiale per le università e i CÉGEP, quasi tre anni dopo il lancio di ChatGPT. Le linee guida includono principi...

L’alfabetizzazione AI: la nuova sfida per la conformità aziendale

L'adozione dell'IA nelle aziende sta accelerando, ma con essa emerge la sfida dell'alfabetizzazione all'IA. La legislazione dell'UE richiede che tutti i dipendenti comprendano gli strumenti che...

Legge sull’IA: Germania avvia consultazioni per l’attuazione

I regolatori esistenti assumeranno la responsabilità di monitorare la conformità delle aziende tedesche con l'AI Act dell'UE, con un ruolo potenziato per l'Agenzia Federale di Rete (BNetzA). Il...

Governare l’AI nell’Economia Zero Trust

Nel 2025, l'intelligenza artificiale non è più solo un concetto astratto, ma è diventata una realtà operativa che richiede un governance rigorosa. In un'economia a zero fiducia, le organizzazioni...

Il nuovo segretariato tecnico per l’IA: un cambiamento nella governance

Il prossimo quadro di governance sull'intelligenza artificiale potrebbe prevedere un "segreteria tecnica" per coordinare le politiche sull'IA tra i vari dipartimenti governativi. Questo rappresenta un...

Innovazione sostenibile attraverso la sicurezza dell’IA nei Paesi in via di sviluppo

Un crescente tensione si è sviluppata tra i sostenitori della regolamentazione dei rischi legati all'IA e coloro che desiderano liberare l'IA per l'innovazione. Gli investimenti in sicurezza e...

Verso un approccio armonioso alla governance dell’IA in ASEAN

Quando si tratta di intelligenza artificiale, l'ASEAN adotta un approccio consensuale. Mentre i membri seguono percorsi diversi nella governance dell'IA, è fondamentale che questi principi volontari...

Italia guida l’UE con una legge innovativa sull’IA

L'Italia è diventata il primo paese nell'UE ad approvare una legge completa che regola l'uso dell'intelligenza artificiale, imponendo pene detentive a chi utilizza la tecnologia per causare danni. La...

Regolamentare l’Intelligenza Artificiale in Ucraina: Verso un Futuro Etico

Nel giugno del 2024, quattordici aziende IT ucraine hanno creato un'organizzazione di autoregolamentazione per sostenere approcci etici nell'implementazione dell'intelligenza artificiale in Ucraina...