Il quadro della politica federale sull’IA mira a sottovalutare le leggi statali
La Casa Bianca sta cercando di fare qualcosa che Washington raramente riesce a fare bene: prendere il controllo di una tecnologia in rapida evoluzione prima che una serie di leggi statali sull’IA si indurisca in un sistema normativo irreversibile.
Oggi, l’amministrazione ha rilasciato il suo Quadro Politico Nazionale per l’Intelligenza Artificiale: Raccomandazioni Legislative, un documento che sembra meno i piani di sicurezza per l’IA che gli stati stanno adottando e più un progetto per affermare il controllo federale sulla governance dell’IA.
Un tentativo di bloccare leggi statali frammentate
Al suo centro, il quadro della Casa Bianca è un tentativo di prevenire che un sistema normativo a livello statale diventi l’architettura predefinita della governance dell’IA. Gli stati stanno già avanzando, redigendo e approvando le proprie leggi sull’IA in assenza di un’azione federale. Più a lungo questo continua, più quelle norme si solidificheranno in un sistema normativo frammentato difficile da disfare.
Il fulcro della strategia della Casa Bianca è la preminenza federale, il meccanismo legale che consentirebbe al Congresso di superare le leggi statali sull’IA e stabilire uno standard nazionale unico.
Una strategia su misura per un Congresso bloccato
Il Congresso ha trascorso anni a dibattere la regolamentazione dell’IA senza produrre un quadro completo. La Casa Bianca sta tentando di rompere questo stallo abbinando la sua proposta a misure di sicurezza online per i bambini, uno dei pochi ambiti in cui è ancora possibile un accordo bipartisan.
Il quadro organizza le sue proposte sostanziali attorno a quello che chiama le “4 C”: bambini, creatori, conservatori e comunità, attingendo dalla legislazione proposta. Il primo pilastro del quadro afferma che i servizi e le piattaforme IA devono adottare misure per proteggere i bambini, consentendo ai genitori di controllare l’ambiente digitale e l’educazione dei propri figli.
Deregulation e conseguenze
All’interno del documento strategico, l’amministrazione sottolinea che la politica sull’IA dovrebbe essere “minimamente gravosa”, privilegiando un approccio alla regolamentazione più leggero. Uno dei pilastri della strategia afferma: “Gli Stati Uniti devono guidare il mondo nell’IA rimuovendo le barriere all’innovazione, accelerando l’implementazione delle applicazioni IA in vari settori e garantendo un ampio accesso agli ambienti di test necessari per costruire sistemi IA di classe mondiale.”
La proposta si dirige verso un sistema in cui la responsabilità gioca un ruolo centrale, aprendo la porta a reclami legali contro sviluppatori e piattaforme IA quando si verifica un danno. In questo modo, si sposta l’applicazione della legge dai regolatori verso i tribunali.
La strategia del Primo Emendamento
Uno degli elementi più significativi del quadro è l’accento sulla protezione delle uscite dell’IA come forma di libertà di espressione. L’amministrazione suggerisce che alcuni tipi di regolamentazione, in particolare quelle che richiederebbero di alterare o vincolare le uscite, potrebbero sollevare preoccupazioni relative al Primo Emendamento.
Un altro pilastro afferma: “I creatori, gli editori e gli innovatori americani dovrebbero essere protetti da uscite generate dall’IA che violano il loro contenuto protetto, senza compromettere l’innovazione legittima e la libertà di espressione.”
Conclusione
Nonostante la sua ambizione, il quadro dipende da un’unica istituzione, il Congresso, che finora è rimasto diviso e lento nel reagire mentre le tecnologie IA avanzano rapidamente. Mentre il ramo esecutivo può stabilire una direzione, coordinarsi con alleati e applicare pressioni attraverso meccanismi di enforcement e finanziamento, non può, da solo, stabilire uno standard nazionale vincolante o preemptivamente superare le leggi statali.
I progressisti e i Democratici nel Congresso si oppongono all’iniziativa di creare una preminenza federale o un divieto sulle legislazioni statali sull’IA, sostenendo che qualsiasi legislazione approvata a livello federale, piuttosto che bloccare l’azione statale, dovrebbe “focalizzarsi sulla creazione di una solida base di protezioni federali, incluse le proibizioni sui più pericolosi usi dell’IA, preservando l’autorità statale per affrontare nuovi danni.”
Questa tensione tra un quadro federale che supera gli stati e uno che si basa su di essi definirà probabilmente la prossima fase della battaglia politica sull’IA.