Un Nuovo Patto Statale e Federale per l’Intelligenza Artificiale
L’intelligenza artificiale (IA) è emersa con una velocità, scala e magnitudo mai viste prima nella storia moderna. Essa domina i media, il business, la finanza, l’intrattenimento e l’attenzione politica. Purtroppo, il dibattito sulla politica pubblica è stato poco informato dai fatti e pieno di grandi promesse di paradiso economico o proiezioni di rovina. Bilanciare la politica dell’IA richiede più attenzione, cautela e responsabilità pubblica.
Punti di Ingiunzione Politica
Due punti di ingiunzione politica dominanti richiedono la nostra attenzione. Prima di tutto, dobbiamo decidere se e quanto la regolamentazione federale dovrebbe precludere leggi statali e locali. In secondo luogo, il motore dell’IA—i data center—richiede una gestione e governance simili a quelle delle infrastrutture regolatorie evolute di ferrovie, elettricità e comunicazioni moderne. I dettagli sfumati di questo insieme di questioni richiedono dibattiti aperti, cooperativi e pubblici tra stati e governo federale.
Iniziamo con un accordo bipartisan che questi argomenti sono troppo importanti per essere affrontati tramite accordi legislativi segreti o ordini esecutivi presidenziali discutibili.
Il Ruolo degli Stati
Il concetto di utilizzare un ordine esecutivo per annullare le leggi statali è errato su più livelli. Gli stati possiedono poteri di polizia sulla sicurezza pubblica e la protezione dei consumatori. Esiste una presunzione contro la preclusione, a meno che il Congresso degli Stati Uniti non abbia chiarito e manifestato la sua intenzione. Qui, il Congresso non ha intrapreso azioni che giustifichino la preclusione, e annullare o nullificare leggi statali senza approvazione congressuale è illegale.
Responsabilità Condivisa
La migliore strada da seguire è condividere la responsabilità tra stati e governo federale. Il governo federale dovrebbe avere un ruolo predominante in questioni relative alla sicurezza nazionale e alla difesa, nonché alla sicurezza informatica. Questo include la sicurezza dell’infrastruttura, la prevenzione delle armi biologiche e chimiche, e i crimini transnazionali.
Abbiamo bisogno di forti standard regolatori federali per garantire la sicurezza pubblica. Nel breve termine, misure statali come quelle introdotte in alcune legislazioni offrono un buon inizio. Tuttavia, gli stati e le località hanno ruoli protetti costituzionalmente che devono essere preservati in aree chiave.
Implicazioni e Rischi
È essenziale che il governo federale non precluda le regole che governano il funzionamento dei data center all’interno degli stati individuali, poiché questi enormi stabilimenti consumano enormi quantità di elettricità e acqua. Le autorità statali hanno decenni di esperienza nella gestione di queste problematiche attraverso le loro commissioni di utilità e agenzie ambientali.
Inoltre, ci sono forti esempi di aree in cui la legge statale non dovrebbe essere preclusa, inclusa la responsabilità comune per frode, negligenza e altre dottrine di torto consolidate.
Conclusione
Le scommesse sono enormi. L’IA promette vantaggi genuini in sanità, ricerca scientifica, istruzione e in molti altri settori. Tuttavia, realizzare questi vantaggi mentre si gestiscono i rischi richiede di impostare correttamente la struttura di governance fin dall’inizio. Non possiamo permetterci di ripetere errori passati in cui la tecnologia ha superato la regolamentazione, lasciando i cittadini vulnerabili e richiedendo interventi costosi dopo che si sono verificati danni.
È fondamentale promuovere sia l’innovazione robusta che salvaguardie forti, mantenendo la leadership federale sugli standard di sicurezza nazionale e rispettando l’autorità statale sui vari impatti locali. Dobbiamo cogliere l’opportunità di creare un quadro che promuova l’innovazione mentre protegge i cittadini.