Quando il Congresso dovrebbe intervenire sulle leggi statali sull’IA?

Quando dovrebbe il Congresso precludere la legislazione statale sull’IA? Le lezioni delle tecnologie passate

Chi dovrebbe governare l’IA: i governi statali degli Stati Uniti, il governo federale o entrambi? Questa domanda, un tempo astratta, è recentemente diventata centrale nella politica pratica. A luglio, dopo settimane di intense discussioni, un tentativo di limitare la capacità degli stati di regolamentare la tecnologia è stato bocciato al Senato. Tuttavia, la preclusione—l’idea che il Congresso debba superare le leggi statali con standard nazionali—potrebbe presto tornare in una nuova forma. I membri del Congresso stanno scrivendo nuove proposte, mentre il piano d’azione sull’IA dell’amministrazione ha approvato una versione più limitata del concetto. Le grandi aziende tecnologiche continueranno a spingere per la libertà dalla regolamentazione a livello statale.

I sostenitori della preclusione sostengono che l’innovazione soffrirebbe se le aziende di IA fossero soggette a una confusione di norme statali. Al contrario, i suoi oppositori affermano che il rapido sviluppo dell’IA rende più preziosa la sperimentazione politica rispetto all’uniformità, suggerendo che i governi statali sono abituati a regolamentare molti settori in cui l’IA viene implementata.

Lezioni dalla storia

Un fatto cruciale è stato in gran parte trascurato nel dibattito: abbiamo già affrontato situazioni simili in passato. Per oltre un secolo, il Congresso ha dovuto decidere se e come precludere l’autorità statale di regolamentare nuove tecnologie, da energia nucleare a cibi geneticamente modificati.

Le prime lezioni dal passato riguardano le finalità del Congresso. Quando il Congresso ha precluso le leggi statali su tecnologie emergenti, lo ha fatto generalmente per avanzare tre obiettivi principali: prevenire leggi statali conflittuali che frammentano un’industria nazionale; limitare gli stati anomali che impongono regole preferite su tutto il paese; o fare affidamento su esperienza federale, soprattutto in aree legate alla sicurezza nazionale.

Principali takeaway dalla storia recente

  • Il Congresso non preclude di solito le leggi statali senza una sostituzione federale.
  • L’azione regolatoria federale è più probabile quando è possibile un compromesso tra un campo pro-regolatorio e una coalizione industriale.
  • Il semplice fatto di avere leggi statali divergenti non è di solito sufficiente per giustificare la preclusione.
  • I legislatori non devono necessariamente definire subito la divisione finale tra governi federali e statali.
  • È raro che il Congresso precluda un’intera area politica.

Nonostante la storia di intervento federale non sia sempre stata perfetta, offre una guida utile ai dibattiti attuali. Applicare queste lezioni all’IA oggi mostra un quadro misto.

Il caso per l’intervento federale

Il caso più forte per la regolamentazione federale si trova nello sviluppo dei modelli di IA, un’industria nazionale in cui il governo federale sta costruendo una competenza unica. I rischi per la sicurezza nazionale sono un punto di partenza ovvio. Le regole di trasparenza potrebbero essere un altro punto naturale per l’intervento federale.

Finora, la minaccia di leggi statali conflittuali riguardanti lo sviluppo dei modelli è plausibile ma non realizzata. La maggior parte delle leggi statali ha riguardato casi d’uso specifici, non lo sviluppo dell’IA. Solo uno stato, il Colorado, ha approvato una legislazione più completa che impone requisiti significativi per lo sviluppo dell’IA.

Promuovere l’uniformità

Molti sostenitori della preclusione hanno enfatizzato la minaccia che le leggi conflittuali pongono all’innovazione nell’IA. La storia ci mostra che precludere può avere senso solo dopo che il problema delle leggi conflittuali è emerso, ma prima che le politiche statali diventino profondamente radicate.

Il Congresso dovrebbe osservare da vicino gli sviluppi per determinare se è necessario intervenire. Sebbene le leggi statali più ampie abbiano perso slancio, alcune stanno considerando proposte più mirate che si concentrano sui rischi posti dai modelli di IA più avanzati. Queste proposte potrebbero rappresentare politiche pubbliche sensate, ma se creano requisiti controversi per gli sviluppatori di IA, saranno meno efficienti senza uno standard federale unico.

Conclusione

Determinate le giuste proporzioni tra regolazione statale e federale richiederà tempo e giudizio attento. La governance delle tecnologie passate ha mostrato che è necessario adottare approcci sperimentali e che l’industria si adatterà a nuove regole. Gli attuali dibattiti sull’IA richiedono un approccio flessibile, evitando di affrettare un controllo centralizzato che potrebbe ostacolare l’innovazione.

More Insights

Guida Pratica all’IA Responsabile per Sviluppatori .NET

L'era dell'intelligenza artificiale (IA) è ora, ma ci sono sfide da affrontare: possiamo fidarci dei sistemi IA? Questo articolo esplora i sei principi di Microsoft per costruire un'IA responsabile e...

Linee guida sull’AI dell’UE: chiarimenti sulle normative sul copyright

L'Ufficio dell'AI dell'UE ha pubblicato una bozza del Codice di Pratica che chiarisce le responsabilità relative al copyright per i fornitori di modelli di intelligenza artificiale a scopo generale...

Fiducia e Trasparenza nell’Era dell’Intelligenza Artificiale

L'intelligenza artificiale offre un valore straordinario per i marketer, ma solo se alimentata da dati di qualità raccolti in modo responsabile. Durante una sessione alla MarTech Conference di...

Il ruolo dell’AI nella gestione del rischio bancario

Nel complesso panorama delle operazioni bancarie di oggi, l'IA sta diventando il nuovo motore di gestione del rischio, fondamentale per le istituzioni finanziarie nel riconoscere le minacce e gestire...

Legge Italiana sulla Trasparenza dell’IA: Un Passo Avanti per la Responsabilità Tecnologica

I legislatori della California hanno fatto notizia a livello globale approvando una legge fondamentale sulla trasparenza nell'IA, focalizzata specificamente sui "modelli di frontiera" — i sistemi di...

Ufficio AI: L’autorità centrale per la legge UE

Il governo ha designato 15 autorità competenti nell'ambito della AI Act dell'UE e ha annunciato l'intenzione di istituire un Ufficio Nazionale per l'Intelligenza Artificiale. Questo ufficio agirà come...

Rischi e opportunità dell’AI nel reclutamento

L'uso di strumenti di intelligenza artificiale nel processo di assunzione consente alle aziende di ottimizzare le loro procedure, ma è fondamentale garantire che i sistemi siano trasparenti e non...

Quattro pilastri per un’IA responsabile

L'introduzione dell'IA generativa sta trasformando il modo in cui le aziende operano, ma implementare sistemi di IA senza adeguate protezioni è rischioso. Questo articolo esplora quattro categorie...

Intelligenza Artificiale Responsabile per i Mercati Emergenti

L'intelligenza artificiale sta trasformando il nostro mondo a una velocità sorprendente, ma i benefici non vengono raggiunti da tutti in modo equo. La soluzione è "Inclusion by Design", costruendo...