Regolamentazione dell’AI: Il Ruolo Cruciale degli Stati
Negli Stati Uniti, i legislatori sono vicini a prendere misure drastiche e poco sagge in nome della competitività e dell’innovazione. Attualmente, il Senato sta considerando un disegno di legge di riconciliazione che include una norma che vieterebbe la regolamentazione statale dell’AI per dieci anni. L’obiettivo di questa moratoria è accelerare lo sviluppo dell’AI negli Stati Uniti e mantenere un vantaggio rispetto al resto del mondo.
Tuttavia, se il Congresso imponesse questa moratoria, danneggerebbe l’innovazione dell’AI negli Stati Uniti e metterebbe in pericolo la sicurezza nazionale. È evidente che un’infrastruttura di governance dell’AI è necessaria per entrambe le finalità, e gli stati sono ben attrezzati per contribuire a questa infrastruttura, dato che già la stanno costruendo.
La Necessità di Leggi Statali
Il dibattito attorno al divieto è acceso e complesso. Alcuni sostengono che la regolamentazione dell’AI dovrebbe essere limitata per non danneggiare l’innovazione, e che, quando necessaria, dovrebbe essere il governo federale a imporla, poiché la governance dell’AI influisce sulla sicurezza nazionale degli Stati Uniti.
Ci sono critiche riguardo all’emergere di un mosaico di leggi statali, che può complicare la conformità per le aziende che operano oltre i confini statali e lasciare lacune nella protezione dei residenti. Tuttavia, il blocco e la partigianeria del Congresso, insieme al fallimento di passare regolamenti significativi nel settore tecnologico per oltre un decennio, rendono necessarie le leggi statali. Questi sono più incentivati a rispondere alle preoccupazioni dei loro elettori riguardo all’AI e affrontano meno barriere partitiche nella realizzazione delle politiche.
Infrastruttura di Governance dell’AI
Mentre queste discussioni sono importanti, trascurano un aspetto chiave: i governi statali sono essenziali per costruire l’infrastruttura di governance dell’AI negli Stati Uniti. Questa infrastruttura è necessaria per raggiungere gli obiettivi dichiarati della moratoria, migliorando l’innovazione dell’AI e promuovendo la sicurezza nazionale.
La governance dell’AI va oltre la semplice imposizione di richieste concrete agli sviluppatori e ai distributori di AI. Include il rafforzamento della capacità della forza lavoro, la condivisione delle informazioni, la raccolta di evidenze sui rischi emergenti e la costruzione di risorse condivise per facilitare la sperimentazione dell’AI. Queste attività migliorano la capacità degli sviluppatori di costruire sistemi performanti, generano fiducia nei consumatori e preservano gli interessi di sicurezza nazionale degli Stati Uniti.
Esempi di Buone Pratiche
Un esempio di un sistema robusto di auditor esterni può aiutare le aziende di AI a rilevare rischi di sicurezza emergenti, prevenire fallimenti dell’AI e semplificare i test interni. Inoltre, una forte condivisione delle informazioni tra sviluppatori, utenti e attori governativi può aiutare a rispondere rapidamente ai rischi e ai danni dell’AI.
Queste misure liberano tempo per gli sviluppatori per continuare a innovare e costruiscono fiducia nei consumatori, aumentando la probabilità che le persone adottino la tecnologia e che gli sviluppatori accelerino il loro apprendimento attraverso il dispiegamento nel mondo reale. La condivisione delle informazioni tra governo e industria aiuta anche i politici a dare priorità ai rischi di sicurezza nazionale più urgenti.
Il Futuro della Regolamentazione Statale
Il proposto divieto potrebbe chiudere la porta a progressi in questi settori chiave, e le attuali e future leggi statali che toccano queste attività di governance potrebbero non essere più in vigore se la moratoria venisse approvata. Questo è un problema poiché gli stati sono attualmente ben posizionati — meglio del governo federale — per supportare l’infrastruttura di governance dell’AI che consente innovazione e migliora la sicurezza nazionale degli Stati Uniti.
Gli stati stanno già lavorando su componenti dell’infrastruttura di governance dell’AI, tra cui talenti, infrastrutture informatiche e quadri normativi. Quasi ogni stato ha registrato programmi di apprendistato in AI e formazione basata sulle competenze per garantire che gli Stati Uniti dispongano di una forza lavoro capace di costruire, testare e supervisionare i sistemi di AI.
Inoltre, gli stati hanno preso l’iniziativa di sviluppare infrastrutture hardware; ad esempio, il Governatore di New York ha recentemente annunciato un consorzio per lanciare un centro di calcolo AI nello stato per promuovere la ricerca e lo sviluppo e creare opportunità di lavoro.
Conclusione
La governance statale dell’AI non è solo vantaggiosa per l’innovazione, ma funge anche da laboratorio per la sperimentazione e il dibattito, consentendo innovazioni nei metodi di governance. I legislatori statali possono coordinare i loro approcci, apprendere dalle esperienze reciproche e cercare di costruire un consenso per ridurre la frammentazione tra gli stati.
Imponendo questa moratoria, il Congresso agirebbe in diretta contraddizione con i propri obiettivi dichiarati di supportare l’innovazione e la sicurezza nazionale degli Stati Uniti. Una governance efficace dell’AI, inclusa quella guidata dagli stati, è necessaria per un ecosistema AI massimamente innovativo e sicuro.