Non Regolare i Modelli di IA. Regolare l’Uso dell’IA
A volte, gli sforzi per regolare e contenere l’IA possono sembrare ovunque e confusi. La Cina ha emesso le prime normative specifiche per l’IA nel 2021, concentrandosi sui fornitori e sulla governance dei contenuti, attuate attraverso il controllo delle piattaforme e requisiti di registrazione.
In Europa, la legge sull’IA dell’UE risale al 2024, ma la Commissione Europea sta già proponendo aggiornamenti e semplificazioni. L’India ha incaricato i propri consulenti tecnici di alto livello di creare un sistema di governance per l’IA, rilasciato nel novembre 2025. Negli Stati Uniti, gli stati stanno legiferando e applicando le proprie regole sull’IA anche se nel 2025 il governo federale ha cercato di prevenire l’azione statale e allentare le restrizioni.
Ciò porta a una domanda cruciale per ingegneri e politici americani: cosa può realmente far rispettare gli Stati Uniti in modo da ridurre il danno nel mondo reale? La risposta proposta è: regolare l’uso dell’IA, non i modelli sottostanti.
Perché la regolazione centrata sul modello fallisce
Le proposte per licenziare le “corse di addestramento di frontiera”, limitare i pesi aperti o richiedere permessi prima di pubblicare modelli, come la California Transparency in Frontier Artificial Intelligence Act, promettono controllo ma offrono solo teatro. I pesi e il codice dei modelli sono artefatti digitali; una volta rilasciati, da un laboratorio, una fuga o un concorrente straniero, si replicano a costo quasi zero. Non puoi “ripubblicare” i pesi, delimitare la ricerca o prevenire la distillazione in modelli più piccoli. Tentare di contenere artefatti produce due esiti negativi: le aziende compliant affogano nella burocrazia mentre attori irresponsabili aggirano le regole offshore, underground, o entrambi.
Negli Stati Uniti, la licenza per la pubblicazione dei modelli probabilmente collide anche con le leggi sulla libertà di espressione. I tribunali federali hanno trattato il codice sorgente del software come espressione protetta, quindi qualsiasi sistema che impedisca la pubblicazione dei modelli di IA sarebbe vulnerabile a sfide legali.
Non fare nulla non è un’opzione. Senza regolamentazioni, continueremo a vedere frodi automatizzate e campagne di persuasione di massa fino a quando un evento catastrofico non innescherà una risposta brutale ottimizzata per l’ottica, non per i risultati.
Un’alternativa pratica: Regolare l’uso, proporzionalmente al rischio
Un regime basato sull’uso classifica le implementazioni in base al rischio e scala gli obblighi di conseguenza. Ecco un modello praticabile concentrato sul mantenere l’applicazione dove i sistemi interagiscono realmente con le persone:
- Base: interazione generale con i consumatori (chat aperte, scrittura creativa, assistenza all’apprendimento, produttività casuale).
- Adesione normativa: chiara divulgazione dell’IA al punto di interazione, politiche di utilizzo accettabili pubblicate, barriere tecniche che prevengono l’escalation in livelli di rischio più elevati, e un meccanismo per gli utenti per segnalare risultati problematici.
- Assistenza a basso rischio: redazione, riassunto, produttività di base.
- Adesione normativa: semplice divulgazione, base di igiene dei dati.
- Supporto decisionale a rischio moderato: triage assunzioni, screening benefici, prequalificazione prestiti.
- Adesione normativa: valutazione dei rischi documentata, supervisione umana significativa e un “bill of materials” dell’IA composto almeno dalla linea di discendenza del modello, valutazioni chiave e mitigazioni.
- Usi ad alto impatto in contesti critici per la sicurezza: supporto decisionale clinico, operazioni delle infrastrutture critiche.
- Adesione normativa: test rigorosi prima del dispiegamento legati all’uso specifico, monitoraggio continuo, segnalazione degli incidenti, e, quando giustificato, autorizzazione legata a prestazioni validate.
- Funzioni dual-use pericolose: strumenti per fabbricare impronte vocali biometriche per eludere l’autenticazione.
- Adesione normativa: confinare a strutture autorizzate e operatori verificati; vietare capacità il cui scopo primario è illegale.
I sistemi abilitati dall’IA diventano reali quando sono connessi a utenti, denaro, infrastrutture e istituzioni, ed è lì che i regolatori dovrebbero concentrarsi: nei punti di distribuzione (app store e marketplace aziendali), accesso alle capacità (cloud e piattaforme di IA), monetizzazione (sistemi di pagamento e reti pubblicitarie) e trasferimento del rischio (assicuratori e controparti contrattuali).
Per usi ad alto rischio, è necessario richiedere l’identificazione degli operatori, l’accesso alle capacità allineato al livello di rischio e la registrazione anti-manomissione per audit e riesami post-incidente, insieme a protezioni della privacy. Dobbiamo esigere prove per le affermazioni dei dispiegatori, mantenere piani di risposta agli incidenti, segnalare difetti materiali e fornire fallback umano. Quando l’uso dell’IA causa danni, le aziende devono dimostrare il loro operato e affrontare responsabilità per i danni.
Questo approccio crea dinamiche di mercato che accelerano la conformità. Se operazioni aziendali cruciali come l’approvvigionamento, l’accesso ai servizi cloud e le assicurazioni dipendono dalla dimostrazione del rispetto delle regole, gli sviluppatori di modelli di IA costruiranno secondo specifiche che i compratori possono controllare. Ciò alza il livello di sicurezza per tutti i partecipanti del settore, comprese le startup, senza dare vantaggio a pochi grandi incumbenti autorizzati.
Questo quadro si allinea con la legge sull’IA dell’UE in due modi importanti. Prima di tutto, centra il rischio al punto di impatto: le categorie “ad alto rischio” della legge includono occupazione, istruzione, accesso ai servizi essenziali e infrastrutture critiche, con obblighi di ciclo di vita e diritti di reclamo. Riconosce anche un trattamento speciale per i sistemi ampiamente capaci (GPAI) senza pretendere che il controllo della pubblicazione sia una strategia di sicurezza.
La mia proposta per gli Stati Uniti differisce in tre modi chiave:
- Gli Stati Uniti devono progettare per la durabilità costituzionale. I tribunali hanno trattato il codice sorgente come espressione protetta e un regime che richiede permessi per pubblicare pesi o addestrare una classe di modelli inizia a somigliare a una restrizione preventiva. Un regime basato sull’uso delle regole che governa ciò che gli operatori di IA possono fare in contesti sensibili, e a quali condizioni, si adatta più naturalmente alla dottrina del Primo Emendamento degli Stati Uniti rispetto ai regimi di licenza basati sugli oratori.
- L’UE può contare su piattaforme che si adattano alle regole di precauzione che scrive per il suo mercato unico. Gli Stati Uniti devono accettare che i modelli esisteranno a livello globale, sia aperti che chiusi, e concentrarsi su dove l’IA diventa azionabile: app store, piattaforme aziendali, fornitori di cloud, strati di identità aziendale, sistemi di pagamento, assicuratori e gatekeepers di settori regolamentati.
- Gli Stati Uniti dovrebbero aggiungere un’esplicita categoria di “pericolo dual-use”. La legge sull’IA dell’UE è principalmente un regime di diritti fondamentali e sicurezza del prodotto. Gli Stati Uniti hanno anche una realtà di sicurezza nazionale: certe capacità sono pericolose perché amplificano il danno. Un quadro coerente degli Stati Uniti dovrebbe nominare quella categoria e regolarla direttamente, piuttosto che cercare di adattarla a una licenza generica per i modelli di frontiera.
La Cina ha costruito un regime stratificato per l’IA a uso pubblico. Le regole sulla “sintesi profonda” richiedono l’etichettatura conspicua dei media sintetici e pongono doveri sui fornitori e sulle piattaforme. Le Misure Provvisorie per l’IA Generativa aggiungono obblighi di registrazione e governance per i servizi offerti al pubblico.
Gli Stati Uniti non dovrebbero copiare il controllo statale cinese dei punti di vista dell’IA o della gestione delle informazioni; è incompatibile con i valori statunitensi e non sopravviverebbe al controllo costituzionale. La licenza per la pubblicazione dei modelli è fragile nella pratica e, negli Stati Uniti, probabilmente una forma incostituzionale di censura.
Tuttavia, possiamo prendere in prestito due idee pratiche dalla Cina. In primo luogo, dovremmo garantire la provenienza e la tracciabilità affidabili per i media sintetici. Ciò comporta l’etichettatura obbligatoria e strumenti forensi di provenienza. Offrono a creatori e piattaforme legittimi un modo affidabile per dimostrare origine e integrità. Quando è facile controllare l’autenticità su larga scala, gli aggressori perdono il vantaggio di copie economiche o deepfake e i difensori guadagnano tempo per rilevare, triage e rispondere.
In secondo luogo, dovremmo richiedere agli operatori di presentare i propri metodi e controlli sui rischi ai regolatori per i servizi ad alto rischio destinati al pubblico, come facciamo per altri progetti critici per la sicurezza. Ciò dovrebbe includere garanzie di processo e trasparenza appropriate per le democrazie liberali, insieme a chiara responsabilità per le misure di sicurezza, protezione dei dati e gestione degli incidenti, in particolare per i sistemi progettati per manipolare emozioni o costruire dipendenza.
Non possiamo regolare significativamente lo sviluppo dell’IA in un mondo dove gli artefatti si copiano in tempo reale e la ricerca fluisce liberamente oltre i confini. Ma possiamo tenere i sistemi non esaminati lontani da ospedali, sistemi di pagamento e infrastrutture critiche regolando gli usi, non i modelli; applicando leggi nei punti critici e imponendo obblighi che si scalano con il rischio.