Regolamentare l’Uso dell’IA, non i Modelli

Non Regolare i Modelli di IA. Regolare l’Uso dell’IA

A volte, gli sforzi per regolare e contenere l’IA possono sembrare ovunque e confusi. La Cina ha emesso le prime normative specifiche per l’IA nel 2021, concentrandosi sui fornitori e sulla governance dei contenuti, attuate attraverso il controllo delle piattaforme e requisiti di registrazione.

In Europa, la legge sull’IA dell’UE risale al 2024, ma la Commissione Europea sta già proponendo aggiornamenti e semplificazioni. L’India ha incaricato i propri consulenti tecnici di alto livello di creare un sistema di governance per l’IA, rilasciato nel novembre 2025. Negli Stati Uniti, gli stati stanno legiferando e applicando le proprie regole sull’IA anche se nel 2025 il governo federale ha cercato di prevenire l’azione statale e allentare le restrizioni.

Ciò porta a una domanda cruciale per ingegneri e politici americani: cosa può realmente far rispettare gli Stati Uniti in modo da ridurre il danno nel mondo reale? La risposta proposta è: regolare l’uso dell’IA, non i modelli sottostanti.

Perché la regolazione centrata sul modello fallisce

Le proposte per licenziare le “corse di addestramento di frontiera”, limitare i pesi aperti o richiedere permessi prima di pubblicare modelli, come la California Transparency in Frontier Artificial Intelligence Act, promettono controllo ma offrono solo teatro. I pesi e il codice dei modelli sono artefatti digitali; una volta rilasciati, da un laboratorio, una fuga o un concorrente straniero, si replicano a costo quasi zero. Non puoi “ripubblicare” i pesi, delimitare la ricerca o prevenire la distillazione in modelli più piccoli. Tentare di contenere artefatti produce due esiti negativi: le aziende compliant affogano nella burocrazia mentre attori irresponsabili aggirano le regole offshore, underground, o entrambi.

Negli Stati Uniti, la licenza per la pubblicazione dei modelli probabilmente collide anche con le leggi sulla libertà di espressione. I tribunali federali hanno trattato il codice sorgente del software come espressione protetta, quindi qualsiasi sistema che impedisca la pubblicazione dei modelli di IA sarebbe vulnerabile a sfide legali.

Non fare nulla non è un’opzione. Senza regolamentazioni, continueremo a vedere frodi automatizzate e campagne di persuasione di massa fino a quando un evento catastrofico non innescherà una risposta brutale ottimizzata per l’ottica, non per i risultati.

Un’alternativa pratica: Regolare l’uso, proporzionalmente al rischio

Un regime basato sull’uso classifica le implementazioni in base al rischio e scala gli obblighi di conseguenza. Ecco un modello praticabile concentrato sul mantenere l’applicazione dove i sistemi interagiscono realmente con le persone:

  • Base: interazione generale con i consumatori (chat aperte, scrittura creativa, assistenza all’apprendimento, produttività casuale).
  • Adesione normativa: chiara divulgazione dell’IA al punto di interazione, politiche di utilizzo accettabili pubblicate, barriere tecniche che prevengono l’escalation in livelli di rischio più elevati, e un meccanismo per gli utenti per segnalare risultati problematici.
  • Assistenza a basso rischio: redazione, riassunto, produttività di base.
  • Adesione normativa: semplice divulgazione, base di igiene dei dati.
  • Supporto decisionale a rischio moderato: triage assunzioni, screening benefici, prequalificazione prestiti.
  • Adesione normativa: valutazione dei rischi documentata, supervisione umana significativa e un “bill of materials” dell’IA composto almeno dalla linea di discendenza del modello, valutazioni chiave e mitigazioni.
  • Usi ad alto impatto in contesti critici per la sicurezza: supporto decisionale clinico, operazioni delle infrastrutture critiche.
  • Adesione normativa: test rigorosi prima del dispiegamento legati all’uso specifico, monitoraggio continuo, segnalazione degli incidenti, e, quando giustificato, autorizzazione legata a prestazioni validate.
  • Funzioni dual-use pericolose: strumenti per fabbricare impronte vocali biometriche per eludere l’autenticazione.
  • Adesione normativa: confinare a strutture autorizzate e operatori verificati; vietare capacità il cui scopo primario è illegale.

I sistemi abilitati dall’IA diventano reali quando sono connessi a utenti, denaro, infrastrutture e istituzioni, ed è lì che i regolatori dovrebbero concentrarsi: nei punti di distribuzione (app store e marketplace aziendali), accesso alle capacità (cloud e piattaforme di IA), monetizzazione (sistemi di pagamento e reti pubblicitarie) e trasferimento del rischio (assicuratori e controparti contrattuali).

Per usi ad alto rischio, è necessario richiedere l’identificazione degli operatori, l’accesso alle capacità allineato al livello di rischio e la registrazione anti-manomissione per audit e riesami post-incidente, insieme a protezioni della privacy. Dobbiamo esigere prove per le affermazioni dei dispiegatori, mantenere piani di risposta agli incidenti, segnalare difetti materiali e fornire fallback umano. Quando l’uso dell’IA causa danni, le aziende devono dimostrare il loro operato e affrontare responsabilità per i danni.

Questo approccio crea dinamiche di mercato che accelerano la conformità. Se operazioni aziendali cruciali come l’approvvigionamento, l’accesso ai servizi cloud e le assicurazioni dipendono dalla dimostrazione del rispetto delle regole, gli sviluppatori di modelli di IA costruiranno secondo specifiche che i compratori possono controllare. Ciò alza il livello di sicurezza per tutti i partecipanti del settore, comprese le startup, senza dare vantaggio a pochi grandi incumbenti autorizzati.

Questo quadro si allinea con la legge sull’IA dell’UE in due modi importanti. Prima di tutto, centra il rischio al punto di impatto: le categorie “ad alto rischio” della legge includono occupazione, istruzione, accesso ai servizi essenziali e infrastrutture critiche, con obblighi di ciclo di vita e diritti di reclamo. Riconosce anche un trattamento speciale per i sistemi ampiamente capaci (GPAI) senza pretendere che il controllo della pubblicazione sia una strategia di sicurezza.

La mia proposta per gli Stati Uniti differisce in tre modi chiave:

  1. Gli Stati Uniti devono progettare per la durabilità costituzionale. I tribunali hanno trattato il codice sorgente come espressione protetta e un regime che richiede permessi per pubblicare pesi o addestrare una classe di modelli inizia a somigliare a una restrizione preventiva. Un regime basato sull’uso delle regole che governa ciò che gli operatori di IA possono fare in contesti sensibili, e a quali condizioni, si adatta più naturalmente alla dottrina del Primo Emendamento degli Stati Uniti rispetto ai regimi di licenza basati sugli oratori.
  2. L’UE può contare su piattaforme che si adattano alle regole di precauzione che scrive per il suo mercato unico. Gli Stati Uniti devono accettare che i modelli esisteranno a livello globale, sia aperti che chiusi, e concentrarsi su dove l’IA diventa azionabile: app store, piattaforme aziendali, fornitori di cloud, strati di identità aziendale, sistemi di pagamento, assicuratori e gatekeepers di settori regolamentati.
  3. Gli Stati Uniti dovrebbero aggiungere un’esplicita categoria di “pericolo dual-use”. La legge sull’IA dell’UE è principalmente un regime di diritti fondamentali e sicurezza del prodotto. Gli Stati Uniti hanno anche una realtà di sicurezza nazionale: certe capacità sono pericolose perché amplificano il danno. Un quadro coerente degli Stati Uniti dovrebbe nominare quella categoria e regolarla direttamente, piuttosto che cercare di adattarla a una licenza generica per i modelli di frontiera.

La Cina ha costruito un regime stratificato per l’IA a uso pubblico. Le regole sulla “sintesi profonda” richiedono l’etichettatura conspicua dei media sintetici e pongono doveri sui fornitori e sulle piattaforme. Le Misure Provvisorie per l’IA Generativa aggiungono obblighi di registrazione e governance per i servizi offerti al pubblico.

Gli Stati Uniti non dovrebbero copiare il controllo statale cinese dei punti di vista dell’IA o della gestione delle informazioni; è incompatibile con i valori statunitensi e non sopravviverebbe al controllo costituzionale. La licenza per la pubblicazione dei modelli è fragile nella pratica e, negli Stati Uniti, probabilmente una forma incostituzionale di censura.

Tuttavia, possiamo prendere in prestito due idee pratiche dalla Cina. In primo luogo, dovremmo garantire la provenienza e la tracciabilità affidabili per i media sintetici. Ciò comporta l’etichettatura obbligatoria e strumenti forensi di provenienza. Offrono a creatori e piattaforme legittimi un modo affidabile per dimostrare origine e integrità. Quando è facile controllare l’autenticità su larga scala, gli aggressori perdono il vantaggio di copie economiche o deepfake e i difensori guadagnano tempo per rilevare, triage e rispondere.

In secondo luogo, dovremmo richiedere agli operatori di presentare i propri metodi e controlli sui rischi ai regolatori per i servizi ad alto rischio destinati al pubblico, come facciamo per altri progetti critici per la sicurezza. Ciò dovrebbe includere garanzie di processo e trasparenza appropriate per le democrazie liberali, insieme a chiara responsabilità per le misure di sicurezza, protezione dei dati e gestione degli incidenti, in particolare per i sistemi progettati per manipolare emozioni o costruire dipendenza.

Non possiamo regolare significativamente lo sviluppo dell’IA in un mondo dove gli artefatti si copiano in tempo reale e la ricerca fluisce liberamente oltre i confini. Ma possiamo tenere i sistemi non esaminati lontani da ospedali, sistemi di pagamento e infrastrutture critiche regolando gli usi, non i modelli; applicando leggi nei punti critici e imponendo obblighi che si scalano con il rischio.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...