Governare l’IA: Focalizzarsi sui Salti Qualitativi delle Capacità
La governance dell’IA dovrebbe concentrarsi sulle nuove minacce piuttosto che sui rischi familiari.
Nuove Dinamiche nella Governance dell’IA
Un nuovo capitolo nella governance dell’intelligenza artificiale (IA) è in corso, catalizzato da due sviluppi significativi. In primo luogo, il successo di DeepSeek nello sviluppare un modello avanzato e open-weight a costi relativamente inferiori rispetto ai principali laboratori degli Stati Uniti dimostra che raggiungere il confine tecnologico è più accessibile a un numero maggiore di attori di quanto si pensasse in precedenza. L’economia dello sviluppo delle capacità è cambiata radicalmente, consentendo a un’ampia gamma di entità—compresi potenziali avversari—di creare e distribuire sistemi IA avanzati con risorse relativamente ridotte.
In secondo luogo, il discorso del Vicepresidente JD Vance al Parigi AI Action Summit e le sue osservazioni al American Dynamism Summit hanno effettivamente minato qualsiasi slancio verso un approccio internazionale unificato alla sicurezza dell’IA, segnando un cambio di rotta verso approcci più nazionalistici allo sviluppo e alla regolamentazione dell’IA.
La Sicurezza dell’IA e i Salti di Capacità
La sicurezza dell’IA riguarda fondamentalmente i “salti di capacità” dell’IA—attributi che creano nuove “vettori di minaccia”. Un’attenzione alla sicurezza dell’IA implica concentrare la vasta maggioranza dell’attenzione e delle risorse regolatorie sulla difesa contro minacce abilitate dalle nuove capacità dell’IA che rappresentano un salto significativo oltre i pericoli esistenti. Queste “capacità che superano le soglie” consentono agli attori malintenzionati di raggiungere obiettivi dannosi che prima erano impossibili o impraticabili.
Regolamentazione Attuale e Limiti
Le attuali iniziative legislative in tutto il mondo si concentrano prevalentemente su preoccupazioni legate ai contenuti e culturali, come la regolamentazione dei media generati dall’IA, la gestione dei bias e la lotta contro la disinformazione. Anche se queste questioni meritano attenzione, rappresentano principalmente estensioni di problemi esistenti piuttosto che minacce nuove.
Un caso esemplificativo è quello della privacy: l’impatto dell’IA sulla privacy non è semplicemente un’intensificazione dei problemi esistenti, ma rappresenta qualcosa di qualitativamente diverso. La regolazione tradizionale della privacy si basa su un principio semplice: le organizzazioni devono ottenere consenso prima di raccogliere determinati dati. Tuttavia, l’IA cambia drasticamente questa equazione.
Esempi di Violazione della Privacy
Prendiamo in considerazione tre esempi concreti:
Primo, i sistemi IA possono ora inferire informazioni sensibili che non sono mai state condivise esplicitamente. La ricerca ha dimostrato che i modelli di machine learning possono prevedere attributi personali e condizioni mediche da impronte digitali apparentemente non correlate.
Secondo, l’IA consente di riconoscere schemi attraverso fonti di dati disparate, rivelando informazioni private che nessun singolo dataset contiene. Questo tipo di violazione della privacy avviene non nella raccolta dei dati, che può essere del tutto legittima, ma nell’inferenza.
Infine, le capacità predittive dell’IA possono anticipare comportamenti futuri o cambiamenti di vita prima che gli individui siano stessi consapevoli di essi, minando il concetto di consenso informato.
Minacce di Sicurezza Emergenti
Una delle minacce più urgenti per la sicurezza dell’IA è la democratizzazione delle capacità di sviluppo di armi biologiche. Ciò che una volta era dominio esclusivo di programmi statali avanzati è ora potenzialmente accessibile ad attori non statali attraverso il design assistito dall’IA di patogeni. Recenti avanzamenti nella genetica potrebbero consentire ai sistemi IA di identificare varianti di patogeni con maggiore trasmissibilità o letalità.
Anche se le minacce informatiche esistono da decenni, l’IA consente un cambiamento significativo nella capacità di attacco. Sistemi autonomi possono identificare e sfruttare vulnerabilità innovative, creando metodi di attacco adattabili che evolvono in tempo reale.
Una Nuova Prospettiva Regolatoria
Un’efficace struttura di sicurezza per l’IA deve iniziare con il principio di “violazione della soglia”, identificando e dando priorità alle minacce in cui l’IA crea capacità qualitativamente nuove. Ci sono molteplici esempi di potenziali interventi che si inserirebbero all’interno di tale framework.
Per affrontare le sfide senza precedenti di bio-sicurezza presentate dalle capacità dell’IA, il Congresso dovrebbe stabilire un’iniziativa nazionale di modernizzazione della bio-difesa. Questa iniziativa potrebbe sviluppare sistemi di identificazione rapida dei patogeni e stabilire un database classificato di potenziali minacce biologiche progettate con l’IA.
Infine, il Congresso dovrebbe autorizzare un programma completo di rinforzo delle infrastrutture critiche, fornendo le risorse e le autorità necessarie per difendere i sistemi essenziali contro le minacce potenziate dall’IA. Questo approccio mira a garantire che l’innovazione benefica possa prosperare, mentre le minacce più pericolose vengono affrontate in modo diretto.
Concentrando l’attenzione regolatoria su minacce specifiche piuttosto che su preoccupazioni culturali familiari, è possibile sviluppare un framework di sicurezza per l’IA che affronti rischi reali e sia politicamente praticabile nell’attuale contesto.