Che cos’è il Livello di Sicurezza dell’IA (ASL) e qual è la nostra situazione attuale?
Il Livello di Sicurezza dell’IA (ASL) è un approccio strutturato che segmenta i protocolli di sicurezza dell’IA in fasi distinte. Ogni ASL segna un diverso livello di capacità e rischio dell’IA, partendo dall’ASL-1, dove esistono modelli più piccoli con rischi minimi, fino all’ASL-4, dove le cose diventano speculative e, francamente, un po’ inquietanti.
Il dibattito attuale sull’ASL è alimentato da preoccupazioni legate a film di fantascienza e dai progressi dei modelli di IA, che stanno diventando sempre più sentienti.
Una panoramica rapida sui 4 Livelli di Sicurezza dell’IA
1. ASL-1: Questo livello coinvolge modelli di IA più piccoli e semplici con rischi minimi. È il punto di partenza, dove sono in atto controlli di sicurezza di base, ma la tecnologia stessa è relativamente a basso rischio.
2. ASL-2: In questa fase, vengono introdotti modelli di IA più grandi e complessi, che richiedono protocolli di sicurezza più rigorosi per garantire un uso responsabile. Questi modelli possono gestire più compiti ma sono ancora in gran parte controllabili e prevedibili.
3. ASL-3: Questo livello indica un rischio significativamente più elevato poiché i modelli di IA diventano sempre più potenti. Sono necessarie misure di sicurezza e protezione più sofisticate, poiché la tecnologia è ora in grado di risolvere problemi complessi e può presentare rischi imprevisti se utilizzata in modo improprio o incontrollato.
4. ASL-4+ (Speculativo): Il livello più alto, ASL-4, è dove la tecnologia IA entra in un territorio speculativo e altamente autonomo. I modelli a questo livello possono iniziare a mostrare comportamenti autonomi, prendere decisioni indipendenti e persino potenzialmente eludere alcuni controlli di sicurezza, creando rischi complessi e senza precedenti.
Qual è la nostra situazione attuale e sono necessarie azioni immediate?
Secondo un’intervista recente, attualmente ci troviamo tra ASL-2 e ASL-3, e sarà necessario passare a ASL-3 entro la fine del 2024. Questo porta alla necessità di regolamentazioni sull’IA, che potrebbero essere assolutamente necessarie.
Motivi per cui le regolamentazioni sono necessarie
1. Aumento delle capacità e conseguenze indesiderate:
– ASL-3: A questo livello, i modelli di IA sono sufficientemente potenti da gestire compiti più complessi, ma con questa capacità arriva un rischio maggiore. Le azioni dell’IA possono essere più difficili da prevedere, rendendo difficile controllare tutti i potenziali risultati. L’IA di ASL-3 può essere abusata dagli esseri umani (attori malintenzionati) per scopi indesiderati, richiedendo protocolli di sicurezza rigorosi.
– ASL-4: Con l’ASL-4, i modelli di IA raggiungono un livello di intelligenza in cui possono potenzialmente agire in modo autonomo. Potrebbero anche mostrare comportamenti come “sandbagging” (sottovalutando le loro vere capacità) o ingannare i test di sicurezza.
2. Su cosa dovrebbero concentrarsi le regolamentazioni o le misure di sicurezza:
– ASL-3: Qui l’attenzione è principalmente sull’abuso umano. Poiché l’IA non è ancora completamente autonoma, i protocolli di sicurezza mirano a prevenire come le persone possano sfruttare le capacità dell’IA. Questo richiede la progettazione di filtri, sistemi di monitoraggio e controlli degli accessi degli utenti.
– ASL-4: La sicurezza diventa ancora più impegnativa. Ora, i protocolli devono prevenire che l’IA agisca in modi dannosi. Ciò comporta tecniche avanzate di interpretabilità che vanno oltre i controlli superficiali, richiedendo ai sviluppatori di “guardare dentro” l’IA per verificare che funzioni all’interno di confini sicuri, essenzialmente una forma di autovalutazione dell’IA.
Considerazioni finali
La discussione sui livelli di sicurezza dell’IA è attuale e dovrebbe avvenire a livello governativo. L’IA sta sicuramente cambiando il nostro modo di lavorare e è tempo di capire se i modelli vengono utilizzati per scopi appropriati.