Governance dell’AI e Perché È Necessaria
Nel marzo 2023, esperti del settore tecnologico come Elon Musk e Steve Wozniak hanno firmato una lettera aperta chiedendo di fermare l’addestramento di modelli di intelligenza artificiale (AI) potenti fino a quando non saranno sviluppate leggi di governance più solide. Due mesi dopo, Sam Altman, CEO di OpenAI, ha testimoniato davanti al Congresso sui rischi dell’AI e ha sollecitato regolamenti più rigorosi.
La governance dell’AI è importante e la completa mancanza di essa potrebbe avere conseguenze significative, dalla violazione dei diritti alla privacy a pratiche commerciali non etiche. Ma cosa comporta la governance dell’AI e come influisce su di noi?
Cosa È la Governance dell’AI?
La tecnologia dell’intelligenza artificiale è ampiamente utilizzata in una varietà di applicazioni e settori per automatizzare compiti, analizzare dati e prevedere risultati. L’AI può risparmiare tempo, ridurre costi e persino diminuire gli errori introdotti dal lavoro manuale.
Tuttavia, mentre delegiamo compiti e decisioni all’AI, è necessario garantire che il suo utilizzo rispetti standard etici, sia conforme alle normative e tuteli la privacy degli utenti.
La governance dell’AI è il framework combinato di processi, principi e politiche che guida lo sviluppo e l’implementazione di sistemi AI etici e responsabili. Essa garantisce che tali sistemi siano trasparenti, spiegabili e responsabili, e fornisce linee guida per minimizzare i rischi e creare modelli AI privi di bias e errori dannosi per le persone.
Formazione dei Modelli AI e Come Si Affida ai Dati
Come fa l’AI a rispondere, completare compiti e prendere decisioni? I modelli AI devono essere addestrati con volumi significativi di dati. Questi modelli prendono i dati di input e li correlano all’output per abbinare un campione di output.
Quanto dato è necessario per addestrare un modello AI? Dipende. I modelli di linguaggio di grandi dimensioni (LLM) utilizzano miliardi di punti dati, mentre i modelli più piccoli possono necessitare solo di migliaia o addirittura centinaia di punti dati, a seconda dello scopo.
Come le persone, l’apprendimento di un modello AI dipende dai tre Vs: volume, varietà e velocità.
- Volume: più informazioni hanno accesso, più comprensiva è la loro conoscenza sull’argomento.
- Varietà: diversi tipi di informazioni aiutano a sviluppare una comprensione più sfumata del tema.
- Velocità: più rapidamente vengono generate, elaborate e analizzate le informazioni, migliore diventa il modello nel prendere decisioni in tempo reale.
Rischi per la Privacy dei Dati nella Formazione dell’AI
Problemi con i Dati di Formazione
In molti casi, i modelli AI vengono addestrati su informazioni provenienti da database esistenti o da Internet. Il principale rischio per la privacy è che alcuni di questi dati possano essere personali, identificabili o sensibili.
Se il soggetto dei dati non ha acconsentito all’utilizzo delle proprie informazioni per l’addestramento dell’AI, si può agire in modo non etico e non conforme.
Problema 1: Il Soggetto Non Ha Fornito Consenso Informato
Una delle condizioni delle leggi sulla privacy dei dati è che le organizzazioni possono raccogliere i dati personali dei consumatori solo con il loro consenso informato.
Problema 2: Il Soggetto Non Ha Fornito Consenso Informato per Tutti gli Usi
Se qualcuno acconsente all’utilizzo delle proprie informazioni personali per uno scopo ma non per un altro, è necessario rispettare tale preferenza.
Problema 3: Violazione della Privacy Utilizzando Dati Personali nelle Risposte
Utilizzare le informazioni personali per addestrare LLM comporta il rischio che i modelli possano rivelare queste informazioni come parte delle loro risposte.
Bias e Rischi di Discriminazione
Un esempio del rischio dell’AI è il chatbot Tay di Microsoft, che ha dovuto essere disabilitato dopo poche ore dal lancio per aver emulato comportamenti indesiderabili. I risultati dell’AI sono validi solo quanto i dati su cui è stata addestrata.
Bias di formazione, algoritmici e cognitivi possono essere introdotti dai programmatori e influenzare le decisioni, portando a risultati inaccurati.
Rischio di Inferenze e Previsioni
Combinare diverse informazioni per fare inferenze può portare a risultati sbagliati. Ad esempio, l’AI potrebbe dedurre erroneamente informazioni sulla condotta di un individuo.
Rischi Associati alla Mancanza di Trasparenza
La governance dell’AI richiede chiarezza sull’uso dei dati. La mancanza di consenso informato può portare a violazioni delle leggi sulla privacy e danneggiare la fiducia nei servizi AI.
Principi di Governance dell’AI
Negli Stati Uniti, è stata emessa un’ordinanza esecutiva sulla governance dell’AI, delineando principi come la sicurezza, l’innovazione e la protezione della privacy.
Nel frattempo, l’EU AI Act, entrato in vigore nell’agosto 2024, classifica i modelli AI in base al rischio e include una categoria di rischio inaccettabile.
Conclusione
La governance dell’AI è necessaria per garantire che l’AI venga utilizzata in modo etico e non invasivo. Implementare pratiche solide di privacy dei dati è fondamentale per costruire una governance dell’AI efficace.