Governanza dell’AI: Perché la Supervisione Tradizionale Non È Sufficiente e il Caso per un Nuovo Approccio nel Paesaggio in Evoluzione di Oggi

Negli ultimi anni, l’intelligenza artificiale (AI) è passata da tecnologia innovativa a componente fondamentale delle operazioni aziendali, portando con sé rischi senza precedenti che i quadri di governance tradizionali non possono affrontare completamente. Mentre i consigli di amministrazione si sono basati su quadri ben consolidati per gestire la sicurezza dei dati, la privacy e la conformità, questi approcci risultano inadeguati di fronte alle sfide uniche e complesse che l’AI presenta.

1. AI: Non Solo Software, Ma una Nuova Frontiera di Rischi Novelli

L’AI introduce sfide specifiche che la governance tradizionale non è progettata per affrontare. Al centro di questa differenza c’è il fatto che l’AI differisce fondamentalmente dal software tradizionale a causa della sua capacità di apprendere, adattarsi e prendere decisioni basate sui dati, rendendola intrinsecamente meno prevedibile rispetto al software tradizionale basato su regole.

Le sfide diventano sempre più complesse da rilevare e affrontare a seconda della complessità del sistema – dai modelli di apprendimento automatico tradizionali come gli alberi decisionali ai sistemi multi-agente intricati. I sistemi AI possono mostrare pregiudizi, mancare di trasparenza o produrre disinformazione e risultati inaspettati, rischi che i modelli di supervisione tradizionali non prevedono.

Il Database degli Incidenti AI tiene traccia dei rischi critici dell’AI, inclusi pregiudizi e discriminazioni attraverso fattori demografici, fallimenti specifici del settore (ad esempio, nella sanità e nell’applicazione della legge), problemi tecnici come errori di generalizzazione e generazione di disinformazione, oltre a rischi operativi.

Da violazioni della sicurezza dei dati e multe regolatorie a danni reputazionali, ciascuno di questi casi sottolinea la necessità di un quadro di governance specifico per l’AI che includa supervisione, controllo della qualità, misure di sicurezza e sicurezza dell’AI, e aggiornamenti di conformità su misura per le sfide uniche che l’AI presenta.

2. Seguendo le Orme della Privacy e della Sicurezza: La Necessità di una Conformità Incorporata

La governance dell’AI sta seguendo un percorso simile a quello della privacy e della sicurezza, entrambe le quali hanno dovuto combattere per il riconoscimento come preoccupazioni critiche a livello organizzativo. Così come la privacy e la sicurezza hanno dimostrato la loro rilevanza e necessità, la governance dell’AI ora affronta sfide simili nel ottenere riconoscimento come area di rischio a livello aziendale.

Inoltre, privacy e sicurezza hanno dimostrato che semplicemente avere politiche non è sufficiente; i requisiti legali ora richiedono che le misure di sicurezza e privacy siano tecnicamente incorporate nei sistemi IT, nei prodotti e nelle infrastrutture fin dall’inizio – un approccio proattivo noto come “shift left”. Questa pratica, insieme all’ingegneria della sicurezza e della privacy, garantisce che queste protezioni siano integrate nel design e nella funzione della tecnologia piuttosto che retrofit dopo lo sviluppo.

Lo stesso vale per l’AI, poiché la gestione del rischio AI è ora richiesta da un numero crescente di leggi internazionali come l’EU AI Act e le leggi statali degli USA (ad esempio, in Utah, Colorado e California) e deve essere direttamente integrata nell’architettura tecnica dei sistemi AI.

Ad esempio, l’AB 1008 della California estende le protezioni esistenti sulla privacy ai sistemi AI generativi. L’AB 2013 della California impone trasparenza riguardo ai dati utilizzati per addestrare i modelli AI, spingendo le aziende a incorporare pratiche di governance dei dati direttamente nei loro stack tecnici. Analogamente, le valutazioni dei rischi imposte dal SB 896 segnalano la necessità che i sistemi AI siano monitorati e valutati per mitigare le minacce, dai rischi infrastrutturali ai potenziali fallimenti su larga scala.

Per questo, le organizzazioni necessitano di un approccio multidisciplinare. I professionisti legali sono essenziali per analizzare le leggi applicabili e determinare l’ambito di conformità, mentre ingegneri di machine learning, scienziati dei dati e professionisti della governance dell’AI svolgono un ruolo cruciale nel tradurre questi requisiti in misure tecniche e operative attuabili.

3. Andare Avanti: Costruire una Governance Rigida per l’AI

Per affrontare questi nuovi e complessi rischi, un approccio di governance fresco, specificamente progettato per l’AI, è essenziale. Dovrebbe includere:

  • Nuove Competenze e Ruoli: I team di governance tradizionali potrebbero non avere le competenze specializzate necessarie per comprendere e gestire i sistemi AI. La governance dell’AI richiede persone con esperienza in scienza dei dati, machine learning, etica e conformità normativa.
  • Processi per Rischi Specifici dell’AI: A differenza del software tradizionale, i modelli AI evolvono continuamente. La governance deve quindi includere processi per revisioni regolari dei modelli, audit e valutazioni delle prestazioni.
  • Strumenti e Tecnologie Avanzate: Sono necessari strumenti di governance specializzati per gestire i requisiti unici dell’AI. Il Database Etico dell’AI è attualmente in fase di monitoraggio di aziende che forniscono servizi di abilitazione responsabile dell’AI.

4. Conclusione: Adattarsi alle Nuove Realtà nella Governance dell’AI

La rapida integrazione dell’AI nelle operazioni aziendali ha portato a rischi che sono estranei alle strutture di governance tradizionali. Di fronte all’adozione rapida degli strumenti AI e all’emergere di sistemi AI multi-agente, diventa ancora più chiaro che i quadri di governance legacy non sono sufficienti.

I rischi unici posti dai sistemi AI non sono teorici; hanno implicazioni reali significative. Sistemi AI mal governati possono influenzare direttamente la reputazione del marchio, erodere la fiducia pubblica e comportare conseguenze legali costose.

Andando avanti, le aziende devono dare priorità alla costruzione di strutture di governance che comprendano le competenze specializzate, i processi e gli strumenti necessari per affrontare i rischi distintivi e complessi introdotti dall’AI.

I consigli e gli executive che adottano questo approccio lungimirante alla governance dell’AI possono posizionare le loro organizzazioni non solo per evitare costosi errori, ma anche per ottenere un vantaggio strategico in un paesaggio digitale in rapida evoluzione.

Investire nella governance dell’AI riguarda più della conformità; si tratta di garantire che l’AI serva come un bene responsabile e vantaggioso per l’azienda e i suoi portatori di interesse.

More Insights

Legge sull’Intelligenza Artificiale: Un Nuovo Orizzonte per l’Europa

Questo documento fornisce un riepilogo della legge sull'intelligenza artificiale dell'UE, evidenziando le categorie di rischio associate ai sistemi di IA. La legge stabilisce requisiti specifici per i...

Battaglia per la Trasparenza: L’AI Act e i Diritti dei Creatori

L'Unione Europea ha approvato una legge storica sull'IA che richiede alle aziende di informare il pubblico quando un contenuto è generato da IA. Tuttavia, la legge ha suscitato preoccupazioni tra i...

Il pericolo dell’AI-washing nel settore della nutrizione

L'AI-washing è una tattica di marketing ingannevole in cui le aziende esagerano il ruolo dell'AI nella promozione dei loro prodotti o servizi. I consumatori e i regolatori dovrebbero affrontare con...

Leggi e Intelligenza Artificiale: Nuove Frontiere di Regolamentazione

Il 12 luglio 2024, l'UE ha pubblicato ufficialmente il Regolamento (UE) 2024/1689, noto come legge sull'intelligenza artificiale (AI Act), che rappresenta il primo quadro giuridico completo per...

Guardrails AI: Sicurezza e Etica nel Futuro delle Imprese

L'assenza di un quadro normativo globale armonizzato significa che, mentre le aziende potrebbero soddisfare i requisiti di conformità in un paese, potrebbero violarli involontariamente in un altro...

Legge dell’Arkansas: Protezione delle Immagini e Voci AI

L'Arkansas ha adottato una legge per proteggere le immagini e le voci generate dall'IA, nota come HB1071, che richiede il consenso esplicito per l'uso commerciale di tali riproduzioni. Questa legge...

Giganti della tecnologia sfidano l’UE sull’AI Act

L'Atto sull'IA dell'UE è stato elogiato come il più completo insieme di normative sull'intelligenza artificiale nel mondo. Tuttavia, si tratta di principi generali senza dettagli per...

La battaglia per la regolamentazione dell’IA a Hartford

Durante un'udienza pubblica, il presidente dell'AFL-CIO del Connecticut ha sottolineato l'importanza di regolamentare l'intelligenza artificiale per proteggere i lavoratori e i consumatori. La...

Azioni per un’Intelligenza Artificiale Inclusiva

L'ultimo summit sull'IA di Parigi si è concluso con una "Dichiarazione sull'Intelligenza Artificiale Inclusiva e Sostenibile per le Persone e il Pianeta". Le priorità indicate mirano a ridurre i...