Aggiornamenti sul Hub delle Risorse AI
Il 22 dicembre, è stata aggiornata la pagina delle risorse sull’intelligenza artificiale (AI) per fornire riferimenti tecnici e politici chiave per le cooperative di credito assicurate a livello federale. La pagina fa parte delle risorse più ampie sulla cybersecurity e sulla tecnologia finanziaria e viene esplicitamente inquadrata come supporto per la valutazione e la due diligence sui fornitori di AI di terze parti.
Le cooperative di credito stanno sempre più utilizzando l’AI per migliorare il servizio ai membri, semplificare le operazioni e rimanere competitive, affrontando al contempo rischi specifici legati all’AI, come l’opacità degli algoritmi, le preoccupazioni per l’equità nel prestito, la privacy dei dati e la sicurezza, la resilienza operativa e il rischio di modelli. Le risorse sulla pagina sono presentate come strumenti per affrontare queste problematiche piuttosto che come nuovi requisiti normativi.
Governance e Gestione del Rischio AI
Per la governance dell’AI, vengono consigliate le risorse del National Institute of Standards and Technology (NIST). I materiali del NIST offrono un approccio strutturato alla progettazione, sviluppo, governance e utilizzo dell’AI, inclusi raccomandazioni pratiche per gestire i rischi per individui e organizzazioni. Queste risorse possono assistere le cooperative di credito nello sviluppo di sistemi AI “affidabili” che siano in linea con la loro missione orientata ai membri.
Viene anche citato un documento della Committee of Sponsoring Organizations (COSO), che applica il framework di gestione del rischio enterprise all’AI, coprendo strutture di governance, supervisione del consiglio, appetito per il rischio, metodologie di valutazione del rischio e monitoraggio delle prestazioni per le implementazioni AI in aree come i servizi ai membri e la rilevazione delle frodi.
Sicurezza dei Dati AI e Distribuzione Sicura
La pagina delle risorse segnala due pubblicazioni focalizzate sull’AI della Cybersecurity and Infrastructure Security Agency (CISA). La prima è un foglio informativo sulla sicurezza dei dati AI, che discute la sicurezza dei dati che alimentano i sistemi AI durante il loro ciclo di vita, inclusa la sicurezza della catena di approvvigionamento dei dati e la protezione contro dati modificati in modo malevolo. Questi materiali possono assistere le cooperative di credito nella costruzione di framework di sicurezza dei dati per i dati di addestramento e operativi dell’AI.
Il secondo documento CISA, “Distribuzione Sicura dei Sistemi AI”, tratta metodi per distribuire e operare in sicurezza i sistemi AI sviluppati da entità esterne. Copre questioni come la protezione dei pesi del modello e l’implementazione di API sicure, con un’enfasi sulla protezione dei dati dei membri.
L’AI nei Servizi Finanziari e le Frodi Basate su Deepfake
Per contestualizzare l’AI nel settore finanziario, viene menzionato un rapporto del Dipartimento del Tesoro degli Stati Uniti che esamina i casi d’uso dell’AI tradizionale e generativa, affrontando anche questioni di privacy e sicurezza dei dati, bias e sfide di spiegabilità, problemi di protezione dei consumatori e gestione dei fornitori di terze parti legati alle tecnologie AI.
Infine, viene evidenziato un rapporto su schemi di frode che coinvolgono media deepfake, descrivendo come i criminali utilizzano deepfake generati dall’AI per creare documenti di identità falsi e video. Questo materiale può aiutare le cooperative di credito a migliorare le capacità di rilevamento delle frodi e proteggere i membri da truffe abilitate dall’AI.
Conclusione
Nel complesso, l’aggiornamento del hub delle risorse AI indica che le aspettative di supervisione riguardanti l’AI saranno basate su framework esistenti e ben noti piuttosto che su un regolamento specifico per l’AI. Inoltre, conferma che l’AI rientra nell’ambito della supervisione delle terze parti e delle discipline tradizionali di sicurezza, conformità e cybersecurity. Le cooperative di credito che esplorano o ampliano l’uso dell’AI possono aspettarsi che gli esaminatori utilizzino queste stesse fonti come parametri di riferimento nella valutazione della governance delle soluzioni AI e nella gestione dei rischi associati.