Risorse Aggiornate sull’Intelligenza Artificiale per le Cooperative di Credito

Aggiornamenti sul Hub delle Risorse AI

Il 22 dicembre, è stata aggiornata la pagina delle risorse sull’intelligenza artificiale (AI) per fornire riferimenti tecnici e politici chiave per le cooperative di credito assicurate a livello federale. La pagina fa parte delle risorse più ampie sulla cybersecurity e sulla tecnologia finanziaria e viene esplicitamente inquadrata come supporto per la valutazione e la due diligence sui fornitori di AI di terze parti.

Le cooperative di credito stanno sempre più utilizzando l’AI per migliorare il servizio ai membri, semplificare le operazioni e rimanere competitive, affrontando al contempo rischi specifici legati all’AI, come l’opacità degli algoritmi, le preoccupazioni per l’equità nel prestito, la privacy dei dati e la sicurezza, la resilienza operativa e il rischio di modelli. Le risorse sulla pagina sono presentate come strumenti per affrontare queste problematiche piuttosto che come nuovi requisiti normativi.

Governance e Gestione del Rischio AI

Per la governance dell’AI, vengono consigliate le risorse del National Institute of Standards and Technology (NIST). I materiali del NIST offrono un approccio strutturato alla progettazione, sviluppo, governance e utilizzo dell’AI, inclusi raccomandazioni pratiche per gestire i rischi per individui e organizzazioni. Queste risorse possono assistere le cooperative di credito nello sviluppo di sistemi AI “affidabili” che siano in linea con la loro missione orientata ai membri.

Viene anche citato un documento della Committee of Sponsoring Organizations (COSO), che applica il framework di gestione del rischio enterprise all’AI, coprendo strutture di governance, supervisione del consiglio, appetito per il rischio, metodologie di valutazione del rischio e monitoraggio delle prestazioni per le implementazioni AI in aree come i servizi ai membri e la rilevazione delle frodi.

Sicurezza dei Dati AI e Distribuzione Sicura

La pagina delle risorse segnala due pubblicazioni focalizzate sull’AI della Cybersecurity and Infrastructure Security Agency (CISA). La prima è un foglio informativo sulla sicurezza dei dati AI, che discute la sicurezza dei dati che alimentano i sistemi AI durante il loro ciclo di vita, inclusa la sicurezza della catena di approvvigionamento dei dati e la protezione contro dati modificati in modo malevolo. Questi materiali possono assistere le cooperative di credito nella costruzione di framework di sicurezza dei dati per i dati di addestramento e operativi dell’AI.

Il secondo documento CISA, “Distribuzione Sicura dei Sistemi AI”, tratta metodi per distribuire e operare in sicurezza i sistemi AI sviluppati da entità esterne. Copre questioni come la protezione dei pesi del modello e l’implementazione di API sicure, con un’enfasi sulla protezione dei dati dei membri.

L’AI nei Servizi Finanziari e le Frodi Basate su Deepfake

Per contestualizzare l’AI nel settore finanziario, viene menzionato un rapporto del Dipartimento del Tesoro degli Stati Uniti che esamina i casi d’uso dell’AI tradizionale e generativa, affrontando anche questioni di privacy e sicurezza dei dati, bias e sfide di spiegabilità, problemi di protezione dei consumatori e gestione dei fornitori di terze parti legati alle tecnologie AI.

Infine, viene evidenziato un rapporto su schemi di frode che coinvolgono media deepfake, descrivendo come i criminali utilizzano deepfake generati dall’AI per creare documenti di identità falsi e video. Questo materiale può aiutare le cooperative di credito a migliorare le capacità di rilevamento delle frodi e proteggere i membri da truffe abilitate dall’AI.

Conclusione

Nel complesso, l’aggiornamento del hub delle risorse AI indica che le aspettative di supervisione riguardanti l’AI saranno basate su framework esistenti e ben noti piuttosto che su un regolamento specifico per l’AI. Inoltre, conferma che l’AI rientra nell’ambito della supervisione delle terze parti e delle discipline tradizionali di sicurezza, conformità e cybersecurity. Le cooperative di credito che esplorano o ampliano l’uso dell’AI possono aspettarsi che gli esaminatori utilizzino queste stesse fonti come parametri di riferimento nella valutazione della governance delle soluzioni AI e nella gestione dei rischi associati.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...