Modelli finanziari intelligenti: FICO affronta il rischio dell’IA

FICO e il rischio legato all’IA: Un modello fondazione che valuta ogni output per accuratezza e conformità

FICO, conosciuta principalmente per la determinazione dei punteggi di credito, ha lavorato con modelli di machine learning e IA per anni. Tuttavia, l’azienda ha deciso di attendere prima di rilasciare i propri modelli fondazione, optando invece per stabilire un livello di fiducia e conformità per i propri clienti nel settore dei servizi finanziari.

Recentemente, FICO ha annunciato il rilascio di due modelli fondazione: FICO Focused Language (FICO FLM) e FICO Focused Sequence (FICO FSM). Entrambi i modelli sono stati costruiti interamente da zero, sfruttando l’esperienza pluridecennale dell’azienda in dati finanziari e algoritmi per l’addestramento. FICO gestisce anche un cluster GPU.

FICO Focused Language e FICO Focused Sequence

FICO FLM si occupa principalmente delle conversazioni e dell’aspetto linguistico della finanza per determinare frodi e gestire la documentazione per i prestiti. D’altro canto, FICO FSM è ottimizzato per l’analisi delle transazioni.

Scott Zoldi, chief analytics officer di FICO, ha dichiarato che, nonostante anni di costruzione di modelli, l’azienda sapeva che le proprie offerte dovevano soddisfare le severe esigenze di fiducia e conformità dei suoi principali clienti: banche e finanziatori. “Dovevamo assicurarci che la tecnologia soddisfacesse gli standard di IA responsabile”, ha detto Zoldi. “Doveva essere auditabile, trasparente ed esplicabile, e dovevamo sviluppare la tecnologia che monitorasse gli output.”

Il punteggio di fiducia

Il Punteggio di Fiducia è un componente chiave che rende i due modelli FICO efficaci per settori fortemente regolamentati, come quello finanziario. Questo punteggio funge da guardrail che indica quanto una risposta si allinei ai dati di addestramento. È simile a come alcuni hyperscalers, come AWS, offrono guardrail e contestualizzazione per modelli generali di grandi dimensioni.

Poiché FICO ha costruito i modelli da zero, possiede e ha accesso ai dati esatti utilizzati per addestrarli. Inoltre, collabora strettamente con i propri clienti per integrare i loro dati, consentendo di adattare i modelli ai casi d’uso specifici.

Utilizzo e applicazioni

FICO FLM presenta due casi d’uso principali: il primo riguarda la conformità e le comunicazioni; il secondo concerne l’underwriting, cioè l’atto di offrire un prestito. FICO FSM, invece, gestisce i dati delle transazioni, memorizzando il totale delle transazioni di un consumatore o di un’organizzazione per stabilire schemi di comportamento. Può anche rilevare cambiamenti nei modelli di acquisto, come acquisti insoliti che potrebbero indicare un furto di carta di credito.

Tradizionali modelli di monitoraggio delle frodi spesso dimenticano dettagli dopo un certo periodo. Tuttavia, con FSM, i dettagli vengono mantenuti per un’analisi più accurata.

Modelli specifici per il dominio

FICO crede che alcune industrie siano meglio servite da modelli specifici per il dominio, piuttosto che riproporre un grande modello di linguaggio con comprensione generale dei dati. Zoldi osserva che un modello di nicchia saprà solo le informazioni necessarie, evitando di introdurre hallucinations.

Nonostante ciò, sviluppare un modello fondazionale è spesso impegnativo e costoso. La maggior parte delle aziende sceglie di affinare un LLM di aziende come OpenAI o Anthropic.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...