Modelli finanziari intelligenti: FICO affronta il rischio dell’IA

FICO e il rischio legato all’IA: Un modello fondazione che valuta ogni output per accuratezza e conformità

FICO, conosciuta principalmente per la determinazione dei punteggi di credito, ha lavorato con modelli di machine learning e IA per anni. Tuttavia, l’azienda ha deciso di attendere prima di rilasciare i propri modelli fondazione, optando invece per stabilire un livello di fiducia e conformità per i propri clienti nel settore dei servizi finanziari.

Recentemente, FICO ha annunciato il rilascio di due modelli fondazione: FICO Focused Language (FICO FLM) e FICO Focused Sequence (FICO FSM). Entrambi i modelli sono stati costruiti interamente da zero, sfruttando l’esperienza pluridecennale dell’azienda in dati finanziari e algoritmi per l’addestramento. FICO gestisce anche un cluster GPU.

FICO Focused Language e FICO Focused Sequence

FICO FLM si occupa principalmente delle conversazioni e dell’aspetto linguistico della finanza per determinare frodi e gestire la documentazione per i prestiti. D’altro canto, FICO FSM è ottimizzato per l’analisi delle transazioni.

Scott Zoldi, chief analytics officer di FICO, ha dichiarato che, nonostante anni di costruzione di modelli, l’azienda sapeva che le proprie offerte dovevano soddisfare le severe esigenze di fiducia e conformità dei suoi principali clienti: banche e finanziatori. “Dovevamo assicurarci che la tecnologia soddisfacesse gli standard di IA responsabile”, ha detto Zoldi. “Doveva essere auditabile, trasparente ed esplicabile, e dovevamo sviluppare la tecnologia che monitorasse gli output.”

Il punteggio di fiducia

Il Punteggio di Fiducia è un componente chiave che rende i due modelli FICO efficaci per settori fortemente regolamentati, come quello finanziario. Questo punteggio funge da guardrail che indica quanto una risposta si allinei ai dati di addestramento. È simile a come alcuni hyperscalers, come AWS, offrono guardrail e contestualizzazione per modelli generali di grandi dimensioni.

Poiché FICO ha costruito i modelli da zero, possiede e ha accesso ai dati esatti utilizzati per addestrarli. Inoltre, collabora strettamente con i propri clienti per integrare i loro dati, consentendo di adattare i modelli ai casi d’uso specifici.

Utilizzo e applicazioni

FICO FLM presenta due casi d’uso principali: il primo riguarda la conformità e le comunicazioni; il secondo concerne l’underwriting, cioè l’atto di offrire un prestito. FICO FSM, invece, gestisce i dati delle transazioni, memorizzando il totale delle transazioni di un consumatore o di un’organizzazione per stabilire schemi di comportamento. Può anche rilevare cambiamenti nei modelli di acquisto, come acquisti insoliti che potrebbero indicare un furto di carta di credito.

Tradizionali modelli di monitoraggio delle frodi spesso dimenticano dettagli dopo un certo periodo. Tuttavia, con FSM, i dettagli vengono mantenuti per un’analisi più accurata.

Modelli specifici per il dominio

FICO crede che alcune industrie siano meglio servite da modelli specifici per il dominio, piuttosto che riproporre un grande modello di linguaggio con comprensione generale dei dati. Zoldi osserva che un modello di nicchia saprà solo le informazioni necessarie, evitando di introdurre hallucinations.

Nonostante ciò, sviluppare un modello fondazionale è spesso impegnativo e costoso. La maggior parte delle aziende sceglie di affinare un LLM di aziende come OpenAI o Anthropic.

More Insights

USA rifiuta la governance globale dell’IA all’ONU

I funzionari statunitensi hanno rifiutato una spinta per stabilire un quadro di governance globale sull'intelligenza artificiale durante l'Assemblea generale delle Nazioni Unite di questa settimana...

Rischi e governance dell’AI agentica nelle aziende

Nel mondo in rapida evoluzione dell'intelligenza artificiale, le aziende stanno sempre più adottando sistemi AI agentici—programmi autonomi che possono prendere decisioni ed eseguire compiti senza...

Il ruolo crescente dell’IA come custode delle opinioni e le sue implicazioni sui bias nascosti

L'aumento del ruolo dei modelli di linguaggio di grandi dimensioni (LLM) come custodi delle opinioni solleva preoccupazioni riguardo ai bias nascosti che potrebbero distorcere il dibattito pubblico...

Regole e Responsabilità nell’Intelligenza Artificiale

Il mondo in crescita dell'intelligenza artificiale (AI) è a un punto critico, poiché un'ondata di azioni normative sottolinea una svolta globale verso la responsabilità e l'uso etico. Le recenti...

Strumenti di Governance AI: Scegliere con Intelligenza

Con l'adozione dell'IA generativa in rapido aumento, aumentano anche i rischi associati. Gli strumenti di governance dell'IA offrono un modo per gestire questi rischi, ma scegliere la soluzione giusta...

Consenso Globale per un’Intelligenza Artificiale Sicura e Affidabile

Le Nazioni Unite stanno facendo pressione per influenzare direttamente le politiche globali sull'intelligenza artificiale, promuovendo standard tecnici e normativi per un'IA "sicura, protetta e...

La governance dell’IA: Regole e pratiche per un futuro sostenibile

Recentemente, davanti a un pubblico attento a Singapore, si è svolta una conversazione che potrebbe riformulare il pensiero globale sulla regolamentazione dell'IA. I relatori hanno discusso di come il...

Prepararsi alle nuove normative europee sull’IA per le PMI

Immagina di essere il responsabile delle risorse umane di un'azienda di produzione di medie dimensioni con 250 dipendenti distribuiti in Europa e Nord America. La tua piccola squadra HR non può...

Nuove Normative sulla Segnalazione di Incidenti per l’IA in Europa

Il 26 settembre 2025, la Commissione Europea ha pubblicato una bozza di guida sui requisiti di segnalazione degli incidenti gravi per i sistemi di intelligenza artificiale ad alto rischio ai sensi...