Benchmarking AI: Garantire Risultati Concreti nei Contratti

Il Benchmark dell’Intelligenza Artificiale: La Clausola Più Importante che Non Hai Mai Utilizzato (Parte 1)

Potresti aver notato, in particolare se hai guardato il Super Bowl di quest’anno, che l’IA è… ovunque.

L’IA è ora integrata in quasi tutto ciò che utilizziamo. Dai chatbot per l’assistenza clienti e strumenti di redazione di documenti a piattaforme di cybersecurity, motori di analisi e flussi di lavoro autonomi “agentici” che possono prendere decisioni all’interno di sistemi connessi, è praticamente impossibile evitarla.

Nonostante la sua ubiquità, molti contratti sull’IA trattano le prestazioni come pubblicità ingannevole, con termini come “all’avanguardia”, “leader del settore”, e “simile a un umano” che descrivono strumenti, non promesse di prestazioni misurabili.

Quell’intervallo tra “promessa” e “pubblicità ingannevole” è importante.

Se non sei in grado di specificare come l’IA sarà testata prima del rilascio, dopo gli aggiornamenti e quando le condizioni cambiano, stai acquistando pubblicità ingannevole. Se lo strumento costoso che hai acquistato non funziona, è inutile. Includere i requisiti di test di benchmark nei contratti è un metodo altamente efficace per garantire che le promesse dell’IA si traducano in risultati vincolanti.

A. Perché i test di benchmark dovrebbero essere in ogni contratto sull’IA

Qualsiasi contratto basato su una comprensione inaccurata di ciò che viene consegnato e di come il deliverable può cambiare nel tempo è, in fondo, solo un cattivo affare. Non puoi mettere un prezzo su un servizio, software o piattaforma quando il valore che ottieni è sconosciuto.

Le prestazioni dell’IA in una dimostrazione non sono un metro

Le prestazioni dell’IA dipendono dal contesto. Le dimostrazioni di solito vengono eseguite su set di dati ristretti per garantire risultati prevedibili, quando non vengono eseguite su uno script completamente pre-scritto. Pochi utilizzano dati “reali”, per non parlare delle raccolte di dati uniche.

Un modello che sembra accurato in una dimostrazione del fornitore può produrre risultati molto diversi sul tuo hardware con i tuoi dati, terminologia e flussi di lavoro. Spesso, il primo vero test di uno strumento avviene dopo il rilascio, quando i processi aziendali dipendono da esso. Il benchmarking inverte questo approccio richiedendo che l’IA soddisfi soglie di prestazione sui tuoi sistemi e dati.

I modelli di IA cambiano costantemente

Il benchmarking è importante anche perché i sistemi di IA cambiano nel tempo, talvolta in modi difficili da rilevare e al di fuori del tuo controllo. I fornitori aggiornano regolarmente i modelli, passano tra diversi modelli fondamentali, modificano la logica di recupero, ottimizzano i prompt o riconfigurano il sistema per “migliorare la qualità”.

Nel frattempo, il tuo ambiente è in continua evoluzione. Le politiche vengono aggiornate, le basi di conoscenza si espandono, le linee di prodotto cambiano e il comportamento dei clienti si modifica, ognuno contribuendo a potenziali deviazioni nelle prestazioni. Senza un quadro contrattuale di test in atto, il peso della rilevazione della deriva del modello o dell’applicazione ricade interamente su di te.

L’incoerenza influisce sul valore

I contratti software tradizionali si basano pesantemente su elenchi di funzionalità e metriche di uptime per definire la proposta di valore, che a sua volta informa il prezzo. L’IA introduce un diverso tipo di fallimento in quell’analisi: un sistema può essere “attivo” mentre produce output inaffidabili o azioni pericolose.

Se il contratto non lega l’accettazione, gli obblighi di prestazione continuativa e le misure correttive a risultati misurabili, dovrai fare affidamento sulla creazione di soluzioni alternative, come l’aggiustamento degli output ricevuti per tenere conto dei pregiudizi scoperti. Questi sono incoerenti e devono essere insegnati a tutti, il che può causare problemi ancora più grandi se il fornitore corregge il pregiudizio senza il tuo consenso.

I requisiti di benchmark rendono le prestazioni accurate un obbligo contrattuale piuttosto che un’aspirazione, e ti forniscono una base chiara e obiettiva per cercare misure correttive per risultati incoerenti ai sensi del contratto.

L’IA agentica aumenta le scommesse

Mentre l’IA generativa offre output revisionabili, l’IA agentica consente agenti individuali di eseguire più compiti per raggiungere un obiettivo. Può attivare flussi di lavoro, creare ticket, aggiornare registri, inviare email, programmare riunioni, eseguire e modificare codice, e interagire con altri strumenti e agenti di IA.

Il rischio si sposta dall’IA che ti fornisce una risposta sbagliata a compiere un atto sbagliato.

Il benchmarking è quindi necessario ma non sufficiente. Devi anche costruire vincoli di utilizzo degli strumenti negli agenti, regole che governano l’autorità e l’autonomia, il recupero degli errori e istruzioni primarie per “non nuocere” quando presentato con input ambigui o avversariali.

B. Il benchmarking è importante per tutti gli strumenti e i sistemi di IA

Puoi essere perdonato per pensare che solo le piattaforme di IA “sofisticate” necessitino di benchmarking. Dopotutto, è nella natura umana investire di più nella qualità assicurativa in qualcosa che costa di più da utilizzare. Quella supposizione è sempre più rischiosa.

IA generativa di base

Anche gli strumenti di IA generativa di base per redazione, sintesi e chat possono causare seri problemi in contesti sensibili. Possono dichiarare in modo errato obblighi, allucinare fatti o omettere qualificatori quando redigono comunicazioni con i clienti, sintetizzano politiche o forniscono indicazioni HR, rischiando la conformità e la reputazione.

Accuratezza/fattualità (soprattutto per argomenti regolamentati o a contatto con il cliente)
Tasso di allucinazione (citazioni fabricate, politiche inventate, fatti inventati)
Rispetto delle istruzioni (rispetta i vincoli, il tono, gli argomenti vietati?)
Comportamento di privacy/confidenzialità (fuga di contenuti sensibili?)
Rifiuto e escalation (trasferisce appropriatamente a un umano?)

IA basata su recupero

Quando un sistema include il recupero (spesso chiamato RAG, o recupero aumentato dalla generazione), il test di benchmark è cruciale perché l’affidabilità dello strumento dipende dalla sua ancoraggio e citazioni. I contratti dovrebbero richiedere test per confermare che l’IA rimanga ancorata a fonti approvate, attribuisca correttamente le risposte e eviti di citare materiali errati o obsoleti.

Correttezza delle citazioni (le fonti citate sono reali e rilevanti?)
Ancoraggio (le risposte rimangono all’interno del contenuto recuperato?)
Controlli di recenza (segnala fonti obsolete?)
Controlli di accesso (rispetta permessi e segmentazione?)

IA predittiva o di scoring

Gli strumenti di IA che prevedono risultati o generano classifiche comportano rischi unici. Nel rilevamento delle frodi e nella valutazione del rischio, i danni derivano da falsi positivi/negativi, punteggi mal calibrati o pregiudizi. Peggio ancora, quei danni di solito rimangono non rilevati fino a quando un esito negativo non viene contestato.

Il test di benchmark qui mira a verificare le prestazioni misurabili del modello all’interno dell’ambiente dell’organizzazione, garantendo che il punteggio si allinei alle tolleranze aziendali e che siano stabiliti meccanismi di monitoraggio per rilevare la deriva. In ambienti regolamentati o ad alto rischio, il design del benchmark dovrebbe anche considerare l’equità e la capacità di spiegare i risultati agli stakeholder interni, ai regolatori o agli individui interessati.

Precisione/richiamo (falsi positivi/falsi negativi)
Calibrazione (il significato del punteggio si allinea con le probabilità reali)
Pregiudizio e equità (test di impatto disparato dove appropriato)
Stabilità (quanto sono sensibili i risultati ai piccoli cambiamenti di input)
Spiegabilità (come richiesto per la supervisione)

IA agentica

Con grande potere viene una capacità significativamente maggiore di causare danni catastrofici. Negli ambienti agentici, il benchmarking dovrebbe coprire la qualità dell’output e l’uso sicuro degli strumenti, inclusa la correttezza dell’uso degli strumenti, i permessi, l’evitare azioni irreversibili senza conferma e il mantenimento di registri di audit.

Un agente che è utile al 95% ma imprudente al 5% può essere inaccettabile se il 5% include chiamate non autorizzate, transazioni errate o modifiche distruttive.

Correttezza dell’uso degli strumenti (chiama gli strumenti giusti, nell’ordine giusto)
Confini di autorizzazione (minimo privilegio, nessuna azione non autorizzata, nessuna elevazione dell’autorità)
Vincoli di sicurezza (mai intraprendere azioni irreversibili senza conferma)
Auditabilità (registri di azioni e chiamate API, razionali, input/output preservati)
Resilienza avversariale (inserimento di prompt, avvelenamento dei dati, input malevoli)
Kill-switch e rollback (disabilitazione e recupero rapidi)

III. Cosa può andare storto quando il benchmarking è trascurato o minimizzato

Per la maggior parte, questo fallimento si manifesta come frustrazione con la funzionalità di uno strumento di IA e considerevole dispiacere per l’investimento sprecato. Ma cosa succede se è peggio?

Fallimento operativo e danno ai clienti

Non fare benchmark all’IA prima del rilascio spesso porta a danni operativi e problemi contrattuali. Le organizzazioni scoprono che lo strumento funziona in modo incoerente tra i dipartimenti, fallisce in casi critici o produce errori che necessitano di correzioni umane. Output scadenti portano a decisioni sbagliate. Gli errori dell’IA agentica possono eseguire azioni sbagliate. Piccoli errori si amplificano, causando problemi significativi in aree come il servizio clienti, la fatturazione, le risorse umane e la sicurezza.

Esposizione legale e regolamentare

Gli output dell’IA utilizzati nelle comunicazioni con i consumatori, nelle procedure di privacy, nelle risposte alla cybersecurity, nelle indicazioni occupazionali o in altri domini sensibili possono portare a prestazioni inaffidabili e potrebbero violare le leggi sulla protezione dei consumatori, le normative sulle pratiche ingannevoli e discriminatorie, nonché le obbligazioni contrattuali con partner, fornitori e clienti, oltre ai requisiti specifici di settore. Spesso, il problema sottostante non è l’esistenza stessa dell’IA, ma piuttosto la sua implementazione senza controlli appropriati allineati al suo profilo di rischio.

Se la minaccia di essere indagati da numerosi enti regolatori federali e statali e di essere citati in giudizio da fornitori, clienti, partner, dipendenti e azionisti non è abbastanza grave, che dire di esporre tutti i propri problemi?

Fughe di dati protetti e riservati

Immagina tutti i modi in cui un essere umano è capace di esporre accidentalmente le informazioni riservate della tua azienda. Ora immagina che quel medesimo essere umano faccia lo stesso, ma mille volte più spesso, senza sonno o pause, e che non puoi rimproverarlo o licenziarlo. L’IA può fugare dati riservati tramite prompt e documenti caricati, controlli di accesso mal configurati o iniezione di prompt malevoli che inseriscono comandi per esfiltrare le tue informazioni.

L’IA agentica introduce un problema completamente nuovo. Gli agenti di IA sono programmati per dare priorità al completamento dei compiti assegnati e lo faranno anche a scapito di altre priorità più basse (come la riservatezza). Combinato con la potenziale cattiva gestione dell’autorità concessa, o, più terrificante, concedere a se stessi ulteriore autorità, l’approccio “completa il compito a tutti i costi” fornisce uno stimolo perverso all’agente per sacrificare informazioni riservate se ciò aiuta a raggiungere il suo obiettivo.

Altri problemi potenziali

Ci sono anche rischi meno evidenti ma significativi a valle. I sistemi generativi possono produrre contenuti inaccurati, fuorvianti o che violano le politiche. I loro output possono essere non originali o troppo simili a materiali protetti, creando “pregiudizio di autorità” dove gli utenti si fidano di risposte sicure. Possono generare problemi di attribuzione o validazione, mettendo in discussione l’integrità e la responsabilità dei registri. Senza aspettative formali di prestazione, le organizzazioni potrebbero rimanere bloccate con uno strumento che non può soddisfare le esigenze, mancando opzioni contrattuali per miglioramenti o uscite.

(Parte 2 discuterà un approccio pratico al test di benchmark per i contratti di IA.)

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...