Nuova Legislazione Proposta in Florida Riguardo all’Uso dell’IA nella Gestione dei Reclami
L’intelligenza artificiale (IA) non sta ancora sostituendo i decisori delle compagnie assicurative, poiché una nuova legislazione presentata in Florida mira a richiedere revisioni umane obbligatorie per le negazioni dei reclami.
Dettagli della Legislazione
Il progetto di legge della Florida, HB 527 (e il progetto di legge compagno SB 202), si applica alle informazioni fornite agli assicuratori da algoritmi, sistemi di intelligenza artificiale o sistemi di apprendimento automatico, nessuno dei quali può servire come unica base per la modifica o la negazione di un reclamo, in tutto o in parte.
I progetti di legge stabiliscono anche che, quando un assicuratore intende utilizzare algoritmi, sistemi di intelligenza artificiale o sistemi di apprendimento automatico nei suoi processi di gestione dei reclami, deve dettagliare nel manuale di gestione dei reclami il modo in cui i sistemi devono essere utilizzati e come questi siano conformi alla legge.
Requisiti per la Revisione dei Reclami
La persona che esamina le negazioni dei reclami deve essere un “professionista umano qualificato”, ovvero un individuo che, secondo il Codice delle Assicurazioni della Florida, ha l’autorità di modificare o negare un reclamo o una parte di esso e può esercitare tale autorità su un reclamo specifico.
Secondo HB 527 e il progetto di legge compagno SB 202, prima di modificare o negare un reclamo o una parte di esso, il professionista deve:
- Analizzare i fatti del reclamo e i termini della polizza assicurativa in modo indipendente da qualsiasi sistema di intelligenza artificiale, sistema di apprendimento automatico o algoritmo;
- Esaminare l’accuratezza di qualsiasi output generato da tale sistema o algoritmo;
- Determinare che il reclamo o la parte del reclamo non sia pagabile secondo i termini della polizza assicurativa e debba essere negato o che il pagamento del reclamo debba essere ridotto.
Implicazioni e Rischi
Gli sponsor della legislazione proposta affermano che il progetto di legge “affronta una crescente sfida nei nostri mercati assicurativi” con una “chiara e ragionevole salvaguardia” contro le decisioni guidate dagli algoritmi.
Nel 2023, l’Associazione Nazionale dei Commissari delle Assicurazioni ha approvato un modello di circolare sull’uso dell’IA da parte delle compagnie assicurative. Questa circolare sottolinea la necessità di processi e controlli per prevenire possibili imprecisioni dell’IA, bias discriminatori e vulnerabilità nei dati.
La circolare ricorda agli assicuratori le leggi regolatorie esistenti, come il Modello di Legge sulle Pratiche Commerciali Sleali, che regolano metodi di concorrenza sleale o atti ingannevoli. Stabilisce la necessità di governance e controlli sui sistemi di IA per conformarsi a queste leggi.
È probabile che questa legislazione proposta sarà contestata a livello federale, poiché il Presidente ha recentemente firmato un ordine esecutivo che blocca gli stati dall’applicare le proprie leggi che regolano l’intelligenza artificiale.