L’impatto delle normative sull’AI nell’Insurtech
L’Insurtech è profondamente radicata nell’intelligenza artificiale (AI), sfruttando la tecnologia per migliorare il marketing, le vendite, la sottoscrizione, il trattamento dei sinistri, la rilevazione delle frodi e altro ancora. Le aziende Insurtech stanno probabilmente solo grattando la superficie di ciò che è possibile in questi ambiti. Parallelamente, la regolamentazione dell’AI è destinata a creare ulteriori considerazioni legali in ogni fase della progettazione, implementazione e funzionamento dei sistemi AI che operano in questi contesti.
Considerazioni legali e esposizione all’AI
Come per le normative sulla privacy dei dati, la risposta alla domanda “Quali leggi sull’AI si applicano?” è altamente specifica e spesso dipendente dall’esposizione del modello o dall’input dei dati. Le leggi applicabili tendono a scattare in base ai tipi di dati o alla posizione degli individui i cui dati vengono utilizzati per addestrare i modelli, piuttosto che alla posizione del progettista o del distributore. Di conseguenza, a meno che l’uso di un modello non sia strettamente limitato a una singola giurisdizione, è probabile che vi sia esposizione a diverse normative sovrapposte (oltre alle preoccupazioni sulla privacy dei dati) che influenzano la progettazione e l’implementazione di un modello AI nell’Insurtech.
Gestire il rischio normativo nella progettazione dell’AI
Data questa complessità, l’ampiezza dell’esposizione di un modello AI Insurtech può essere un’importante considerazione progettuale. Le aziende dovrebbero valutare adeguatamente il livello di rischio dal punto di vista della limitazione di una supervisione normativa non necessaria o della creazione della possibilità di responsabilità normative, come sanzioni o multe. Ad esempio, un’azienda Insurtech che utilizza l’AI dovrebbe considerare se il modello in questione è destinato a essere utilizzato solo per questioni assicurative nazionali e se ci sia valore nell’utilizzare dati relativi a soggetti dati internazionali. Prendere misure per garantire che il modello non abbia esposizione a soggetti dati internazionali può limitare l’applicazione di leggi internazionali extraterritoriali che regolano l’AI e ridurre il potenziale rischio di utilizzare una soluzione AI. D’altra parte, se l’esposizione al maggior numero possibile di dati è desiderabile dal punto di vista operativo, ad esempio, per aumentare i dati di addestramento, le aziende devono essere consapevoli delle implicazioni legali di tali decisioni prima di prenderle.
Legislazione recente a livello statale sull’AI
Nel 2024, diversi stati americani hanno approvato leggi sull’AI che regolano l’uso della tecnologia, molte delle quali possono influenzare gli sviluppatori e i distributori dell’Insurtech. È importante notare che le leggi statali sull’AI non sono uniformi. Queste leggi variano da quadri normativi completi, come l’Artificial Intelligence Act del Colorado, a leggi più restrittive basate sulla divulgazione, come l’AB 2013 della California, che richiederà agli sviluppatori di pubblicare documentazione dettagliata riguardante i dati di addestramento del loro modello. Diverse ulteriori leggi relative alla regolamentazione dell’AI sono già in attesa nel 2025, tra cui:
- Massachusetts’ HD 3750: Richiederebbe agli assicuratori sanitari di divulgare l’uso dell’AI, inclusi, ma non limitati a, nel processo di revisione dei sinistri e di presentare rapporti annuali riguardanti i set di addestramento, oltre a un’attestazione riguardo alla minimizzazione del bias.
- Virginia’s HB 2094: Conosciuta come l’High-Risk Artificial Intelligence Developer and Deployer Act, richiederebbe l’implementazione di una politica e di un programma di gestione del rischio per i “sistemi di intelligenza artificiale ad alto rischio”, definiti come “qualsiasi sistema di intelligenza artificiale specificamente destinato a prendere in modo autonomo, o a essere un fattore sostanziale nel prendere, una decisione consequenziale (soggetta a determinate eccezioni).”
- Illinois’ HB 3506: Tra le altre cose, questo progetto di legge richiederebbe agli sviluppatori di pubblicare rapporti di valutazione del rischio ogni 90 giorni e di completare audit annuali da parte di terzi.
L’importanza crescente della conformità
Con l’evidente ritiro del governo federale nel perseguire una regolamentazione generale dell’AI, le aziende possono aspettarsi che le autorità statali prendano l’iniziativa nella regolamentazione e nell’applicazione dell’AI. Dato l’ampio e spesso consequenziale uso dell’AI nel contesto dell’Insurtech, e l’aspettativa che questo uso aumenterà nel tempo data la sua utilità, le aziende in questo spazio sono consigliate a tenere d’occhio le leggi attuali e in attesa sull’AI per garantire la conformità. La non conformità può aumentare l’esposizione non solo ai regolatori statali incaricati di applicare queste normative, ma anche potenzialmente a cause legali dirette da parte dei consumatori. Come notato nella nostra precedente consulenza, essere ben posizionati per la conformità è anche imperativo per il mercato da una prospettiva transazionale.
Lo spazio dell’Insurtech sta crescendo parallelamente all’espansione del mosaico delle normative sull’AI negli Stati Uniti. Una crescita prudente nel settore richiede consapevolezza delle dinamiche legali associate, comprese le nuove concetti normativi che emergono nel paese.