Impatto delle Regolamentazioni AI sull’Insurtech

L’impatto delle normative sull’AI nell’Insurtech

L’Insurtech è profondamente radicata nell’intelligenza artificiale (AI), sfruttando la tecnologia per migliorare il marketing, le vendite, la sottoscrizione, il trattamento dei sinistri, la rilevazione delle frodi e altro ancora. Le aziende Insurtech stanno probabilmente solo grattando la superficie di ciò che è possibile in questi ambiti. Parallelamente, la regolamentazione dell’AI è destinata a creare ulteriori considerazioni legali in ogni fase della progettazione, implementazione e funzionamento dei sistemi AI che operano in questi contesti.

Considerazioni legali e esposizione all’AI

Come per le normative sulla privacy dei dati, la risposta alla domanda “Quali leggi sull’AI si applicano?” è altamente specifica e spesso dipendente dall’esposizione del modello o dall’input dei dati. Le leggi applicabili tendono a scattare in base ai tipi di dati o alla posizione degli individui i cui dati vengono utilizzati per addestrare i modelli, piuttosto che alla posizione del progettista o del distributore. Di conseguenza, a meno che l’uso di un modello non sia strettamente limitato a una singola giurisdizione, è probabile che vi sia esposizione a diverse normative sovrapposte (oltre alle preoccupazioni sulla privacy dei dati) che influenzano la progettazione e l’implementazione di un modello AI nell’Insurtech.

Gestire il rischio normativo nella progettazione dell’AI

Data questa complessità, l’ampiezza dell’esposizione di un modello AI Insurtech può essere un’importante considerazione progettuale. Le aziende dovrebbero valutare adeguatamente il livello di rischio dal punto di vista della limitazione di una supervisione normativa non necessaria o della creazione della possibilità di responsabilità normative, come sanzioni o multe. Ad esempio, un’azienda Insurtech che utilizza l’AI dovrebbe considerare se il modello in questione è destinato a essere utilizzato solo per questioni assicurative nazionali e se ci sia valore nell’utilizzare dati relativi a soggetti dati internazionali. Prendere misure per garantire che il modello non abbia esposizione a soggetti dati internazionali può limitare l’applicazione di leggi internazionali extraterritoriali che regolano l’AI e ridurre il potenziale rischio di utilizzare una soluzione AI. D’altra parte, se l’esposizione al maggior numero possibile di dati è desiderabile dal punto di vista operativo, ad esempio, per aumentare i dati di addestramento, le aziende devono essere consapevoli delle implicazioni legali di tali decisioni prima di prenderle.

Legislazione recente a livello statale sull’AI

Nel 2024, diversi stati americani hanno approvato leggi sull’AI che regolano l’uso della tecnologia, molte delle quali possono influenzare gli sviluppatori e i distributori dell’Insurtech. È importante notare che le leggi statali sull’AI non sono uniformi. Queste leggi variano da quadri normativi completi, come l’Artificial Intelligence Act del Colorado, a leggi più restrittive basate sulla divulgazione, come l’AB 2013 della California, che richiederà agli sviluppatori di pubblicare documentazione dettagliata riguardante i dati di addestramento del loro modello. Diverse ulteriori leggi relative alla regolamentazione dell’AI sono già in attesa nel 2025, tra cui:

  • Massachusetts’ HD 3750: Richiederebbe agli assicuratori sanitari di divulgare l’uso dell’AI, inclusi, ma non limitati a, nel processo di revisione dei sinistri e di presentare rapporti annuali riguardanti i set di addestramento, oltre a un’attestazione riguardo alla minimizzazione del bias.
  • Virginia’s HB 2094: Conosciuta come l’High-Risk Artificial Intelligence Developer and Deployer Act, richiederebbe l’implementazione di una politica e di un programma di gestione del rischio per i “sistemi di intelligenza artificiale ad alto rischio”, definiti come “qualsiasi sistema di intelligenza artificiale specificamente destinato a prendere in modo autonomo, o a essere un fattore sostanziale nel prendere, una decisione consequenziale (soggetta a determinate eccezioni).”
  • Illinois’ HB 3506: Tra le altre cose, questo progetto di legge richiederebbe agli sviluppatori di pubblicare rapporti di valutazione del rischio ogni 90 giorni e di completare audit annuali da parte di terzi.

L’importanza crescente della conformità

Con l’evidente ritiro del governo federale nel perseguire una regolamentazione generale dell’AI, le aziende possono aspettarsi che le autorità statali prendano l’iniziativa nella regolamentazione e nell’applicazione dell’AI. Dato l’ampio e spesso consequenziale uso dell’AI nel contesto dell’Insurtech, e l’aspettativa che questo uso aumenterà nel tempo data la sua utilità, le aziende in questo spazio sono consigliate a tenere d’occhio le leggi attuali e in attesa sull’AI per garantire la conformità. La non conformità può aumentare l’esposizione non solo ai regolatori statali incaricati di applicare queste normative, ma anche potenzialmente a cause legali dirette da parte dei consumatori. Come notato nella nostra precedente consulenza, essere ben posizionati per la conformità è anche imperativo per il mercato da una prospettiva transazionale.

Lo spazio dell’Insurtech sta crescendo parallelamente all’espansione del mosaico delle normative sull’AI negli Stati Uniti. Una crescita prudente nel settore richiede consapevolezza delle dinamiche legali associate, comprese le nuove concetti normativi che emergono nel paese.

More Insights

Regolamentazione dell’IA: verso un futuro più sicuro nel settore assicurativo

Il Chartered Insurance Institute (CII) ha richiesto chiari quadri di responsabilità e una strategia di competenze a livello settoriale per guidare l'uso dell'intelligenza artificiale (AI) nei servizi...

Regolamentazione dell’IA nel settore MedTech in APAC

La regolamentazione dell'intelligenza artificiale (AI) nella regione Asia-Pacifico è ancora agli inizi, principalmente governata da normative esistenti progettate per altre tecnologie. Nonostante ciò...

Sviluppi dell’Intelligenza Artificiale a New York: Cosa Sapere per il Futuro del Lavoro

Nel primo semestre del 2025, New York ha iniziato a regolare l'intelligenza artificiale (AI) a livello statale con l'introduzione di leggi per affrontare la discriminazione algoritmica, in particolare...

Gestire i Rischi dell’Intelligenza Artificiale: Un Approccio Strategico

L'articolo discute l'importanza della gestione dei rischi nell'intelligenza artificiale, evidenziando che il rischio AI può derivare da dati errati o da attacchi esterni. Utilizzare un framework di...

Comprendere l’Atto sull’Intelligenza Artificiale dell’UE

L'Unione Europea ha introdotto l'Artificial Intelligence Act (AI Act), una regolamentazione storica progettata per gestire i rischi e le opportunità delle tecnologie AI in Europa. Questo articolo...

Legge Fondamentale sull’IA in Corea: Un Nuovo Orizzonte Normativo

La Corea del Sud ha adottato la Legge di Base sull'Intelligenza Artificiale, diventando il primo mercato asiatico a stabilire un quadro normativo completo per l'IA. Questa legislazione avrà un impatto...

Intelligenza Artificiale e Regolamentazione: Preparati al Cambiamento

L'atto sull'IA dell'UE e il DORA stanno creando una nuova complessità per le entità finanziarie, richiedendo un approccio basato sul rischio. È fondamentale quantificare l'impatto finanziario delle...

Regolamentare l’IA: Sfide e Opportunità nell’Atlantico

L'intelligenza artificiale (IA) è diventata una delle forze tecnologiche più decisive del nostro tempo, con il potere di rimodellare le economie e le società. Questo capitolo esplora il momento...

Strategia Europea per l’Intelligenza Artificiale: Verso le Gigafabbriche

La Commissione Europea vuole ridurre le barriere per l'implementazione dell'intelligenza artificiale, promuovendo la costruzione di "gigafabbriche AI" per migliorare l'infrastruttura dei centri dati...