Impatto delle Regolamentazioni AI sull’Insurtech

L’impatto delle normative sull’AI nell’Insurtech

L’Insurtech è profondamente radicata nell’intelligenza artificiale (AI), sfruttando la tecnologia per migliorare il marketing, le vendite, la sottoscrizione, il trattamento dei sinistri, la rilevazione delle frodi e altro ancora. Le aziende Insurtech stanno probabilmente solo grattando la superficie di ciò che è possibile in questi ambiti. Parallelamente, la regolamentazione dell’AI è destinata a creare ulteriori considerazioni legali in ogni fase della progettazione, implementazione e funzionamento dei sistemi AI che operano in questi contesti.

Considerazioni legali e esposizione all’AI

Come per le normative sulla privacy dei dati, la risposta alla domanda “Quali leggi sull’AI si applicano?” è altamente specifica e spesso dipendente dall’esposizione del modello o dall’input dei dati. Le leggi applicabili tendono a scattare in base ai tipi di dati o alla posizione degli individui i cui dati vengono utilizzati per addestrare i modelli, piuttosto che alla posizione del progettista o del distributore. Di conseguenza, a meno che l’uso di un modello non sia strettamente limitato a una singola giurisdizione, è probabile che vi sia esposizione a diverse normative sovrapposte (oltre alle preoccupazioni sulla privacy dei dati) che influenzano la progettazione e l’implementazione di un modello AI nell’Insurtech.

Gestire il rischio normativo nella progettazione dell’AI

Data questa complessità, l’ampiezza dell’esposizione di un modello AI Insurtech può essere un’importante considerazione progettuale. Le aziende dovrebbero valutare adeguatamente il livello di rischio dal punto di vista della limitazione di una supervisione normativa non necessaria o della creazione della possibilità di responsabilità normative, come sanzioni o multe. Ad esempio, un’azienda Insurtech che utilizza l’AI dovrebbe considerare se il modello in questione è destinato a essere utilizzato solo per questioni assicurative nazionali e se ci sia valore nell’utilizzare dati relativi a soggetti dati internazionali. Prendere misure per garantire che il modello non abbia esposizione a soggetti dati internazionali può limitare l’applicazione di leggi internazionali extraterritoriali che regolano l’AI e ridurre il potenziale rischio di utilizzare una soluzione AI. D’altra parte, se l’esposizione al maggior numero possibile di dati è desiderabile dal punto di vista operativo, ad esempio, per aumentare i dati di addestramento, le aziende devono essere consapevoli delle implicazioni legali di tali decisioni prima di prenderle.

Legislazione recente a livello statale sull’AI

Nel 2024, diversi stati americani hanno approvato leggi sull’AI che regolano l’uso della tecnologia, molte delle quali possono influenzare gli sviluppatori e i distributori dell’Insurtech. È importante notare che le leggi statali sull’AI non sono uniformi. Queste leggi variano da quadri normativi completi, come l’Artificial Intelligence Act del Colorado, a leggi più restrittive basate sulla divulgazione, come l’AB 2013 della California, che richiederà agli sviluppatori di pubblicare documentazione dettagliata riguardante i dati di addestramento del loro modello. Diverse ulteriori leggi relative alla regolamentazione dell’AI sono già in attesa nel 2025, tra cui:

  • Massachusetts’ HD 3750: Richiederebbe agli assicuratori sanitari di divulgare l’uso dell’AI, inclusi, ma non limitati a, nel processo di revisione dei sinistri e di presentare rapporti annuali riguardanti i set di addestramento, oltre a un’attestazione riguardo alla minimizzazione del bias.
  • Virginia’s HB 2094: Conosciuta come l’High-Risk Artificial Intelligence Developer and Deployer Act, richiederebbe l’implementazione di una politica e di un programma di gestione del rischio per i “sistemi di intelligenza artificiale ad alto rischio”, definiti come “qualsiasi sistema di intelligenza artificiale specificamente destinato a prendere in modo autonomo, o a essere un fattore sostanziale nel prendere, una decisione consequenziale (soggetta a determinate eccezioni).”
  • Illinois’ HB 3506: Tra le altre cose, questo progetto di legge richiederebbe agli sviluppatori di pubblicare rapporti di valutazione del rischio ogni 90 giorni e di completare audit annuali da parte di terzi.

L’importanza crescente della conformità

Con l’evidente ritiro del governo federale nel perseguire una regolamentazione generale dell’AI, le aziende possono aspettarsi che le autorità statali prendano l’iniziativa nella regolamentazione e nell’applicazione dell’AI. Dato l’ampio e spesso consequenziale uso dell’AI nel contesto dell’Insurtech, e l’aspettativa che questo uso aumenterà nel tempo data la sua utilità, le aziende in questo spazio sono consigliate a tenere d’occhio le leggi attuali e in attesa sull’AI per garantire la conformità. La non conformità può aumentare l’esposizione non solo ai regolatori statali incaricati di applicare queste normative, ma anche potenzialmente a cause legali dirette da parte dei consumatori. Come notato nella nostra precedente consulenza, essere ben posizionati per la conformità è anche imperativo per il mercato da una prospettiva transazionale.

Lo spazio dell’Insurtech sta crescendo parallelamente all’espansione del mosaico delle normative sull’AI negli Stati Uniti. Una crescita prudente nel settore richiede consapevolezza delle dinamiche legali associate, comprese le nuove concetti normativi che emergono nel paese.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...