Impatto delle Regolamentazioni AI sull’Insurtech

L’impatto delle normative sull’AI nell’Insurtech

L’Insurtech è profondamente radicata nell’intelligenza artificiale (AI), sfruttando la tecnologia per migliorare il marketing, le vendite, la sottoscrizione, il trattamento dei sinistri, la rilevazione delle frodi e altro ancora. Le aziende Insurtech stanno probabilmente solo grattando la superficie di ciò che è possibile in questi ambiti. Parallelamente, la regolamentazione dell’AI è destinata a creare ulteriori considerazioni legali in ogni fase della progettazione, implementazione e funzionamento dei sistemi AI che operano in questi contesti.

Considerazioni legali e esposizione all’AI

Come per le normative sulla privacy dei dati, la risposta alla domanda “Quali leggi sull’AI si applicano?” è altamente specifica e spesso dipendente dall’esposizione del modello o dall’input dei dati. Le leggi applicabili tendono a scattare in base ai tipi di dati o alla posizione degli individui i cui dati vengono utilizzati per addestrare i modelli, piuttosto che alla posizione del progettista o del distributore. Di conseguenza, a meno che l’uso di un modello non sia strettamente limitato a una singola giurisdizione, è probabile che vi sia esposizione a diverse normative sovrapposte (oltre alle preoccupazioni sulla privacy dei dati) che influenzano la progettazione e l’implementazione di un modello AI nell’Insurtech.

Gestire il rischio normativo nella progettazione dell’AI

Data questa complessità, l’ampiezza dell’esposizione di un modello AI Insurtech può essere un’importante considerazione progettuale. Le aziende dovrebbero valutare adeguatamente il livello di rischio dal punto di vista della limitazione di una supervisione normativa non necessaria o della creazione della possibilità di responsabilità normative, come sanzioni o multe. Ad esempio, un’azienda Insurtech che utilizza l’AI dovrebbe considerare se il modello in questione è destinato a essere utilizzato solo per questioni assicurative nazionali e se ci sia valore nell’utilizzare dati relativi a soggetti dati internazionali. Prendere misure per garantire che il modello non abbia esposizione a soggetti dati internazionali può limitare l’applicazione di leggi internazionali extraterritoriali che regolano l’AI e ridurre il potenziale rischio di utilizzare una soluzione AI. D’altra parte, se l’esposizione al maggior numero possibile di dati è desiderabile dal punto di vista operativo, ad esempio, per aumentare i dati di addestramento, le aziende devono essere consapevoli delle implicazioni legali di tali decisioni prima di prenderle.

Legislazione recente a livello statale sull’AI

Nel 2024, diversi stati americani hanno approvato leggi sull’AI che regolano l’uso della tecnologia, molte delle quali possono influenzare gli sviluppatori e i distributori dell’Insurtech. È importante notare che le leggi statali sull’AI non sono uniformi. Queste leggi variano da quadri normativi completi, come l’Artificial Intelligence Act del Colorado, a leggi più restrittive basate sulla divulgazione, come l’AB 2013 della California, che richiederà agli sviluppatori di pubblicare documentazione dettagliata riguardante i dati di addestramento del loro modello. Diverse ulteriori leggi relative alla regolamentazione dell’AI sono già in attesa nel 2025, tra cui:

  • Massachusetts’ HD 3750: Richiederebbe agli assicuratori sanitari di divulgare l’uso dell’AI, inclusi, ma non limitati a, nel processo di revisione dei sinistri e di presentare rapporti annuali riguardanti i set di addestramento, oltre a un’attestazione riguardo alla minimizzazione del bias.
  • Virginia’s HB 2094: Conosciuta come l’High-Risk Artificial Intelligence Developer and Deployer Act, richiederebbe l’implementazione di una politica e di un programma di gestione del rischio per i “sistemi di intelligenza artificiale ad alto rischio”, definiti come “qualsiasi sistema di intelligenza artificiale specificamente destinato a prendere in modo autonomo, o a essere un fattore sostanziale nel prendere, una decisione consequenziale (soggetta a determinate eccezioni).”
  • Illinois’ HB 3506: Tra le altre cose, questo progetto di legge richiederebbe agli sviluppatori di pubblicare rapporti di valutazione del rischio ogni 90 giorni e di completare audit annuali da parte di terzi.

L’importanza crescente della conformità

Con l’evidente ritiro del governo federale nel perseguire una regolamentazione generale dell’AI, le aziende possono aspettarsi che le autorità statali prendano l’iniziativa nella regolamentazione e nell’applicazione dell’AI. Dato l’ampio e spesso consequenziale uso dell’AI nel contesto dell’Insurtech, e l’aspettativa che questo uso aumenterà nel tempo data la sua utilità, le aziende in questo spazio sono consigliate a tenere d’occhio le leggi attuali e in attesa sull’AI per garantire la conformità. La non conformità può aumentare l’esposizione non solo ai regolatori statali incaricati di applicare queste normative, ma anche potenzialmente a cause legali dirette da parte dei consumatori. Come notato nella nostra precedente consulenza, essere ben posizionati per la conformità è anche imperativo per il mercato da una prospettiva transazionale.

Lo spazio dell’Insurtech sta crescendo parallelamente all’espansione del mosaico delle normative sull’AI negli Stati Uniti. Una crescita prudente nel settore richiede consapevolezza delle dinamiche legali associate, comprese le nuove concetti normativi che emergono nel paese.

More Insights

Governanza dell’IA: Rischi e Opportunità per i Professionisti della Sicurezza

L'intelligenza artificiale (AI) sta avendo un ampio impatto su vari settori, compresa la cybersicurezza, con il 90% delle organizzazioni che adottano o pianificano di adottare l'AI generativa per...

Critiche all’uso della tecnologia di riconoscimento facciale nel Regno Unito

Il governo del Regno Unito è stato criticato per il rapido dispiegamento della tecnologia di riconoscimento facciale senza un adeguato quadro giuridico. L'Istituto Ada Lovelace ha avvertito che l'uso...

Boom delle start-up per la governance dell’IA

Con la crescita dell'IA, le soluzioni di governance sono in enorme domanda. L'industria globale della governance dell'IA, che valeva 890 milioni di dollari lo scorso anno, crescerà fino a 5,8 miliardi...

Moratoria sull’AI: Rischi e Opportunità

Il Congresso degli Stati Uniti ha approvato un pacchetto di bilancio che include un divieto di dieci anni sull'applicazione delle leggi statali sull'IA. Tech Policy Press cerca le opinioni degli...

Il Futuro dell’AI nei Tribunali: Rivelazioni da 500 Casi

La regolamentazione dell'intelligenza artificiale (AI) è disomogenea in tutto il mondo, con alcune giurisdizioni che hanno già regolamenti completi mentre altre esitano o ritardano la...

Affrontare i Rischi dell’IA: Oltre la Strategia Responsabile

L'intelligenza artificiale responsabile si sta trasformando da una parola d'ordine impressionante a una necessità aziendale critica, specialmente mentre le aziende nella regione Asia-Pacifico...

Governare l’AI: Un Imperativo Legale

In un'intervista con Help Net Security, Brooke Johnson, Chief Legal Counsel di Ivanti, esplora le responsabilità legali nella governance dell'IA, sottolineando l'importanza della collaborazione...

Rivoluzione dell’Intelligenza Artificiale: Il Futuro in Gioco

Il Congresso degli Stati Uniti sta considerando un'importante legge che impedirebbe agli stati di regolamentare i modelli di intelligenza artificiale per un periodo di dieci anni. Alcuni legislatori...

Regolamentazione e Innovazione: La Sfida del Settore Finanziario

Le aziende di servizi finanziari si trovano intrappolate tra regolamenti AI in rapida evoluzione che variano notevolmente da giurisdizione a giurisdizione, creando incubi di conformità che possono...