É a Insurtech uma Aplicação de Alto Risco da IA?
A Insurtech, que combina tecnologia e seguros, está rapidamente se expandindo em um cenário regulatório em constante mudança. A questão de como a inteligência artificial (IA) é regulamentada neste setor é fundamental, especialmente quando se considera se as aplicações de IA na Insurtech são classificadas como alto risco.
Regulamentações de IA e o Conceito de Alto Risco
Embora existam várias regulamentações de IA que podem se aplicar a uma empresa operando no espaço da Insurtech, essas leis não são uniformes em suas obrigações. Muitas dessas regulamentações se concentram em diferentes construtos regulatórios, e o foco da empresa determinará quais obrigações se aplicam a ela.
Por exemplo, certas jurisdições, como Colorados e a União Europeia, promulgaram leis de IA que abordam especificamente “sistemas de IA de alto risco”, impondo ônus mais elevados às empresas que implantam modelos de IA que se encaixam nessa categorização.
O que é um “Sistema de IA de Alto Risco”?
Embora muitas implantações consideradas um “sistema de IA de alto risco” em uma jurisdição possam também se qualificar em outra, cada regulamentação define o termo de maneira diferente. A Lei de Inteligência Artificial da Europa (EU AI Act) adota uma abordagem gradual e baseada em risco para as obrigações de conformidade das empresas em questão. Em outras palavras, quanto maior o risco associado à implantação de IA, mais rigorosas são as exigências para o uso da IA pela empresa.
De acordo com o Artigo 6 da EU AI Act, um sistema de IA é considerado “alto risco” se atender a ambas as condições do subseção (1) da disposição ou se estiver na lista de sistemas de IA considerados de alto risco e incluídos no Anexo III da EU AI Act. Isso inclui sistemas de IA que lidam com dados biométricos, usados para avaliar a elegibilidade de pessoas naturais para benefícios e serviços, avaliar a solvência ou usados para avaliação de riscos e precificação em relação a seguros de vida ou saúde.
A Lei de Inteligência Artificial do Colorado (CAIA), que entrará em vigor em 1º de fevereiro de 2026, adota uma abordagem baseada em risco à regulamentação de IA. A CAIA foca na implantação de sistemas de IA “alto risco” que poderiam potencialmente criar “discriminação algorítmica”. Sob a CAIA, um sistema de IA é definido como “alto risco” se, quando implantado, faz – ou é um fator substancial na tomada de uma decisão consequente, ou seja, uma decisão que tem um efeito material sobre a provisão ou custo do seguro.
A Insurtech é Considerada de Alto Risco?
Tanto a CAIA quanto a proposta de Lei de IA de Alto Risco da Virgínia identificam explicitamente que um sistema de IA que toma uma decisão consequente em relação ao seguro é considerado “alto risco”, o que certamente cria a impressão de que há uma tendência em regular o uso de IA no espaço da Insurtech como de alto risco. No entanto, a inclusão de seguros na lista de decisões consequentes dessas leis não significa que toda Insurtech que utiliza IA será necessariamente considerada de alto risco sob essas ou futuras leis.
Por exemplo, sob a CAIA, um sistema de IA só é considerado de alto risco se, ao ser implantado, “faz ou é um fator substancial na tomada” de uma decisão consequente. Assim, o escopo do uso regulamentado da IA, que varia de uma lei aplicável a outra, deve ser considerado juntamente com a aplicação proposta do negócio para ter uma melhor noção da governança apropriada da IA em um determinado caso.
O que Fazer se Você Está Desenvolvendo ou Implantando um “Sistema de IA de Alto Risco”?
De acordo com a CAIA, ao lidar com um sistema de IA de alto risco, várias obrigações entram em jogo. Essas obrigações variam para desenvolvedores e implantadores do sistema de IA. Os desenvolvedores são obrigados a exibir uma divulgação em seu site identificando quaisquer sistemas de IA de alto risco que tenham implantado e explicar como gerenciam os riscos conhecidos ou previsíveis de discriminação algorítmica.
Os desenvolvedores também devem notificar o Procurador Geral do Colorado e todos os implantadores conhecidos do sistema de IA dentro de 90 dias após descobrir que o sistema de IA causou ou é razoavelmente provável que cause discriminação algorítmica. Além disso, os desenvolvedores devem tornar documentação adicional sobre o sistema de IA de alto risco disponível para os implantadores.
Os implantadores têm diferentes obrigações ao utilizar um sistema de IA de alto risco. Primeiro, eles devem notificar os consumidores quando o sistema de IA de alto risco estiver tomando ou desempenhando um papel substancial na tomada de uma decisão consequente sobre o consumidor. Isso inclui (i) uma descrição do sistema de IA de alto risco e seu propósito, (ii) a natureza da decisão consequente, (iii) informações de contato do implantador, (iv) instruções sobre como acessar as divulgações necessárias do site, e (v) informações sobre o direito do consumidor de optar por não participar do processamento dos dados pessoais do consumidor para perfilamento.
Conclusão
O espaço da Insurtech está crescendo em paralelo com o crescente mosaico de regulamentações de IA nos EUA. Um crescimento prudente na indústria requer consciência das dinâmicas legais associadas, incluindo conceitos regulatórios emergentes em todo o país.