Nova Proposta de Legislação na Flórida sobre o Uso de IA no Tratamento de Sinistros
A nova legislação proposta na Flórida visa exigir revisões humanas obrigatórias para negações de sinistros, afirmando que a IA ainda não substitui os tomadores de decisão das seguradoras.
Detalhes da Legislação
A proposta de lei HB 527 (e o projeto de lei complementar SB 202) se aplica às informações fornecidas aos seguradores por algoritmos, sistemas de inteligência artificial ou sistemas de aprendizado de máquina, que não poderão ser a única base para ajustar ou negar um sinistro, total ou parcialmente.
Os projetos de lei também afirmam que, quando uma seguradora planeja usar algoritmos, sistemas de inteligência artificial ou sistemas de aprendizado de máquina em seus processos de tratamento de sinistros, deve detalhar em seu manual de tratamento de sinistros como esses sistemas serão utilizados e como cumprem a legislação.
Revisão de Sinistros
A pessoa que revisar as negações de sinistros deve ser um “profissional humano qualificado”, ou seja, alguém que, segundo o Código de Seguros da Flórida, tem a autoridade para ajustar ou negar um sinistro ou uma parte dele.
Antes de ajustar ou negar um sinistro, o profissional deve:
- Analisar os fatos do sinistro e os termos da apólice de seguro independentemente de qualquer sistema de inteligência artificial, sistema de aprendizado de máquina ou algoritmo;
- Revisar a precisão de qualquer saída gerada por tal sistema ou algoritmo;
- Determinar se o sinistro ou parte dele não é pagável segundo os termos da apólice de seguro e deve ser negado ou se o pagamento deve ser reduzido.
Implicações e Desafios
Os patrocinadores da legislação afirmam que o projeto “aborda um desafio crescente em nossos mercados de seguros” com uma “salvaguarda clara e razoável” contra decisões impulsionadas por algoritmos.
Em 2023, a Associação Nacional de Comissários de Seguros (NAIC) aprovou um boletim modelo sobre o uso de IA pelas seguradoras, que delineia a necessidade de processos e controles para prevenir possíveis imprecisões, preconceitos discriminatórios e vulnerabilidades de dados.
O boletim lembra às seguradoras das leis regulatórias estabelecidas que regulam métodos injustos de concorrência ou atos injustos ou enganosos, afirmando que governança e controles sobre sistemas de IA são necessários para cumprir com essas leis.
É provável que essa proposta de legislação seja contestada em nível federal, uma vez que uma ordem executiva recente bloqueou os estados de impor suas próprias leis regulando a inteligência artificial.