¿Es Insurtech una Aplicación de IA de Alto Riesgo?
La industria de Insurtech está en constante evolución, y con ella surge la necesidad de comprender cómo se aplican las regulaciones de inteligencia artificial (IA) a este sector. A medida que se desarrollan nuevos sistemas de IA, es importante evaluar los riesgos asociados y las obligaciones legales que pueden surgir.
¿Qué es un “Sistema de IA de Alto Riesgo”?
Los sistemas de IA de alto riesgo son aquellos que pueden tener un impacto significativo en las decisiones que afectan a los consumidores, especialmente en el ámbito de los seguros. La Ley de Inteligencia Artificial de la Unión Europea (EU AI Act) adopta un enfoque gradual y basado en riesgos para las obligaciones de cumplimiento. Un sistema de IA es considerado de alto riesgo si cumple con ciertas condiciones, incluyendo su uso en la evaluación de datos biométricos o en la toma de decisiones sobre la elegibilidad para beneficios y servicios.
Por ejemplo, la Ley de Inteligencia Artificial de Colorado (CAIA) define un sistema de IA de alto riesgo como aquel que, al ser desplegado, toma decisiones “consecuenciales” que afectan materialmente el costo o la provisión de seguros.
¿Se Considera de Alto Riesgo Insurtech?
Ambas leyes mencionadas, CAIA y la fallida Ley de IA de Virginia, sugieren que un sistema de IA que tome decisiones sobre seguros es considerado de alto riesgo. Sin embargo, esto no implica que todos los usos de IA en Insurtech sean automáticamente clasificados como tales. La CAIA establece que un sistema de IA debe ser un factor sustancial en la toma de decisiones para ser considerado de alto riesgo.
Por ejemplo, el uso de IA para mejorar la detección de fraudes o la fijación de precios podría considerarse de alto riesgo, mientras que su uso para optimizar procesos internos probablemente no lo sea.
¿Qué Hacer si Estás Desarrollando o Desplegando un “Sistema de IA de Alto Riesgo”?
Cuando se trata de sistemas de IA de alto riesgo, surgen diversas obligaciones. Los desarrolladores deben informar sobre los sistemas de IA de alto riesgo que han desplegado y cómo gestionan los riesgos asociados. Deben notificar al Fiscal General de Colorado y a todos los conocidos desplegadores si un sistema ha causado o podría causar discriminación algorítmica.
Los desplegadores, por su parte, deben notificar a los consumidores cuando un sistema de IA de alto riesgo esté involucrado en decisiones que les afecten. Esto incluye proporcionar información sobre el propósito del sistema y los derechos del consumidor.
Requisitos bajo la Ley de IA de la UE
Bajo la Ley de IA de la UE, los sistemas de IA de alto riesgo deben cumplir con varios requisitos que incluyen la implementación de un sistema de gestión de riesgos. Esto implica validar y probar los conjuntos de datos utilizados en el desarrollo de modelos de IA, asegurando que sean representativos y completos.
Además, los sistemas de IA deben permitir el registro automático de eventos y ser diseñados para garantizar la transparencia. Es esencial que los desplegadores puedan interpretar adecuadamente los resultados generados por el sistema de IA.
En conclusión, el espacio de Insurtech está creciendo en paralelo con el panorama regulatorio de la IA en EE.UU. Un crecimiento prudente en la industria requiere una comprensión clara de las dinámicas legales asociadas y las obligaciones emergentes en torno a la IA.