EIOPA y la Gobernanza de la IA en Seguros

EIOPA Publica Consulta sobre la Opinión en la Gobernanza y Gestión de Riesgos de la IA

El 12 de febrero de 2025, la Autoridad Europea de Seguros y Pensiones de Ocupación (“EIOPA”) publicó una consulta sobre su borrador de opinión en la gobernanza y gestión de riesgos de la inteligencia artificial (“IA”). Esta opinión está dirigida a las autoridades de supervisión y abarca las actividades tanto de las entidades aseguradoras como de los intermediarios (en adelante, conjuntamente referidos como “Entidades”), en la medida en que puedan utilizar sistemas de IA en la cadena de valor del seguro.

Objetivo de la Opinión

La opinión tiene como finalidad aclarar los principios y requisitos en la legislación sectorial de seguros para los sistemas de IA que no están prohibidos ni se consideran de alto riesgo según el Reglamento (UE) 2024/1689 (la “Ley de IA”). Además, proporciona orientación sobre cómo aplicar la legislación sectorial de seguros a los sistemas de IA que no eran comunes o disponibles cuando se aprobó la Ley de IA.

Principales Puntos del Documento

  • Evaluación de Riesgos: La opinión sostiene que las Entidades deben evaluar el riesgo de la IA en sus diversos casos de uso, observando que existen diferentes niveles de riesgo entre aquellos casos que no están prohibidos o considerados de alto riesgo bajo la Ley de IA. Como parte de esta evaluación, las Entidades deben considerar su riesgo y desarrollar medidas de gobernanza y gestión de riesgos.
  • Medidas Proporcionadas: Tras la evaluación, las Entidades deben desarrollar medidas proporcionales para garantizar el uso responsable de la IA. Esto implica que las medidas de gobernanza y gestión de riesgos pueden adaptarse al caso de uso específico de la IA para lograr el resultado deseado.
  • Desarrollo de Sistemas de Gobernanza: En línea con el Art. 41 de la Directiva Europea 2009/138/CE, el Art. 25 de la Directiva de Distribución de Seguros (“IDD”) y los Arts. 4, 5 y 6 de la Ley de Resiliencia Operativa Digital, las Entidades deben desarrollar sistemas de gobernanza y gestión de riesgos proporcionales, con especial atención a:
    • justicia y ética;
    • gobernanza de datos;
    • documentación y conservación de registros;
    • transparencia y explicabilidad;
    • supervisión humana;
    • exactitud, robustez y ciberseguridad.
  • Documentación de Políticas: Se recomienda que las Entidades que utilicen sistemas de IA definan y documenten en una política (por ejemplo, estrategia de TI, estrategia de datos o una estrategia específica de IA) el enfoque para el uso de la IA dentro de la organización. Este enfoque debe revisarse regularmente.
  • Marco de Responsabilidad: Se aconseja implementar marcos de responsabilidad, independientemente de si el sistema de IA fue desarrollado internamente o por terceros.
  • Enfoque Centrado en el Cliente: EIOPA fomenta un enfoque centrado en el cliente para la gobernanza de la IA, asegurando que los clientes sean tratados de manera justa y en su mejor interés, de acuerdo con el Art. 17 de la IDD y la Declaración Supervisora de EIOPA de 2023 sobre Prácticas de Precios Diferenciales.
  • Calidad de los Datos: La opinión también se centra en los datos utilizados para entrenar la IA, enfatizando que deben ser completos, precisos y libres de sesgos, y que los resultados de los sistemas de IA deben ser significativamente explicables para identificar y mitigar sesgos potenciales.
  • Mecanismos de Redress: En consonancia con varios otros marcos de gobernanza, la opinión destaca que deben existir mecanismos de reparación adecuados para permitir que los clientes busquen compensación cuando se vean negativamente afectados por un sistema de IA.
  • Controles Internos: La opinión también resalta la necesidad de controles internos para un programa efectivo de cumplimiento y gestión de riesgos, incluyendo:
    • miembros del cuerpo administrativo, de gestión o de supervisión responsables del uso de sistemas de IA;
    • funciones de cumplimiento y auditoría para asegurar el cumplimiento de las leyes y regulaciones aplicables;
    • un oficial de protección de datos para garantizar que todos los datos procesados por los sistemas de IA cumplan con las normas de protección de datos;
    • formación suficiente al personal para asegurar una supervisión humana efectiva de los sistemas de IA.
  • Consistencia del Sistema de IA: El sistema de IA debe funcionar de manera consistente a lo largo de su ciclo de vida en cuanto a niveles de precisión, robustez y ciberseguridad, proporcionales a su caso de uso.
  • Enfoque Basado en Principios: La opinión no propone ninguna legislación adicional ni enmiendas a la legislación existente. Más bien, busca proporcionar orientación específica para el sector de seguros sobre la operación de sistemas de IA bajo los estatutos de la UE existentes, aplicando un enfoque basado en principios.
  • Plazo para Respuestas: Las respuestas a la opinión deben presentarse antes del 12 de mayo de 2025. EIOPA considerará los comentarios recibidos y revisará la opinión en consecuencia.

Esta consulta representa un paso importante en la regulación de la inteligencia artificial en el sector asegurador, buscando establecer un marco que garantice tanto la innovación como la protección del consumidor.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...