CII Aboga por la Regulación de la IA
El Chartered Insurance Institute (CII) ha solicitado marcos claros de responsabilidad y una estrategia de habilidades a nivel sectorial para guiar el uso de la inteligencia artificial (IA) en los servicios financieros, en recomendaciones presentadas al Comité Selecto del Tesoro (TSC).
Representando a más de 120,000 profesionales, el CII sostiene que tanto individuos como instituciones deben ser responsables de las decisiones impulsadas por sistemas de IA. Se aconseja que los profesionales estén preparados para asumir la responsabilidad de los resultados de las aplicaciones de IA, ya sea a través de su diseño o mediante un monitoreo continuo.
La presentación también enfatiza la necesidad de una educación amplia sobre los riesgos de la mala gestión de la IA.
Responsabilidad y Transparencia
Según el CII, las instituciones deben ser responsables de las acciones de sus algoritmos, independientemente de la complejidad para explicar cómo esos algoritmos alcanzan conclusiones. Se aboga por la validación y prueba obligatorias para evaluar el potencial de resultados discriminatorios, con los resultados disponibles públicamente para promover la transparencia.
El CII recomienda que la supervisión regulatoria de la IA en los servicios financieros adopte un enfoque proporcionado. Propone que todos los empleados dentro de las empresas reguladas sean capacitados sobre las oportunidades y riesgos asociados con el uso de la IA. El objetivo, según el CII, es permitir que las empresas implementen la IA de manera efectiva mientras mantienen los estándares de protección al consumidor.
Desarrollos Regulatorios de IA
La responsabilidad en el uso de la IA dentro de los sectores de seguros y reaseguros se ha convertido en un punto focal para reguladores, partes interesadas de la industria y formuladores de políticas. Esta atención se debe a la rápida integración de tecnologías de IA en diversos aspectos de las operaciones de seguros, incluyendo bajo escritura, procesamiento de reclamos y servicio al cliente.
A nivel internacional, la Ley de Inteligencia Artificial de la Unión Europea entró en vigor el 1 de agosto de 2024, con una implementación gradual en los próximos 24 a 36 meses. Esta ley establece un marco regulatorio y legal común para la IA dentro de la UE, clasificando los sistemas de IA según niveles de riesgo: inaceptable, alto, limitado y mínimo, con regulaciones estrictas aplicadas a tecnologías de IA de alto riesgo utilizadas en sectores como la salud y la aplicación de la ley.
En el Reino Unido, la FCA también ha expresado preocupaciones de que el uso de la IA en los seguros podría llevar a que algunas personas se vuelvan «no asegurables» debido a la hiperpersonalización y la posible discriminación.
Impacto de la IA en los Seguros
La presentación hace referencia a los hallazgos del Índice de Confianza Pública del CII, que se basa en investigaciones de consumidores para evaluar las actitudes hacia el sector de seguros. Se señala que la IA tiene el potencial de mejorar áreas clave valoradas por los consumidores y las PYMES – específicamente costos, protección, usabilidad y confianza.
Para respaldar sus recomendaciones de gobernanza, el CII destacó sus recursos existentes, incluyendo el Compañero Digital del Código de Ética y su guía sobre el sesgo de género en la IA. Estas herramientas están diseñadas para ayudar a profesionales y organizaciones a adoptar prácticas responsables de IA.
El CII ha creado una suite de recursos de aprendizaje sobre IA, que incluye un curso introductorio en ciencia de datos e IA, así como contenido de CPD y documentos de orientación que exploran los beneficios y riesgos de las tecnologías emergentes.
¿Cuáles son sus pensamientos sobre esta historia? Siéntase libre de compartir sus comentarios a continuación.