Cómo los corredores pueden garantizar el uso responsable de la IA en las operaciones de seguros
La inteligencia artificial está transformando los flujos de trabajo en diversas industrias, y el sector de los seguros no es una excepción. Según un informe de Statista, el uso de la IA en el seguro global “aumentó al 48% en 2025, un aumento significativo desde el 29% en 2024.” Sin embargo, su rápido crecimiento genera preocupaciones. Un informe de Kenny’s Law de 2025 destacó que “la IA se posiciona como el principal riesgo para el próximo año, desplazando todas las demás preocupaciones importantes.”
Riesgos emergentes de la IA
Los riesgos relacionados con la IA a menudo comienzan durante la formación de modelos. Puede ocurrir que se desarrollen sesgos durante esta etapa, lo que puede llevar a resultados discriminatorios en la suscripción o en los reclamos. Además, la IA puede “alucinar”, es decir, puede presentar información incorrecta o sin sentido como si fuera un hecho. La fiabilidad también es un tema importante; la IA no siempre ofrece respuestas consistentes a las mismas preguntas.
En cuanto a la explicabilidad, la IA puede tomar decisiones sin una explicación clara, lo que dificulta entender la lógica detrás de un rechazo de pago, lo que puede dañar la confianza tanto de los corredores como de los asegurados. Un caso reciente que ilustra esta preocupación es el de Cigna, que enfrentó una demanda por su algoritmo de IA PxDx, que supuestamente negó más de 300,000 reclamos, con médicos revisando cada uno en solo 1.2 segundos.
La automatización descontrolada también puede escalar rápidamente decisiones defectuosas. La IA a menudo trabaja con datos sensibles, lo que puede crear una superficie de ataque para violaciones de datos o mal uso.
Los corredores y aseguradores pueden apoyar la mitigación de riesgos al:
- Identificar y reportar decisiones sesgadas para impulsar modelos de IA más justos.
- Revisar contenido generado por IA para detectar errores o información engañosa.
- Marcar resultados inconsistentes para ayudar a mejorar la fiabilidad del modelo.
- Exigir razonamiento claro detrás de las decisiones de IA, especialmente en los rechazos.
- Escalar problemas de clientes de manera temprana para reducir el riesgo de consecuencias legales o de relaciones públicas.
- Identificar patrones de decisiones defectuosas antes de que se propaguen ampliamente.
- Asegurarse de que los clientes comprendan cómo se utilizan sus datos y promover un manejo seguro.
Desarrollando sistemas de IA conscientes del riesgo
Es fundamental que “evitar los riesgos mencionados anteriormente sea de la máxima prioridad.” Para lograrlo, es necesario comenzar el proyecto estableciendo guardrails, entendiendo cuidadosamente qué equipo es responsable de qué entregables (construcción, prueba, revisión, aprobación). También se enfatiza la importancia de las pruebas regulares: “Una vez que el modelo está construido, debe ser probado regularmente para verificar su precisión y sesgos, y configurado para dar alertas que detecten inconsistencias o resultados ilógicos.”
La transparencia es clave; se debe crear un tablero accesible que muestre cómo están funcionando los modelos. Cada decisión de suscripción asistida por IA debe ser rastreable, registrando la versión del modelo utilizada, los datos de entrada, las puntuaciones de salida y cualquier acción final tomada. Estos registros crearán un rastro que puede ser revisado por un equipo de cumplimiento o reguladores.
Barreras para la adopción de la IA
A pesar del uso de la IA, todavía existe una gran reticencia. Las creencias erróneas más comunes sobre la IA son aquellas basadas en el miedo. Algunas personas piensan que no se puede confiar en la IA bajo ninguna circunstancia, ya que es probabilística y carece del “toque humano.” Otra preocupación común es el reemplazo de trabajadores; algunos creen que la IA reemplazará completamente a los humanos, robando empleos y apoderándose de industrias enteras.
Sin embargo, se sostiene que estas creencias no deberían desmotivar a los usuarios. La IA debería ser utilizada como un asistente y un compañero. Cuando se utiliza de esta manera y se combina con una supervisión humana responsable, puede ayudar a tomar decisiones más inteligentes, justas y responsables.
Los corredores y aseguradores pueden ayudar a construir confianza y equidad en las decisiones de IA al:
- Abogar por la transparencia en las decisiones de IA.
- Monitorear la consistencia y equidad.
- Educar a los clientes sobre los procesos impulsados por IA.
- Plantear preocupaciones de manera temprana.
- Solicitar supervisión humana en casos críticos.
- Asegurar la privacidad y la conciencia de la seguridad de los datos.
- Impulsar el desarrollo de IA justa y ética.
- Mantenerse informado y actualizado.
- Apoyar el cumplimiento regulatorio.
- Abogar por mecanismos de apelación y revisión para los clientes.
Reasegurando a los corredores sobre el papel de la IA
En cuanto a lo que la IA significará para el futuro del corredor de seguros, se ofrece una perspectiva optimista. La IA no reemplaza al corredor; en cambio, eleva su capacidad. Estas herramientas no reemplazan el juicio del corredor; más bien, lo aumentan, aligerando el trabajo repetitivo mientras permiten interacciones más rápidas e inteligentes con aseguradoras y clientes.
Se prevé un futuro estratégico para los corredores: “Los corredores pueden evolucionar sus roles, aprendiendo a supervisar, ajustar y colaborar con herramientas de IA. Esto posiciona a los corredores no solo como expertos en riesgos, sino también como orquestadores digitales.