Uso responsable de la IA en la industria de seguros

Cómo los corredores pueden garantizar el uso responsable de la IA en las operaciones de seguros

La inteligencia artificial está transformando los flujos de trabajo en diversas industrias, y el sector de los seguros no es una excepción. Según un informe de Statista, el uso de la IA en el seguro global “aumentó al 48% en 2025, un aumento significativo desde el 29% en 2024.” Sin embargo, su rápido crecimiento genera preocupaciones. Un informe de Kenny’s Law de 2025 destacó que “la IA se posiciona como el principal riesgo para el próximo año, desplazando todas las demás preocupaciones importantes.”

Riesgos emergentes de la IA

Los riesgos relacionados con la IA a menudo comienzan durante la formación de modelos. Puede ocurrir que se desarrollen sesgos durante esta etapa, lo que puede llevar a resultados discriminatorios en la suscripción o en los reclamos. Además, la IA puede “alucinar”, es decir, puede presentar información incorrecta o sin sentido como si fuera un hecho. La fiabilidad también es un tema importante; la IA no siempre ofrece respuestas consistentes a las mismas preguntas.

En cuanto a la explicabilidad, la IA puede tomar decisiones sin una explicación clara, lo que dificulta entender la lógica detrás de un rechazo de pago, lo que puede dañar la confianza tanto de los corredores como de los asegurados. Un caso reciente que ilustra esta preocupación es el de Cigna, que enfrentó una demanda por su algoritmo de IA PxDx, que supuestamente negó más de 300,000 reclamos, con médicos revisando cada uno en solo 1.2 segundos.

La automatización descontrolada también puede escalar rápidamente decisiones defectuosas. La IA a menudo trabaja con datos sensibles, lo que puede crear una superficie de ataque para violaciones de datos o mal uso.

Los corredores y aseguradores pueden apoyar la mitigación de riesgos al:

  • Identificar y reportar decisiones sesgadas para impulsar modelos de IA más justos.
  • Revisar contenido generado por IA para detectar errores o información engañosa.
  • Marcar resultados inconsistentes para ayudar a mejorar la fiabilidad del modelo.
  • Exigir razonamiento claro detrás de las decisiones de IA, especialmente en los rechazos.
  • Escalar problemas de clientes de manera temprana para reducir el riesgo de consecuencias legales o de relaciones públicas.
  • Identificar patrones de decisiones defectuosas antes de que se propaguen ampliamente.
  • Asegurarse de que los clientes comprendan cómo se utilizan sus datos y promover un manejo seguro.

Desarrollando sistemas de IA conscientes del riesgo

Es fundamental que “evitar los riesgos mencionados anteriormente sea de la máxima prioridad.” Para lograrlo, es necesario comenzar el proyecto estableciendo guardrails, entendiendo cuidadosamente qué equipo es responsable de qué entregables (construcción, prueba, revisión, aprobación). También se enfatiza la importancia de las pruebas regulares: “Una vez que el modelo está construido, debe ser probado regularmente para verificar su precisión y sesgos, y configurado para dar alertas que detecten inconsistencias o resultados ilógicos.”

La transparencia es clave; se debe crear un tablero accesible que muestre cómo están funcionando los modelos. Cada decisión de suscripción asistida por IA debe ser rastreable, registrando la versión del modelo utilizada, los datos de entrada, las puntuaciones de salida y cualquier acción final tomada. Estos registros crearán un rastro que puede ser revisado por un equipo de cumplimiento o reguladores.

Barreras para la adopción de la IA

A pesar del uso de la IA, todavía existe una gran reticencia. Las creencias erróneas más comunes sobre la IA son aquellas basadas en el miedo. Algunas personas piensan que no se puede confiar en la IA bajo ninguna circunstancia, ya que es probabilística y carece del “toque humano.” Otra preocupación común es el reemplazo de trabajadores; algunos creen que la IA reemplazará completamente a los humanos, robando empleos y apoderándose de industrias enteras.

Sin embargo, se sostiene que estas creencias no deberían desmotivar a los usuarios. La IA debería ser utilizada como un asistente y un compañero. Cuando se utiliza de esta manera y se combina con una supervisión humana responsable, puede ayudar a tomar decisiones más inteligentes, justas y responsables.

Los corredores y aseguradores pueden ayudar a construir confianza y equidad en las decisiones de IA al:

  • Abogar por la transparencia en las decisiones de IA.
  • Monitorear la consistencia y equidad.
  • Educar a los clientes sobre los procesos impulsados por IA.
  • Plantear preocupaciones de manera temprana.
  • Solicitar supervisión humana en casos críticos.
  • Asegurar la privacidad y la conciencia de la seguridad de los datos.
  • Impulsar el desarrollo de IA justa y ética.
  • Mantenerse informado y actualizado.
  • Apoyar el cumplimiento regulatorio.
  • Abogar por mecanismos de apelación y revisión para los clientes.

Reasegurando a los corredores sobre el papel de la IA

En cuanto a lo que la IA significará para el futuro del corredor de seguros, se ofrece una perspectiva optimista. La IA no reemplaza al corredor; en cambio, eleva su capacidad. Estas herramientas no reemplazan el juicio del corredor; más bien, lo aumentan, aligerando el trabajo repetitivo mientras permiten interacciones más rápidas e inteligentes con aseguradoras y clientes.

Se prevé un futuro estratégico para los corredores: “Los corredores pueden evolucionar sus roles, aprendiendo a supervisar, ajustar y colaborar con herramientas de IA. Esto posiciona a los corredores no solo como expertos en riesgos, sino también como orquestadores digitales.

More Insights

La importancia crítica de la gobernanza en la era de la inteligencia artificial

La inteligencia artificial (IA) está transformando la manera en que trabajamos y gestionamos negocios, especialmente en Filipinas, donde la adopción de esta tecnología está acelerándose. Sin embargo...

Microsoft y el Código de Práctica de IA de la UE: La Respuesta de Meta

Microsoft está considerando firmar el código de prácticas de la Unión Europea para garantizar el cumplimiento de las regulaciones de inteligencia artificial, mientras que Meta ha decidido no hacerlo...

La Ley de IA de Colorado: Un Nuevo Estándar para la Regulación

La reciente fallida propuesta de miembros del Congreso para congelar las leyes de inteligencia artificial a nivel estatal ha dejado a las empresas de EE. UU. con operaciones nacionales enfrentándose a...

Plan de Acción de IA para Fortalecer la Ética en Malaysia

El próximo Plan de Acción de Tecnología de IA 2026–2030 de Malasia reforzará las salvaguardias éticas y los marcos de gobernanza en el uso de la inteligencia artificial, anunció el Ministro Digital...

Estrategias Simultáneas para una Gobernanza Efectiva de la IA

El desarrollo de políticas de inteligencia artificial (IA) responsables y estrategias generales de IA debe ocurrir simultáneamente para garantizar su efectividad. El enfoque distintivo de Bután...

Directrices para AI con Riesgos Sistémicos en la UE

La Comisión Europea estableció pautas para ayudar a los modelos de IA que se consideran de riesgo sistémico a cumplir con la regulación de inteligencia artificial de la Unión Europea. Estas...

Kerala: Pionero en IA Ética y Educación

Kerala se está convirtiendo en un referente global en la implementación ética de la inteligencia artificial (IA), especialmente en el ámbito educativo y los servicios públicos. Su enfoque combina la...

Los Estados se Adelantan en la Regulación del Desarrollo de IA en EE. UU.

Los estados de EE. UU. están comenzando a establecer sus propias regulaciones sobre el desarrollo de inteligencia artificial, tras la eliminación de una prohibición que impedía a los estados promulgar...