La IA ejerce presión sobre la resiliencia del sector financiero, encuentra un foro sobre riesgos
A medida que la inteligencia artificial (IA) se integra más en el sistema financiero, las empresas necesitarán una gobernanza más sólida, salvaguardias operativas y habilidades en la fuerza laboral para gestionar una nueva generación de riesgos potencialmente sistémicos y de rápida evolución.
Los hallazgos provienen de la segunda fase del Foro de la Industria Financiera sobre IA, que reunió a ejecutivos de alto nivel de instituciones financieras líderes, académicos y organismos del sector público para examinar los riesgos, mitigaciones y oportunidades relacionadas con la IA.
Adopción de IA en funciones centrales
La adopción de IA ya no se limita a proyectos piloto. Los modelos ahora están integrados en la toma de decisiones crediticias, precios, comercio, detección de fraudes e interacción con el cliente, lo que significa que la gestión de riesgos y la gobernanza necesitan evolucionar en paralelo a su implementación.
Gobernanza de IA a nivel de junta
El foro destacó que la IA es ahora un problema de gobernanza estratégica tanto como un tema tecnológico. A medida que se implementan sistemas más avanzados, las juntas y equipos ejecutivos necesitarán una visión más clara de dónde se utiliza la IA, cómo se monitorea y quién es responsable cuando algo sale mal.
Resiliencia operativa bajo presión
Las discusiones también subrayaron cómo la adopción de IA está amplificando los riesgos operativos existentes. A medida que las empresas dependen más de herramientas de IA y proveedores de datos y modelos externos, se vuelven más dependientes de cadenas de suministro tecnológicas que están más allá de su control directo.
Preparación de la fuerza laboral y alfabetización en IA
Una tercera prioridad es el talento. A medida que las herramientas de IA se difunden en funciones administrativas, las empresas necesitarán invertir en habilidades y capacitación para que los empleados de todos los niveles comprendan tanto lo que la IA puede hacer como sus limitaciones.
Implicaciones regulatorias y de responsabilidad
Los hallazgos del foro se sitúan junto a un entorno regulatorio y de responsabilidad cada vez más estricto en torno a la IA. Por ejemplo, se espera que la Ley de Inteligencia Artificial de la UE entre en vigor en agosto de 2026, lo que obligará a revelar contenidos generados o manipulados por IA.
Colaboración para prevenir choques sistémicos
En conjunto, las discusiones refuerzan un cambio en cómo la industria percibe el riesgo de la IA, no solo como un problema tecnológico a nivel de empresa, sino como una fuente potencial de estrés a nivel sectorial si los modelos, los datos o los proveedores clave fallan de maneras correlacionadas.