Transformación de la Gestión de Riesgo de Modelos en Bancos con IA

Cómo la IA está transformando la gestión del riesgo de modelos en los bancos

Los bancos han dependido durante mucho tiempo de diversos modelos para apoyar funciones críticas como la adquisición de clientes, la gestión de cobranzas y la gestión del crimen financiero, especialmente el lavado de dinero, así como la adecuación de capital.

Con la adopción continua de nuevas tecnologías, que van desde tecnologías de cómputo avanzadas hasta técnicas de aprendizaje automático (ML), el ritmo de desarrollo y despliegue de modelos ha aumentado significativamente. Esta rápida evolución ha provocado un aumento exponencial en el tamaño y la complejidad de los inventarios de modelos, convirtiendo la gestión del riesgo de modelos — el potencial de consecuencias adversas debido a modelos defectuosos o mal utilizados — en una prioridad esencial para las instituciones financieras.

El riesgo de modelo se reconoce como uno de los riesgos clave que los bancos deben gestionar, sujeto a una supervisión regulatoria significativa. La guía regulatoria, como el SR 11-7 de Estados Unidos y el SS1/23 del Reino Unido, exige una gestión robusta del riesgo de modelos (MRM), notablemente a través del marco de las tres líneas de defensa. Bajo esta estructura, la primera línea comprende el desarrollo del modelo; la segunda línea implica la validación y certificación independiente de los modelos; y la tercera línea asegura la supervisión verificando la adherencia a políticas y procedimientos tanto en los procesos de desarrollo como de validación.

Mejorando la MRM con IA Generativa

Si bien mejorar la MRM en las tres líneas de defensa es imperativo, no es fácil. Sin embargo, la llegada de la IA generativa (GenAI) y los agentes de IA ofrece una oportunidad para mejorar la MRM. Estas tecnologías pueden aumentar la productividad al mejorar la eficacia de todas las tareas y actividades relacionadas con la gestión del riesgo de modelos. También ayudan a reducir errores y fortalecer el cumplimiento al automatizar tareas rutinarias, aumentar el juicio humano y mejorar la transparencia.

Los agentes de IA permiten un cumplimiento proactivo a través de sistemas de auto-monitoreo y un escaneo continuo de desviaciones, cambios no documentados y violaciones de políticas antes de que los reguladores identifiquen estas brechas. Esto subraya la urgente necesidad de que las instituciones financieras adopten GenAI y agentes de IA en toda la función de riesgo de modelos.

Integración de GenAI en el marco de las tres líneas de defensa

Para realizar el pleno potencial de GenAI y los agentes de IA en la gestión del riesgo de modelos, las instituciones financieras deben integrar estas tecnologías en las actividades clave dentro del desarrollo del modelo, la validación, la auditoría y el cumplimiento proactivo.

Las actividades abarcan todo el ciclo de vida del modelo, desde el desarrollo hasta la validación y supervisión. Esta visión estructurada ayuda a las instituciones financieras a priorizar áreas de alto impacto donde GenAI puede ofrecer ganancias inmediatas en eficiencia mientras fortalece la efectividad del control.

La primera línea de defensa se centra en identificar fuentes de datos, establecer la línea de datos y crear el modelo a través de la transformación de datos, selección de algoritmos y evaluación del rendimiento. El equipo de desarrollo también es responsable de producir documentación completa que explique el diseño del modelo, variables, tratamientos de datos, suposiciones y limitaciones, lo cual es un requisito previo para iniciar la revisión independiente y avanzar a la segunda línea de defensa.

La segunda línea de defensa, la validación del modelo, implica revisar de manera independiente el código del modelo, la documentación y las elecciones metodológicas para identificar brechas, errores o tratamientos erróneos. Los validadores también construyen modelos de referencia para probar la fortaleza y estabilidad del modelo propuesto y crean un informe formal de validación que destaca debilidades, brechas de documentación o riesgos, recomendando si el modelo debe ser aprobado, aprobado condicionalmente o rechazado.

La tercera línea de defensa, que involucra auditoría y supervisión, complementa estas actividades al evaluar si tanto el desarrollo como la validación han seguido estándares y directrices de gobernanza de modelos aplicables, emitiendo un informe de auditoría que resalta cualquier problema que requiera remediación.

Potencial transformacional de GenAI

El potencial transformacional de GenAI y los agentes de IA en las funciones de riesgo de modelos es indiscutible. Sin embargo, su integración debe gestionarse cuidadosamente para evitar la introducción de nuevos riesgos. A medida que las instituciones financieras comienzan a operacionalizar estas tecnologías, se vuelve esencial establecer salvaguardias robustas que aseguren un uso responsable, mantengan el cumplimiento regulatorio y preserven la confianza en los procesos automatizados.

La toma de decisiones basada en modelos conlleva riesgos inherentes, ya que los resultados son esencialmente estimaciones sujetas a incertidumbre y suposiciones subyacentes. Esta dependencia puede exponer a las instituciones financieras a multas regulatorias, pérdidas operativas y daños a la reputación si los modelos son defectuosos, mal utilizados o mal gobernados. Aunque GenAI puede mejorar la precisión, eficiencia y supervisión en las funciones de riesgo de modelos, el juicio humano es imprescindible para revisar y validar los resultados automatizados.

Conclusión

Los bancos deben adoptar un enfoque basado en riesgos, introduciendo gradualmente GenAI en los procesos de gestión de modelos en línea con su materialidad de riesgo. La operacionalización de GenAI y los agentes de IA en las funciones de riesgo de modelos exige una estrategia de adopción por fases, comenzando con modelos de bajo riesgo, donde la exposición potencial a riesgos es mínima, y expandiéndose progresivamente a áreas de mayor riesgo una vez que los controles y salvaguardias estén firmemente establecidos.

En la industria BFSI en rápida evolución, la demanda de modelos de riesgo está destinada a aumentar, lo que trae complejidad y subraya la necesidad de velocidad y ciclos de producción de modelos más cortos. Las instituciones financieras deben modernizar sus fundamentos de MRM, equipándose para acomodar agentes autónomos, mayor velocidad de actualización de modelos y conocimientos generados por IA, para gestionar carteras de modelos en expansión con consistencia, rapidez y confianza.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...