Los reguladores financieros deben incorporar la ética en sus sistemas de inteligencia artificial
A medida que la inteligencia artificial desempeña un papel cada vez más importante en la regulación de bancos y otras empresas de servicios financieros, es fundamental que los reguladores se aseguren de que estos nuevos sistemas no importen sesgos antiguos en la supervisión moderna.
Lo que está en juego
La IA de supervisión sin control amenaza la integridad del mercado, la inclusión financiera y la confianza pública.
La necesidad de transparencia
Las decisiones de supervisión deben seguir siendo explicables y responsables, lo que requiere la intervención humana en todas las acciones significativas. Sin embargo, más de la mitad de las autoridades financieras utilizan inteligencia artificial sin directrices éticas claras. Menos del 9% de estas entidades reconocen el sesgo algorítmico como un desafío importante.
Uso de la inteligencia artificial en la supervisión financiera
Las autoridades financieras, incluidos bancos centrales y organismos de regulación, utilizan la IA para detectar patrones complejos de lavado de dinero y predecir choques bancarios sistémicos. Aunque la IA puede promover la inclusión y la sostenibilidad, la falta de gobernanza puede erosionar la confianza y la integridad del mercado.
Desconexión entre ambición tecnológica y supervisión institucional
El informe más reciente sobre tecnología de supervisión revela que más de un tercio de las agencias no tienen un marco formal de gobernanza para la IA. Solo un pequeño porcentaje realiza auditorías éticas regulares o publica informes de transparencia sobre cómo la IA impacta sus decisiones de supervisión.
Riesgos asociados a la falta de gobernanza
Los riesgos de la IA pueden amplificar las desigualdades existentes. La falta de auditorías de sesgo hace que estos riesgos sean invisibles y fáciles de ignorar. Además, un porcentaje significativo de agencias menciona preocupaciones sobre la opacidad de los resultados generados por la IA.
Fundamentos de gobernanza de datos
Una sólida gobernanza de datos es un elemento clave de la infraestructura ética. Esto incluye la propiedad clara de los datos, documentación de su origen y controles de calidad continuos. Sin una base de datos robusta, incluso los sistemas de IA más bien intencionados pueden reforzar puntos ciegos.
Hacia un futuro responsable con IA
Las autoridades deben priorizar políticas operativas concretas que incluyan la transparencia sobre el uso de la IA en la supervisión. Esto implica traducir principios generales en protocolos medibles, realizar evaluaciones de impacto ético y capacitar a los supervisores no solo para utilizar herramientas de IA, sino también para cuestionarlas.
Conclusión
El punto de inflexión para la transformación de la supervisión no es la disponibilidad de herramientas, sino la gobernanza y la confianza detrás de ellas. No se puede permitir que más del 60% de las autoridades avancen hacia un futuro impulsado por la IA mientras la mayoría carece de estructuras básicas de responsabilidad. Desplegar estos sistemas sin un andamiaje adecuado representa un riesgo sistémico que puede conducir a resultados discriminatorios y a una pérdida catastrófica de confianza pública.