El sector financiero no está preparado para el cumplimiento de IA, el CCO debe liderar los controles
Para prevenir accidentes derivados del uso de la inteligencia artificial en el sector financiero, es necesario un organismo de toma de decisiones sobre IA dirigido por un presidente de nivel ejecutivo que abarque todos los departamentos relevantes. Los ejecutivos de TI y gestión de riesgos deben estar incluidos, pero el papel del Director de Clientes es el más crítico.
Se recomienda separar la organización de gestión de riesgos de IA de las unidades de planificación y desarrollo de IA para resolver conflictos de interés. También deben establecerse regulaciones de gestión de riesgos que cubran áreas como el desarrollo de sistemas de IA, la protección del consumidor y las directrices operativas de los comités de ética de IA como reglas internas de la empresa.
Enfoque sistemático para prevenir incidentes de IA
Es fundamental acelerar los enfoques sistemáticos para prevenir incidentes de IA a medida que esta se expande en las operaciones comerciales. Las recientes brechas de seguridad en el sector financiero se deben en gran medida a la gestión pasada que trataba la inversión en seguridad como un costo en lugar de una necesidad. Los incidentes potenciales incluyen la entrega de información incorrecta a los clientes a través de consultas de IA o la exposición de datos personales en conjuntos de entrenamiento de chatbots.
El sector financiero —que incluye banca, seguros y valores— se considera el área con el mayor potencial para la IA. Se proyecta que la eficiencia podría mejorar entre un 69% y un 73% mediante la automatización y mejora del trabajo. Según un informe reciente, el 84% de las instituciones financieras a nivel global han adoptado IA generativa en sus entornos laborales, en comparación con aproximadamente el 56% en el país.
El mayor obstáculo para la adopción y expansión de la IA es la falta de marcos de gobernanza y gestión de riesgos. Las empresas financieras nacionales son especialmente deficientes en tasas de provisión de servicios y obligaciones de cumplimiento relacionadas con IA de alto impacto, sistemas que pueden afectar significativamente la vida, la seguridad física o los derechos fundamentales. Una encuesta reveló que solo el 8% de las empresas financieras locales ofrecen servicios de IA de alto impacto, y muchas no cumplen con sus responsabilidades en áreas como medidas de gestión de riesgos y protección del usuario.
Estructura del marco de gestión de riesgos de IA
Se detalla el Marco de Gestión de Riesgos de IA desarrollado para establecer gobernanza y gestión de riesgos en IA. Este marco, estructurado en tres pilares —gobernanza, evaluación de riesgos y control de riesgos— proporciona una guía para que las empresas financieras gestionen riesgos de manera independiente. Para la evaluación de riesgos, donde las empresas enfrentan mayores dificultades, el marco mide los niveles de riesgo subdividiendo cuatro principios —legalidad, fiabilidad, buena fe y seguridad— en tres a cinco ítems de evaluación cada uno.
Bajo la Ley Básica de IA implementada a principios de este año, los servicios de IA de alto impacto en el sector financiero se limitan actualmente a «préstamos a través de selección sin intervención humana» en la banca. Sin embargo, este alcance probablemente se ampliará con el avance tecnológico, lo que resalta la necesidad de que el sector financiero se enfoque en medidas de gestión de riesgos.
Se concluye que los sistemas de control interno autónomos son primordiales, ya que las regulaciones nunca podrán mantenerse al día con los avances tecnológicos de la IA. Los incidentes recientes en el intercambio de criptomonedas podrían haberse prevenido si se hubieran seguido adecuadamente las autorregulaciones internas. Con la tecnología de IA superando a la regulación, el crecimiento sostenible solo será posible cuando las empresas financieras construyan sistemas responsables de gestión de riesgos por su cuenta.