Seguridad en el uso de IA en servicios financieros

Las empresas deben asegurar su uso de IA, independientemente de la regulación

La regulación de la IA está muy atrasada respecto a su adopción. Más de tres cuartas partes de las empresas de servicios financieros del Reino Unido ya están utilizando esta tecnología en casos de uso tan diversos como el servicio al cliente y la detección de fraudes.

Sin embargo, junto a las grandes ganancias potenciales, también surgen nuevos riesgos. Aunque es alentador ver que se proporciona un escrutinio necesario en esta área, el último informe es decepcionante. Algunas recomendaciones son sensatas, pero carecen de un alcance adecuado. Al no abordar la próxima ola de riesgos de IA que ya están surgiendo en el sector, representa una oportunidad perdida para construir conciencia y mejorar la resiliencia cibernética.

Primeros pasos hacia la regulación

No todo son malas noticias. El comité señala acertadamente que la IA puede ser utilizada por adversarios para hacer que las campañas de fraude sean más efectivas y aumentar el volumen y la escala de los ciberataques contra el sector de servicios financieros. También argumenta que el enfoque de «esperar y ver» de los reguladores está exponiendo a los consumidores y al sistema financiero a daños potencialmente serios.

Es correcto sugerir que la falta de claridad de los reguladores amenaza con dejar a los consumidores vulnerables a la «toma de decisiones opaca», posibles sesgos y un creciente riesgo de exclusión financiera. Las solicitudes de una guía más clara, pruebas de estrés específicas de IA y la rápida designación de proveedores de IA/nube como terceros críticos son todas razonables.

La brecha de seguridad

El problema radica en lo que no se dice. La IA representa una superficie de ataque corporativa potencialmente enorme para los actores de amenazas. Los investigadores han demostrado una y otra vez cómo existen vulnerabilidades en todo el ecosistema que pueden ser explotadas para robar datos sensibles, interrumpir servicios críticos y extorsionar a las empresas.

Estos problemas se multiplican con la aparición de sistemas autónomos que pueden trabajar de manera independiente. Dado que hay poca supervisión humana, los hackers podrían atacar y subvertir un agente sin activar alarmas, llevando a cabo acciones con consecuencias irreversibles.

Además, dado que los agentes se integran con herramientas y fuentes de datos externas, hay más oportunidades para manipularlos. Si un atacante altera una herramienta de la que depende un agente, o inyecta información falsa en su memoria, el agente puede comenzar a tomar decisiones inseguras, como aprobar transacciones fraudulentas o proporcionar evaluaciones de riesgo incorrectas.

Riesgos en la cadena de suministro

El riesgo también proviene de una vasta cadena de suministro de IA oculta que abarca varios componentes de terceros, como bibliotecas de código abierto, complementos, APIs y plataformas de modelos alojados. Esto también proporciona oportunidades para que adversarios motivados planten puertas traseras que pueden ser activadas cuando un sistema esté en funcionamiento y haya sido adoptado por una organización de servicios financieros.

Algunos componentes ni siquiera requieren autenticación para acceder, lo que facilita el trabajo de los actores de amenazas. Los marcos de código abierto se actualizan varias veces al día, haciendo más probable que introduzcan nuevas vulnerabilidades que los equipos de seguridad de TI deben encontrar y corregir. Incluso errores honestos en componentes de terceros, como configuraciones incorrectas, pueden crear riesgos directos de seguridad y cumplimiento.

Comenzar con la gobernanza

En ausencia de mandatos regulatorios claros, ¿cómo pueden las empresas de servicios financieros mitigar estos crecientes riesgos de IA? Cualquier esfuerzo debe comenzar con la gobernanza. Muchas empresas están implementando la tecnología tan rápido que apenas comprenden cuán profundamente la IA está accediendo y utilizando datos sensibles.

El uso no gestionado de IA sigue siendo un desafío importante; uno que añade costos significativos a las violaciones de datos. Un estudio reciente revela que un porcentaje considerable de organizaciones globales sufrió una violación el año pasado debido a un incidente de seguridad relacionado con el uso no gestionado de IA.

Establecer políticas claras para la adopción de IA, imponer controles estrictos de identidad y acceso, y monitorear todas las interacciones de IA ayudarán a reducir la posibilidad de uso indebido de modelos o filtraciones de datos.

A continuación, se debe abordar la cadena de suministro. Escanear componentes de IA, incluyendo APIs y bibliotecas de código abierto, en busca de vulnerabilidades y configuraciones incorrectas es esencial. Agregar controles de seguridad automatizados y monitorear continuamente los puntos expuestos ayudará a prevenir manipulaciones y accesos no autorizados.

Para las empresas de servicios financieros que construyen sus propios servicios de IA, la «seguridad por diseño» debería ser la dirección a seguir. Esto significa garantizar que los modelos, almacenes de datos y flujos de trabajo de implementación sean monitoreados en tiempo real para detectar posibles compromisos y desviaciones de sus configuraciones originales.

Las vulnerabilidades emergen rápidamente en estos entornos, por lo que la evaluación continua de la postura de seguridad y la rápida remediación basada en riesgos también son esenciales. Para las empresas de servicios financieros, estos no son desafíos teóricos. El riesgo es real y proviene tanto de actores motivados financieramente como de actores estatales. Si el sector desea cosechar las recompensas de la IA, primero debe asegurarla, independientemente de si la regulación ya existe o no.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...