Cumplimiento habilitado por IA: equilibrando potencial y riesgo
El cumplimiento habilitado por inteligencia artificial (IA) está transformando las operaciones diarias de muchas organizaciones, desde la revisión automatizada de contratos hasta la detección avanzada de anomalías. Los reguladores son conscientes de que, aunque la IA puede potenciar las funciones de cumplimiento al mejorar las capacidades de detección y automatizar tareas que consumen muchos recursos, también puede amplificar riesgos. Las organizaciones que adoptan herramientas de cumplimiento impulsadas por IA para el monitoreo continuo, la detección de fraudes y la analítica predictiva deben implementar estas herramientas de manera responsable y efectiva.
El Departamento de Justicia de los EE. UU. (DOJ) ha aclarado que, en la medida en que una empresa utilice IA para lograr sus objetivos comerciales, se espera que cumpla con sus requisitos de cumplimiento. La orientación del DOJ también resalta el doble papel de la IA como potenciador del cumplimiento y amplificador de riesgos potenciales. Para los oficiales de cumplimiento, el camino a seguir implica equilibrar la innovación con la responsabilidad, la transparencia y un compromiso con el diseño ético.
Al abordar proactivamente las áreas clave de riesgo de la IA — sesgo, uso indebido y vulnerabilidades de privacidad y ciberseguridad de los datos — los programas de cumplimiento pueden mitigar los escollos. Marcos de gobernanza sólidos, monitoreo continuo y capacitación regular aseguran que las herramientas de cumplimiento habilitadas por IA aporten valor a la función de cumplimiento de una empresa. A medida que la tecnología evoluciona, las evaluaciones de riesgo, los mecanismos de supervisión y los controles internos de los equipos de cumplimiento deben adaptarse para mantenerse al día.
Riesgos relacionados con la IA
Para desplegar de manera responsable y efectiva los recursos de IA, los líderes de cumplimiento deben considerar y planificar la mitigación de tres áreas clave de riesgo.
1. Sesgo y discriminación
Las herramientas de IA dependen de conjuntos de datos definidos para su entrenamiento. Si esos conjuntos de datos están sesgados — debido a inequidades históricas, datos incompletos, errores humanos o supuestos defectuosos — los algoritmos pueden perpetuar o exacerbar el sesgo. Un sistema de monitoreo interno de riesgos habilitado por IA podría señalar a un empleado con un horario de trabajo flexible para acomodar un problema de salud familiar como si tuviera inicios de sesión sospechosos. A menos que se maneje adecuadamente, esto podría exponer a la empresa a una reclamación de discriminación. Los líderes de cumplimiento deben probar y auditar rutinariamente las salidas de IA para asegurarse de que los procesos de diseño y entrenamiento tengan en cuenta la equidad y la ética, y que se alineen con los valores de la empresa.
2. Usos fraudulentos e ilegales
Los actores malintencionados — internos o externos — pueden utilizar la IA para facilitar esquemas de fraude sofisticados. Los algoritmos avanzados pueden ayudar a los delincuentes a evadir sanciones, lavar dinero o descifrar los controles internos de una empresa. Los empleados pueden utilizar la IA para habilitar o facilitar esquemas como el comercio de información privilegiada, el desfalco o el fraude relacionado con la facturación. Dado que los reguladores que investigan este tipo de conductas indebidas esperarán que los programas de cumplimiento demuestren una supervisión robusta de los procesos habilitados por IA, el monitoreo de los sistemas de IA es una prioridad central para los equipos de cumplimiento.
3. Privacidad y seguridad de los datos
Los sistemas de IA prosperan sobre datos, y los sistemas de IA más útiles para los profesionales del cumplimiento probablemente contendrán información personal, financiera, propietaria u otra información sensible de negocios y terceros. Y donde van los datos sensibles, surgen riesgos de privacidad de datos, ciberseguridad y reputación.
Además, regulaciones como el Reglamento General de Protección de Datos de la UE y del Reino Unido, y la Ley de Privacidad del Consumidor de California imponen estrictas normas para el manejo de datos y la protección de la privacidad individual. Los programas de cumplimiento habilitados por IA deben tener en cuenta el tratamiento de datos sensibles — tanto en reposo en sus sistemas de registros como cuando son utilizados por las herramientas de IA y el equipo de cumplimiento.
Estrategias de integración y gobernanza
Integrando IA en el cumplimiento
Cuando se utiliza correctamente, la IA revoluciona las actividades de cumplimiento. El monitoreo de transacciones en tiempo real, la analítica predictiva para acuerdos de alto riesgo y la analítica avanzada para la debida diligencia de terceros están en práctica hoy en día. La IA sobresale en la automatización de tareas tediosas — como la revisión de enormes conjuntos de datos de proveedores — liberando a los equipos de cumplimiento para que se concentren en tareas más estratégicas.
Por esta razón, los tomadores de decisiones deben resistir la tentación de implementar una solución de IA solo por el hecho de que es IA o para seguir el deseo de los líderes empresariales de seguir la tendencia. En su lugar, deben insistir en un plan de implementación reflexivo y desde abajo que se alinee con objetivos específicos de cumplimiento.
Estableciendo marcos de gobernanza
Las herramientas de IA no pueden tener éxito sin un marco de gobernanza sólido. Grupos multifuncionales deben supervisar y construir estructuras de gobernanza para guiar la estrategia de IA, el desarrollo de modelos y las métricas de rendimiento. Estas estructuras de gobernanza deben definir:
- Auditabilidad: ¿Cómo rastrearás la manera en que los algoritmos de IA llegan a ciertas conclusiones?
- Salvaguardias éticas: ¿Cómo probarás y analizarás si los resultados son consistentes y libres de sesgo?
- Responsabilidad: ¿Cómo responderá la organización si algo sale mal? ¿Quién es responsable de cómo funcionan las herramientas de cumplimiento de IA? ¿Puede el equipo de cumplimiento desactivar herramientas de IA que generen preocupaciones?
En caso de una evaluación potencial del programa de cumplimiento corporativo, un marco de gobernanza sólido responderá a preguntas que la reciente orientación del Departamento de Justicia de EE. UU. dirige a los fiscales, incluyendo cada una de las siguientes:
- ¿La gestión de riesgos relacionados con el uso de IA y otras nuevas tecnologías está integrada en estrategias más amplias de gestión de riesgos empresariales (ERM)?
- ¿Cuál es el enfoque de la empresa hacia la gobernanza respecto al uso de nuevas tecnologías, como la IA, en su negocio comercial y programa de cumplimiento?
- ¿Cómo está la empresa mitigando cualquier consecuencia negativa o no intencionada resultante del uso de tecnologías — tanto en su negocio comercial como en su programa de cumplimiento?
- ¿Cómo está la empresa mitigando el potencial de uso deliberado o imprudente de tecnologías, incluso por parte de empleados internos?
- En la medida en que la empresa use IA y tecnologías similares en su negocio o como parte de su programa de cumplimiento, ¿existen controles para monitorear y asegurar su confiabilidad, fiabilidad y uso en cumplimiento con la ley aplicable y el código de conducta de la empresa?
- ¿Qué base de toma de decisiones humanas se utiliza para evaluar la IA?
- ¿Cómo se monitorea y hace cumplir la responsabilidad sobre el uso de la IA?
- ¿Cómo capacita la empresa a sus empleados sobre el uso de tecnologías emergentes como la IA?
Transparencia y explicabilidad
Los reguladores y las partes interesadas — muchos de los cuales no son expertos en IA — pedirán explicaciones sobre las decisiones impulsadas por IA. Los modelos de «caja negra» — donde los científicos de datos y expertos en IA luchan por explicar cómo un modelo llegó a una conclusión — no se desempeñarán bien bajo el escrutinio durante una investigación externa.
Equilibrar el poder de las capacidades sofisticadas de IA y la necesidad de transparencia exige la atención de los líderes de cumplimiento. Modelos más simples y más interpretables a menudo mejorarán el cumplimiento sin sacrificar la responsabilidad.
Gestionando riesgos y adaptándose
Evaluaciones de riesgo dinámicas
Por diseño, la IA evoluciona rápidamente. El modelo bien ajustado de hoy podría ser el vector de riesgo añadido de mañana si cambian los conjuntos de datos subyacentes o los procesos comerciales. Los equipos de cumplimiento deben incluir evaluaciones de riesgo de IA en sus procesos existentes de ERM. Estas evaluaciones identificarán y mitigarán rápidamente nuevas vulnerabilidades — como cambios en las fuentes de datos o salidas sesgadas.
Capacitación y concienciación
Los oficiales de cumplimiento, los abogados internos, los miembros del equipo financiero y los equipos de seguridad de la información necesitan una comprensión fundamental de las capacidades y limitaciones de la IA. Una visión general de alto nivel no es suficiente.
Los miembros del equipo — incluidos los ejecutivos — deben saber qué sistemas dependen de la IA. Deben tener suficiente fluidez técnica para detectar señales de alerta y saber cómo escalar sus preocupaciones de manera apropiada dentro de la organización. Los miembros de la junta y los líderes de C-suite deben apreciar el valor y los riesgos de la IA y equilibrar los recursos asignados para gestionar riesgos con los recursos asignados para realizar valor empresarial.
Manteniéndose al día con las regulaciones
A medida que la IA madura, las regulaciones cambian a su paso. Aunque las regulaciones luchan por mantenerse al día con la IA, los reguladores globales ya están implementando legislación específica sobre IA. Nuevas normas darán forma a cómo deben ser diseñados, monitoreados o divulgados los sistemas de IA.
Las empresas multinacionales deben rastrear los cambios en el ecosistema de cumplimiento global y actualizar sus programas de cumplimiento en consecuencia. La actual énfasis de los reguladores en la privacidad, la transparencia y la auditabilidad probablemente no cambiará. En consecuencia, las organizaciones con visión de futuro pueden construir o comprar herramientas de IA que puedan apoyar futuros cambios regulatorios que requieran mayores, o diferentes, divulgaciones o protecciones.
Adoptando la IA de manera responsable
La IA se moverá más al frente de los programas de cumplimiento en los próximos cinco años. Ofrecerá perspectivas más profundas y fomentará tiempos de respuesta más rápidos. Actuar ahora para alinear la IA con los estándares legales y regulatorios posicionará a las organizaciones para aprovechar el potencial de esta tecnología, mientras se protegen de los riesgos emergentes.
El hype que a menudo rodea a nuevas tecnologías puede nublar el juicio. En lugar de apresurarse a no quedarse atrás, los profesionales deben gestionar estos pasos de adopción de manera sensata. Al mantenerse alerta, flexibles e informados, los líderes de cumplimiento pueden integrar herramientas de IA mientras fomentan una cultura de integridad y confianza — hoy y en el futuro.