Cubrindo brechas en la gobernanza de agentes de IA

Introducción

Un regulador financiero ha señalado que la gobernanza y garantía de los agentes de IA están insuficientemente gestionadas en entidades reguladas. El aviso surge mientras la adopción de IA se expande en operaciones internas y de cara al cliente.

Análisis de la situación actual

Uso y madurez de la IA

Se ha constatado que la IA está presente en todas las entidades revisadas, aunque la madurez en gestión de riesgos y resiliencia operativa varía. Los consejos directivos muestran interés en la IA para mejorar la productividad y la experiencia del cliente, pero muchos aún están construyendo procesos de gestión de riesgos.

Principales brechas identificadas

Las áreas críticas donde se observan deficiencias incluyen la monitorización del comportamiento de los modelos, la gestión de cambios, la desactivación de sistemas, la creación de inventarios de herramientas de IA y la asignación de responsables claros.

Controles de seguridad y acceso

La adopción de IA introduce nuevas vías de ataque, como la inyección de prompts y la integración insegura. Las prácticas de gestión de identidad y acceso no siempre se han adaptado a elementos no humanos, lo que aumenta la presión sobre los controles de cambios y liberaciones.

Implicaciones y riesgos

Riesgos operacionales

La falta de escrutinio suficiente puede llevar a comportamientos impredecibles de los modelos y a fallos que afecten operaciones críticas.

Dependencia de proveedores

Algunas entidades dependen de un único proveedor para la mayoría de sus instancias de IA, sin contar con planes de salida o estrategias de sustitución.

Necesidad de controles humanos

Se subraya la importancia de mantener la intervención humana en decisiones de alto riesgo y de aplicar controles específicos a flujos de trabajo autónomos y agenticos.

Conclusión

Para cerrar las brechas detectadas, los entes regulados deben desarrollar una mejor comprensión de la IA, establecer estrategias alineadas con su apetito de riesgo y definir procedimientos claros para la supervisión, el control de cambios y la desactivación de sistemas de IA. La implementación de controles de seguridad y la reducción de la dependencia de proveedores son pasos esenciales para una gobernanza eficaz.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...