Parte II: Cómo los reguladores están probando su camino hacia la gobernanza de la IA
Esta es una serie de tres partes sobre la gobernanza de la IA en la banca y las pruebas de software. La Parte II explora cómo los reguladores están respondiendo al riesgo de la IA, por qué sus enfoques difieren y cómo las funciones de prueba se han convertido en el mecanismo de cumplimiento práctico para la gobernanza de la IA.
La expansión de las obligaciones de prueba
Si la Parte I de esta serie especial examinó por qué la gobernanza de la IA ha recaído en el escritorio de aseguramiento de calidad (QA), la Parte II analiza cómo los reguladores están tratando de responder a esa realidad, y por qué sus esfuerzos están cada vez más vinculando las pruebas y la ingeniería de calidad al centro de la supervisión de la IA.
A través de diferentes jurisdicciones, se está volviendo claro un patrón. Los reguladores no están pidiendo a los bancos que dejen de usar la IA. En su lugar, están solicitando a las empresas que demuestren que los sistemas de IA son controlables, verificables y responsables en la práctica. Ese énfasis coloca a los equipos de QA y pruebas de software en el corazón del cumplimiento regulatorio.
La Ley de IA de la UE representa el intento más ambicioso de regular la inteligencia artificial a nivel mundial. Introduce un marco horizontal basado en el riesgo que se aplica a través de sectores, incluida la banca y los seguros. Bajo esta ley, muchos casos de uso comunes en servicios financieros, como la evaluación de solvencia, la detección de fraude y el perfil de riesgo del cliente, se clasifican como de alto riesgo.
Los sistemas de alto riesgo deben cumplir con requisitos sobre gestión de riesgos, gobernanza de datos, supervisión humana, robustez y monitoreo post-mercado. Para los equipos de QA, esto amplía el alcance de lo que significa la prueba.
La prueba ya no se limita a verificar la corrección funcional antes del lanzamiento. Los equipos de QA están cada vez más obligados a validar la calidad de los datos de entrenamiento, probar sesgos y desviaciones, evaluar la robustez en casos límite y monitorear el comportamiento a lo largo del tiempo.
Aquí es donde la ambición regulatoria choca con la realidad técnica. Los reguladores a menudo asumen que las decisiones de IA pueden ser completamente rastreadas y explicadas. Sin embargo, los sistemas de IA, especialmente los modelos de lenguaje, comprimen la información de maneras fundamentalmente no invertibles, lo que hace imposible una reconstrucción completa.
La gobernanza se mueve de la política a la práctica
Los reguladores son cada vez más conscientes de que los marcos de gobernanza por sí solos son insuficientes. Lo que importa es si la gobernanza funciona en sistemas reales. Este cambio es visible en el creciente énfasis en los controles de ciclo de vida en lugar de la validación puntual. Los riesgos más serios de la IA a menudo emergen después de la implementación, a medida que los sistemas se adaptan, interactúan con otros modelos o se exponen a nuevos datos.
Para los equipos de QA, esto refuerza la necesidad de pruebas y monitoreo continuos. Los casos de prueba estáticos y los procesos de aprobación previos al lanzamiento ya no son suficientes cuando el comportamiento de la IA puede cambiar con el tiempo.
La creciente responsabilidad de la supervisión de IA está llevando a las juntas directivas a profundizar en la supervisión, con un énfasis creciente en métricas, informes y aseguramiento. La responsabilidad nunca puede ser externalizada; si algo sale mal con un sistema de IA, la responsabilidad recae en la organización que lo adoptó.
Por qué la QA se convierte en la capa de cumplimiento
A través de diferentes jurisdicciones, una conclusión está emergiendo. Los reguladores no están pidiendo a los equipos de QA que se conviertan en abogados. Les están pidiendo que hagan la gobernanza real. La prueba es donde los principios regulatorios como la robustez, la equidad, la responsabilidad y la resiliencia se operacionalizan.
Cuando los sistemas de IA no pueden ser probados o monitoreados de manera significativa, se convierten en responsabilidades regulatorias, independientemente de sus beneficios de rendimiento. Esto explica por qué los bancos están invirtiendo fuertemente en capacidades de prueba, gobernanza de datos sintéticos, monitoreo de modelos y ingeniería de calidad. Los equipos de QA están siendo solicitados a hacer más no porque los reguladores estén obsesionados con las pruebas, sino porque las pruebas son el único lugar donde la gobernanza de la IA puede ser evidenciada de manera consistente.
En la próxima y última entrega de esta serie, analizaremos por qué la gobernanza de la IA en QA se ha convertido en una preocupación global para los grupos bancarios internacionales y cómo grandes firmas están respondiendo a esta tendencia.