Qué deberían exigir las juntas de AI: evaluación, auditoría y garantía
En un artículo anterior, se argumentó que la gobernanza de la inteligencia artificial (IA) va más allá de supervisar un puñado de proyectos tecnológicos y ahora abarca asegurar que las decisiones habilitadas por IA en toda la organización se mantengan alineadas con la estrategia, el apetito de riesgo y los estándares éticos.
Una pregunta natural para las juntas es: más allá de establecer expectativas, ¿cómo verifica una organización que sus sistemas de IA están realmente funcionando como se pretende, de manera responsable y dentro de los límites definidos?
Conceptos distintos pero relacionados
La respuesta radica en tres disciplinas relacionadas pero distintas: la evaluación de riesgos de IA, la auditoría de IA y la garantía de IA. Las juntas familiarizadas con la supervisión financiera encontrarán la lógica intuitiva. El desafío, y la oportunidad, es aplicar esa misma disciplina a la IA.
Es útil ser preciso sobre lo que significa cada término, ya que a menudo se utilizan de manera intercambiable cuando no deberían.
La evaluación de riesgos de IA es el proceso interno mediante el cual una organización identifica, evalúa y prioriza los riesgos asociados con sus sistemas de IA. Se pregunta qué podría salir mal, cuán probable es y cuál sería el impacto. Esta es la base sobre la cual descansa todo lo demás. Sin una evaluación de riesgos creíble, ni la auditoría ni la garantía tienen una base significativa sobre la cual trabajar.
Los sistemas de IA materiales existen en todos los sectores: un modelo de puntuación crediticia en un banco, una herramienta de triaje de pacientes en un hospital, un predictor de rendimiento estudiantil en una universidad, un sistema de priorización de casos en un gobierno.