La guía completa sobre la transparencia, explicabilidad e interpretabilidad de la IA
En el ámbito de la inteligencia artificial (IA), hay conceptos fundamentales que a menudo se discuten: transparencia, explicabilidad e interpretabilidad. Sin embargo, pocos logran definir estos términos de manera clara o explicar cómo evaluarlos y facilitarlos de una manera concreta.
La importancia de estos conceptos radica en su capacidad para fomentar la confianza en los sistemas de IA. Este estudio examina varias recomendaciones de gobernanza, marcos de certificación y documentos técnicos relevantes.
Transparencia
La transparencia se refiere a la disponibilidad de información sobre un sistema de IA y sus resultados. Según el Marco de Gestión de Riesgos de IA del Instituto Nacional de Estándares y Tecnología (NIST), la transparencia puede responder a la pregunta de “¿qué sucedió?” dentro de un sistema.
Se destaca que la transparencia es necesaria para una redress efectiva cuando los resultados de un sistema de IA son incorrectos o generan impactos negativos. Por otro lado, la norma ISO 42001 menciona que la gestión de datos incluye aspectos de transparencia y explicabilidad, como la procedencia de los datos y la capacidad de proporcionar explicaciones sobre cómo se utilizan los datos para determinar la salida de un sistema de IA.
El Acta de IA de la UE también aborda la transparencia, afirmando que los sistemas de IA deben desarrollarse de manera que se permita la trazabilidad y la explicabilidad.
Explicabilidad
La explicabilidad se refiere a la capacidad de describir cómo se toman las decisiones dentro de un sistema de IA. El marco de NIST define la explicabilidad como una representación de los mecanismos subyacentes en la operación de los sistemas de IA y puede responder a la pregunta de “¿cómo?” se tomó una decisión.
La norma ISO 42001 establece que la explicabilidad se relaciona con las explicaciones de factores importantes que influyen en los resultados del sistema de IA, presentadas de manera comprensible para los humanos.
Para implementar la explicabilidad, se recomienda cuantificar cómo cada característica de entrada influye en las salidas del sistema de IA utilizando métodos como SHAP y LIME.
Interpretabilidad
La interpretabilidad se refiere a la capacidad de un humano para predecir y entender por qué un sistema de IA produce una salida dada. El marco de NIST señala que la interpretabilidad puede responder a la pregunta de “¿por qué?” se tomó una decisión y su significado en el contexto del propósito funcional diseñado.
Para evaluar la interpretabilidad, se sugiere publicar una descripción del tipo de modelo utilizado, especificando si es inherentemente interpretable o si requiere herramientas externas para su comprensión.
Conclusión
La transparencia, explicabilidad e interpretabilidad son aspectos cruciales en la implementación de sistemas de IA responsables. A pesar de la conversación superficial que a menudo rodea a estos términos, es fundamental establecer guías concretas para su implementación. La adopción de estándares y marcos reconocidos puede ayudar a las organizaciones a alinearse con las mejores prácticas en el uso de la IA.