Transparencia y Explicabilidad en la IA
La transparencia es un concepto que abarca múltiples significados. En el contexto de este principio, el enfoque se centra en la divulgación del uso de la IA, ya sea en predicciones, recomendaciones o decisiones. Es fundamental informar al usuario cuando está interactuando directamente con un agente impulsado por IA, como un chatbot. Esta divulgación debe hacerse de manera proporcional a la importancia de la interacción.
La creciente ubiquidad de las aplicaciones de IA puede influir en la deseabilidad, efectividad o viabilidad de la divulgación en algunos casos. Esto implica que, aunque la transparencia es crucial, puede haber situaciones donde no sea posible o práctico implementarla de forma efectiva.
Aspectos de la Transparencia
La transparencia también significa permitir que las personas comprendan cómo se desarrolla, entrena, opera y despliega un sistema de IA en el dominio de aplicación correspondiente. Esto es esencial para que los consumidores puedan tomar decisiones más informadas. Además, se refiere a la capacidad de proporcionar información significativa y claridad sobre qué información se ofrece y por qué.
Sin embargo, la transparencia no abarca, en general, la divulgación del código fuente o el compartir conjuntos de datos propietarios, los cuales pueden ser demasiado complejos para ser útiles en la comprensión de un resultado. El código fuente y los conjuntos de datos pueden estar sujetos a derechos de propiedad intelectual, incluyendo secretos comerciales.
Discursos Públicos y Confianza
Otro aspecto importante de la transparencia es facilitar un discurso público y multi-stakeholder, así como la creación de entidades dedicadas, según sea necesario, para fomentar la conciencia y comprensión general de los sistemas de IA, aumentando así la aceptación y la confianza.
Explicabilidad en la IA
La explicabilidad se refiere a la capacidad de permitir que las personas afectadas por el resultado de un sistema de IA entiendan cómo se llegó a dicho resultado. Esto implica proporcionar información fácil de entender a las personas afectadas por los resultados de un sistema de IA que les permita impugnar el resultado. Es importante, en la medida de lo practicable, detallar los factores y la lógica que condujeron a un resultado.
La explicabilidad puede lograrse de diferentes maneras dependiendo del contexto, como la significancia de los resultados. Por ejemplo, en algunos tipos de sistemas de IA, exigir explicabilidad puede afectar negativamente la precisión y el rendimiento del sistema, ya que puede requerir reducir las variables de solución a un conjunto lo suficientemente pequeño como para que los humanos puedan entenderlo, lo que podría ser subóptimo en problemas complejos y de alta dimensión.
Consideraciones para la Explicabilidad
Al proporcionar una explicación de un resultado, los actores de IA deben considerar ofrecer, en términos claros y simples, y según corresponda al contexto, los principales factores en una decisión, los factores determinantes, los datos, la lógica o el algoritmo detrás del resultado específico, o explicar por qué circunstancias similares generaron un resultado diferente. Esto debe hacerse de una manera que permita a los individuos entender y desafiar el resultado, respetando las obligaciones de protección de datos personales, si es relevante.