Superando la Paradoja de la Transparencia en la IA
La inteligencia artificial (IA) enfrenta un problema de transparencia bien documentado pero poco entendido. Un 51% de los ejecutivos de negocios reportan que la transparencia y la ética en la IA son importantes para sus empresas, y no es sorprendente que un 41% de los ejecutivos senior afirme haber suspendido el uso de una herramienta de IA debido a un potencial problema ético.
Complejidades técnicas que perpetúan la IA como una caja negra
Una de las fuerzas impulsoras detrás del desarrollo de herramientas y prácticas de DevOps fue la detección y eliminación de errores en aplicaciones de software que podrían resultar en interrupciones inesperadas o riesgos para los usuarios. El marco de DevOps permite una entrega más rápida y mejorada de productos de software, una mejor automatización, soluciones más ágiles a problemas encontrados y mayor visibilidad en el rendimiento del sistema.
De manera similar, MLOps ha surgido para abordar las necesidades operativas del desarrollo y mantenimiento de sistemas de aprendizaje automático (ML), aunque la práctica aún se encuentra en sus primeras etapas. Muchos sistemas de aprendizaje automático desplegados hoy en día sufren de una falta de transparencia y comprensión sobre el funcionamiento interno de los modelos. Parte de este dilema proviene de la complejidad técnica inherente a los sistemas de IA.
La opacidad en los modelos de aprendizaje automático
La opacidad del aprendizaje automático se extiende tanto a modelos supervisados como no supervisados. En modelos supervisados, como las máquinas de soporte vectorial, la opacidad puede resultar de la alta dimensionalidad, el número de transformaciones aplicadas a los datos, la no linealidad y el uso de técnicas complementarias como el análisis de componentes principales.
Modelos no supervisados, como el clustering k-means, también sufren de una falta de transparencia. En el clustering k-means, los clústeres se definen en función de parámetros como las medias, y es difícil determinar qué características fueron más importantes para producir la salida final.
Desmitificando las percepciones erróneas sobre la transparencia de la IA
Percepción errónea #1: La falta de transparencia puede generar desconfianza en los clientes
Algunas organizaciones pueden temer que la divulgación del código fuente, el modelo matemático subyacente, los datos de entrenamiento o simplemente las entradas y salidas de un modelo de aprendizaje automático exponga el riesgo de perder la confianza del cliente, enfrentarse a un intenso escrutinio público o sufrir interrupciones en el uso de sus innovaciones.
Sin embargo, adoptar prácticas de IA responsables ayuda a establecer confianza con los clientes y el público en general. Según una encuesta reciente, el 62% de los encuestados afirmaron que tendrían mayor confianza en una empresa que perciban que practica la IA ética.
Percepción errónea #2: La transparencia en la IA no es necesaria porque las organizaciones pueden autorregularse
Las organizaciones a menudo son reacias a hacer que los sistemas de ML sean transparentes porque la divulgación puede revelar sesgos, discriminación o injusticias en el sistema de ML, lo que puede someter a la organización a regulaciones o acciones legales.
La transparencia puede ayudar a facilitar los esfuerzos de cumplimiento legal y proteger a la organización de posibles acciones legales en el futuro.
Percepción errónea #3: Si no se utilizan datos de clases protegidas, el modelo no puede ser sesgado
El sesgo puede infiltrarse en un modelo de aprendizaje automático en todas las fases del proyecto, desde la formulación del problema inicial hasta la validación del modelo.
Proporcionar acceso a datos de clases protegidas puede ayudar a los practicantes de ML a entender dónde eliminar sesgos. Técnicas como la justicia contrafactual pueden utilizarse para remediar inexactitudes en los datos y asegurar que los atributos sensibles no cambien la salida.
Percepción errónea #4: La transparencia de la IA expone la propiedad intelectual
Existen tensiones crecientes entre el deseo de transparencia en la IA y el interés de las organizaciones en mantener el secreto sobre sus herramientas de IA. No obstante, la transparencia no implica necesariamente la divulgación de la propiedad intelectual.
Es posible lograr un nivel aceptable de transparencia explicando qué variables llevaron a una salida particular sin divulgar el código fuente, el conjunto de datos completo o el algoritmo utilizado.
Superando la IA como caja negra con herramientas de observabilidad de ML
La observabilidad de ML se refiere a la práctica de obtener una comprensión profunda del rendimiento de un modelo en todas las etapas del ciclo de desarrollo del modelo. Las plataformas de observabilidad de ML pueden monitorear y alertar sobre cambios en las propiedades estadísticas de los valores, como la distribución de datos, de cada característica y enviar alertas en tiempo real para su investigación.
Los problemas relacionados con la transparencia probablemente no se resolverán pronto mientras los sistemas de IA permanezcan opacos. Es crucial garantizar la transparencia en la IA para que las herramientas de IA sean confiables para todos los interesados, incluidos los consumidores y el gobierno.