La gobernanza de la IA pasa por las habilidades humanas
La historia de la tecnología de la información empresarial es, en términos generales, una historia de tensiones dialécticas entre el centro y la periferia, en particular, entre la centralización y la descentralización. Entre quienes controlan la infraestructura y quienes deben utilizarla para generar valor. Si en años anteriores aprendimos a vivir con el Shadow IT, es decir, el uso de software y dispositivos móviles a la sombra de los gestores de tecnología, hoy nos enfrentamos a una mutación mucho más insidiosa y compleja: el Shadow AI.
El fenómeno del Shadow AI
Nos encontramos ante un fenómeno en el que la inteligencia artificial generativa, accesible para cualquiera con un navegador, se emplea para realizar tareas críticas sin el conocimiento de la organización. La lógica es sencilla: si el acceso al poder computacional se ha vuelto sin fricciones, entonces el control centralizado tradicional ya no es suficiente.
Quienes utilizan la IA de esta manera no lo hacen con malas intenciones, sino siguiendo un principio de eficiencia económica individual, intentando maximizar su productividad al cerrar la brecha entre la demanda de rapidez impuesta por el mercado y la respuesta a menudo lenta de los procesos internos. Desafortunadamente, al hacerlo, ignoran los riesgos que sus operaciones implican.
Riesgos del Shadow AI
Cuando llevamos estas herramientas a la sombra, es decir, fuera del perímetro de la gobernanza corporativa, exponemos a la organización a tres riesgos existenciales que no se pueden ignorar.
El primero es, por supuesto, la sovereignty of data. Introducir datos confidenciales en un modelo público es, en muchos casos, equivalente a entregar esos datos al proveedor del modelo para su futura capacitación. Es una pérdida silenciosa y continua de propiedad intelectual, poniendo en peligro el negocio central de la empresa.
El segundo riesgo es olvidar que la máquina calcula, no piensa. Produce contenido sin darse cuenta de que lo está haciendo. En la sombra, se podrían tomar decisiones estratégicas basadas en inferencias estadísticas defectuosas, generadas por una máquina que no comprende completamente el contexto de lo que ha producido. Si delegamos el pensamiento a la máquina sin supervisión, estamos abdicando de nuestra responsabilidad humana.
El tercer riesgo es la deuda técnica y legal oculta. Un código generado por una IA sin una licencia clara, o un texto que viola derechos de autor, entra en los sistemas corporativos sin trazabilidad. Cuando inevitablemente llegue el momento de rendir cuentas por esos activos, la empresa se encontrará lidiando con responsabilidades que no sabía que existían.
Soluciones a los desafíos del Shadow AI
La prohibición y el bloqueo de acceso, como nos enseña la historia digital, no funcionan. La respuesta nunca ha estado en la introducción de más tecnología; de hecho, los mejores resultados se logran con innovaciones organizativas y, sobre todo, culturales.
Necesitamos trasladar el eje del control a priori inútil hacia la competencia. El Shadow AI prospera donde falta una cultura generalizada de IA. Si los empleados utilizan herramientas no aprobadas, a menudo es porque la empresa no ha proporcionado alternativas viables y seguras.
Las empresas deben ofrecer ‘sandboxes’ seguros, entornos protegidos donde los modelos se instancien de manera privada, donde los datos no salgan del perímetro de la empresa y donde los resultados estén sujetos a verificación.
También es necesario volver a los fundamentos del pensamiento crítico. La adopción de la IA requiere más humanismo, no menos. Debemos capacitar a las personas no tanto en el uso de la herramienta (la interfaz ahora es lenguaje natural, accesible para todos), sino en la evaluación del resultado. La competencia técnica debe evolucionar hacia la competencia epistemológica: saber distinguir una correlación estadística de un vínculo causal, saber reconocer un sesgo, saber evaluar la ética de un resultado.
Conclusión
Por lo tanto, podemos redefinir el Shadow AI como una señal del mercado interno. Nos muestra que el hambre por la automatización cognitiva es inmensa. El verdadero desafío para los ejecutivos es llevar la IA de la sombra a la luz, donde pueda ser gobernada, medida y, sobre todo, dirigida por la intención humana.
Si regresamos a los años 70, donde había solo sistemas centralizados y solo un terminal, no un ordenador personal en nuestras manos, ciertamente no tendríamos riesgos de seguridad en la periferia, pero tampoco la creatividad y la responsabilidad, que, a diferencia de la computación, no pueden delegarse. Y la responsabilidad es la única realidad objetiva que nos distingue, y siempre lo será, de las máquinas.