La gobernanza de la IA requiere habilidades humanas

La gobernanza de la IA pasa por las habilidades humanas

La historia de la tecnología de la información empresarial es, en términos generales, una historia de tensiones dialécticas entre el centro y la periferia, en particular, entre la centralización y la descentralización. Entre quienes controlan la infraestructura y quienes deben utilizarla para generar valor. Si en años anteriores aprendimos a vivir con el Shadow IT, es decir, el uso de software y dispositivos móviles a la sombra de los gestores de tecnología, hoy nos enfrentamos a una mutación mucho más insidiosa y compleja: el Shadow AI.

El fenómeno del Shadow AI

Nos encontramos ante un fenómeno en el que la inteligencia artificial generativa, accesible para cualquiera con un navegador, se emplea para realizar tareas críticas sin el conocimiento de la organización. La lógica es sencilla: si el acceso al poder computacional se ha vuelto sin fricciones, entonces el control centralizado tradicional ya no es suficiente.

Quienes utilizan la IA de esta manera no lo hacen con malas intenciones, sino siguiendo un principio de eficiencia económica individual, intentando maximizar su productividad al cerrar la brecha entre la demanda de rapidez impuesta por el mercado y la respuesta a menudo lenta de los procesos internos. Desafortunadamente, al hacerlo, ignoran los riesgos que sus operaciones implican.

Riesgos del Shadow AI

Cuando llevamos estas herramientas a la sombra, es decir, fuera del perímetro de la gobernanza corporativa, exponemos a la organización a tres riesgos existenciales que no se pueden ignorar.

El primero es, por supuesto, la sovereignty of data. Introducir datos confidenciales en un modelo público es, en muchos casos, equivalente a entregar esos datos al proveedor del modelo para su futura capacitación. Es una pérdida silenciosa y continua de propiedad intelectual, poniendo en peligro el negocio central de la empresa.

El segundo riesgo es olvidar que la máquina calcula, no piensa. Produce contenido sin darse cuenta de que lo está haciendo. En la sombra, se podrían tomar decisiones estratégicas basadas en inferencias estadísticas defectuosas, generadas por una máquina que no comprende completamente el contexto de lo que ha producido. Si delegamos el pensamiento a la máquina sin supervisión, estamos abdicando de nuestra responsabilidad humana.

El tercer riesgo es la deuda técnica y legal oculta. Un código generado por una IA sin una licencia clara, o un texto que viola derechos de autor, entra en los sistemas corporativos sin trazabilidad. Cuando inevitablemente llegue el momento de rendir cuentas por esos activos, la empresa se encontrará lidiando con responsabilidades que no sabía que existían.

Soluciones a los desafíos del Shadow AI

La prohibición y el bloqueo de acceso, como nos enseña la historia digital, no funcionan. La respuesta nunca ha estado en la introducción de más tecnología; de hecho, los mejores resultados se logran con innovaciones organizativas y, sobre todo, culturales.

Necesitamos trasladar el eje del control a priori inútil hacia la competencia. El Shadow AI prospera donde falta una cultura generalizada de IA. Si los empleados utilizan herramientas no aprobadas, a menudo es porque la empresa no ha proporcionado alternativas viables y seguras.

Las empresas deben ofrecer ‘sandboxes’ seguros, entornos protegidos donde los modelos se instancien de manera privada, donde los datos no salgan del perímetro de la empresa y donde los resultados estén sujetos a verificación.

También es necesario volver a los fundamentos del pensamiento crítico. La adopción de la IA requiere más humanismo, no menos. Debemos capacitar a las personas no tanto en el uso de la herramienta (la interfaz ahora es lenguaje natural, accesible para todos), sino en la evaluación del resultado. La competencia técnica debe evolucionar hacia la competencia epistemológica: saber distinguir una correlación estadística de un vínculo causal, saber reconocer un sesgo, saber evaluar la ética de un resultado.

Conclusión

Por lo tanto, podemos redefinir el Shadow AI como una señal del mercado interno. Nos muestra que el hambre por la automatización cognitiva es inmensa. El verdadero desafío para los ejecutivos es llevar la IA de la sombra a la luz, donde pueda ser gobernada, medida y, sobre todo, dirigida por la intención humana.

Si regresamos a los años 70, donde había solo sistemas centralizados y solo un terminal, no un ordenador personal en nuestras manos, ciertamente no tendríamos riesgos de seguridad en la periferia, pero tampoco la creatividad y la responsabilidad, que, a diferencia de la computación, no pueden delegarse. Y la responsabilidad es la única realidad objetiva que nos distingue, y siempre lo será, de las máquinas.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...