El Uso de IA Sombra por Parte de los Trabajadores Presenta Riesgos de Cumplimiento y Reputación
Con la creciente adopción de herramientas de IA, un nuevo problema está surgiendo: cuando los empleadores no proporcionan herramientas de IA aprobadas, muchos trabajadores utilizarán las que prefieren de todos modos.
En sectores como la salud, la manufactura y los servicios financieros, el uso de herramientas de IA sombra en el lugar de trabajo ha aumentado más del 200% año tras año. Entre los empleados de empresas que utilizan IA generativa en el trabajo, casi siete de cada diez acceden a asistentes públicos como ChatGPT. Un estudio de Telus Digital encontró que el 46% de los trabajadores de oficina, incluidos los profesionales de TI que entienden los riesgos, utilizan herramientas de IA que sus empleadores no proporcionaron.
Cómo la IA Sombra Hace Vulnerables a las Organizaciones
Paralelo a la TI sombra, la IA sombra es el uso de herramientas de inteligencia artificial no aprobadas o no sancionadas. Ejemplos incluyen el uso de Microsoft Copilot con una cuenta personal en un dispositivo de trabajo o ingresar datos de la empresa en una versión pública de ChatGPT. Las herramientas de IA sombra abarcan copilotos, agentes, automatizadores de flujos de trabajo, chatbots y aplicaciones generativas.
Aunque las herramientas de IA sombra pueden aumentar la productividad o la satisfacción de los trabajadores que las adoptan, su uso conlleva considerables desventajas organizativas. Quizás lo más significativo es que amenazan directamente la privacidad y la seguridad de los datos. Ingresar datos sensibles, como información de clientes o registros financieros, en herramientas de IA públicas puede desencadenar violaciones de regulaciones como GDPR o HIPAA.
Los riesgos de cumplimiento y reputación del uso no autorizado de aplicaciones de IA de terceros son especialmente agudos en sectores altamente regulados como la finanza y la salud. Sin una formación robusta sobre el uso adecuado y las mejores prácticas de datos, los trabajadores bien intencionados pueden violar fácilmente las normas de cumplimiento o comprometer información privada.
Preocupaciones de Seguridad Asociadas a la IA Sombra
Sin embargo, estas no son las únicas preocupaciones de seguridad relacionadas con la IA sombra. Cualquier software no aprobado puede introducir vulnerabilidades en la red o el sistema, y las herramientas de IA no son la excepción. El uso de IA sombra puede resultar en código malicioso, intentos de phishing u otras violaciones de seguridad que pasan desapercibidas hasta que es demasiado tarde.
Las herramientas de IA también presentan consideraciones importantes en torno a la confidencialidad y el uso de datos. La mayoría de la IA sombra utilizada se basa en una versión gratuita de la herramienta, que probablemente tenga términos muy permisivos que rigen el uso de las entradas y salidas, permitiendo que esos datos se utilicen para entrenar o mejorar los modelos.
Cómo Disuadir el Uso de IA Sombra
La IA sombra no es simplemente un problema de un entorno tecnológico laxo o de brechas en la seguridad de TI; es un signo de que los empleados tienen una necesidad que no es satisfecha por las herramientas y políticas de IA existentes. La solución es permitir que los empleados sean socios activos en el desarrollo de la gobernanza de IA fomentando un diálogo abierto en el lugar de trabajo sobre el uso y las herramientas de IA.
Investigar, realizar encuestas y mantener conversaciones formales e informales puede revelar por qué estas herramientas son populares entre los trabajadores y proporcionar información para informar la selección de alternativas aprobadas por la empresa.
La adopción oficial e integración de copilotos de IA es una forma de combatir el uso de IA sombra; los trabajadores que no pueden usar un copiloto sancionado pueden recurrir a una herramienta externa. Es igualmente importante garantizar que la herramienta elegida se integre de manera efectiva y que la empresa comprenda qué datos puede acceder y con qué propósitos.