Riesgos de Cumplimiento por el Uso de AI No Autorizada en el Trabajo

El Uso de IA Sombra por Parte de los Trabajadores Presenta Riesgos de Cumplimiento y Reputación

Con la creciente adopción de herramientas de IA, un nuevo problema está surgiendo: cuando los empleadores no proporcionan herramientas de IA aprobadas, muchos trabajadores utilizarán las que prefieren de todos modos.

En sectores como la salud, la manufactura y los servicios financieros, el uso de herramientas de IA sombra en el lugar de trabajo ha aumentado más del 200% año tras año. Entre los empleados de empresas que utilizan IA generativa en el trabajo, casi siete de cada diez acceden a asistentes públicos como ChatGPT. Un estudio de Telus Digital encontró que el 46% de los trabajadores de oficina, incluidos los profesionales de TI que entienden los riesgos, utilizan herramientas de IA que sus empleadores no proporcionaron.

Cómo la IA Sombra Hace Vulnerables a las Organizaciones

Paralelo a la TI sombra, la IA sombra es el uso de herramientas de inteligencia artificial no aprobadas o no sancionadas. Ejemplos incluyen el uso de Microsoft Copilot con una cuenta personal en un dispositivo de trabajo o ingresar datos de la empresa en una versión pública de ChatGPT. Las herramientas de IA sombra abarcan copilotos, agentes, automatizadores de flujos de trabajo, chatbots y aplicaciones generativas.

Aunque las herramientas de IA sombra pueden aumentar la productividad o la satisfacción de los trabajadores que las adoptan, su uso conlleva considerables desventajas organizativas. Quizás lo más significativo es que amenazan directamente la privacidad y la seguridad de los datos. Ingresar datos sensibles, como información de clientes o registros financieros, en herramientas de IA públicas puede desencadenar violaciones de regulaciones como GDPR o HIPAA.

Los riesgos de cumplimiento y reputación del uso no autorizado de aplicaciones de IA de terceros son especialmente agudos en sectores altamente regulados como la finanza y la salud. Sin una formación robusta sobre el uso adecuado y las mejores prácticas de datos, los trabajadores bien intencionados pueden violar fácilmente las normas de cumplimiento o comprometer información privada.

Preocupaciones de Seguridad Asociadas a la IA Sombra

Sin embargo, estas no son las únicas preocupaciones de seguridad relacionadas con la IA sombra. Cualquier software no aprobado puede introducir vulnerabilidades en la red o el sistema, y las herramientas de IA no son la excepción. El uso de IA sombra puede resultar en código malicioso, intentos de phishing u otras violaciones de seguridad que pasan desapercibidas hasta que es demasiado tarde.

Las herramientas de IA también presentan consideraciones importantes en torno a la confidencialidad y el uso de datos. La mayoría de la IA sombra utilizada se basa en una versión gratuita de la herramienta, que probablemente tenga términos muy permisivos que rigen el uso de las entradas y salidas, permitiendo que esos datos se utilicen para entrenar o mejorar los modelos.

Cómo Disuadir el Uso de IA Sombra

La IA sombra no es simplemente un problema de un entorno tecnológico laxo o de brechas en la seguridad de TI; es un signo de que los empleados tienen una necesidad que no es satisfecha por las herramientas y políticas de IA existentes. La solución es permitir que los empleados sean socios activos en el desarrollo de la gobernanza de IA fomentando un diálogo abierto en el lugar de trabajo sobre el uso y las herramientas de IA.

Investigar, realizar encuestas y mantener conversaciones formales e informales puede revelar por qué estas herramientas son populares entre los trabajadores y proporcionar información para informar la selección de alternativas aprobadas por la empresa.

La adopción oficial e integración de copilotos de IA es una forma de combatir el uso de IA sombra; los trabajadores que no pueden usar un copiloto sancionado pueden recurrir a una herramienta externa. Es igualmente importante garantizar que la herramienta elegida se integre de manera efectiva y que la empresa comprenda qué datos puede acceder y con qué propósitos.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...