Riesgos de Cumplimiento por el Uso de AI No Autorizada en el Trabajo

El Uso de IA Sombra por Parte de los Trabajadores Presenta Riesgos de Cumplimiento y Reputación

Con la creciente adopción de herramientas de IA, un nuevo problema está surgiendo: cuando los empleadores no proporcionan herramientas de IA aprobadas, muchos trabajadores utilizarán las que prefieren de todos modos.

En sectores como la salud, la manufactura y los servicios financieros, el uso de herramientas de IA sombra en el lugar de trabajo ha aumentado más del 200% año tras año. Entre los empleados de empresas que utilizan IA generativa en el trabajo, casi siete de cada diez acceden a asistentes públicos como ChatGPT. Un estudio de Telus Digital encontró que el 46% de los trabajadores de oficina, incluidos los profesionales de TI que entienden los riesgos, utilizan herramientas de IA que sus empleadores no proporcionaron.

Cómo la IA Sombra Hace Vulnerables a las Organizaciones

Paralelo a la TI sombra, la IA sombra es el uso de herramientas de inteligencia artificial no aprobadas o no sancionadas. Ejemplos incluyen el uso de Microsoft Copilot con una cuenta personal en un dispositivo de trabajo o ingresar datos de la empresa en una versión pública de ChatGPT. Las herramientas de IA sombra abarcan copilotos, agentes, automatizadores de flujos de trabajo, chatbots y aplicaciones generativas.

Aunque las herramientas de IA sombra pueden aumentar la productividad o la satisfacción de los trabajadores que las adoptan, su uso conlleva considerables desventajas organizativas. Quizás lo más significativo es que amenazan directamente la privacidad y la seguridad de los datos. Ingresar datos sensibles, como información de clientes o registros financieros, en herramientas de IA públicas puede desencadenar violaciones de regulaciones como GDPR o HIPAA.

Los riesgos de cumplimiento y reputación del uso no autorizado de aplicaciones de IA de terceros son especialmente agudos en sectores altamente regulados como la finanza y la salud. Sin una formación robusta sobre el uso adecuado y las mejores prácticas de datos, los trabajadores bien intencionados pueden violar fácilmente las normas de cumplimiento o comprometer información privada.

Preocupaciones de Seguridad Asociadas a la IA Sombra

Sin embargo, estas no son las únicas preocupaciones de seguridad relacionadas con la IA sombra. Cualquier software no aprobado puede introducir vulnerabilidades en la red o el sistema, y las herramientas de IA no son la excepción. El uso de IA sombra puede resultar en código malicioso, intentos de phishing u otras violaciones de seguridad que pasan desapercibidas hasta que es demasiado tarde.

Las herramientas de IA también presentan consideraciones importantes en torno a la confidencialidad y el uso de datos. La mayoría de la IA sombra utilizada se basa en una versión gratuita de la herramienta, que probablemente tenga términos muy permisivos que rigen el uso de las entradas y salidas, permitiendo que esos datos se utilicen para entrenar o mejorar los modelos.

Cómo Disuadir el Uso de IA Sombra

La IA sombra no es simplemente un problema de un entorno tecnológico laxo o de brechas en la seguridad de TI; es un signo de que los empleados tienen una necesidad que no es satisfecha por las herramientas y políticas de IA existentes. La solución es permitir que los empleados sean socios activos en el desarrollo de la gobernanza de IA fomentando un diálogo abierto en el lugar de trabajo sobre el uso y las herramientas de IA.

Investigar, realizar encuestas y mantener conversaciones formales e informales puede revelar por qué estas herramientas son populares entre los trabajadores y proporcionar información para informar la selección de alternativas aprobadas por la empresa.

La adopción oficial e integración de copilotos de IA es una forma de combatir el uso de IA sombra; los trabajadores que no pueden usar un copiloto sancionado pueden recurrir a una herramienta externa. Es igualmente importante garantizar que la herramienta elegida se integre de manera efectiva y que la empresa comprenda qué datos puede acceder y con qué propósitos.

More Insights

Guía Práctica de IA Responsable para Desarrolladores .NET

La era de la Inteligencia Artificial (IA) está sucediendo ahora, y aunque ofrece velocidad y precisión en sectores como la banca y la salud, plantea desafíos éticos sobre su confianza. Para abordar...

Ley de Transparencia en IA: Un Hito en California

Los legisladores de California han hecho historia al aprobar una ley pionera sobre la transparencia en inteligencia artificial que se centra en los "modelos fronterizos", los sistemas de inteligencia...

Desafíos legales del uso de IA en el proceso de contratación

El uso de herramientas de IA en el proceso de solicitud permite a las empresas optimizar sus procesos, pero los empleadores deben asegurarse de que los sistemas utilizados sean transparentes, no...

Los Cuatro Pilares de los Guardrails en GenAI: Construyendo Sistemas de IA Responsables

A medida que la inteligencia artificial generativa transforma cómo operan las empresas, es fundamental implementar sistemas de guardrails para asegurar un despliegue responsable. Estos guardrails, que...

IA Responsable para Mercados Emergentes: Inclusión desde el Diseño

La inteligencia artificial está transformando el mundo, pero los beneficios no llegan a todos de manera equitativa. Es fundamental diseñar sistemas de IA inclusivos que aborden las barreras de...