Riesgos de Cumplimiento por el Uso de AI No Autorizada en el Trabajo

El Uso de IA Sombra por Parte de los Trabajadores Presenta Riesgos de Cumplimiento y Reputación

Con la creciente adopción de herramientas de IA, un nuevo problema está surgiendo: cuando los empleadores no proporcionan herramientas de IA aprobadas, muchos trabajadores utilizarán las que prefieren de todos modos.

En sectores como la salud, la manufactura y los servicios financieros, el uso de herramientas de IA sombra en el lugar de trabajo ha aumentado más del 200% año tras año. Entre los empleados de empresas que utilizan IA generativa en el trabajo, casi siete de cada diez acceden a asistentes públicos como ChatGPT. Un estudio de Telus Digital encontró que el 46% de los trabajadores de oficina, incluidos los profesionales de TI que entienden los riesgos, utilizan herramientas de IA que sus empleadores no proporcionaron.

Cómo la IA Sombra Hace Vulnerables a las Organizaciones

Paralelo a la TI sombra, la IA sombra es el uso de herramientas de inteligencia artificial no aprobadas o no sancionadas. Ejemplos incluyen el uso de Microsoft Copilot con una cuenta personal en un dispositivo de trabajo o ingresar datos de la empresa en una versión pública de ChatGPT. Las herramientas de IA sombra abarcan copilotos, agentes, automatizadores de flujos de trabajo, chatbots y aplicaciones generativas.

Aunque las herramientas de IA sombra pueden aumentar la productividad o la satisfacción de los trabajadores que las adoptan, su uso conlleva considerables desventajas organizativas. Quizás lo más significativo es que amenazan directamente la privacidad y la seguridad de los datos. Ingresar datos sensibles, como información de clientes o registros financieros, en herramientas de IA públicas puede desencadenar violaciones de regulaciones como GDPR o HIPAA.

Los riesgos de cumplimiento y reputación del uso no autorizado de aplicaciones de IA de terceros son especialmente agudos en sectores altamente regulados como la finanza y la salud. Sin una formación robusta sobre el uso adecuado y las mejores prácticas de datos, los trabajadores bien intencionados pueden violar fácilmente las normas de cumplimiento o comprometer información privada.

Preocupaciones de Seguridad Asociadas a la IA Sombra

Sin embargo, estas no son las únicas preocupaciones de seguridad relacionadas con la IA sombra. Cualquier software no aprobado puede introducir vulnerabilidades en la red o el sistema, y las herramientas de IA no son la excepción. El uso de IA sombra puede resultar en código malicioso, intentos de phishing u otras violaciones de seguridad que pasan desapercibidas hasta que es demasiado tarde.

Las herramientas de IA también presentan consideraciones importantes en torno a la confidencialidad y el uso de datos. La mayoría de la IA sombra utilizada se basa en una versión gratuita de la herramienta, que probablemente tenga términos muy permisivos que rigen el uso de las entradas y salidas, permitiendo que esos datos se utilicen para entrenar o mejorar los modelos.

Cómo Disuadir el Uso de IA Sombra

La IA sombra no es simplemente un problema de un entorno tecnológico laxo o de brechas en la seguridad de TI; es un signo de que los empleados tienen una necesidad que no es satisfecha por las herramientas y políticas de IA existentes. La solución es permitir que los empleados sean socios activos en el desarrollo de la gobernanza de IA fomentando un diálogo abierto en el lugar de trabajo sobre el uso y las herramientas de IA.

Investigar, realizar encuestas y mantener conversaciones formales e informales puede revelar por qué estas herramientas son populares entre los trabajadores y proporcionar información para informar la selección de alternativas aprobadas por la empresa.

La adopción oficial e integración de copilotos de IA es una forma de combatir el uso de IA sombra; los trabajadores que no pueden usar un copiloto sancionado pueden recurrir a una herramienta externa. Es igualmente importante garantizar que la herramienta elegida se integre de manera efectiva y que la empresa comprenda qué datos puede acceder y con qué propósitos.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...