El uso responsable de la IA en el trabajo: desafíos y soluciones

Un estudio global sobre el uso de la inteligencia artificial en el trabajo

Un reciente estudio a nivel mundial ha revelado que la mayoría de los empleados utilizan herramientas de inteligencia artificial (IA) en su trabajo de manera regular. Sin embargo, un preocupante porcentaje admite haberlo hecho de forma inapropiada.

Resultados clave del estudio

El estudio, realizado con más de 32,000 trabajadores de 47 países, mostró que el 58% de los empleados utilizan intencionalmente herramientas de IA en su entorno laboral, con un 33% de ellos haciéndolo de forma semanal o diaria.

La mayoría de los empleados que utilizan estas herramientas informan haber obtenido beneficios significativos en términos de productividad y rendimiento.

Riesgos asociados al uso de IA

A pesar de los beneficios, un número alarmante de empleados está utilizando la IA de maneras que presentan riesgos elevados. Esto incluye:

  • Subir información sensible a herramientas públicas.
  • Confiar en las respuestas de IA sin validarlas.
  • Ocultar el uso de herramientas de IA.

Estos hallazgos subrayan la necesidad urgente de establecer políticas, entrenamiento y gobernanza para el uso responsable de la IA.

Uso de herramientas de IA

Se observó que el 70% de los empleados utilizan herramientas de IA de uso general, como ChatGPT, en lugar de soluciones proporcionadas por sus empleadores (42%). Sin embargo, casi la mitad de los encuestados que utilizan IA han reconocido hacerlo de manera inapropiada (47%).

Preocupaciones sobre la información sensible

Uno de los aspectos más preocupantes es el manejo de información sensible de la empresa. Casi la mitad (48%) de los empleados ha subido información confidencial de la empresa o de clientes a herramientas públicas de IA.

Además, un 66% de los encuestados ha confiado en la salida de IA sin evaluarla, lo que ha llevado a que un 56% haya cometido errores en su trabajo debido a esta práctica.

Uso “sombra” de la IA

El uso de IA se convierte en un desafío aún mayor cuando los empleados no son transparentes sobre su uso. El 61% ha evitado revelar cuándo utilizan IA, y el 55% ha presentado contenido generado por IA como propio.

Este fenómeno de uso “sombra” de la IA no solo aumenta los riesgos, sino que también dificulta la capacidad de la organización para detectar y gestionar dichos riesgos.

La importancia de la alfabetización en IA

El estudio destaca la necesidad de mejorar la alfabetización en IA entre los empleados. Esto incluye proporcionar capacitación y fomentar un ambiente de trabajo donde se sientan cómodos compartiendo cómo y cuándo utilizan herramientas de IA.

Se encontró que menos de la mitad de los empleados (47%) han recibido formación adecuada en IA, lo que sugiere una brecha significativa en la gobernanza de estas herramientas.

Cultura organizacional adecuada

Crear un entorno de trabajo psicológicamente seguro es crucial para fomentar la transparencia en el uso de herramientas de IA. Esto no solo mejora la supervisión y la gestión de riesgos, sino que también promueve una cultura de aprendizaje compartido y experimentación.

La IA tiene el potencial de mejorar la forma en que trabajamos, pero su implementación efectiva requiere un personal capacitado, una gobernanza robusta y una cultura que apoye un uso seguro y transparente.

More Insights

Construyendo Confianza en la Era de la IA

La inteligencia artificial promete un aumento en la productividad para los mercadólogos, pero solo si se guía por una estrategia clara y supervisión humana. La pregunta no es si usar IA, sino cómo...

Gobernanza en la Nube para la Era de la IA

En la era de la inteligencia artificial, los modelos de gobernanza en la nube deben evolucionar para mantener el ritmo de la innovación. La gobernanza debe ser preventiva y estar integrada en la...

Guía para la Gobernanza de IA en Juntas Directivas

Con la inteligencia artificial (IA) convirtiéndose en una parte clave de los negocios modernos, la Confederación de la Industria India (CII) lanzó un nuevo manual para ayudar a los consejos de...

DevSecOps Potenciado por IA: Retos y Oportunidades en un Mundo de Cero Confianza

La rápida adopción de la automatización impulsada por IA en DevSecOps presenta tanto oportunidades como desafíos, ya que la dependencia excesiva de la automatización puede crear puntos ciegos en la...

Centro Cyril Shroff: La Vanguardia en Regulación de IA y Derecho

En un desarrollo pionero, Cyril Amarchand Mangaldas y la Universidad Global O.P. Jindal han anunciado el establecimiento del Centro Cyril Shroff para la IA, la Ley y la Regulación en la Escuela de...

Darwin Lanza una Herramienta Gratuita para Simplificar la Gobernanza de IA en Agencias Públicas

Darwin ha lanzado su AI Policy Wizard, una herramienta gratuita e interactiva diseñada para ayudar a los gobiernos locales y agencias públicas a crear políticas de IA prácticas y personalizadas. Esta...

Restaurando la Confianza en la IA a Través de la Gobernanza

Ulla Coester, directora de proyectos en la Universidad Fresenius de Ciencias Aplicadas, enfatiza que la gobernanza debe adaptarse al comportamiento para construir confianza en la IA. Es crucial que...

Cultura como Pilar de la IA Confiable

Este informe analiza cómo la gobernanza inclusiva de la inteligencia artificial (IA) es crucial para permitir que las voces pasadas por alto participen en el acceso y desarrollo de la IA. Además, se...

Cumplimiento de derechos de autor en la Ley de IA de la UE

Un desafío clave en el entrenamiento de modelos de inteligencia artificial generativa es garantizar el cumplimiento de las leyes de derechos de autor. La Ley de IA de la UE refuerza la necesidad de...