Tensión entre los beneficios y riesgos de la IA: la necesidad de una regulación efectiva

Estudio Global Revela Tensión entre Beneficios y Riesgos de la IA, y Destaca una ‘Brecha de Gobernanza’

Un estudio global sobre la confianza en la Inteligencia Artificial (IA) revela que más de la mitad de las personas en todo el mundo son reacias a confiar en la IA, reflejando una tensión subyacente entre sus evidentes beneficios y los riesgos percibidos.

Hallazgos Clave:

  • La era inteligente ha llegado: el 66% de las personas usa IA regularmente, y el 83% cree que su uso generará una amplia gama de beneficios.
  • No obstante, la confianza, que es central para la aceptación de la IA, sigue siendo un desafío crítico. Solo el 46% de las personas a nivel global están dispuestas a confiar en los sistemas de IA, lo cual se correlaciona con bajos niveles de alfabetización en IA; solo dos de cada cinco (39%) reportan algún tipo de entrenamiento en IA y solo el 40% afirma que su lugar de trabajo tiene una política o guía sobre el uso de IA generativa.
  • Hay un mandato público para la regulación de la IA, ya que solo el 43% de los encuestados cree que las regulaciones actuales son adecuadas.
  • Los datos sugieren que casi la mitad de las organizaciones pueden estar utilizando IA sin el apoyo y la gobernanza adecuados.

Este estudio, titulado “Confianza, actitudes y uso de la Inteligencia Artificial: un estudio global 2025”, es el más completo en cuanto a la confianza pública, uso y actitudes hacia la IA. Se encuestó a más de 48,000 personas en 47 países entre noviembre de 2024 y enero de 2025.

A pesar de que el 66% de las personas ya están utilizando IA de manera intencional, menos de la mitad de los encuestados globales están dispuestos a confiar en ella (46%). En comparación con un estudio previo realizado antes del lanzamiento de ChatGPT en 2022, se revela que las personas se han vuelto menos confiadas y más preocupadas por la IA a medida que su adopción ha aumentado.

Los individuos y organizaciones son más propensos a confiar en los sistemas de IA cuando comprenden cómo funciona la IA. Sin embargo, el estudio encuentra que solo dos de cada cinco (39%) reportan algún tipo de entrenamiento en IA. En línea con estos bajos niveles de entrenamiento, casi la mitad (48%) reportan un conocimiento limitado sobre IA, indicando que no se sienten seguros sobre cuándo ni cómo se utiliza la IA.

“La confianza del público en las tecnologías de IA y su uso seguro y protegido es central para la aceptación y adopción sostenidas”, se afirma en el estudio.

IA en el Trabajo y en la Educación

La era de trabajar con IA ha llegado, con tres de cada cinco (58%) empleados utilizando IA intencionalmente, y un tercio (31%) usándola semanal o diariamente.

Este alto uso está ofreciendo una gama de beneficios, con la mayoría de los empleados reportando un aumento en la eficiencia, acceso a información e innovación. Casi la mitad de los encuestados reportan que la IA ha incrementado la actividad generadora de ingresos.

Sin embargo, solo el 60% de las organizaciones proporciona entrenamiento responsable en IA y solo el 34% reportan una política o guía organizacional sobre el uso de herramientas de IA generativa.

Un miembro de KPMG ha indicado que “el uso de la IA en el trabajo está creando riesgos complejos para las organizaciones, y está surgiendo una brecha de gobernanza. El estudio revela que casi la mitad de los empleados admiten usar IA de maneras que contravienen las políticas de la empresa, incluyendo subir información sensible de la empresa a herramientas de IA públicas gratuitas como ChatGPT.”

Este uso complaciente podría deberse a que la gobernanza de la IA responsable está quedando atrás. En las economías avanzadas, poco más de la mitad de los empleados (55%) reportan que su organización tiene mecanismos para apoyar la adopción de IA y su uso responsable, incluyendo una estrategia y cultura propicia para la adopción responsable de la IA, entrenamiento adecuado y procesos de gobernanza.

Según el estudio, muchos usuarios confían en la salida de la IA sin evaluar su precisión (66%) y están cometiendo errores en su trabajo debido a la IA (56%). Lo que hace que estos riesgos sean desafiantes de gestionar es que más de la mitad (57%) de los empleados dicen que ocultan su uso de IA y presentan el trabajo generado por IA como propio.

Esta falta de gobernanza de la IA también se observa en las instituciones educativas, de las cuales solo la mitad cuenta con políticas, recursos y entrenamiento para un uso responsable de la IA.

IA en la Sociedad

El 73% de las personas reportan haber experimentado o observado beneficios de la IA, incluyendo la reducción del tiempo dedicado a tareas mundanas, una mayor personalización, disminución de costos y mejor accesibilidad.

Sin embargo, cuatro de cada cinco también están preocupados por los riesgos, y dos de cada cinco reportan haber experimentado impactos negativos de la IA. Estos varían desde la pérdida de interacción humana y riesgos de ciberseguridad hasta la proliferación de desinformación y desinformación, resultados inexactos y descalificación.

El 70% cree que se requieren regulaciones para la IA, pero solo el 43% cree que las leyes y regulaciones existentes son adecuadas.

Hay una clara demanda pública para leyes y regulaciones internacionales y para que la industria colabore con los gobiernos para mitigar estos riesgos. El 87% de los encuestados también quiere leyes más estrictas para combatir la desinformación generada por IA y espera que las empresas de medios y redes sociales implementen procesos de verificación de hechos más rigurosos.

En conclusión, aunque este estudio no incluyó a encuestados de las Dependencias de la Corona, las organizaciones en estas jurisdicciones están navegando desafíos similares. En cierta medida, la IA ha sido parte del paisaje empresarial durante años, pero el rápido aumento y el acceso público generalizado a sistemas más avanzados, notablemente la IA generativa, han puesto en primer plano la promesa y los riesgos asociados a la IA.

Las organizaciones que miran hacia el futuro están adoptando un enfoque medido y estratégico, evaluando cuidadosamente si la inversión en IA y automatización generará beneficios empresariales. Buscan equilibrar la innovación con las necesidades operativas, el cumplimiento regulatorio y los objetivos empresariales a largo plazo, abordando proactivamente estos desafíos y convirtiendo los riesgos potenciales en oportunidades estratégicas.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...