Transparencia en la Inteligencia Artificial: La Urgencia de una Gobernanza Efectiva

Con la responsabilidad de la IA estancada, los consejos deben presionar a los gigantes tecnológicos por una mayor transparencia

La inversión global en tecnologías de inteligencia artificial (IA) se espera que supere los 500 mil millones de dólares este año. Un puñado de gigantes tecnológicos ahora posee más del 60% de la infraestructura en la nube y el poder de procesamiento de datos del mundo, los motores que impulsan una nueva era de transformación económica.

Desde sistemas de salud y redes financieras hasta servicios gubernamentales y cadenas de suministro de alimentos, la IA se está convirtiendo en la columna vertebral de operaciones fundamentales. Su integración tendrá efectos en cascada en diversas industrias, moldeando cómo funcionan las sociedades y teniendo un impacto decisivo en el éxito – o mal funcionamiento – de la economía del mañana.

Cualquier organización que desarrolle, adquiera o implemente estos sistemas tiene el poder de moldear riesgos y derechos a largo plazo. Las decisiones que las empresas tecnológicas tomen hoy en cuanto a la implementación y gobernanza de la IA determinarán si esta transformación fortalece la resiliencia y la confianza, o amplifica el riesgo y la desigualdad.

Cuando un producto de IA se implementa sin principios sólidos como la transparencia, la responsabilidad y el respeto por los derechos humanos, el resultado puede ser contenido dañino que circula ampliamente, provocando reacciones regulatorias. Por ejemplo, gobiernos de varios países han criticado la incapacidad de prevenir la producción masiva de imágenes sexualizadas generadas por IA.

Recientemente, se anunció nueva data sobre IA ética a partir del análisis de 200 grandes empresas tecnológicas. Un dato destacable es que, entre las 200 empresas evaluadas, solo el 38% publica principios de IA ética, y ninguna reveló evaluaciones de impacto en derechos humanos (HRIAs) para los sistemas de IA que construyen, compran o utilizan.

Es igualmente alarmante que la transparencia de alto nivel en IA, como la divulgación pública de principios de IA, esté desacelerándose. Solo nueve empresas reportaron sus principios de IA por primera vez en 2025, en comparación con 19 en 2024.

La mayoría de los gigantes tecnológicos están lejos de cumplir incluso criterios fundamentales. Aproximadamente el 19% se comprometió con algún marco regional o internacional de IA, y poco más del 10% explicó sus mecanismos internos de gobernanza de IA.

No obstante, hay un rayo de esperanza. Comparado con 2023, muchas más empresas ahora reconocen la IA como un riesgo material, señalando un cambio hacia el reconocimiento de los impactos reales de la IA.

A pesar de algunas tendencias positivas, empresas influyentes aún no tienen principios de IA públicos y han sido poco receptivas a los esfuerzos de los inversores por involucrarse en sus prácticas de IA.

Publicar principios de IA de alto nivel es solo el primer paso hacia la mejora de los resultados en derechos humanos. Sin divulgaciones más robustas y aceptación en toda la industria, incluso esta acción inicial corre el riesgo de paralizarse antes de convertirse en la norma.

El reloj regulatorio también está corriendo. En Europa, las obligaciones de transparencia y relacionadas con HRIAs entrarán en vigor bajo la Ley de IA de la Unión Europea, lo que significa que lo que hoy es voluntario mañana será obligatorio.

Estamos llegando a un punto crítico para la transparencia de la IA justo cuando la tecnología domina infraestructuras esenciales. La forma de avanzar no es otra promesa, sino un cambio de principios a pruebas, como HRIAs rigurosas, hallazgos públicos y mejoras medibles en sistemas y resultados.

Este cambio reducirá los riesgos reputacionales y regulatorios, y acelerará el retorno de las inversiones en IA al aclarar dónde se necesitan límites. Los consejos que esperan que la IA impulse el crecimiento deben insistir en la gobernanza que la sustenta. De lo contrario, permitir que la responsabilidad se estanque mientras la tecnología domina es un riesgo que ningún líder empresarial debería aceptar.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...