IA y Responsabilidad: Riesgos ESG que los Inversores No Pueden Ignorar

AI y Responsabilidad: El Riesgo Emergente de ESG que los Inversores Institucionales No Pueden Ignorar

En los últimos años, la inteligencia artificial (IA) ha tomado un papel central en muchas empresas, pero también ha surgido como un área de preocupación para los inversores institucionales. Un proyecto de propuesta de accionistas presentado por un sindicato canadiense ha llamado la atención sobre la necesidad de que las empresas fortalezcan sus marcos de gobernanza de la IA para cumplir con las expectativas de derechos humanos y privacidad de los inversores.

La Propuesta del Sindicato

La propuesta del British Columbia General Employees’ Union (BCGEU) solicita que Thomson Reuters alinee su marco de gobernanza de la IA con los Principios Rectores de la ONU sobre Empresas y Derechos Humanos. Además, se pide que la empresa evalúe si sus principios de confianza son adecuados para navegar los riesgos emergentes relacionados con la IA.

La asamblea general de Thomson Reuters se llevará a cabo el 4 de junio de 2025, y se espera que esta propuesta genere un debate significativo entre los accionistas.

Preocupaciones sobre el Uso de la IA

A pesar de reconocer los beneficios de la IA, la BCGEU ha enfatizado los posibles abusos de la tecnología, así como los problemas de privacidad de datos, sesgos algorítmicos y otras preocupaciones sobre derechos humanos que están alarmando a los inversores. La propuesta argumenta que las empresas que desarrollan y licencian tecnologías de IA enfrentan riesgos legales, regulatorios y reputacionales crecientes.

Riesgos Asociados con las Tecnologías de IA

La propuesta destaca que los productos de IA de Thomson Reuters, incluidos los herramientas de genAI, han sido «directamente vinculados» a redadas y deportaciones de inmigrantes en EE. UU., prácticas ampliamente reconocidas como violaciones de múltiples derechos.

Un ejemplo es el software de evaluación e informes de Thomson Reuters, conocido como CLEAR, utilizado por agencias gubernamentales como el ICE (Inmigración y Control de Aduanas). CLEAR puede captar miles de millones de puntos de datos, lo que ha suscitado preocupaciones sobre derechos humanos y privacidad.

Litigios y Gobernanza de la IA

Thomson Reuters se ha visto envuelto en litigios debido a la venta no autorizada de datos personales a través de CLEAR, lo que resultó en un acuerdo de 27.5 millones de dólares. Esto subraya la necesidad de una gobernanza de IA basada en derechos claros para mejorar la estrategia de la empresa en este ámbito.

A pesar de las recomendaciones de la BCGEU, Thomson Reuters ha instado a los accionistas a votar en contra de la propuesta, argumentando que ya cuenta con un marco integral de gobernanza y gestión de riesgos de IA.

El Futuro de la Gobernanza de la IA

La gobernanza responsable de la IA y la supervisión de la tecnología son prioridades cada vez más importantes para los accionistas. En total, se han presentado 17 propuestas relacionadas con la IA para la temporada de proxy de 2025, un aumento significativo respecto a las seis del año anterior.

Además de la propuesta de Thomson Reuters, se han programado propuestas relacionadas con la IA en las próximas asambleas generales de otras cinco empresas, incluidas gigantes tecnológicos como Amazon, Alphabet y Meta.

Las preocupaciones sobre la gobernanza de la IA no solo son relevantes para Thomson Reuters, sino que también reflejan una tendencia más amplia en el ámbito de los inversores que buscan mayor transparencia y compromisos éticos más sólidos en el uso de tecnologías de IA.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...