Inteligencia Artificial: Hacia un Futuro Ético y Justo

El Faro Moral: Inteligencia Artificial y el Mundo que Queremos

La inteligencia artificial debe ayudarnos a construir el mundo que queremos, y no permitir que unos pocos poderosos construyan el suyo. Demasiadas veces, ese “poco” consiste en multimillonarios ricos, principalmente hombres blancos, que ven la tecnología como una herramienta para el beneficio y el poder, no para la dignidad.

En el trabajo realizado en el Sur Global, se han encontrado numerosos conceptos culturales que ofrecen formas alternativas de pensar sobre la tecnología y cómo construir un futuro más justo, equitativo y sostenible. Los tecnólogos y responsables de políticas comprometidos con este objetivo deben mirar más allá de marcos morales y éticos estrechos y considerar la sabiduría que se encuentra en estos conceptos, a menudo antiguos.

De kesejahteraan a kotahitanga

Tras haber pasado la mayor parte de mi vida en Asia, he sido testigo de cómo las innovaciones occidentales pueden desplazar las culturas, lenguas y valores locales. Por ello, fue un placer trabajar con la Oficina Nacional de IA de Malasia en cuestiones de gobernanza y ética de la IA. Me intrigó explorar cómo un principio llamado kesejahteraan—traducido como prosperidad o bienestar holístico—podría servir como un faro para la gobernanza de la IA.

Derivado del marco MADANI del gobierno malasio, kesejahteraan es un valor cívico que define el bienestar no como un subproducto del crecimiento económico, sino como un objetivo nacional de florecimiento humano en sí mismo, fundamentado en la compasión, la justicia, la equidad y la dignidad humana.

Al igual que kesejahteraan, otros marcos como el concepto de ubuntu en África Subsahariana, que afirma la interconexión social profunda, ilustran la relevancia de estos principios para dar forma a los enfoques nacionales hacia la gobernanza de datos y políticas tecnológicas.

Ya no más actos de equilibrio

Con estas tradiciones basadas en valores iluminando mi camino, decidí confrontar críticamente la suposición que ha dominado el discurso sobre políticas tecnológicas durante demasiado tiempo: la necesidad de “equilibrar innovación y regulación”.

No hay acto de equilibrio. Cuando se trata de IA, la ecuación es más simple: si no sirve al florecimiento humano (y no humano), no es una innovación que valga la pena perseguir.

Esta claridad—esa claridad moral—es algo que a menudo falta en muchas hojas de ruta corporativas y declaraciones multilaterales. Algunos gobiernos incluyen estos valores en sus estrategias nacionales, pero a menudo se convierten en cosas deseables en el acto de equilibrar “innovación o regulación”. Este es el tipo de claridad moral que necesitamos urgentemente.

Fallo de mercado, fallo moral

La inteligencia artificial, en sus muchas formas, está remodelando rápidamente economías, democracias, lugares de trabajo y cada dimensión de la vida personal y política a una velocidad asombrosa. Mientras tanto, los multimillonarios autodenominados expertos en tecnología nos dicen que la innovación debe ser rápida, que los mercados deben ser libres y que la regulación debe ser mínima. Esta es una ilusión peligrosa.

Los mercados no tienen conciencia. Si se les deja solos, no optimizan para la inclusión, la equidad, la dignidad o el florecimiento humano; optimizan para el beneficio, la escala, la adicción y la eficiencia.

La tecnología no es destino

Uno de los mitos más perniciosos de la era actual es que el progreso tecnológico es inevitable. Sin embargo, como ha argumentado el economista y Nobel Daron Acemoglu, “la dirección de la tecnología nunca está predeterminada… La política gubernamental puede desempeñar un papel en fomentar una trayectoria más beneficiosa para la IA”.

Esto se ha visto en épocas anteriores: desde las protecciones laborales en la era industrial hasta las regulaciones ambientales en la era de los combustibles fósiles. Cada vez, la sociedad intervino para dar forma a la tecnología para el bien común, en lugar de para la explotación y la acumulación de poder.

El mercado no puede dirigir solo

El paradigma dominante defendido por las empresas tecnológicas está fundamentado en una forma de fundamentalismo de mercado: innovar rápidamente, escalar rápidamente y preocuparse por las consecuencias más tarde. Los daños son tratados como errores, no como advertencias.

Esto es lo que ocurre cuando el motivo de beneficio se prioriza sobre las obligaciones morales hacia las personas, comunidades y países, y cuando los responsables de políticas no lideran adecuadamente.

¿Qué es un «faro moral»?

Los líderes tecnológicos de EE. UU. han perdido la alta tierra, y los responsables de políticas junto a ellos. Es hora de que los responsables de políticas en la Mayoría Global dejen de escuchar los sermones de los carismáticos CEO de Big Tech y en su lugar escuchen a aquellos de dentro.

Un marco ético para la política de IA comienza reafirmando principios básicos que han formado la base de muchas tradiciones indígenas en todo el mundo: que la dignidad humana no es negociable, que el poder debe ser responsable, y que ninguna innovación está por encima del examen público.

Florecimiento… o fracaso

Las apuestas son enormes. Los sistemas de IA y las personas que los despliegan influirán en quién es contratado, promovido o despedido, quién recibe qué atención médica, cómo se enseña a los niños, quién puede migrar, quién obtiene hipotecas y préstamos bancarios, y cómo los gobiernos asignan recursos.

Si la IA profundiza la desigualdad, despoja a las personas de su poder o desplaza la participación cívica, no es el futuro que queremos—sin importar cuán avanzada sea la tecnología o cuánto dinero puedan ganar algunos individuos con ella.

Un faro moral no garantiza un paso seguro. Pero, impulsado por los valores morales comunes evidentes en las tradiciones del mundo, ayuda a trazar un rumbo y navegar en la incertidumbre. Nos advierte cuando las rocas están cerca.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...