El Faro Moral: Inteligencia Artificial y el Mundo que Queremos
La inteligencia artificial debe ayudarnos a construir el mundo que queremos, y no permitir que unos pocos poderosos construyan el suyo. Demasiadas veces, ese “poco” consiste en multimillonarios ricos, principalmente hombres blancos, que ven la tecnología como una herramienta para el beneficio y el poder, no para la dignidad.
En el trabajo realizado en el Sur Global, se han encontrado numerosos conceptos culturales que ofrecen formas alternativas de pensar sobre la tecnología y cómo construir un futuro más justo, equitativo y sostenible. Los tecnólogos y responsables de políticas comprometidos con este objetivo deben mirar más allá de marcos morales y éticos estrechos y considerar la sabiduría que se encuentra en estos conceptos, a menudo antiguos.
De kesejahteraan a kotahitanga
Tras haber pasado la mayor parte de mi vida en Asia, he sido testigo de cómo las innovaciones occidentales pueden desplazar las culturas, lenguas y valores locales. Por ello, fue un placer trabajar con la Oficina Nacional de IA de Malasia en cuestiones de gobernanza y ética de la IA. Me intrigó explorar cómo un principio llamado kesejahteraan—traducido como prosperidad o bienestar holístico—podría servir como un faro para la gobernanza de la IA.
Derivado del marco MADANI del gobierno malasio, kesejahteraan es un valor cívico que define el bienestar no como un subproducto del crecimiento económico, sino como un objetivo nacional de florecimiento humano en sí mismo, fundamentado en la compasión, la justicia, la equidad y la dignidad humana.
Al igual que kesejahteraan, otros marcos como el concepto de ubuntu en África Subsahariana, que afirma la interconexión social profunda, ilustran la relevancia de estos principios para dar forma a los enfoques nacionales hacia la gobernanza de datos y políticas tecnológicas.
Ya no más actos de equilibrio
Con estas tradiciones basadas en valores iluminando mi camino, decidí confrontar críticamente la suposición que ha dominado el discurso sobre políticas tecnológicas durante demasiado tiempo: la necesidad de “equilibrar innovación y regulación”.
No hay acto de equilibrio. Cuando se trata de IA, la ecuación es más simple: si no sirve al florecimiento humano (y no humano), no es una innovación que valga la pena perseguir.
Esta claridad—esa claridad moral—es algo que a menudo falta en muchas hojas de ruta corporativas y declaraciones multilaterales. Algunos gobiernos incluyen estos valores en sus estrategias nacionales, pero a menudo se convierten en cosas deseables en el acto de equilibrar “innovación o regulación”. Este es el tipo de claridad moral que necesitamos urgentemente.
Fallo de mercado, fallo moral
La inteligencia artificial, en sus muchas formas, está remodelando rápidamente economías, democracias, lugares de trabajo y cada dimensión de la vida personal y política a una velocidad asombrosa. Mientras tanto, los multimillonarios autodenominados expertos en tecnología nos dicen que la innovación debe ser rápida, que los mercados deben ser libres y que la regulación debe ser mínima. Esta es una ilusión peligrosa.
Los mercados no tienen conciencia. Si se les deja solos, no optimizan para la inclusión, la equidad, la dignidad o el florecimiento humano; optimizan para el beneficio, la escala, la adicción y la eficiencia.
La tecnología no es destino
Uno de los mitos más perniciosos de la era actual es que el progreso tecnológico es inevitable. Sin embargo, como ha argumentado el economista y Nobel Daron Acemoglu, “la dirección de la tecnología nunca está predeterminada… La política gubernamental puede desempeñar un papel en fomentar una trayectoria más beneficiosa para la IA”.
Esto se ha visto en épocas anteriores: desde las protecciones laborales en la era industrial hasta las regulaciones ambientales en la era de los combustibles fósiles. Cada vez, la sociedad intervino para dar forma a la tecnología para el bien común, en lugar de para la explotación y la acumulación de poder.
El mercado no puede dirigir solo
El paradigma dominante defendido por las empresas tecnológicas está fundamentado en una forma de fundamentalismo de mercado: innovar rápidamente, escalar rápidamente y preocuparse por las consecuencias más tarde. Los daños son tratados como errores, no como advertencias.
Esto es lo que ocurre cuando el motivo de beneficio se prioriza sobre las obligaciones morales hacia las personas, comunidades y países, y cuando los responsables de políticas no lideran adecuadamente.
¿Qué es un «faro moral»?
Los líderes tecnológicos de EE. UU. han perdido la alta tierra, y los responsables de políticas junto a ellos. Es hora de que los responsables de políticas en la Mayoría Global dejen de escuchar los sermones de los carismáticos CEO de Big Tech y en su lugar escuchen a aquellos de dentro.
Un marco ético para la política de IA comienza reafirmando principios básicos que han formado la base de muchas tradiciones indígenas en todo el mundo: que la dignidad humana no es negociable, que el poder debe ser responsable, y que ninguna innovación está por encima del examen público.
Florecimiento… o fracaso
Las apuestas son enormes. Los sistemas de IA y las personas que los despliegan influirán en quién es contratado, promovido o despedido, quién recibe qué atención médica, cómo se enseña a los niños, quién puede migrar, quién obtiene hipotecas y préstamos bancarios, y cómo los gobiernos asignan recursos.
Si la IA profundiza la desigualdad, despoja a las personas de su poder o desplaza la participación cívica, no es el futuro que queremos—sin importar cuán avanzada sea la tecnología o cuánto dinero puedan ganar algunos individuos con ella.
Un faro moral no garantiza un paso seguro. Pero, impulsado por los valores morales comunes evidentes en las tradiciones del mundo, ayuda a trazar un rumbo y navegar en la incertidumbre. Nos advierte cuando las rocas están cerca.