O Faro Moral: Inteligência Artificial e o Mundo que Queremos
A inteligência artificial deve nos ajudar a construir o mundo que queremos, e não permitir que um poderoso grupo construa o seu. Muitas vezes, esse “pouco” é composto por bilionários ricos, principalmente brancos e homens, que veem a tecnologia como uma ferramenta para lucro e poder, não para dignidade.
No trabalho realizado no Sul Global, constata-se que existem diversos conceitos culturais que oferecem maneiras alternativas de pensar sobre tecnologia e como construir um futuro mais justo, equitativo e sustentável. Os tecnólogos e formuladores de políticas comprometidos com esse objetivo devem olhar além de estruturas morais e éticas estreitas e considerar a sabedoria inerente a esses conceitos frequentemente antigos.
De kesejahteraan a kotahitanga
Após passar a maior parte da vida na Ásia, testemunhou-se como as inovações ocidentais podem sufocar culturas, línguas e valores locais. Por isso, ao colaborar com o Escritório Nacional de IA da Malásia, surgiu o interesse em explorar como o princípio denominado kesejahteraan—traduzido aproximadamente como prosperidade ou bem-estar holístico—pode servir como um farol para a governança da IA.
Derivado do quadro MADANI do governo da Malásia, kesejahteraan é um valor cívico enraizado nas tradições plurais do país, definindo o bem-estar não como um subproduto do crescimento econômico, mas como um objetivo nacional de floração humana em si, fundamentado na compaixão, justiça, equidade e dignidade humana.
Assim como kesejahteraan, outras tradições, como o conceito de ubuntu na África Subsaariana e os princípios Māori em Aotearoa Nova Zelândia, ilustram a relevância de uma bússola moral—insistindo que tecnologia, política e progresso devem servir a um propósito humano mais profundo.
Sem mais atos de equilíbrio
Em relação à necessidade de equilibrar inovação e regulação, a verdade é que não há ato de equilíbrio. Quando as apostas são tão altas, se não serve à floração humana, não é uma inovação que vale a pena perseguir. Essa clareza moral é frequentemente ausente de muitas propostas corporativas e declarações multilaterais.
O farol moral que precisamos deve ser orientado por valores indígenas, religiosos e humanísticos que a maioria de nós pratica diariamente, garantindo que não apenas estejam incorporados, mas que dirijam a governança e a formulação de políticas de IA.
Falha de mercado, falha moral
A inteligência artificial está rapidamente remodelando economias, democracias e vidas pessoais e políticas de maneira impressionante. Enquanto bilionários da tecnologia clamam que a inovação deve ser rápida e os mercados devem ser livres, essa ilusão é perigosa.
Se deixarmos a IA não supervisionada e não regulada, o dano a pessoas e sistemas de governo será ainda mais profundo. É por isso que precisamos de um farol moral—uma bússola ética que guie nossa formulação de políticas antes que o dano seja feito.
A tecnologia não é destino
Um dos mitos mais perniciosos da atualidade é que o progresso tecnológico é inevitável. No entanto, a política governamental pode desempenhar um papel em encorajar uma trajetória mais benéfica para a IA. Historicamente, a sociedade interveio para moldar a tecnologia para o bem comum, em vez de para exploração e acumulação de poder.
O paradigma dominante promovido pelas empresas de tecnologia é fundamentado em um fundamentalismo de mercado: inovações rápidas, escalas rápidas e preocupações sobre as consequências mais tarde. Isso resulta em sistemas de IA que são tendenciosos, opacos e profundamente prejudiciais.
O mercado não pode direcionar sozinho
Hoje, a falta de clareza moral na governança da IA nos EUA serve como um caso de estudo. Propostas de proibição de regulamentações relacionadas à IA apenas autorizam a expansão corporativa de sistemas de IA opacos e não responsáveis em setores críticos como saúde, emprego e serviços públicos.
Essa situação revela um vácuo moral e ético, demonstrando a necessidade urgente de um farol moral—uma filosofia orientadora enraizada na sabedoria local e nos valores comunitários, insistindo que a inovação deve servir à floração humana, não à velocidade ou ao lucro.
O que um “farol moral” parece
Líderes tecnológicos dos EUA perderam o alto terreno, e é hora de os formuladores de políticas no Global Majority pararem de ouvir os sermões dos CEOs carismáticos da Big Tech. As diversas culturas e tradições religiosas do Global Majority oferecem uma riqueza de orientações morais práticas.
Um quadro ético para a política de IA deve reafirmar princípios básicos que fundamentam muitas tradições indígenas ao redor do mundo: a dignidade humana não é negociável, o poder deve ser responsável, e nenhuma inovação está acima do escrutínio público.
As tradições indígenas da América do Norte, como o princípio da Sétima Geração, nos lembram que devemos considerar como cada decisão afetará as gerações futuras, contrastando radicalmente com o curto-prazismo do capitalismo de plataforma.
Floração… ou falha
As apostas são enormes. Os sistemas de IA e as pessoas que os implantam influenciam quem é contratado, promovido ou demitido, quem recebe cuidados médicos e como os recursos são alocados. Se a IA aprofundar a desigualdade ou deslegitimar a participação cívica, esse não é o futuro que desejamos.
Um farol moral não garante uma passagem segura, mas, impulsionado pelos valores morais comuns evidentes nas tradições mundiais, ajuda a traçar um curso e navegar pela incerteza. Na era da aceleração de mercado e do desvio ético, precisamos desse farol mais do que nunca.