Com a responsabilidade da IA estagnada, conselhos devem pressionar gigantes da tecnologia por maior transparência
O investimento global em tecnologias de inteligência artificial (IA) deve ultrapassar US$ 500 bilhões este ano, com um pequeno número de gigantes da tecnologia detendo mais de 60% da infraestrutura de nuvem e do poder de processamento de dados do mundo. Essa nova era de transformação econômica está sendo impulsionada pela IA.
A IA está se tornando a espinha dorsal de operações essenciais em setores como saúde, finanças, serviços governamentais e cadeias de suprimento alimentares. Sua integração terá efeitos em cascata em várias indústrias, moldando como as sociedades funcionam e impactando o sucesso ou o fracasso da economia futura.
Qualquer organização que desenvolva, adquira ou implemente esses sistemas tem o poder de moldar riscos e direitos. As decisões que empresas de tecnologia fazem hoje em relação à implementação e governança da IA determinarão se essa transformação fortalecerá a resiliência e a confiança ou amplificará riscos e desigualdades.
Consequências da falta de transparência
Quando um produto de IA é implantado sem princípios robustos, como transparência, responsabilidade e respeito pelos direitos humanos, os resultados podem ser prejudiciais. Isso já gerou reações regulatórias em várias partes do mundo devido à falta de controle sobre conteúdos gerados por IA.
Recentemente, foi revelado que apenas 38% das 200 empresas de tecnologia analisadas publicam princípios éticos de IA, e nenhuma delas divulgou avaliações abrangentes de impacto sobre direitos humanos para os sistemas de IA que constroem, compram ou utilizam. Essa lacuna entre promessas e práticas é preocupante, especialmente à medida que a pegada da IA e seu perfil de risco aumentam.
Desafios e tendências em transparência
A transparência relacionada à IA está desacelerando, com apenas 4,5% das empresas reportando pela primeira vez seus princípios de IA em 2025, em comparação com 19% em 2024. A maioria das gigantes da tecnologia ainda não cumpriu critérios fundamentais, com apenas 19% se comprometendo com qualquer estrutura de IA regional ou internacional.
No entanto, há um lado positivo: mais empresas agora reconhecem a IA como um risco material, indicando uma mudança de foco do hype para o reconhecimento dos impactos reais da IA.
Empresas estão começando a elevar a responsabilidade da IA em suas prioridades de sustentabilidade, e algumas adotaram novas políticas detalhadas para orientar sua governança algorítmica, melhorando a transparência de forma geral.
Conclusão
A publicação de princípios de IA é apenas o primeiro passo para melhorar os resultados em direitos humanos. Sem divulgações mais robustas e comprometimento em toda a indústria, mesmo essa ação inicial pode se tornar paralisada. O relógio regulatório também está correndo, com obrigações de transparência e avaliações de impacto sobre direitos humanos entrando em vigor na Europa.
Estamos alcançando um ponto crítico para a transparência da IA, enquanto a tecnologia domina a infraestrutura essencial. O caminho a seguir não deve ser mais uma promessa, mas uma transição de princípios para provas concretas, como avaliações rigorosas de impacto humano e melhorias mensuráveis em sistemas e resultados.