Tempo de Regular a IA
A Inteligência Artificial é a tecnologia revolucionária mais transformadora da nossa era, moldando todas as áreas da atividade humana. No entanto, seu imenso poder também vem acompanhado de riscos imensos. A opacidade de seus algoritmos aumenta esse perigo – há inúmeras instâncias em que causou danos graves à sociedade. Esses danos podem se propagar em velocidade impressionante, dando pouco espaço para correção ou reversão de curso.
Riscos Associados à IA
Os riscos também se estendem à instabilidade sistêmica, como evidenciado pelos “flash crashes” financeiros impulsionados por IA. Um exemplo notável ocorreu em 6 de maio de 2010, quando o Dow Jones caiu mais de 1.000 pontos em apenas 10 minutos, apagando cerca de $1 trilhão em capitalização de mercado, embora 70% das perdas tenham sido recuperadas até o final do dia. Se deixados sem regulamentação, esses riscos podem minar a confiança nas instituições e desestabilizar os mercados.
Mas o mais sinistro é sua capacidade de infligir violência física. Em 2020, um relatório da ONU indicou que drones Kargu-2, fabricados na Turquia e alimentados por reconhecimento de imagem baseado em IA, podem ter atacado combatentes humanos sem supervisão direta. Isso pode marcar o primeiro incidente registrado de uso de força letal autônoma.
Relatórios de Gaza em 2023-24 sugeriram que Israel usou um sistema de IA conhecido como “Lavender” para gerar automaticamente listas de alvos para campanhas de bombardeio. Essa tomada de decisão automatizada pode ter causado mortes civis não intencionais ao diminuir o limiar de ataque, zombando da moralidade, legalidade e responsabilidade ao usar violência contra civis.
Viés e Desigualdade
Os sistemas de IA são propensos a herdar os preconceitos de seus criadores e frequentemente refletem preconceitos ocultos dentro de seus dados de treinamento, replicando e intensificando as desigualdades humanas. Um exemplo disso é o algoritmo COMPAS, utilizado nos tribunais dos EUA para prever o risco de reincidência. Este sistema rotulou injustamente réus negros como “alto risco” em comparação com réus brancos, mesmo quando estes últimos tinham históricos criminais piores, afetando fianças e sentenças.
Outra preocupação séria é que um pequeno número de grandes corporações dos EUA controla a maior parte dos recursos e do poder computacional de IA. Isso cria riscos geopolíticos significativos, consolidando monopólios e aprofundando a divisão digital. Não se pode ignorar como o algoritmo do Facebook contribuiu para o genocídio Rohingya no estado de Rakhine, em Mianmar, entre 2016 e 2017.
Programado para aumentar o engajamento do usuário e gerar mais receita publicitária, o algoritmo de autoaprendizado rapidamente aprendeu que a propagação de ódio e o compartilhamento de conteúdo provocativo eram mais eficazes para melhorar o engajamento. Ele começou, então, a normalizar conteúdo odioso e desumanizar os Rohingyas – milhares deles foram assassinados e mais de 700.000 fugiram para Bangladesh.
Chamado à Regulamentação
Para grandes empresas, o lucro é mais importante que a segurança, ética ou responsabilidade. A IA é uma ferramenta com potencial ilimitado para avançar o bem-estar humano, mas igualmente capaz de causar danos ilimitados. O lançamento do ChatGPT em 2022 foi um alerta – seu potencial para espalhar desinformação e ódio na sociedade, e até mesmo minar o processo democrático, gerou demandas globais por regulamentação da IA.
A União Europeia liderou essa iniciativa ao aprovar a Lei de Inteligência Artificial da UE em agosto de 2024. Este agosto marca a implementação de suas características principais, com a funcionalidade completa esperada até agosto de 2026.
No seu núcleo, a Lei segue uma abordagem “baseada em risco”, categorizando as aplicações de IA de acordo com seus riscos, desde mínimos até inaceitáveis, e prescrevendo obrigações de acordo. O objetivo é garantir que os sistemas de IA sejam seguros, transparentes e não discriminatórios, e que sejam supervisionados por humanos para prevenir resultados prejudiciais. Aqueles com riscos inaceitáveis serão proibidos na UE.
Implicações Globais
Qualquer empresa que ofereça produtos de IA na UE deve cumprir esses requisitos, e sua influência provavelmente se estenderá além da Europa, moldando normas globais na governança de tecnologias emergentes, assim como ocorreu com o Regulamento Geral de Proteção de Dados (GDPR). O Ato também prescreve um Código de Prática que foi assinado por grandes empresas (Google, Microsoft, OpenAI, Anthropic, etc.). A Meta se recusou, mas ainda assim será obrigada a cumprir.
O ato criou um novo corpo de governança, o Conselho Europeu de Inteligência Artificial (EAIB), para coordenar e supervisionar a consistência de sua implementação em toda a UE. Críticos argumentam que essas regras podem sufocar a inovação e impor altos custos de conformidade a startups, potencialmente dando vantagem a grandes empresas.
A administração Trump deseja que a UE descarte algumas de suas regras, considerando-as barreiras ao comércio, e a resposta da UE testará se ela pode traçar um curso independente na governança da IA.
Ainda assim, o mundo acredita que a IA precisa de regulamentação. Na Conferência Mundial de IA de 2025 em Xangai, a China revelou seu Plano de Ação Global de Governança de IA, promovendo a cooperação internacional, regulamentação de segurança e envolvimento da ONU na governança global da IA.
O Brasil também está prestes a promulgar seu próprio projeto de regulamentação de IA baseado em risco. A Índia não possui uma lei dedicada à IA. A estratégia nacional de IA de 2018 e o documento de 2021 sobre Princípios de IA Responsável enfatizaram a necessidade de estruturas para a adoção responsável da IA.
O Instituto de Segurança da IndiaAI foi lançado em janeiro de 2025, visando promover um desenvolvimento seguro, ético e socialmente fundamentado da IA. A Coalizão para a Evolução Responsável da IA (CoRE-AI) foi formada em julho de 2024, unindo mais de 30 partes interessadas para moldar diretrizes voluntárias e estruturas de governança.
O projeto de regulamentação da IA da Índia foi apresentado para consulta pública em 2025, contendo disposições semelhantes à Lei da UE que focam em abordagem baseada em risco, registro obrigatório para sistemas de alto risco, supervisão humana, privacidade de dados, etc.
A Lei da UE deixa uma lacuna entre a conformidade de segurança e a responsabilidade quando danos ocorrem. A Diretiva de Responsabilidade da IA, que originalmente pretendia simplificar as reivindicações, foi retirada. A Índia pode usar essas fraquezas como orientação para criar um sistema regulatório justo. Para corrigir isso, devem haver regras claras sobre quem paga se a IA causar danos, garantindo compensação às vítimas.
Em vez de depender de limiares baseados em computação, devemos priorizar critérios orientados ao contexto, incorporando avaliação de risco com as circunstâncias de implementação. A Índia pode superar a UE ao esclarecer as regulamentações de direitos autorais e uso de dados, além de criar um escritório nacional de IA como o EAIB.