Ética na Automação: Combate ao Viés e à Conformidade em IA

Ética na Automação: Abordando o Viés e a Conformidade em IA

À medida que as empresas dependem mais de sistemas automatizados, a ética se tornou uma preocupação fundamental. Os algoritmos estão cada vez mais moldando decisões que anteriormente eram tomadas por pessoas, impactando empregos, crédito, saúde e resultados legais. Esse poder exige responsabilidade. Sem regras claras e padrões éticos, a automação pode reforçar a injustiça e causar danos.

Ignorar a ética afeta pessoas reais de maneiras reais, não apenas alterando os níveis de confiança pública. Sistemas tendenciosos podem negar empréstimos, empregos ou assistência médica, e a automação pode aumentar a velocidade de decisões ruins se não houver salvaguardas em vigor. Quando os sistemas cometem erros, muitas vezes é difícil recorrer ou entender o porquê, e a falta de transparência transforma pequenos erros em problemas maiores.

Compreendendo o Viés em Sistemas de IA

O viés na automação muitas vezes vem dos dados. Se os dados históricos incluem discriminação, os sistemas treinados com esses dados podem repetir esses padrões. Por exemplo, uma ferramenta de IA usada para triagem de candidatos a emprego pode rejeitar candidatos com base em gênero, raça ou idade se seus dados de treinamento refletirem esses vieses passados. O viés também entra por meio do design, onde escolhas sobre o que medir, quais resultados favorecer e como rotular os dados podem criar resultados distorcidos.

Existem muitos tipos de viés. O viés de amostragem ocorre quando um conjunto de dados não representa todos os grupos, enquanto o viés de rotulagem pode vir de input humano subjetivo. Até escolhas técnicas, como alvos de otimização ou tipo de algoritmo, podem distorcer os resultados.

Os problemas não são apenas teóricos. A Amazon abandonou o uso de uma ferramenta de recrutamento em 2018 após esta favorecer candidatos do sexo masculino. Além disso, alguns sistemas de reconhecimento facial foram encontrados com taxas de erro mais altas ao identificar pessoas de cor em comparação aos caucasianos. Esses problemas danificam a confiança e levantam preocupações legais e sociais.

Outra preocupação real é o viés proxy. Mesmo quando características protegidas, como raça, não são usadas diretamente, outras características, como código postal ou nível de educação, podem agir como substitutos, significando que o sistema ainda pode discriminar, mesmo que a entrada pareça neutra, por exemplo, com base em áreas mais ricas ou mais pobres. O viés proxy é difícil de detectar sem testes cuidadosos. O aumento nos incidentes de viés em IA é um sinal de que mais atenção é necessária no design do sistema.

Atendendo aos Padrões que Importam

As leis estão se atualizando. A Lei de IA da UE, aprovada em 2024, classifica os sistemas de IA por risco. Sistemas de alto risco, como os usados em contratações ou pontuação de crédito, devem atender a requisitos rigorosos, incluindo transparência, supervisão humana e verificações de viés. Nos EUA, não existe uma única lei de IA, mas os reguladores estão ativos. A Comissão de Oportunidades Iguais de Emprego (EEOC) alerta os empregadores sobre os riscos das ferramentas de contratação impulsionadas por IA, e a Comissão Federal de Comércio (FTC) também sinalizou que sistemas tendenciosos podem violar leis anti-discriminação.

A Casa Branca emitiu um Blueprint para um Projeto de Lei dos Direitos da IA, oferecendo orientações sobre o uso seguro e ético. Embora não seja uma lei, estabelece expectativas, cobrindo cinco áreas principais: sistemas seguros, proteções contra discriminação algorítmica, privacidade de dados, aviso e explicação, e alternativas humanas.

As empresas também devem observar as leis estaduais dos EUA. A Califórnia movimentou-se para regular a tomada de decisão algorítmica, e Illinois exige que as empresas informem os candidatos a emprego se a IA é usada em entrevistas em vídeo. O não cumprimento pode resultar em multas e processos judiciais.

Os reguladores na cidade de Nova York agora exigem auditorias para sistemas de IA usados na contratação. As auditorias devem mostrar se o sistema oferece resultados justos em grupos de gênero e raça, e os empregadores também devem notificar os candidatos quando a automação é utilizada.

A conformidade é mais do que evitar penalidades – trata-se também de estabelecer confiança. Empresas que podem demonstrar que seus sistemas são justos e responsáveis têm mais chances de ganhar apoio de usuários e reguladores.

Como Construir Sistemas Mais Justos

A ética na automação não acontece por acaso. Requer planejamento, as ferramentas certas e atenção contínua. O viés e a justiça devem ser incorporados ao processo desde o início, e não adicionados posteriormente. Isso envolve definir metas, escolher os dados corretos e incluir as vozes certas à mesa.

Fazer isso bem significa seguir algumas estratégias principais:

Conduzindo Avaliações de Viés

O primeiro passo para superar o viés é encontrá-lo. Avaliações de viés devem ser realizadas cedo e frequentemente, desde o desenvolvimento até a implementação, para garantir que os sistemas não produzam resultados injustos. As métricas podem incluir taxas de erro em grupos ou decisões que têm um impacto maior em um grupo do que em outros.

Auditorias de viés devem ser realizadas por terceiros sempre que possível. Revisões internas podem perder questões-chave ou carecer de independência, e a transparência em processos de auditoria objetivos constrói confiança pública.

Implementando Conjuntos de Dados Diversos

Dados de treinamento diversos ajudam a reduzir o viés, incluindo amostras de todos os grupos de usuários, especialmente aqueles frequentemente excluídos. Um assistente de voz treinado principalmente em vozes masculinas funcionará mal para mulheres, e um modelo de pontuação de crédito que carece de dados sobre usuários de baixa renda pode avaliá-los erroneamente.

A diversidade de dados também ajuda os modelos a se adaptarem ao uso no mundo real. Os usuários vêm de diferentes contextos, e os sistemas devem refletir isso. Variedade geográfica, cultural e linguística é essencial.

A diversidade de dados não é suficiente por si só – também deve ser precisa e bem rotulada. O lixo entra, lixo sai ainda se aplica, então as equipes precisam verificar erros e lacunas e corrigi-los.

Promovendo Inclusividade no Design

O design inclusivo envolve as pessoas afetadas. Os desenvolvedores devem consultar os usuários, especialmente aqueles em risco de dano (ou aqueles que podem, ao usar IA tendenciosa, causar dano), pois isso ajuda a descobrir pontos cegos. Isso pode significar envolver grupos de defesa, especialistas em direitos civis ou comunidades locais nas revisões de produtos. Isso significa ouvir antes que os sistemas sejam lançados, e não após as reclamações surgirem.

O design inclusivo também significa equipes interdisciplinares. Incluir vozes de ética, direito e ciências sociais pode melhorar a tomada de decisões, pois essas equipes são mais propensas a fazer perguntas diferentes e identificar riscos.

As equipes também devem ser diversas. Pessoas com diferentes experiências de vida identificam diferentes questões, e um sistema construído por um grupo homogêneo pode ignorar riscos que outros perceberiam.

O que as Empresas Estão Fazendo Certo

Algumas empresas e agências estão tomando medidas para abordar o viés em IA e melhorar a conformidade.

Entre 2005 e 2019, a Administração Tributária e Aduaneira Holandesa acusou erroneamente cerca de 26.000 famílias de reivindicar fraudulentamente benefícios de assistência infantil. Um algoritmo usado no sistema de detecção de fraudes visava desproporcionalmente famílias com dupla nacionalidade e baixa renda. O desfecho levou a um clamor público e à renúncia do governo holandês em 2021.

O LinkedIn enfrentou escrutínio sobre o viés de gênero em seus algoritmos de recomendação de empregos. Pesquisas do MIT e outras fontes descobriram que homens eram mais propensos a serem correspondidos a cargos de liderança com salários mais altos, em parte devido a padrões comportamentais na forma como os usuários se candidataram a empregos. Em resposta, o LinkedIn implementou um sistema de IA secundário para garantir um pool de candidatos mais representativo.

Outro exemplo é a lei da Ferramenta de Decisão de Emprego Automatizado (AEDT) da cidade de Nova York, que entrou em vigor em 1º de janeiro de 2023, com a aplicação começando em 5 de julho de 2023. A lei exige que empregadores e agências de emprego que usam ferramentas automatizadas para contratação ou promoção realizem uma auditoria de viés independente dentro de um ano de uso, divulguem publicamente um resumo dos resultados e notifiquem os candidatos com pelo menos 10 dias úteis de antecedência, regras que visam tornar a contratação impulsionada por IA mais transparente e justa.

A Aetna, uma seguradora de saúde, lançou uma revisão interna de seus algoritmos de aprovação de reivindicações e descobriu que alguns modelos resultaram em atrasos maiores para pacientes de baixa renda. A empresa alterou a forma como os dados eram ponderados e adicionou mais supervisão para reduzir essa lacuna.

Os exemplos mostram que o viés em IA pode ser abordado, mas requer esforço, metas claras e forte responsabilidade.

Para Onde Vamos a Partir de Agora

A automação veio para ficar, mas a confiança nos sistemas depende da justiça dos resultados e de regras claras. O viés em sistemas de IA pode causar danos e riscos legais, e a conformidade não é uma caixa a ser marcada – é parte de fazer as coisas da maneira certa.

A automação ética começa com a conscientização. É necessária uma forte base de dados, testes regulares e design inclusivo. As leis podem ajudar, mas a verdadeira mudança também depende da cultura e da liderança da empresa.

More Insights

O Papel da Inteligência Artificial na Segurança Pública

As agências de aplicação da lei estão cada vez mais utilizando a inteligência artificial (IA) para aprimorar suas funções, especialmente com capacidades de policiamento preditivo. O mercado global de...

Quênia lidera acordo histórico da ONU sobre governança da IA

O Quênia conquistou uma grande vitória diplomática após todos os 193 Estados-Membros das Nações Unidas concordarem unanimemente em estabelecer duas instituições inovadoras para governar a inteligência...

A Nova Onda de Ameaças Cibernéticas: Da Contaminação de Dados a Agentes de IA

As ferramentas de inteligência artificial (IA) estão se espalhando rapidamente por diversos setores, oferecendo novas oportunidades, mas também expondo as organizações a riscos cibernéticos. O aumento...

Ética e Governança da IA no Sudeste Asiático

Neste artigo, Nguyen Hoang Minh Ngoc explora o panorama atual da governança e ética da IA nos países do Sudeste Asiático. Embora a IA traga benefícios significativos, riscos associados à sua...