Assegurando IA Inclusiva: Uma Revisão de Evidências como um Chamado à Ação Inclusiva em IA
A discussão sobre a inteligência artificial (IA) inclusiva ganhou destaque nas últimas semanas, especialmente após a conclusão da Cúpula de Ação da IA em Paris. O evento culminou em uma Declaração sobre Inteligência Artificial Inclusiva e Sustentável, que enfatizou a importância de reduzir as divisões digitais e garantir que a IA seja aberta, inclusiva, transparente, ética, segura, e confiável.
As novas regras do Ato de IA da UE, que entraram em vigor em 2 de fevereiro de 2025, exigem que os “fornecedores e implementadores” de IA assegurem que suas equipes compreendam o contexto em que os sistemas de IA serão utilizados. Isso inclui considerar as pessoas e grupos que serão impactados por essas tecnologias.
Revisão de Evidências
A revisão de evidências é uma ferramenta de pesquisa essencial que permite uma reavaliação do que se sabe sobre como diferentes públicos são consultados. Uma revisão sistemática é frequentemente vista como a mais robusta, utilizando palavras-chave para identificar publicações e avaliá-las com base em critérios específicos, frequentemente seguindo modelos médicos de “padrões de ouro”.
Entretanto, essa abordagem pode marginalizar vozes de grupos que já são sub-representados na pesquisa sobre IA. É crucial que a evidência coletada abranja todos os estudos que abordam as atitudes públicas em relação à IA.
Chamado à Ação: A Inclusão na Garantia de IA
A garantia de IA é um mecanismo de regulação que permite que as organizações “meçam se os sistemas são confiáveis” e demonstrem isso a governos e ao mercado. O Ato de IA da UE exige que os mecanismos de garantia incluam as vozes diversas dos mais impactados pelos sistemas de IA.
É fundamental que, ao revisar as evidências, se assegure que todas as vozes sejam ouvidas e que não haja representação inadequada ou ausência de vozes. Isso também destaca a necessidade de alfabetização em IA entre desenvolvedores e tomadores de decisão.
Compreender a diferença nas experiências e sentimentos dos públicos em relação à IA é essencial para garantir que a tecnologia atenda a valores humanos e respeite a diversidade.
Por fim, a inclusão deve ser vista como uma solução técnica necessária para sistemas disfuncionais, não apenas como um “favor” concedido a grupos marginalizados. A evidência de qualidade e a garantia de inclusão são fundamentais para práticas éticas que os tomadores de decisão em IA estarão dispostos a adotar.