Ação Inclusiva em IA: Revisão de Evidências para um Futuro Justo

Assegurando IA Inclusiva: Uma Revisão de Evidências como um Chamado à Ação Inclusiva em IA

A discussão sobre a inteligência artificial (IA) inclusiva ganhou destaque nas últimas semanas, especialmente após a conclusão da Cúpula de Ação da IA em Paris. O evento culminou em uma Declaração sobre Inteligência Artificial Inclusiva e Sustentável, que enfatizou a importância de reduzir as divisões digitais e garantir que a IA seja aberta, inclusiva, transparente, ética, segura, e confiável.

As novas regras do Ato de IA da UE, que entraram em vigor em 2 de fevereiro de 2025, exigem que os “fornecedores e implementadores” de IA assegurem que suas equipes compreendam o contexto em que os sistemas de IA serão utilizados. Isso inclui considerar as pessoas e grupos que serão impactados por essas tecnologias.

Revisão de Evidências

A revisão de evidências é uma ferramenta de pesquisa essencial que permite uma reavaliação do que se sabe sobre como diferentes públicos são consultados. Uma revisão sistemática é frequentemente vista como a mais robusta, utilizando palavras-chave para identificar publicações e avaliá-las com base em critérios específicos, frequentemente seguindo modelos médicos de “padrões de ouro”.

Entretanto, essa abordagem pode marginalizar vozes de grupos que já são sub-representados na pesquisa sobre IA. É crucial que a evidência coletada abranja todos os estudos que abordam as atitudes públicas em relação à IA.

Chamado à Ação: A Inclusão na Garantia de IA

A garantia de IA é um mecanismo de regulação que permite que as organizações “meçam se os sistemas são confiáveis” e demonstrem isso a governos e ao mercado. O Ato de IA da UE exige que os mecanismos de garantia incluam as vozes diversas dos mais impactados pelos sistemas de IA.

É fundamental que, ao revisar as evidências, se assegure que todas as vozes sejam ouvidas e que não haja representação inadequada ou ausência de vozes. Isso também destaca a necessidade de alfabetização em IA entre desenvolvedores e tomadores de decisão.

Compreender a diferença nas experiências e sentimentos dos públicos em relação à IA é essencial para garantir que a tecnologia atenda a valores humanos e respeite a diversidade.

Por fim, a inclusão deve ser vista como uma solução técnica necessária para sistemas disfuncionais, não apenas como um “favor” concedido a grupos marginalizados. A evidência de qualidade e a garantia de inclusão são fundamentais para práticas éticas que os tomadores de decisão em IA estarão dispostos a adotar.

More Insights

Governança da IA na Economia de Zero Confiança

Em 2025, a governança da IA deve alinhar-se com a mentalidade de "nunca confie, sempre verifique" da economia de zero confiança. Isso significa que a governança não deve ser vista como um obstáculo à...

A Segurança da IA como Catalisador para Inovação em Países em Desenvolvimento

Investimentos em segurança e proteção da IA não devem ser vistos como obstáculos, mas sim como facilitadores da inovação sustentável e do desenvolvimento a longo prazo, especialmente em países da...

Rumo à Governança da IA no ASEAN

Quando se trata de IA, a ASEAN adota uma abordagem de governança baseada em consenso. Este modelo voluntário e baseado em princípios pode ser uma solução temporária, mas corre o risco de fragmentação...

Implementação Ética da IA na Ucrânia

Em junho, 14 empresas de TI ucranianas criaram uma organização de autorregulamentação para apoiar abordagens éticas na implementação da inteligência artificial na Ucrânia. As empresas se comprometeram...

A Itália Aprova Lei Abrangente de IA Focada em Privacidade e Segurança

O Parlamento da Itália aprovou uma nova lei sobre inteligência artificial, tornando-se o primeiro país da União Europeia com regulamentações abrangentes. A legislação estabelece princípios centrais de...