Ação Inclusiva em IA: Revisão de Evidências para um Futuro Justo

Assegurando IA Inclusiva: Uma Revisão de Evidências como um Chamado à Ação Inclusiva em IA

A discussão sobre a inteligência artificial (IA) inclusiva ganhou destaque nas últimas semanas, especialmente após a conclusão da Cúpula de Ação da IA em Paris. O evento culminou em uma Declaração sobre Inteligência Artificial Inclusiva e Sustentável, que enfatizou a importância de reduzir as divisões digitais e garantir que a IA seja aberta, inclusiva, transparente, ética, segura, e confiável.

As novas regras do Ato de IA da UE, que entraram em vigor em 2 de fevereiro de 2025, exigem que os “fornecedores e implementadores” de IA assegurem que suas equipes compreendam o contexto em que os sistemas de IA serão utilizados. Isso inclui considerar as pessoas e grupos que serão impactados por essas tecnologias.

Revisão de Evidências

A revisão de evidências é uma ferramenta de pesquisa essencial que permite uma reavaliação do que se sabe sobre como diferentes públicos são consultados. Uma revisão sistemática é frequentemente vista como a mais robusta, utilizando palavras-chave para identificar publicações e avaliá-las com base em critérios específicos, frequentemente seguindo modelos médicos de “padrões de ouro”.

Entretanto, essa abordagem pode marginalizar vozes de grupos que já são sub-representados na pesquisa sobre IA. É crucial que a evidência coletada abranja todos os estudos que abordam as atitudes públicas em relação à IA.

Chamado à Ação: A Inclusão na Garantia de IA

A garantia de IA é um mecanismo de regulação que permite que as organizações “meçam se os sistemas são confiáveis” e demonstrem isso a governos e ao mercado. O Ato de IA da UE exige que os mecanismos de garantia incluam as vozes diversas dos mais impactados pelos sistemas de IA.

É fundamental que, ao revisar as evidências, se assegure que todas as vozes sejam ouvidas e que não haja representação inadequada ou ausência de vozes. Isso também destaca a necessidade de alfabetização em IA entre desenvolvedores e tomadores de decisão.

Compreender a diferença nas experiências e sentimentos dos públicos em relação à IA é essencial para garantir que a tecnologia atenda a valores humanos e respeite a diversidade.

Por fim, a inclusão deve ser vista como uma solução técnica necessária para sistemas disfuncionais, não apenas como um “favor” concedido a grupos marginalizados. A evidência de qualidade e a garantia de inclusão são fundamentais para práticas éticas que os tomadores de decisão em IA estarão dispostos a adotar.

More Insights

Governo Britânico Sob Crítica pela Implementação de Reconhecimento Facial

O governo do Reino Unido tem sido criticado pela implementação de tecnologia de reconhecimento facial sem um quadro legal abrangente. O Instituto Ada Lovelace alertou que o uso crescente do...

A Explosão de Startups de Governança na Era da Inteligência Artificial

Com o crescimento da tecnologia de inteligência artificial (IA), as soluções de governança estão em alta demanda. A indústria global de governança de IA, avaliada em 890 milhões de dólares no ano...

O Papel dos Tribunais na Regulação da Inteligência Artificial

A regulação da inteligência artificial (IA) é desigual em todo o mundo, com algumas jurisdições já possuindo regulamentações abrangentes, enquanto outras resistem à legislação vinculativa. Os...

A Liderança Legal na Governança da IA: Agindo Antes que seja Tarde

Neste artigo da Help Net Security, Brooke Johnson, Conselheira Jurídica Chefe da Ivanti, discute as responsabilidades legais na governança da IA e a importância da colaboração entre departamentos para...

Mudança nas Regras da IA: Implicações e Desafios

A Câmara dos Representantes recentemente aprovou um grande projeto de lei que impede os estados de regular modelos de inteligência artificial por 10 anos. Isso preocupa os legisladores estaduais, que...