Padrões de IA: Protegendo os Vulneráveis nos EUA

Modelando Padrões de IA para Proteger os Mais Vulneráveis da América

A recente mudança na estrutura do Instituto Nacional de Padrões e Tecnologia (NIST) para o Centro de Padrões e Inovação em IA dos EUA (CAISI) destaca a crescente influência do setor de tecnologia nas políticas públicas relacionadas à inteligência artificial (IA). Essa transição, anunciada em 3 de junho de 2025, ocorre em um contexto em que a administração Trump está promovendo a adoção acelerada da IA, enquanto ignora os impactos negativos sobre diversos grupos sociais.

A Nova Missão do CAISI

O CAISI tem como objetivo principal fortalecer a capacidade do Departamento de Comércio dos EUA para entender as capacidades da IA e identificar ameaças e vulnerabilidades, tanto nacionais quanto estrangeiras. Essa mudança de foco para a segurança nacional e a competitividade americana indica uma priorização da inovação em detrimento da colaboração com a academia e a sociedade civil.

Desafios de Representação

A tensão entre a necessidade de representar os interesses de indústrias, universidades e sociedade civil sempre esteve presente no NIST. A mudança de foco do CAISI em relação ao anterior Instituto de Segurança em IA dos EUA (USAISI) resulta em uma diminuição da atenção às questões de viés e discriminação na IA, que são preocupações fundamentais para a sociedade.

Durante uma oficina pública em novembro de 2023, a criação do USAISI foi discutida, com a promessa de abordar preocupações da sociedade civil em todos os grupos de trabalho. No entanto, essa promessa não se concretizou, e o grupo focado em Sociedade e Tecnologia foi transformado em um grupo de Segurança e Segurança, evidenciando a batalha entre a segurança da IA e as necessidades sociais.

O Futuro da Colaboração em IA

A transformação do foco do CAISI para uma perspectiva puramente pro-inovação levanta questões sobre a colaboração internacional. Durante a criação do USAISI, o objetivo era catalisar um ecossistema mais conectado e diversificado, mas a atual abordagem parece indicar uma intenção de captura em vez de colaboração.

A mudança nas agendas de pesquisa reflete uma preocupação com as ameaças à segurança nacional, em vez de abordar os efeitos prejudiciais da IA sobre grupos vulneráveis. Embora algumas preocupações, como imagens de abuso infantil, sejam abordadas, questões como viés e discriminação são deixadas de lado.

O Impacto das Mudanças nas Políticas

As recentes mudanças nas políticas de IA dos EUA ilustram como as prioridades industriais e de segurança nacional dominarão a política de IA americana nos próximos anos. A prioridade dada à inovação em detrimento das preocupações sociais sugere que a governança democrática e a responsabilidade na IA estão em risco.

É lamentável que, em um momento em que existe uma ampla pesquisa mostrando oportunidades para colaboração multidisciplinar, governos e empresas de tecnologia estejam unidos em uma busca gananciosa por poder, deixando a responsabilidade social e a ética em segundo plano.

O futuro da ciência e da responsabilidade em IA está em jogo, enquanto a indústria assume um papel central nas decisões que moldarão o desenvolvimento dessa tecnologia crucial.

More Insights

Sistema de Gestão de Risco na Lei de IA da UE

O Ato de Inteligência Artificial da União Europeia (UE) estabelece um sistema de gestão de riscos obrigatório para provedores de IA de alto risco, visando proteger a saúde, a segurança e os direitos...

Riscos Ocultos dos Agentes de IA na Governança

Dalen acredita que agora é necessária uma governança específica para a IA para essa nova geração de ferramentas, a fim de garantir que sejam implantadas de forma responsável e tragam valor...