Estudo Revela Baixo Nível de Confiança Pública em Inteligência Artificial
Um novo estudo indica que a confiança dos australianos em sistemas de inteligência artificial (IA) atingiu um nível recorde de desconfiança, com um scorecard político revelando a posição dos partidos sobre a regulamentação da IA à medida que se aproximam as eleições federais.
Resultados do Estudo
De acordo com uma pesquisa global realizada pela Universidade de Melbourne e KPMG, foram observados os seguintes dados:
- Somente um terço dos australianos confia em sistemas de IA.
- Metade dos australianos relatou ter pessoalmente experimentado ou testemunhado danos causados pela IA.
- Quase 3 em cada 5 australianos temem que as eleições estejam sendo manipuladas por conteúdo gerado por IA ou bots.
- Mais de três quartos desejam uma regulamentação mais rigorosa, e menos de um terço acredita que as salvaguardas atuais são adequadas.
- Nove em cada dez australianos apoiam leis específicas para combater a desinformação gerada por IA.
Scorecard de Segurança da IA para as Eleições Federais de 2025
A Australians for AI Safety lançou seu scorecard de segurança da IA para as eleições federais de 2025, comparando a posição dos principais partidos sobre duas políticas recomendadas por especialistas:
- Instituto de Segurança da IA australiano – um órgão independente bem financiado que poderá testar modelos avançados, pesquisar riscos e aconselhar o governo.
- Lei de IA australiana – legislação que impõe guardrails obrigatórios e responsabilidades claras aos desenvolvedores e implementadores de IA de alto risco e de uso geral.
O scorecard revelou que apenas os partidos Australian Greens, Animal Justice Party, Indigenous-Aboriginal Party of Australia e Trumpet of Patriots apoiam totalmente ambas as políticas recomendadas. O senador David Pocock e outros independentes também endossaram essas medidas. O Partido Libertário se opôs em geral às políticas, referindo-se a elas como “esquemas do governo”.
Reações e Demandas por Ação
A resposta do Coalizão ao scorecard destacou a percepção de inação do governo: “Precisamos estar atentos aos riscos associados a essa tecnologia… O governo de Albanese falhou completamente em tomar ações decisivas ou fornecer clareza e direção política.”
Contudo, a resposta da Coalizão não delineou uma posição clara sobre as políticas recomendadas para o Instituto de Segurança da IA ou a Lei de IA.
“Isso é exatamente o que chamamos de policrastinação – um partido acusando o outro de inação enquanto não propõem ação própria,” afirmou um especialista em governança de IA. “Os australianos estão cansados de políticos que adiam e evitam decisões difíceis.”
A Necessidade de Regulamentação Rigorosa
Os defensores da Australians for AI Safety argumentam que uma regulamentação de segurança robusta permitiu que o setor de aviação prosperasse. De modo semelhante, a inovação em IA só florescerá quando testes independentes e deveres estatutários claros forem estabelecidos para construir a confiança pública. Institutos comparáveis já estão em operação no Japão, Coreia, Reino Unido e Canadá.
O compromisso da Austrália em criar um Instituto de Segurança da IA ainda não foi concretizado, mas é considerado essencial para garantir os benefícios da IA, enquanto se protege contra riscos catastróficos.