Exclusivo: Britânicos Querem Proibir IA “Mais Inteligente que o Humano”
Com o Vale do Silício correndo para construir modelos de inteligência artificial mais poderosos, a opinião pública do outro lado do Atlântico permanece decididamente cética em relação à influência dos CEOs de tecnologia na regulamentação do setor. A vasta maioria dos britânicos está preocupada com a segurança dos novos sistemas de IA.
As preocupações, destacadas em uma nova pesquisa compartilhada exclusivamente, surgem enquanto líderes mundiais e chefes de tecnologia se preparam para se reunir em Paris na próxima semana para discutir o rápido ritmo de desenvolvimento da IA.
Apoio a Leis Restritivas
A nova pesquisa mostra que 87% dos britânicos apoiariam uma lei que exigisse que os desenvolvedores de IA provassem que seus sistemas são seguros antes do lançamento. Além disso, 60% estão a favor de proibir o desenvolvimento de modelos de IA “mais inteligentes que os humanos”. Apenas 9% confiam, por sua vez, nos CEOs de tecnologia para agir no interesse público ao discutir a regulamentação da IA.
A pesquisa foi realizada pela YouGov em nome da Control AI, uma organização sem fins lucrativos focada nos riscos da IA.
Ansiedade Pública Crescente
Os resultados refletem a crescente ansiedade pública sobre o desenvolvimento de sistemas de IA que poderiam igualar ou até superar os humanos na maioria das tarefas. Embora essa tecnologia ainda não exista, sua criação é o objetivo expresso de grandes empresas de IA, como OpenAI, Google, Anthropic e Meta, proprietária do Facebook e Instagram. Vários CEOs de tecnologia esperam que tais sistemas se tornem realidade em questão de anos, senão antes.
É nesse contexto que 75% dos britânicos entrevistados afirmaram que as leis deveriam proibir explicitamente o desenvolvimento de sistemas de IA que possam escapar de seus ambientes. Mais da metade, 63%, concordou com a ideia de proibir a criação de sistemas de IA que possam tornar-se mais inteligentes ou poderosos.
Desconexão entre Opinião Pública e Ação Regulamentar
As descobertas da pesquisa britânica refletem os resultados de pesquisas recentes nos EUA e apontam para uma crescente desconexão entre a opinião pública e a ação regulatória quando se trata de IA avançada. Mesmo a Lei de IA da União Europeia, amplamente vista como a legislação de IA mais abrangente do mundo, não aborda diretamente muitos dos possíveis riscos apresentados por sistemas de IA que atendem ou superam as habilidades humanas.
Desafios na Regulamentação da IA no Reino Unido
No Reino Unido, onde a pesquisa da YouGov foi realizada com 2.344 adultos entre 16 e 17 de janeiro, ainda não existe uma estrutura regulamentar abrangente para a IA. Embora o Partido Trabalhista tenha prometido introduzir novas regras de IA antes da última eleição geral em 2024, desde que assumiu o poder, tem procrastinado a introdução de um projeto de lei sobre IA, enfrentando o desafio de restaurar o crescimento de sua economia em dificuldades.
Em janeiro, por exemplo, o Primeiro-Ministro britânico anunciou que a IA seria “incorporada nas veias” da nação para impulsionar o crescimento, uma clara mudança de discurso em relação à regulamentação.
Um Novo Empurrão por Novas Leis
A pesquisa foi acompanhada por uma declaração assinada por 16 legisladores britânicos de ambos os principais partidos políticos, pedindo ao governo que introduza novas leis de IA especificamente direcionadas a sistemas de IA “superinteligentes”, ou aqueles que poderiam se tornar muito mais inteligentes que os humanos.
“IAs especializadas – como aquelas que avançam na ciência e medicina – impulsionam o crescimento, inovação e serviços públicos. Sistemas de IA superinteligentes, por outro lado, comprometeriam a segurança nacional e global”, afirma a declaração.
Miotti, da Control AI, argumenta que o Reino Unido não precisa sacrificar o crescimento ao impor regulamentações abrangentes, como as contidas na Lei de IA da UE. Em vez disso, ele sugere que o Reino Unido poderia impor uma “regulamentação cirúrgica de IA” que se aplica apenas aos modelos mais poderosos que apresentam os maiores riscos.
“O que o público quer são sistemas que os ajudem, não sistemas que os substituam”, afirma Miotti. “Não devemos buscar sistemas superinteligentes até que saibamos como provar que eles são seguros.”
Os dados da pesquisa também mostram que uma grande maioria, 74%, dos britânicos apoia uma promessa feita pelo Partido Trabalhista antes da última eleição de consagrar o Instituto de Segurança da IA do Reino Unido em lei, dando-lhe poder para agir como regulador. Atualmente, o AISI – um braço do governo do Reino Unido – realiza testes em modelos privados de IA antes de seu lançamento, mas não tem autoridade para obrigar empresas de tecnologia a fazer mudanças ou para declarar que modelos são perigosos demais para serem lançados.