A Necessidade de Céticos em Segurança de IA
O debate sobre segurança em inteligência artificial (IA) muitas vezes se assemelha a uma sessão de culto para aqueles que acreditam em ameaças emergentes da inteligência artificial geral (AGI). A crença na capacidade transformadora da IA é palpável, mas frequentemente se baseia em mitos que moldam as percepções sobre riscos existenciais e deslocamento econômico. A realidade é que muitos especialistas e profissionais, bem-intencionados, estão preocupados com a trajetória da IA e suas implicações.
Desconexão entre Crenças e Realidade
Embora as evidências que sustentam a trajetória em direção à AGI sejam fracas, a urgência em discutir a possibilidade de superinteligência permeia quase todas as conversas. Essa visão pode criar uma confusão intelectual, onde uma apresentação que sugere que a adoção de IA não será tão disruptiva é contradita por discussões que afirmam que a IA está levando a uma desestabilização econômica imensa. A falta de diferenciação entre tipos de IA, como modelos de linguagem grandes e sistemas analíticos robustos, complica ainda mais o diálogo.
Política sem Proselitismo
É crucial que o foco esteja em identificar quais danos são mais prováveis. Enquanto a especulação é ilimitada, é necessário um mapeamento rigoroso das prioridades. Existem evidências claras de danos causados por aplicações falsas de categorias e rótulos na IA. O viés na automação não é novo e ainda não foi resolvido, exigindo uma análise crítica e fundamentada.
A Linguagem Pragmatista
A linguagem usada nas discussões sobre riscos de IA tende a criar um vocabulario político que visa encontrar um terreno comum entre diferentes perspectivas. No entanto, essa abordagem muitas vezes é dominada pela crença na inevitabilidade da AGI, limitando a imaginação e prejudicando discussões mais profundas sobre as políticas necessárias para um futuro seguro.
Os Perigos dos Quadro de AGI
Promover a AGI como próxima de se tornar uma realidade pode gerar a falsa sensação de segurança sobre as capacidades dos sistemas de IA. Isso pode levar a confiar em máquinas em áreas onde a segurança não é garantida, exacerbando os riscos. A interseção entre a política e a tecnologia deve ser reconhecida, pois as decisões humanas moldam como a tecnologia é utilizada.
Conclusão
O futuro da IA não será definido apenas pela tecnologia, mas pela maneira como as pessoas decidem utilizá-la. O trabalho antecipatório é essencial para evitar catástrofes desnecessárias e impactos sociais. Devemos construir nossa infraestrutura social e política com base em avaliações realistas das ferramentas que utilizamos, evitando que palavras vazias nos direcionem para sonhos infundados.