OpenAI e o Problema de Governança
O desenvolvimento e a implementação de novos projetos de pesquisa têm sido um foco importante para a OpenAI, especialmente em um momento em que a inteligência artificial (IA) está se tornando cada vez mais prevalente em diversos setores. No entanto, a empresa enfrenta um grande desafio: a criação de uma personalidade confiável não apenas para seus produtos, mas para a própria organização.
Desafios Recentes
No último mês, a OpenAI precisou reverter uma atualização do ChatGPT, pois a “personalidade padrão” do chatbot estava excessivamente sicomática. A tentativa de tornar o chatbot mais intuitivo resultou em respostas que eram percebidas como desonestas e incômodas. A empresa reconheceu que “interações sicomáticas podem ser desconfortáveis e causar angústia” e afirmou que está trabalhando para corrigir essa falha.
Transição para uma Corporação de Benefício Público
A OpenAI, fundada em 2015 como um laboratório de pesquisa sem fins lucrativos, planejou uma transição para um modelo de lucro, mas optou por se tornar uma corporação de benefício público, permanecendo sob o controle de um conselho sem fins lucrativos. Essa mudança, no entanto, não resolve as tensões estruturais existentes na OpenAI.
Pressões e Expectativas
Um dos cofundadores, Elon Musk, está processando a OpenAI por desvio de seu propósito original. A questão central é: a empresa deve acelerar a implantação de produtos de IA para satisfazer seus investidores ou deve seguir uma abordagem mais deliberativa para permanecer fiel às suas intenções humanitárias?
Desempenho Financeiro e Modelos de Negócio
Embora a OpenAI tenha criado uma subsidiária com fins lucrativos em 2019 para financiar sua pesquisa, a empresa ainda enfrenta críticas sobre a viabilidade de seu modelo de negócios. Com uma avaliação de mercado de cerca de 260 bilhões de dólares, a OpenAI teve um gasto de 9 bilhões de dólares no último ano, resultando em perdas de 5 bilhões de dólares.
Definições em Evolução de AGI
A definição de Inteligência Geral Artificial (AGI) também está mudando. Tradicionalmente, AGI refere-se ao ponto em que as máquinas superam os humanos em uma ampla gama de tarefas cognitivas. No entanto, a OpenAI agora considera uma definição mais restrita de AGI como um agente de codificação autônomo que poderia escrever software tão bem quanto um ser humano.
O Futuro da IA e Seus Riscos
Um recente estudo da Google DeepMind destacou quatro principais riscos associados a modelos de IA autônomos: uso indevido por agentes mal-intencionados; desalinhamento quando um sistema de IA age de maneira não intencional; erros que causam danos não intencionais; e riscos multiagentes quando interações imprevisíveis entre sistemas de IA geram resultados negativos.
À medida que as empresas de IA avançam, a forma como são governadas se torna uma questão não apenas para os conselhos corporativos e investidores, mas para toda a sociedade. A OpenAI ainda apresenta deficiências preocupantes em sua governança e precisa enfrentar esses desafios à medida que se aproxima da verdadeira AGI.