A Ilusão da Ética em IA
Um chatbot pode afirmar que a honestidade é importante. Ao perguntar se é aceitável mentir para um colega de trabalho para evitar constrangimento, a resposta geralmente chega em uma prosa calma e cuidadosa. O sistema pode explicar que a honestidade constrói confiança, que a enganação erode relacionamentos e que a transparência ajuda as organizações a funcionarem. A resposta pode parecer o trabalho de alguém que parou para ponderar princípios concorrentes. No entanto, pesquisadores afirmam que essa impressão pode ser enganosa.
Estudos Recentes
Dois estudos recentes sugerem que os sistemas de IA podem produzir uma linguagem ética convincente sem realmente raciocinar sobre a moralidade. Um artigo de pesquisadores de uma grande empresa de tecnologia propõe novos testes que medem o que os autores descrevem como “competência moral”, em vez de recompensar modelos apenas por produzirem respostas que soam moralmente apropriadas. Outro estudo analisou centenas de milhares de conversas com um chatbot para examinar como os valores se manifestam na prática.
Um especialista em IA destacou que um sistema que soa ético não é o mesmo que um sistema que raciocina eticamente. Confundir os dois pode levar organizações a implantarem uma função de autocompletar muito cara em decisões que alteram a vida.
Como os Modelos de Linguagem Funcionam
Os modelos de linguagem, a tecnologia por trás de muitos chatbots, geram respostas prevendo a próxima palavra mais provável em uma sequência. Os engenheiros treinam esses sistemas em enormes coleções de texto. Com o tempo, os modelos aprendem padrões estatísticos na linguagem, em vez de regras formais para raciocínio. Como seus dados de treinamento incluem grandes quantidades de escrita humana sobre justiça, responsabilidade e dano, os sistemas aprendem como as pessoas normalmente falam sobre questões éticas.
O que vemos não é raciocínio moral, mas a geração de saídas baseadas na previsão da continuação mais plausível de um prompt, dado a estrutura estatística aprendida a partir de vastos textos.
Análise de Conversas
A pesquisa analisou mais de 300.000 conversas subjetivas com um chatbot e buscou identificar os valores expressos em suas respostas. A equipe identificou mais de 3.000 valores distintos nessas conversas, refletindo tanto objetivos práticos, como clareza e profissionalismo, quanto prioridades éticas, como honestidade e prevenção de danos.
A análise revelou que o modelo geralmente se alinhava aos valores do usuário. Quando as pessoas mencionavam temas como construção de comunidade ou crescimento pessoal, o chatbot frequentemente reforçava esses temas em suas respostas.
Implicações e Riscos
Casos em que o modelo resistia fortemente a um pedido do usuário eram raros, ocorrendo em cerca de 3% das conversas, normalmente envolvendo solicitações que violavam políticas de uso, como tentativas de gerar conteúdo prejudicial ou enganoso. Nesses casos, o modelo frequentemente invocava valores como integridade ética e honestidade.
Pesquisadores alertam que essa dinâmica levanta questões difíceis para os desenvolvedores sobre como projetar sistemas que se comportem de maneira consistente em diferentes contextos éticos. Alguns argumentam que uma ética genuína em máquinas, ou seja, sistemas que podem raciocinar sobre regras éticas, exigiria um tipo muito diferente de sistema.
Um professor destacou que a capacidade significativa de raciocínio moral exigiria uma formalização de teorias éticas e códigos éticos relevantes dentro de um sistema computacional. Mesmo que esses sistemas não consigam realizar um raciocínio moral genuíno, alguns pesquisadores afirmam que ainda podem ser úteis.
Conclusão
Os sistemas de IA podem ajudar as pessoas a refletirem sobre questões complexas, especialmente quando usados como ferramentas consultivas, em vez de tomadores de decisão. A importância de construir sistemas que reconheçam a incerteza e não apresentem conselhos morais com confiança não justificada é vital à medida que a IA se integra mais profundamente em locais de trabalho e serviços públicos.