Nova Constituição do Claude AI da Anthropic Foca em Segurança e Ética
A Anthropic revisou completamente a “constituição do Claude”, um documento que estabelece os parâmetros éticos que governam o raciocínio e o comportamento de seu modelo de IA.
Lançada no Fórum Econômico Mundial, a nova constituição define que Claude deve ser “amplamente seguro” (não comprometendo a supervisão humana), “amplamente ético” (honesto, evitando ações inadequadas, perigosas ou prejudiciais), “genuinamente útil” (beneficiando seus usuários), além de estar “em conformidade com as diretrizes da Anthropic”.
Segundo a Anthropic, a constituição já está sendo utilizada no treinamento do modelo Claude, tornando-se fundamental para seu processo de raciocínio.
Histórico da Constituição do Claude
A primeira constituição do Claude apareceu em maio de 2023 como um documento modesto de 2.700 palavras, que se baseava abertamente na Declaração Universal dos Direitos Humanos da ONU e nos termos de serviço da Apple. Embora não tenha abandonado completamente essas fontes, a constituição de 2026 se afasta do foco em “princípios isolados” em favor de uma abordagem mais filosófica, que busca entender não apenas o que é importante, mas por quê.
A Anthropic acredita que uma abordagem diferente é necessária para que os modelos exercitem um bom julgamento em uma ampla gama de situações novas. A nova constituição ajudará Claude a passar de uma simples lista de verificação de possibilidades aprovadas para um raciocínio mais profundo. Por exemplo, em vez de manter os dados privados apenas porque isso está em uma regra, a constituição ajudará a entender o quadro ético no qual a privacidade é importante.
Detalhes e Implicações
O efeito dessa complexidade adicional é o aumento do tamanho do documento, que agora conta com 84 páginas e 23.000 palavras. O documento foi escrito para ser assimilado principalmente pelo próprio Claude, funcionando como uma declaração de ideais abstratos e um artefato útil para treinamento.
A constituição está atualmente escrita para os modelos Claude de acesso geral, e os modelos especializados podem não se adequar completamente. No entanto, a empresa continuará a avaliar como esses modelos podem atender aos objetivos centrais da constituição. Também prometeu ser transparente sobre erros em que o comportamento do modelo se desvia de sua visão.
Além disso, a constituição foi liberada sob um ato de Creative Commons CC0 1.0, permitindo que outros desenvolvedores a utilizem livremente em seus modelos.
Contexto e Debate Ético
O contexto para essa atualização é o crescente ceticismo sobre a confiabilidade, ética e segurança de grandes modelos de linguagem proprietários. Desde o início, a Anthropic procurou se diferenciar ao adotar uma abordagem distinta.
Um ponto de controvérsia na constituição é sua referência ao debate sobre a consciência da IA. A constituição menciona que “o status moral do Claude é profundamente incerto” e que essa questão é importante de considerar. Em agosto, a Anthropic introduziu um novo recurso em seus modelos mais avançados, que encerraria uma conversa se um usuário tentasse repetir conteúdo prejudicial ou ilegal, como uma forma de autoproteção.
Por outro lado, um engenheiro de IA argumenta que os modelos de linguagem são modelos estatísticos, e não entidades conscientes. Framing them as moral actors risks distracting us from the real issue, which is human accountability. A ética em IA deve se concentrar em quem projeta, implementa, valida e depende desses sistemas.
Conclusão
Embora uma “constituição” de IA possa ser útil como uma restrição de design, ela não resolve os riscos éticos subjacentes. A ética emerge do uso dos sistemas, e não de princípios abstratos codificados.