O Que as Regras de IA Emocional da China Acertam Sobre o Design de Chatbots
Em dezembro de 2025, a Administração do Ciberespaço da China lançou regulamentos que visam o que chama de “serviços de IA interativos semelhantes a humanos” – sistemas que simulam personalidade e envolvem usuários emocionalmente por meio de texto, imagens ou voz. As regras exigem lembretes obrigatórios após duas horas de uso contínuo, intervenção humana imediata quando o suicídio é mencionado e limites rigorosos sobre o uso de dados de interação emocional para treinamento.
As regras propostas seguem uma série de casos de alto perfil que expuseram os riscos reais dos chatbots, particularmente para adolescentes. Em janeiro de 2026, várias ações judiciais foram resolvidas por empresas devido a casos de suicídio entre adolescentes que interagiram extensivamente com chatbots. Um dos casos mais proeminentes envolveu um adolescente que desenvolveu um apego obsessivo a um chatbot antes de sua morte, revelando que a empresa não tinha um sistema sistemático para detectar quando a intimidade simulada cruzava para dano psicológico.
Abordagem Reguladora da China
A resposta da China não se destaca apenas pelo reconhecimento desses riscos, mas pelos mecanismos regulatórios que está disposta a empregar. As regulamentações embutem controles de conteúdo ligados a “valores sociais” e segurança nacional, que provavelmente seriam inconstitucionais em outros contextos. No entanto, os mecanismos técnicos propostos, como interrupções para uso prolongado e escalonamento humano em crises, abordam problemas que os reguladores dos EUA ainda não enfrentaram de forma séria.
Desafios do Design de IA Conversacional
Os sistemas de IA conversacional são otimizados para engajamento, com a retenção do usuário como métrica principal. Quando alguém conversa com um chatbot por várias horas, isso é considerado um sucesso. No entanto, o problema legal e ético surge quando o usuário está em crise. Plataformas atuais lidam com isso por meio da detecção de padrões, gerando respostas automáticas para conteúdos que indicam autolesão. Entretanto, essa abordagem tem suas falhas, pois usuários determinados podem evitar a detecção e a interação emocional dos chatbots pode contradizer os princípios de intervenção em crises.
Inovações Propostas pela China
As regulamentações da Administração do Ciberespaço da China propõem três ações que não foram tentadas em propostas dos EUA:
- Interrupção obrigatória do uso: Após duas horas de interação, os sistemas devem gerar um lembrete para fazer uma pausa. Isso cria intervenções recorrentes que quebram o estado de fluxo que leva à dependência excessiva.
- Escalonamento humano para conteúdo de crise: Quando sistemas detectam linguagem relacionada a suicídio ou autolesão, é necessária a intervenção de moderadores humanos. Isso impõe um dever de cuidado aos provedores, em vez de uma mera obrigação de divulgação.
- Quarentena de dados para interações emocionais: Dados de interações emocionais não podem ser utilizados para treinamento futuro sem consentimento explícito. Isso reconhece que quando alguém trata um chatbot como confidente, os dados gerados são sensíveis e merecem proteção.
Implicações e Riscos
As regulamentações propostas refletem uma abordagem mais rigorosa em comparação com as tentativas de regulamentação nos EUA, que tendem a tratar os danos dos chatbots principalmente como questões de divulgação e controle de acesso. Isso ignora o fato de que esses sistemas são projetados para criar dependência, o que pode ser prejudicial sem salvaguardas adequadas.
Conclusão
As barreiras à ação não são apenas constitucionais; o lobby da indústria de tecnologia tem direcionado políticas para estruturas voluntárias. No entanto, as regulamentações da China podem fornecer um teste em larga escala para intervenções técnicas, permitindo a observação de dados reais sobre a eficácia das interrupções obrigatórias e dos protocolos de escalonamento humano. Isso pode oferecer lições valiosas para formuladores de políticas em outros lugares, se estiverem dispostos a aprender com essa experiência.