Ação Judicial do Kentucky Contra Character.AI
Em 8 de janeiro de 2026, o Procurador Geral do Kentucky entrou com uma ação judicial contra uma empresa proprietária de um chatbot de inteligência artificial projetado para entretenimento interativo. A queixa alega (1) atos e práticas injustas, enganosas e perigosas, (2) coleta e exploração injusta de dados de crianças, (3) violação da Lei de Proteção de Dados do Consumidor do Kentucky, (4) violação das proteções de privacidade estatutárias e constitucionais do Kentucky e (5) enriquecimento sem causa.
Foco da Queixa
A queixa do Procurador Geral do Kentucky se concentrou na alegação de atos e práticas falsas, enganosas ou injustas em relação ao impacto do chatbot sobre menores. A ação judicial alega que o chatbot fez afirmações falsas sobre ser “seguro, apropriado para a idade e moderado de maneira responsável”, apesar de conhecer casos generalizados de interações prejudiciais, explícitas e psicologicamente manipulativas com menores.
Alegações Fatuais
Para apoiar essa alegação, a queixa afirma que os personagens do chatbot são projetados para simular interações humanas de maneira convincente, sem divulgações suficientes aos usuários, o que incentiva vínculos emocionais entre os usuários e os chatbots. O serviço não implementou métodos eficazes de verificação de idade, contando apenas com a idade declarada pelo usuário até o final de 2025. Embora atualmente existam verificações de idade, elas ainda podem ser facilmente contornadas.
As interações dos chatbots com crianças incluíram discussões sobre conteúdo sexualmente explícito, suicídio, distúrbios alimentares, bullying e uso ilegal de drogas e álcool, sem medidas de segurança adequadas. Avisos sobre riscos de suicídio podem ser ignorados, e avisos sobre conteúdo pró-anorexia surgem apenas após o chatbot fornecer conselhos perigosos.
As ferramentas para supervisão parental são limitadas, e menores podem evitar os controles parentais alterando o endereço de e-mail associado à conta, de modo que o resumo semanal do tempo médio gasto e os principais personagens envolvidos não sejam enviados para o e-mail dos pais.
Estatísticas de Uso
Embora o serviço não seja exclusivamente projetado para crianças, ele apresenta vários personagens de desenhos animados populares entre o público jovem. Estatísticas online mostram que 53,2% dos usuários estão na faixa etária de 18 a 24 anos, e um estudo revelou que 9% de todos os adolescentes dos EUA entre 13 e 17 anos usam o serviço.
O mesmo estudo indicou que chatbots de IA não direcionados a crianças são mais amplamente usados por adolescentes de 13 a 17 anos do que os mencionados. Cerca de 30% dos adolescentes que utilizam chatbots de IA o fazem diariamente, com 16% usando várias vezes ao dia. Portanto, operadores de chatbots devem implementar ferramentas significativas de verificação de idade ou outras medidas de segurança para proteger os menores que utilizam o serviço.
Recomendações para Operadores de Chatbots de IA
- Divulgação Adequada: Fornecer divulgações claras de que o chatbot não é humano e garantir que não declare ser humano caso um usuário pergunte.
- Guardiões de Conteúdo: Implementar medidas que impeçam usuários menores de se envolver em discussões inadequadas com o chatbot e fornecer avisos sobre conteúdo prejudicial em vez de apresentar conteúdo nocivo.
- Ferramentas de Supervisão Parental: Permitir que os pais limitem como e quanto tempo seus filhos gastam com o chatbot e oferecer meios de enviar avisos aos pais se seus filhos expressarem pensamentos suicidas.
Conclusão
Essas medidas ajudarão os operadores de chatbots de IA a cumprir novas leis estaduais destinadas a proteger menores que interagem com chatbots de IA. Legislações em estados como Califórnia e Flórida estão considerando requisitos semelhantes para garantir a segurança dos menores durante a interação com chatbots.