Washington State Looks to Protect Kids from AI Chatbot Risks
Regular a inteligência artificial — especialmente seu impacto em crianças e adolescentes — tornou-se uma questão central com o início da nova sessão legislativa em Washington.
Por que isso é importante
Com a rápida expansão do uso da IA, alguns legisladores afirmam que as empresas de tecnologia não implementaram salvaguardas adequadas para proteger as pessoas de danos — particularmente os menores, que podem ser mais facilmente influenciados por longas conversas com chatbots de IA.
O que está sendo dito
“Recebemos histórias realmente horríveis de chatbots conversando com jovens sobre temas como suicídio, uso de drogas e abuso de outras pessoas”, afirmou um líder da maioria na Câmara do estado. Ele descreveu as novas propostas para regular chatbots em Washington como “algo que devemos levar muito a sério.”
Propostas em análise
Uma das propostas que os legisladores de Washington estão considerando exigiria que os “chatbots companheiros” seguissem padrões específicos ao interagir com os usuários. Entre outros requisitos, os chatbots teriam que encaminhar usuários que expressam pensamentos suicidas para uma linha de emergência.
A proposta inclui proteções adicionais para menores, como limites para interações sexualmente explícitas e uma proibição de “técnicas de engajamento manipulativas” que prolongam um relacionamento emocional com o usuário.
Contexto mais amplo
A pressão em Washington surge após algumas famílias em todo o país processarem empresas de IA, alegando que os chatbots contribuíram para suicídios. Este mês, duas empresas resolveram processos semelhantes envolvendo seus chatbots.
Implicações e riscos
As famílias alegam que os chatbots incentivaram ou reforçaram os pensamentos suicidas de seus filhos em momentos críticos, ao invés de direcioná-los para ajuda externa. Um senador que patrocina o projeto de lei para chatbots afirmou que “estamos observando, nos importamos — e acreditamos que eles precisam agir.”
Outra proposta do mesmo senador criaria responsabilidade civil para suicídios vinculados ao uso de chatbots de IA.
Visões opostas
Uma empresa de IA afirmou que tem atualizado seu modelo para reconhecer melhor sinais de angústia mental e emocional, acreditando que sua IA pode oferecer um espaço de suporte.
Além disso, outras propostas em análise buscam limitar o uso de IA nas escolas para disciplina ou vigilância, além de dar mais controle sobre o uso de “imagens digitais forjadas”.
Próximos passos
Uma proposta diferente que está sendo considerada governaria o uso de IA em decisões importantes, como contratações e admissões em faculdades, exigindo salvaguardas para reduzir o risco de “discriminação algorítmica.”
Se você ou alguém que você conhece pode estar considerando suicídio, ligue ou envie uma mensagem para a Linha Nacional de Prevenção ao Suicídio.