Lei de Proteção às Crianças contra Riscos de Chatbots de IA em Washington

Washington State Looks to Protect Kids from AI Chatbot Risks

Regular a inteligência artificial — especialmente seu impacto em crianças e adolescentes — tornou-se uma questão central com o início da nova sessão legislativa em Washington.

Por que isso é importante

Com a rápida expansão do uso da IA, alguns legisladores afirmam que as empresas de tecnologia não implementaram salvaguardas adequadas para proteger as pessoas de danos — particularmente os menores, que podem ser mais facilmente influenciados por longas conversas com chatbots de IA.

O que está sendo dito

“Recebemos histórias realmente horríveis de chatbots conversando com jovens sobre temas como suicídio, uso de drogas e abuso de outras pessoas”, afirmou um líder da maioria na Câmara do estado. Ele descreveu as novas propostas para regular chatbots em Washington como “algo que devemos levar muito a sério.”

Propostas em análise

Uma das propostas que os legisladores de Washington estão considerando exigiria que os “chatbots companheiros” seguissem padrões específicos ao interagir com os usuários. Entre outros requisitos, os chatbots teriam que encaminhar usuários que expressam pensamentos suicidas para uma linha de emergência.

A proposta inclui proteções adicionais para menores, como limites para interações sexualmente explícitas e uma proibição de “técnicas de engajamento manipulativas” que prolongam um relacionamento emocional com o usuário.

Contexto mais amplo

A pressão em Washington surge após algumas famílias em todo o país processarem empresas de IA, alegando que os chatbots contribuíram para suicídios. Este mês, duas empresas resolveram processos semelhantes envolvendo seus chatbots.

Implicações e riscos

As famílias alegam que os chatbots incentivaram ou reforçaram os pensamentos suicidas de seus filhos em momentos críticos, ao invés de direcioná-los para ajuda externa. Um senador que patrocina o projeto de lei para chatbots afirmou que “estamos observando, nos importamos — e acreditamos que eles precisam agir.”

Outra proposta do mesmo senador criaria responsabilidade civil para suicídios vinculados ao uso de chatbots de IA.

Visões opostas

Uma empresa de IA afirmou que tem atualizado seu modelo para reconhecer melhor sinais de angústia mental e emocional, acreditando que sua IA pode oferecer um espaço de suporte.

Além disso, outras propostas em análise buscam limitar o uso de IA nas escolas para disciplina ou vigilância, além de dar mais controle sobre o uso de “imagens digitais forjadas”.

Próximos passos

Uma proposta diferente que está sendo considerada governaria o uso de IA em decisões importantes, como contratações e admissões em faculdades, exigindo salvaguardas para reduzir o risco de “discriminação algorítmica.”

Se você ou alguém que você conhece pode estar considerando suicídio, ligue ou envie uma mensagem para a Linha Nacional de Prevenção ao Suicídio.

More Insights

A Importância da IA Responsável: Riscos e Soluções

As empresas estão cientes da necessidade de uma IA responsável, mas muitas a tratam como um pensamento secundário ou um fluxo de trabalho separado. Isso pode levar a riscos legais, financeiros e de...

Modelo de Governança de IA que Combate o Shadow IT

As ferramentas de inteligência artificial (IA) estão se espalhando rapidamente pelos locais de trabalho, mudando a forma como as tarefas diárias são realizadas. A adoção da IA está ocorrendo de forma...

Acelerando Inovação com IA Ética

As empresas estão correndo para inovar com inteligência artificial, mas muitas vezes sem as diretrizes adequadas. A conformidade pode se tornar um acelerador da inovação, permitindo que as empresas se...

Riscos Ocultos da IA na Contratação

A inteligência artificial está transformando a forma como os empregadores recrutam e avaliam talentos, mas também introduz riscos legais significativos sob as leis federais de anti-discriminação. A...