Oregon SB 1546: A Primeira Lei de Chatbots com Real Enforcement
Se a sua empresa utiliza uma ferramenta alimentada por IA que lembra interações com clientes, faz perguntas de acompanhamento e sustenta conversas pessoais — mesmo que você a tenha licenciado de um fornecedor terceirizado — a nova lei de segurança de chatbots de Oregon pode se aplicar a você. O SB 1546, que foi aprovado em ambas as câmaras em 5 de março com apoio quase unânime, cria um direito de ação privada com danos estatutários de $1.000 por violação. Se a governadora assinar o projeto, ele entrará em vigor em 1º de janeiro de 2027.
O que exige o Oregon SB 1546?
O projeto visa “companheiros de IA”, que são definidos de forma ampla como:
[Um sistema] que utiliza inteligência artificial, inteligência artificial generativa ou algoritmos que reconhecem emoções a partir de entradas e que é projetado para simular um relacionamento ou companhia humano, platônico, íntimo ou romântico com um usuário.
Para todos os usuários, os operadores devem divulgar a participação da IA, detectar expressões de ideação suicida, interromper a conversa para fornecer referências de crise e apresentar relatórios anuais à Autoridade de Saúde de Oregon. Para menores, os operadores devem ainda fornecer lembretes horários de IA, abster-se de conteúdo sexualmente explícito e evitar técnicas destinadas a criar dependência emocional.
A interrupção obrigatória da conversa é única para Oregon — a SB 243 da Califórnia exige protocolos de referência de crise, mas não a interrupção ativa. Esta distinção é importante a nível de produto: a interrupção requer classificação de intenção em tempo real, uma tarefa probabilística com taxas de falsos positivos e negativos inerentes. As empresas precisarão confirmar se a capacidade de detecção do fornecedor atende a esse padrão e documentar a alocação contratual de responsabilidade se não atender.
Isso se aplica à minha empresa?
Um sistema qualifica-se como um “companheiro de IA” se atender a um teste em três partes:
[O sistema] (a) [retém] informações de interações anteriores ou sessões de usuários e de preferências de usuários para personalizar interações e facilitar o engajamento contínuo; (b) [faz] perguntas não solicitadas ou não provocadas que não são respostas diretas à entrada do usuário e que sugerem ou concernem tópicos emocionais; e (c) [sustenta] um diálogo contínuo sobre questões que são pessoais para o usuário.
As empresas que provavelmente serão pegas de surpresa não são os fornecedores de IA — são as empresas que integraram ferramentas de IA em fluxos de trabalho voltados para clientes ou funcionários sem rastrear como essas ferramentas evoluíram.
Exposição à Litigação
O direito de ação privada estabelece uma barreira baixa para a legitimidade e um teto alto para os danos:
Uma pessoa que sofre uma perda identificável de dinheiro ou propriedade ou outro dano real como resultado de uma violação … pode entrar com uma ação … [por] danos de $1.000 por violação.
O estatuto não define “violação”. Se cada sessão de conversa contar, a exposição é substancial. Se cada mensagem dentro de uma sessão contar, a reclamação de um único usuário pode atingir dezenas de milhares de dólares e uma ação coletiva pode chegar a dezenas de milhões.
A lei de Oregon segue o mesmo modelo estrutural — e, ao contrário da BIPA, pode alcançar empresas que não perceberam que o chatbot de seu fornecedor se qualificava como um “companheiro de IA”.
O que as empresas devem fazer agora?
Audite seu conjunto de fornecedores. As empresas podem desejar mapear cada ferramenta de IA de terceiros em suporte ao cliente, engajamento de pacientes, RH e planejamento financeiro contra a definição em três partes — particularmente ferramentas que adicionaram recursos de personalização ou engajamento emocional através de atualizações recentes.
Revise contratos com fornecedores. Os acordos com fornecedores anteriores ao SB 1546 quase certamente não abordam as obrigações de interrupção de conversa obrigatória ou de referência de crise. As empresas podem querer confirmar a alocação de responsabilidade e a cobertura de indenização para falhas de detecção.
Verifique seu seguro. Pode ser útil revisar as políticas de E&O tecnológico e cibernético para confirmar que as reivindicações de danos estatutários relacionadas a chatbots e lacunas de indenização de fornecedores estão cobertas.
Oregon é um indicador líder, não um outlier. Com 78 projetos de lei sobre chatbots em 27 estados em 2026, legislações similares seguirão. O direito de ação privada é a mudança estrutural: quando qualquer usuário pode processar por danos estatutários, a economia da conformidade se transforma de “monitorar e responder” para “prevenir ou pagar”.