Texas Adota a Lei de Governança de IA Responsável
Em 22 de junho de 2025, o Governador Abbott assinou a HB 149, a “Lei de Governança de Inteligência Artificial Responsável do Texas” (ou TRAIGA), tornando o Texas o terceiro estado dos EUA, após Colorado e Utah, a adotar uma legislação abrangente sobre inteligência artificial (IA). Embora a lei possua semelhanças com outras regulamentações estaduais e globais sobre IA, ela também apresenta diferenças-chave que visam equilibrar um ambiente mais amigável à inovação, como um padrão mais elevado de “intenção” para demonstrar viés algorítmico, vários abrigos legais e a preempção da regulamentação local sobre IA.
Uma vez que a Lei entre em vigor em 1º de janeiro de 2026, o Texas:
- Estabelecerá deveres básicos para “desenvolvedores” e “implementadores” de IA;
- Proibirá IA destinada à classificação social ou discriminação;
- Criará um ambiente regulatório de IA sem precedentes;
- Conferirá autoridade exclusiva de aplicação à Procuradoria Geral (AG);
- Preempção ampla de ordenanças locais que regem a IA.
A data de efetivação da Lei concede aproximadamente 18 meses para que as empresas estabeleçam programas de conformidade. Organizações que operam nacional ou globalmente são encorajadas a harmonizar esses esforços com as exigências que se aproximam rapidamente da Lei de IA da UE e da Lei de IA do Colorado. As empresas também são incentivadas a monitorar as negociações federais que poderiam vincular o financiamento federal à conformidade dos estados com uma moratória de dez anos sobre regulamentações de IA, o que poderia reverter a situação atual.
Escopo amplo, definições familiares
A Lei se aplica a qualquer pessoa que “promova, anuncie ou conduza negócios” no Texas, ofereça produtos ou serviços a residentes do Texas, ou “desenvolva ou implemente” um sistema de IA no estado. Espelhando a formulação da Lei de IA da UE, a Lei define um “sistema de inteligência artificial” como “qualquer sistema baseado em máquina que, para qualquer objetivo explícito ou implícito, infere a partir das entradas que o sistema recebe como gerar saídas … que podem influenciar ambientes físicos ou virtuais.” É importante ressaltar que a definição é agnóstica em relação à tecnologia e ao setor, garantindo a cobertura de modelos generativos, motores de recomendação, sistemas biométricos e mais.
Similar à Lei de IA da UE e à Lei de IA do Colorado, a Lei do Texas atribui responsabilidades por função:
- Desenvolvedor: Qualquer pessoa que cria um sistema de IA oferecido, vendido, alugado ou de outra forma disponibilizado no Texas.
- Implementador: Qualquer pessoa que coloca um sistema de IA em serviço ou uso no estado.
Deveres básicos e proibições
- Transparência para os consumidores: Entidades governamentais devem divulgar a indivíduos que estão interagindo com um sistema de IA antes ou no ponto de interação. O aviso deve ser claro, conspícuo e em linguagem simples; hyperlinks são expressamente permitidos.
- Manipulação do comportamento humano: Desenvolvedores e implementadores não podem usar IA intencionalmente para incitar autolesões, violência ou atividades criminosas.
- Proibição de “classificação social”: Ecoando o Artigo 5 da Lei de IA da UE, o Texas proíbe entidades governamentais de usar ou implementar sistemas de IA que categorizam indivíduos para atribuir uma “pontuação social” que poderia levar a um tratamento prejudicial não relacionado ou desproporcional ao contexto ou gravidade dos comportamentos observados, ou que violem direitos constitucionais dos EUA ou do Texas.
- Guardrails de dados biométricos: Sem o consentimento de um indivíduo, uma entidade governamental não pode usar IA para identificar exclusivamente uma pessoa via dados biométricos obtidos de fontes publicamente disponíveis se isso violar quaisquer direitos sob a Constituição dos EUA ou do Texas, ou a legislação estadual ou federal.
- Direitos constitucionais e discriminação ilegal: Sistemas de IA não podem ser desenvolvidos ou implementados “com a única intenção” de infringir, restringir ou de outra forma prejudicar os direitos de um indivíduo sob a Constituição dos EUA ou com a intenção de “discriminar ilegalmente contra uma classe protegida em violação da legislação estadual ou federal.” Um mero impacto desproporcional é insuficiente para estabelecer uma intenção de discriminar contra uma classe protegida.
- Conteúdo sexualmente explícito envolvendo menores: Sistemas de IA não podem ser desenvolvidos ou implementados “com a única intenção de produzir, auxiliar ou ajudar na produção ou distribuição” de material de abuso sexual infantil gerado por IA e conteúdo sexual “deepfake” retratando menores.
Notavelmente, a Lei estabelece um alto limiar de responsabilidade com respeito a duas das proibições-chave acima. Especificamente, para violar as proibições da Lei sobre o uso de IA para infringir os direitos de um indivíduo sob a Constituição ou para discriminar ilegalmente contra uma classe protegida sob a legislação estadual ou federal, um desenvolvedor ou implementador deve ter agido com intenção. Exigir intenção para estabelecer responsabilidade por violações envolvendo proteções constitucionais ou antidiscriminatórias torna a Lei do Texas única entre outras leis estaduais específicas de IA.
Sandbox regulatório de IA
A Lei cria um sandbox de 36 meses administrado pelo Departamento de Recursos de Informação (DIR) em consulta com o novo Conselho de Inteligência Artificial do Texas. Participantes aprovados podem testar aplicações inovadoras de IA sem obter licenças ou permissões estaduais normalmente exigidas, sujeito a:
- Uma aplicação descrevendo o sistema, benefícios, riscos e medidas de mitigação;
- Relatórios trimestrais de métricas de desempenho e feedback dos consumidores;
- Poder do DIR de encerrar a participação se os riscos se tornarem excessivos, se a IA violar qualquer lei ou regulamento federal, ou se a IA violar qualquer lei ou regulamento estadual que não seja dispensado no âmbito do programa.
Crucialmente, o AG do Texas não pode “registrar ou prosseguir com acusações contra um participante do programa por violação de uma lei ou regulamento dispensado sob este capítulo que ocorra durante o período de teste.”
Aplicação e preempção
- Autoridade exclusiva: O AG do Texas possui autoridade exclusiva para aplicar esta Lei. O AG deve criar e manter um mecanismo online para a submissão de reclamações para revisão.
- Notificação e cura: Se o AG determinar que uma pessoa violou a Lei, deve fornecer aviso para cura e não pode processar até que 60 dias tenham se passado sem cura.
- Penalidades civis: As penalidades incluem multas de até $200.000 por violação não curável, além de até $40.000 por dia por violações contínuas, com níveis inferiores para infrações curáveis ou declarações que se provem imprecisas.
- Preempção estadual: A Lei anula expressamente quaisquer ordenanças municipais ou estaduais que regulamentam a IA, visando prevenir um mosaico local.
- Sem direito de ação privada: A Lei não cria um direito de ação privada – novamente alinhando-se com Colorado e divergindo de algumas estatutas de privacidade estaduais.
Abreviações legais
Notavelmente, a Lei estabelece múltiplos abrigos legais para organizações contra as quais o AG buscou uma penalidade civil ou uma injunção. Por exemplo, um réu não pode ser considerado responsável se “descobrir uma violação … por meio de testes, incluindo testes adversariais ou testes de equipe vermelha” ou se “cumprir substancialmente a versão mais recente do ‘Framework de Gestão de Risco de Inteligência Artificial: Perfil de Inteligência Artificial Generativa’ publicado pelo Instituto Nacional de Padrões e Tecnologia ou outro framework de gestão de risco reconhecido nacional ou internacional para sistemas de IA, um processo de revisão interna” (ênfase adicionada).
Como o Texas se compara?
A tabela abaixo compara a Lei do Texas com a Lei de IA do Colorado e a Lei de IA da UE:
Aspecto | Texas | Colorado | Lei de IA da UE |
---|---|---|---|
Data de efetividade | 1º de janeiro de 2026 | 1º de fevereiro de 2026 | 2 de fevereiro de 2025 para primeiras obrigações; implementação é escalonada |
Framework de risco | Deveres/proibições vinculados a práticas específicas; sem classificação formal | Framework projetado para IA de “alto risco” | Proibido, Alto, Limitado e Mínimo |
Atuantes cobertos | Desenvolvedores e implementadores | Desenvolvedores e implementadores | Fornecedores, implementadores, importadores e distribuidores |
Transparência | Aviso de interação com IA obrigatório para entidades governamentais | Aviso ao consumidor para decisões consequenciais de alto risco | Divulgação obrigatória para a maioria das interações de IA |
Padrão de discriminação | Intenção de discriminar necessária | Discriminação algorítmica (focada no impacto) | Avaliação de impacto sobre direitos fundamentais para sistemas de IA de alto risco |
Sandbox | Sim – 36 meses, amplo | Não | Estados membros devem estabelecer pelo menos um sandbox regulatório de IA a nível nacional até 2 de agosto de 2026 |
Penalidades | Aplicação pelo AG; até USD200.000 | Aplicação pelo AG; penalidades a serem determinadas por regulamento | Penalidades em níveis de violação; até EUR35 milhões ou 7% do faturamento global anual |
A moratória federal iminente
Em 22 de maio de 2025, o projeto de lei de reconciliação orçamentária da Câmara dos EUA avançou com uma moratória de dez anos que impediria estados e localidades de aplicar leis específicas de IA.
Um rascunho emergente do Senado do projeto de lei, divulgado em 5 de junho de 2025 pelo Comitê do Senado de Comércio, Ciência e Transporte, condicionaria a recepção de futuros dólares do Broadband, Equity, Access, and Deployment (BEAD) à concordância de um estado em não regular modelos de IA ou sistemas de decisão automatizada. Se o Congresso adotar a abordagem de vinculação de financiamento, o Texas enfrentará uma bifurcação política imediata: (i) suspender a aplicação da Lei ou (ii) prosseguir com a Lei e perder fundos federais para banda larga e infraestrutura.
Embora a versão do Senado seja mais restrita do que a preempção abrangente da Câmara, ela ainda funcionaria para congelar funcionalmente os mecanismos de aplicação da Lei.
Em 20 de junho de 2025, a disposição passou por um grande obstáculo quando o Comitê do Senado de Orçamento determinou que a disposição não violava a Regra Byrd do Senado.
Próximos passos
Embora a incerteza permaneça sobre o impacto das leis estaduais no contexto de uma potencial moratória federal, as empresas podem tomar medidas para se preparar para a aplicação e aprimorar sua estratégia de governança de IA, incluindo:
- Realizar um inventário e estratificar casos de uso de IA por nível de risco;
- Documentar a cessação de práticas “proibidas” sob a Lei (e leis semelhantes em outras jurisdições);
- Estabelecer protocolos de teste e documentação modelo, incluindo para testes adversariais e equipes vermelhas;
- Alinhar a governança de IA em toda a empresa com o Framework de Gestão de Risco de IA do Instituto Nacional de Padrões e Tecnologia e outros padrões de gestão de risco da indústria, como a ISO 42001.