Texas Implementa a Lei de Governança Responsável de IA

Texas Adota a Lei de Governança de IA Responsável

Em 22 de junho de 2025, o Governador Abbott assinou a HB 149, a “Lei de Governança de Inteligência Artificial Responsável do Texas” (ou TRAIGA), tornando o Texas o terceiro estado dos EUA, após Colorado e Utah, a adotar uma legislação abrangente sobre inteligência artificial (IA). Embora a lei possua semelhanças com outras regulamentações estaduais e globais sobre IA, ela também apresenta diferenças-chave que visam equilibrar um ambiente mais amigável à inovação, como um padrão mais elevado de “intenção” para demonstrar viés algorítmico, vários abrigos legais e a preempção da regulamentação local sobre IA.

Uma vez que a Lei entre em vigor em 1º de janeiro de 2026, o Texas:

  • Estabelecerá deveres básicos para “desenvolvedores” e “implementadores” de IA;
  • Proibirá IA destinada à classificação social ou discriminação;
  • Criará um ambiente regulatório de IA sem precedentes;
  • Conferirá autoridade exclusiva de aplicação à Procuradoria Geral (AG);
  • Preempção ampla de ordenanças locais que regem a IA.

A data de efetivação da Lei concede aproximadamente 18 meses para que as empresas estabeleçam programas de conformidade. Organizações que operam nacional ou globalmente são encorajadas a harmonizar esses esforços com as exigências que se aproximam rapidamente da Lei de IA da UE e da Lei de IA do Colorado. As empresas também são incentivadas a monitorar as negociações federais que poderiam vincular o financiamento federal à conformidade dos estados com uma moratória de dez anos sobre regulamentações de IA, o que poderia reverter a situação atual.

Escopo amplo, definições familiares

A Lei se aplica a qualquer pessoa que “promova, anuncie ou conduza negócios” no Texas, ofereça produtos ou serviços a residentes do Texas, ou “desenvolva ou implemente” um sistema de IA no estado. Espelhando a formulação da Lei de IA da UE, a Lei define um “sistema de inteligência artificial” como “qualquer sistema baseado em máquina que, para qualquer objetivo explícito ou implícito, infere a partir das entradas que o sistema recebe como gerar saídas … que podem influenciar ambientes físicos ou virtuais.” É importante ressaltar que a definição é agnóstica em relação à tecnologia e ao setor, garantindo a cobertura de modelos generativos, motores de recomendação, sistemas biométricos e mais.

Similar à Lei de IA da UE e à Lei de IA do Colorado, a Lei do Texas atribui responsabilidades por função:

  • Desenvolvedor: Qualquer pessoa que cria um sistema de IA oferecido, vendido, alugado ou de outra forma disponibilizado no Texas.
  • Implementador: Qualquer pessoa que coloca um sistema de IA em serviço ou uso no estado.

Deveres básicos e proibições

  1. Transparência para os consumidores: Entidades governamentais devem divulgar a indivíduos que estão interagindo com um sistema de IA antes ou no ponto de interação. O aviso deve ser claro, conspícuo e em linguagem simples; hyperlinks são expressamente permitidos.
  2. Manipulação do comportamento humano: Desenvolvedores e implementadores não podem usar IA intencionalmente para incitar autolesões, violência ou atividades criminosas.
  3. Proibição de “classificação social”: Ecoando o Artigo 5 da Lei de IA da UE, o Texas proíbe entidades governamentais de usar ou implementar sistemas de IA que categorizam indivíduos para atribuir uma “pontuação social” que poderia levar a um tratamento prejudicial não relacionado ou desproporcional ao contexto ou gravidade dos comportamentos observados, ou que violem direitos constitucionais dos EUA ou do Texas.
  4. Guardrails de dados biométricos: Sem o consentimento de um indivíduo, uma entidade governamental não pode usar IA para identificar exclusivamente uma pessoa via dados biométricos obtidos de fontes publicamente disponíveis se isso violar quaisquer direitos sob a Constituição dos EUA ou do Texas, ou a legislação estadual ou federal.
  5. Direitos constitucionais e discriminação ilegal: Sistemas de IA não podem ser desenvolvidos ou implementados “com a única intenção” de infringir, restringir ou de outra forma prejudicar os direitos de um indivíduo sob a Constituição dos EUA ou com a intenção de “discriminar ilegalmente contra uma classe protegida em violação da legislação estadual ou federal.” Um mero impacto desproporcional é insuficiente para estabelecer uma intenção de discriminar contra uma classe protegida.
  6. Conteúdo sexualmente explícito envolvendo menores: Sistemas de IA não podem ser desenvolvidos ou implementados “com a única intenção de produzir, auxiliar ou ajudar na produção ou distribuição” de material de abuso sexual infantil gerado por IA e conteúdo sexual “deepfake” retratando menores.

Notavelmente, a Lei estabelece um alto limiar de responsabilidade com respeito a duas das proibições-chave acima. Especificamente, para violar as proibições da Lei sobre o uso de IA para infringir os direitos de um indivíduo sob a Constituição ou para discriminar ilegalmente contra uma classe protegida sob a legislação estadual ou federal, um desenvolvedor ou implementador deve ter agido com intenção. Exigir intenção para estabelecer responsabilidade por violações envolvendo proteções constitucionais ou antidiscriminatórias torna a Lei do Texas única entre outras leis estaduais específicas de IA.

Sandbox regulatório de IA

A Lei cria um sandbox de 36 meses administrado pelo Departamento de Recursos de Informação (DIR) em consulta com o novo Conselho de Inteligência Artificial do Texas. Participantes aprovados podem testar aplicações inovadoras de IA sem obter licenças ou permissões estaduais normalmente exigidas, sujeito a:

  • Uma aplicação descrevendo o sistema, benefícios, riscos e medidas de mitigação;
  • Relatórios trimestrais de métricas de desempenho e feedback dos consumidores;
  • Poder do DIR de encerrar a participação se os riscos se tornarem excessivos, se a IA violar qualquer lei ou regulamento federal, ou se a IA violar qualquer lei ou regulamento estadual que não seja dispensado no âmbito do programa.

Crucialmente, o AG do Texas não pode “registrar ou prosseguir com acusações contra um participante do programa por violação de uma lei ou regulamento dispensado sob este capítulo que ocorra durante o período de teste.”

Aplicação e preempção

  • Autoridade exclusiva: O AG do Texas possui autoridade exclusiva para aplicar esta Lei. O AG deve criar e manter um mecanismo online para a submissão de reclamações para revisão.
  • Notificação e cura: Se o AG determinar que uma pessoa violou a Lei, deve fornecer aviso para cura e não pode processar até que 60 dias tenham se passado sem cura.
  • Penalidades civis: As penalidades incluem multas de até $200.000 por violação não curável, além de até $40.000 por dia por violações contínuas, com níveis inferiores para infrações curáveis ou declarações que se provem imprecisas.
  • Preempção estadual: A Lei anula expressamente quaisquer ordenanças municipais ou estaduais que regulamentam a IA, visando prevenir um mosaico local.
  • Sem direito de ação privada: A Lei não cria um direito de ação privada – novamente alinhando-se com Colorado e divergindo de algumas estatutas de privacidade estaduais.

Abreviações legais

Notavelmente, a Lei estabelece múltiplos abrigos legais para organizações contra as quais o AG buscou uma penalidade civil ou uma injunção. Por exemplo, um réu não pode ser considerado responsável se “descobrir uma violação … por meio de testes, incluindo testes adversariais ou testes de equipe vermelha” ou se “cumprir substancialmente a versão mais recente do ‘Framework de Gestão de Risco de Inteligência Artificial: Perfil de Inteligência Artificial Generativa’ publicado pelo Instituto Nacional de Padrões e Tecnologia ou outro framework de gestão de risco reconhecido nacional ou internacional para sistemas de IA, um processo de revisão interna” (ênfase adicionada).

Como o Texas se compara?

A tabela abaixo compara a Lei do Texas com a Lei de IA do Colorado e a Lei de IA da UE:

Aspecto Texas Colorado Lei de IA da UE
Data de efetividade 1º de janeiro de 2026 1º de fevereiro de 2026 2 de fevereiro de 2025 para primeiras obrigações; implementação é escalonada
Framework de risco Deveres/proibições vinculados a práticas específicas; sem classificação formal Framework projetado para IA de “alto risco” Proibido, Alto, Limitado e Mínimo
Atuantes cobertos Desenvolvedores e implementadores Desenvolvedores e implementadores Fornecedores, implementadores, importadores e distribuidores
Transparência Aviso de interação com IA obrigatório para entidades governamentais Aviso ao consumidor para decisões consequenciais de alto risco Divulgação obrigatória para a maioria das interações de IA
Padrão de discriminação Intenção de discriminar necessária Discriminação algorítmica (focada no impacto) Avaliação de impacto sobre direitos fundamentais para sistemas de IA de alto risco
Sandbox Sim – 36 meses, amplo Não Estados membros devem estabelecer pelo menos um sandbox regulatório de IA a nível nacional até 2 de agosto de 2026
Penalidades Aplicação pelo AG; até USD200.000 Aplicação pelo AG; penalidades a serem determinadas por regulamento Penalidades em níveis de violação; até EUR35 milhões ou 7% do faturamento global anual

A moratória federal iminente

Em 22 de maio de 2025, o projeto de lei de reconciliação orçamentária da Câmara dos EUA avançou com uma moratória de dez anos que impediria estados e localidades de aplicar leis específicas de IA.

Um rascunho emergente do Senado do projeto de lei, divulgado em 5 de junho de 2025 pelo Comitê do Senado de Comércio, Ciência e Transporte, condicionaria a recepção de futuros dólares do Broadband, Equity, Access, and Deployment (BEAD) à concordância de um estado em não regular modelos de IA ou sistemas de decisão automatizada. Se o Congresso adotar a abordagem de vinculação de financiamento, o Texas enfrentará uma bifurcação política imediata: (i) suspender a aplicação da Lei ou (ii) prosseguir com a Lei e perder fundos federais para banda larga e infraestrutura.

Embora a versão do Senado seja mais restrita do que a preempção abrangente da Câmara, ela ainda funcionaria para congelar funcionalmente os mecanismos de aplicação da Lei.

Em 20 de junho de 2025, a disposição passou por um grande obstáculo quando o Comitê do Senado de Orçamento determinou que a disposição não violava a Regra Byrd do Senado.

Próximos passos

Embora a incerteza permaneça sobre o impacto das leis estaduais no contexto de uma potencial moratória federal, as empresas podem tomar medidas para se preparar para a aplicação e aprimorar sua estratégia de governança de IA, incluindo:

  1. Realizar um inventário e estratificar casos de uso de IA por nível de risco;
  2. Documentar a cessação de práticas “proibidas” sob a Lei (e leis semelhantes em outras jurisdições);
  3. Estabelecer protocolos de teste e documentação modelo, incluindo para testes adversariais e equipes vermelhas;
  4. Alinhar a governança de IA em toda a empresa com o Framework de Gestão de Risco de IA do Instituto Nacional de Padrões e Tecnologia e outros padrões de gestão de risco da indústria, como a ISO 42001.

More Insights

Inteligência Artificial e Governança: Desafios e Oportunidades

Gillian K. Hadfield foi nomeada Professora Distinta Bloomberg de Alinhamento e Governança de IA na Universidade Johns Hopkins. Ela é reconhecida internacionalmente por sua pesquisa pioneira em...

Governança Ética e Inclusiva da IA na Indonésia

O Ministério da Comunicação e Digital da Indonésia reafirmou seu compromisso em incorporar princípios éticos e inclusão em suas políticas de inteligência artificial (IA). O vice-ministro Nezar Patria...

Texas Implementa a Lei de Governança Responsável de IA

Em 22 de junho de 2025, o governador Abbott assinou a Lei de Governança de Inteligência Artificial Responsável do Texas (TRAIGA), tornando o Texas o terceiro estado dos EUA a adotar uma legislação...

O que as corridas ensinam sobre IA autônoma e governança

Um agente de IA é semelhante a um piloto de carro de corrida, pois possui autonomia e é capacitado para tomar decisões com base em seus objetivos e ambiente. A governança da IA é essencial para...

Esforços de Governança da IA: Foco nos Direitos Humanos

Avanços rápidos em IA estão forçando líderes globais a confrontar questões desconfortáveis sobre poder, responsabilidade e proteção das liberdades fundamentais em um mundo cada vez mais automatizado...

A Ética da IA: Comparando Fornecedores de LLM em Segurança e Conformidade

O artigo discute a importância da inteligência artificial responsável, abordando questões de ética, segurança e conformidade na comparação de provedores de modelos de linguagem. Destaca a necessidade...