Texas avança na regulamentação da IA com nova lei

O Caminho Independente do Texas na Regulamentação de IA

O Texas Responsible Artificial Intelligence Governance Act (TRAIGA), aprovado pela legislatura do Texas, está aguardando a assinatura do governador Greg Abbott e visa regular o desenvolvimento e uso de IA nos setores público e privado. Caso assinado, a lei entrará em vigor em 1º de janeiro de 2026.

TRAIGA representa a tentativa mais abrangente do Texas até o momento para estabelecer supervisão sobre as tecnologias de IA, refletindo os debates nacionais sobre o papel do machine learning na vida cotidiana. A passagem do projeto ocorre em meio a uma onda de esforços liderados por estados como Colorado, Utah e Califórnia, que buscam impor limites em certos usos da IA, enquanto legisladores federais consideram ações preventivas que poderiam eliminar essa autoridade estadual.

Desafios à Autoridade Federal

A aprovação do projeto pela legislatura republicana do Texas desafia a administração Trump e o Congresso controlado pelos republicanos, que se posicionaram como os únicos árbitros em tudo relacionado à IA. Isso sugere uma diferença significativa entre a ideologia federal e a estadual neste assunto.

Inicialmente proposto como um framework abrangente baseado em riscos, o TRAIGA, após meses de negociações políticas e lobby da indústria, teve seu escopo reduzido. A versão final do projeto não apresenta mais um modelo de riscos ou obrigações em camadas, mas se concentra na proibição de certos usos de IA claramente prejudiciais, reforçando as proteções dos direitos civis já existentes sob a lei federal e estadual.

Obrigações Introduzidas pelo TRAIGA

Ainda que limitado em comparação com rascunhos anteriores, o TRAIGA introduz obrigações notáveis para desenvolvedores, usuários e governos que utilizam tecnologias de IA no Texas. O projeto proíbe explicitamente o desenvolvimento ou a implementação de sistemas de IA que discriminem intencionalmente indivíduos com base em características protegidas pela lei.

Além disso, o projeto visa um amplo espectro de males da IA, incluindo a manipulação comportamental. Sob o TRAIGA, seria ilegal usar sistemas de IA para prejudicar os direitos constitucionais de um indivíduo, incentivar o auto-prejuízo, promover a violência ou facilitar comportamentos criminosos.

Uso de Dados Biométricos

Uma das adições mais significativas do TRAIGA é a atualização da Biometric Identifier Act do Texas. O projeto estipula que dados biométricos, como impressões digitais e reconhecimento facial, não podem ser coletados de mídias online disponíveis publicamente, a menos que essas mídias tenham sido tornadas públicas pelo próprio sujeito.

Embora essa disposição introduza uma limitação significativa na coleta de dados biométricos, o termo “disponível publicamente” não é definido, o que pode abrir espaço para futuros desafios legais. Exceções são feitas para instituições financeiras que usam impressões de voz e sistemas de IA empregados em contextos de segurança.

Sandbox de IA e Fiscalização

Para acomodar a natureza dinâmica do desenvolvimento de IA, o TRAIGA inclui uma disposição de “AI Sandbox”, permitindo que empresas testem sistemas de IA em um ambiente regulatório seguro por até 36 meses.

A fiscalização do TRAIGA será de responsabilidade exclusiva do Procurador-Geral do Texas, que poderá tomar ações civis contra infratores, enquanto o público poderá apresentar queixas ao escritório do Procurador, que investigará e tomará as ações apropriadas.

Conclusão

Em sua forma final, o TRAIGA não é um framework abrangente de governança de IA, nem uma endosse do desenvolvimento não regulamentado. Em vez disso, representa uma tentativa cuidadosamente negociada de abordar riscos imediatos, enquanto deixa espaço para crescimento e desenvolvimento de políticas futuras.

More Insights

Governança da IA na Economia de Zero Confiança

Em 2025, a governança da IA deve alinhar-se com a mentalidade de "nunca confie, sempre verifique" da economia de zero confiança. Isso significa que a governança não deve ser vista como um obstáculo à...

A Segurança da IA como Catalisador para Inovação em Países em Desenvolvimento

Investimentos em segurança e proteção da IA não devem ser vistos como obstáculos, mas sim como facilitadores da inovação sustentável e do desenvolvimento a longo prazo, especialmente em países da...

Rumo à Governança da IA no ASEAN

Quando se trata de IA, a ASEAN adota uma abordagem de governança baseada em consenso. Este modelo voluntário e baseado em princípios pode ser uma solução temporária, mas corre o risco de fragmentação...

Implementação Ética da IA na Ucrânia

Em junho, 14 empresas de TI ucranianas criaram uma organização de autorregulamentação para apoiar abordagens éticas na implementação da inteligência artificial na Ucrânia. As empresas se comprometeram...

A Itália Aprova Lei Abrangente de IA Focada em Privacidade e Segurança

O Parlamento da Itália aprovou uma nova lei sobre inteligência artificial, tornando-se o primeiro país da União Europeia com regulamentações abrangentes. A legislação estabelece princípios centrais de...