Regulamentação de IA nos Estados Unidos: Estrutura Federal e Leis Estaduais
A estrutura legal que rege a inteligência artificial (IA) nos Estados Unidos não se baseia em uma única lei federal comparável a um “código de IA”. Em vez disso, é organizada em torno da orientação federal através de Ordens Executivas e um conjunto de leis estaduais (e às vezes locais) que criam obrigações diretamente aplicáveis.
Resultado: um cenário fragmentado, onde a conformidade depende fortemente do estado, do caso de uso (recrutamento, serviços essenciais, conteúdo gerado, etc.) e do papel do operador (desenvolvedor, implementador, provedor).
I. O Quadro Americano: Dois Níveis, Sem “Lei de IA dos EUA”
A regulamentação da IA nos Estados Unidos está embutida na arquitetura institucional do país, baseada na distribuição de poderes entre o nível federal e os estados.
Dentro desse contexto, o quadro americano é caracterizado por:
- Uma estrutura de governança de dois níveis que combina estratégia federal e legislação adotada pelos estados (e, às vezes, autoridades locais).
- A ausência de uma única lei federal abrangente comparável à Lei de IA Europeia.
- A orientação federal é em grande parte estruturada por Ordens Executivas, que definem prioridades nacionais e orientam as ações das agências federais.
- Leis estaduais que podem impor obrigações legalmente vinculativas às empresas, aplicadas por Procuradores Gerais ou autoridades locais.
- Áreas prioritárias: combate à discriminação, transparência, proteção ao consumidor e regulamentação do conteúdo gerado.
- Dentro desse quadro, a abordagem americana geralmente enfatiza a manutenção da liderança tecnológica e da inovação.
Ordens Executivas: O Motor Federal
Uma Ordem Executiva é um ato normativo emitido pelo Presidente dos Estados Unidos no exercício de seus poderes constitucionais e/ou legais. É legalmente vinculativa para agências e administrações federais, orienta suas prioridades e pode influenciar o setor privado através de compras públicas, orientações regulatórias ou padrões federais. No entanto, não equivale a uma lei adotada pelo Congresso e não cria, em princípio, um código de conformidade diretamente aplicável a todas as empresas.
Na ausência de uma lei federal abrangente sobre IA, os estados federados desenvolvem e adotam suas próprias regras aplicáveis aos sistemas de IA. Isso resulta em um cenário regulatório fragmentado, onde as obrigações variam dependendo da jurisdição e do caso de uso.
Entre os exemplos mais estruturantes:
- Colorado: Abordagem baseada em riscos visando discriminação algorítmica (entrada em vigor: 2026)
- Califórnia: Obrigações de transparência para IA generativa e regulamentação de deepfakes (entrada em vigor: 2026)
- Texas: Proibições de certos usos, obrigações direcionadas e sanções civis (entrada em vigor: 2026)
- Cidade de Nova Iorque: Regulamentação de ferramentas de decisão automatizadas em recrutamento (em vigor desde 2023)
- Utah: Proteção ao consumidor e menores em interações com sistemas de IA (em vigor desde 2024)
II. Nível Federal: Estratégia Executiva e “Plano de Ação para IA”
1. Governança federal estruturada pelo executivo
No nível federal, a política de IA é implementada principalmente através de:
- Ordens Executivas
- Quadros estratégicos (planos de ação, prioridades nacionais)
- Execução por agências (implementação, compras públicas, infraestrutura, posicionamento internacional)
“Ganhando a Corrida: Plano de Ação para IA da América”
A seguir à Ordem Executiva “Removendo Barreiras à Liderança Americana em Inteligência Artificial”, a Casa Branca publicou o plano estratégico “Ganhando a Corrida: Plano de Ação para IA da América”.
Este documento não cria uma única lei federal, mas serve como um guia para a ação da administração (prioridades, financiamento, compras públicas, infraestrutura, diplomacia).
O plano é estruturado em torno de três pilares:
- Acelerar a inovação em IA
- Construir infraestrutura de IA americana
- Liderar a diplomacia e segurança internacional em IA
2. Principais Ordens Executivas vinculadas à estratégia federal de IA
Aqui estão os textos estruturantes e seu papel principal dentro da estratégia:
- Manter a Liderança dos EUA em Inteligência Artificial (2019): inicia a Iniciativa Americana de IA e define prioridades federais (pesquisa, talento, estrutura regulatória).
- Removendo Barreiras à Liderança Americana em Inteligência Artificial (EO 14179, jan. 2025): ancla uma orientação federal “pro-inovação”, pedindo a remoção de obstáculos percebidos à competitividade em IA.
- Conselho de Assessores do Presidente em Ciência e Tecnologia (EO 14177, jan. 2025): fortalece a estrutura de assessoria científica e tecnológica em nível presidencial.
- Avançando na Educação em Inteligência Artificial para a Juventude Americana (abr. 2025): visa desenvolver a educação e habilidades em IA dentro do sistema educacional.
- Acelerando a Permissão Federal para Infraestrutura de Data Center (EO 14318, jul. 2025): acelera certos processos de permissão federal para infraestrutura de data center relacionada à IA.
- Promovendo a Exportação do Conjunto de Tecnologia de IA Americana (EO 14320, jul. 2025): estrutura um esforço federal coordenado para apoiar as exportações da tecnologia de IA americana.
- Prevenindo IA “Woke” no Governo Federal (EO 14319, jul. 2025): estabelece requisitos/expectativas para sistemas de IA usados pelo governo federal e potencialmente influencia a aquisição pública.
- Assegurando um Quadro de Política Nacional para Inteligência Artificial (EO 14365, dez. 2025): afirma um quadro nacional “minimamente oneroso” e visa reduzir a fragmentação, abordando obstáculos criados por certas abordagens estaduais.
3. Assegurando um Quadro de Política Nacional para Inteligência Artificial: Rumo a uma Coordenação Federal Mais Forte
A mais recente Ordem Executiva “Assegurando um Quadro de Política Nacional para Inteligência Artificial” marca um passo importante na evolução da governança federal de IA nos Estados Unidos.
O texto afirma a intenção de fortalecer a coerência do quadro regulatório nacional e limitar a fragmentação resultante da multiplicação de iniciativas legislativas estaduais.
Para isso, a Ordem Executiva prevê:
- A criação de um grupo de trabalho dentro do Departamento de Justiça
- A análise das leis e iniciativas estaduais relacionadas à IA
- A identificação de potenciais conflitos com prioridades federais em inovação e competitividade tecnológica
A lei de IA do Colorado é especificamente mencionada no texto como um exemplo de regulamentação que pode levantar tais preocupações. Um relatório do DOJ é esperado nos próximos meses e pode esclarecer as direções futuras da política federal.
4. O TRUMP AMERICA AI Act: Uma Tentativa de Harmonização Federal
Nesse contexto, um projeto de lei federal intitulado TRUMP AMERICA AI Act foi introduzido para estabelecer um conjunto mínimo de requisitos federais aplicáveis aos sistemas de IA.
O texto prevê notavelmente:
- A criação de um dever de cuidado para desenvolvedores de sistemas de IA na concepção e operação de suas plataformas
- Protocolos de gestão de riscos para modelos avançados de IA
- Obrigações de transparência e relatórios para modelos de alto impacto
- A criação de um Instituto Federal de Segurança de IA dentro do Instituto Nacional de Padrões e Tecnologia
- Mecanismos para enquadrar a responsabilidade de desenvolvedores e operadores de sistemas de IA
O projeto também aborda questões como o uso de dados para treinamento de modelos, a segurança de sistemas avançados, o impacto da IA no emprego e a proteção de menores em ambientes digitais.
Neste estágio, os desenvolvimentos legislativos relacionados a este texto permanecem relativamente limitados em termos de visibilidade pública, e seu cronograma de adoção continua incerto.
III. Estados Pioneiros que Adotaram Regulamentações Vinculativas de IA
Na ausência de uma única lei federal, várias jurisdições adotaram textos que são aplicáveis (ou estão prestes a se tornar aplicáveis), com obrigações concretas (auditoria, transparência, dever de cuidado, proibições, sanções).
Ao mesmo tempo, o ecossistema regulatório americano também é marcado pela presença de numerosas “microleis”, textos legislativos muito curtos e direcionados a atores ou usos específicos de IA.
Essas iniciativas dizem respeito principalmente à governança de IA no setor público, contextos eleitorais, transparência de conteúdo gerado por IA, proteção de menores ou regulamentação de deepfakes.
1. Texas – TRAIGA (Texas Responsible Artificial Intelligence Governance Act)
Objetivo: Estabelecer uma estrutura de governança de IA no Texas, notavelmente através da proibição de certas práticas de alto risco e do estabelecimento de um regime de controle e sanções.
Escopo de aplicação: O texto se aplica a organizações cujos sistemas de IA são desenvolvidos, implantados ou operados em conexão com o Texas.
Principais obrigações e proibições:
- Proibições direcionadas:
- Outros mecanismos:
- Sanções e aplicação: Autoridade: Procurador Geral do Texas.
- Prazo de conformidade: lógica de notificação e correção.
- Sanções civis: faixas previstas para violações não corrigidas e diárias para violações contínuas.
Manipulação comportamental que incentive autolesões, violência ou atividade criminosa
Certain formas de discriminação ilegal
Avaliação social por entidades governamentais
Restrições a certos usos biométricos pelo governo sem consentimento
Proibição de objetivos que visem infringir direitos constitucionais
Proibição de sistemas projetados para produzir ou distribuir conteúdo ilegal
Sandbox regulatório: mecanismos de testes supervisionados (mantendo proibições substantivas)
Refúgio seguro: conformidade substancial com estruturas reconhecidas pode apoiar uma defesa em certos contextos de aplicação.
2. Colorado – SB 24-205 (Proteções ao Consumidor em Interações com Sistemas de IA)
Objetivo: Prevenir discriminação algorítmica em sistemas de IA de alto risco usados para decisões “consequenciais”.
Escopo: Aplicável a desenvolvedores e empregadores que utilizam tais sistemas no estado.
O texto estabelece uma distinção clara entre:
- Desenvolvedor (entidade que projeta ou fornece o sistema)
- Implantador (entidade que o utiliza em um contexto operacional)
Obrigações principais:
- Dever geral de cuidado: desenvolvedores e implantadores devem exercer cuidado razoável.
- Desenvolvedores: documentação e informações que permitam a gestão de riscos.
- Implantadores: políticas de gestão de riscos, avaliações de impacto, monitoramento e informações aos indivíduos.
- Transparência nas interações: obrigação de informar quando um consumidor interage com um sistema de IA.
- Sanções e aplicação: a autoridade de aplicação recai exclusivamente sobre o Procurador Geral do Colorado.
- Violação é classificada como prática comercial desleal sob a Lei de Proteção ao Consumidor do Colorado.
3. Califórnia – Transparência em IA Generativa (AB-2013 e SB-942)
A Califórnia adotou dois textos principais focados em transparência em IA generativa, ambos com entrada em vigor em 2026.
A) AB-2013 – Transparência de Dados de Treinamento.
Objetivo: Aumentar a transparência sobre os dados de treinamento de sistemas de IA generativa.
Obrigações principais:
- Publicação de um resumo dos conjuntos de dados utilizados para treinamento.
B) SB-942 – Lei de Transparência em IA da Califórnia.
Objetivo: Aumentar a transparência em relação à mídia gerada por IA e reduzir a proliferação de deepfakes.
Obrigações principais:
- Disponibilização de uma ferramenta de detecção gratuita.
- Sanções e aplicação: penalidades civis de $5,000 por violação.
4. Cidade de Nova Iorque – Lei Local 144 (Ferramentas de Decisão Automatizadas em Emprego)
Objetivo: Reduzir o risco de discriminação em decisões de contratação através de auditoria independente e transparência.
Obrigações principais:
- Auditoria independente de viés antes do uso e notificação ao candidato sobre o uso de AEDT.
Sanções e aplicação: autoridade do Departamento de Proteção ao Consumidor e Trabalhador de NYC.
IV. Conclusão: Um Quadro “Federal e Fragmentado” Requerendo uma Abordagem Estruturada de Conformidade
A regulamentação de IA nos EUA se baseia em um equilíbrio:
De um lado, uma estratégia federal impulsionada pelo executivo, definindo prioridades nacionais para inovação e competitividade.
Do outro, legislação estadual e local criando obrigações legais concretas.
Para as organizações, o desafio é não apenas “conhecer a regra”, mas mapear usos de IA, identificar jurisdições relevantes e implementar governança verificável.