Uma breve introdução à Ordem Executiva do Presidente: “Garantindo uma Estrutura de Política Nacional para a Inteligência Artificial”
Em 11 de dezembro de 2025, foi assinada uma Ordem Executiva com o objetivo de limitar os poderes dos governos estaduais para regular a inteligência artificial.
Redução da regulamentação não significa redução de riscos
Com uma segunda Ordem Executiva, o Presidente dos Estados Unidos reforçou a abordagem de deregulação da IA, priorizando velocidade e inovação em detrimento de proteções. A Ordem Executiva “Garantindo uma Estrutura de Política Nacional para a Inteligência Artificial” visa limitar e prevenir a regulamentação em nível estadual da IA. Esta ordem estabelece as bases para que o governo federal desafie leis estaduais sobre IA, busque novas regulamentações e leis preventivas, e influencie ações estaduais ao reter fundos federais de estados que adotem leis de IA inconsistentes com a política da ordem.
O propósito declarado desta ordem é criar uma estrutura de política nacional. Ela alega que:
- Um “emaranhado de 50 estados com diferentes regimes regulatórios” cria desafios de conformidade e sufoca a inovação.
- As disposições de anti-discriminação em algumas leis estaduais podem “incutir viés ideológico nos modelos”.
- As leis estaduais de IA violam a Cláusula de Comércio ao “regularem indevidamente além das fronteiras estaduais”.
Ações Direcionadas pela Ordem Executiva
A Ordem Executiva direciona as seguintes ações por parte das agências do Poder Executivo:
- O Procurador Geral deve criar um Grupo de Trabalho de Litígios de IA dentro de 30 dias, com a missão de contestar leis estaduais que sejam inconsistentes com a política da ordem.
- O Secretário de Comércio deve publicar uma avaliação das leis estaduais de IA existentes que conflitam com a ordem dentro de 90 dias.
- O Secretário de Comércio também deve emitir um AVISO DE POLÍTICA dentro de 90 dias, tornando estados com “leis de IA onerosas” inelegíveis para subsídios federais restantes. A ordem vincula a política de IA à elegibilidade do programa de banda larga sob um importante programa de financiamento federal.
- Outras agências executivas devem revisar seus programas de subsídios discricionários para determinar se podem condicionar seus subsídios a uma lei estadual que conflite com a política da ordem.
- A Comissão Federal de Comunicações (FCC) deve iniciar um procedimento dentro de 90 dias para determinar se adotará um padrão federal de relatório e divulgação para modelos de IA que prevaleça sobre as leis estaduais.
- A Comissão Federal de Comércio (FTC) deve criar uma declaração de política dentro de 90 dias para esclarecer quando as leis estaduais são preemptadas porque “exigem alterações nos resultados verazes dos Modelos de IA”.
- Assessores presidenciais devem preparar recomendações legislativas para estabelecer uma estrutura de política federal uniforme para a IA.
- A ordem cita a lei de “discriminação algorítmica” do Colorado como um exemplo específico de uma lei estadual que contraria a política da ordem.
Implicações e Riscos
As Ordens Executivas emitidas pelo Presidente dos EUA não preemptam as leis estaduais existentes que regulam a IA. Todas as leis estaduais e locais permanecem aplicáveis. Os estados provavelmente contestarão as ações das agências executivas relevantes com argumentos que levantam a 10ª Emenda, coerção da Cláusula de Gastos, e desafios aos poderes administrativos da FCC ou FTC.
Além disso, legisladores federais e governadores estaduais não concordam sobre essa preempção federal abrangente das leis que regulam a IA. Por exemplo, em dezembro de 2025, legisladores do Congresso rejeitaram uma disposição da Lei de Autorização de Defesa Nacional que teria impedido os estados de aplicar suas próprias leis de IA.
Navegando na Incerteza
As organizações não devem confundir deregulação com redução de riscos. O risco ou dano relacionado à IA não surgirá como uma “reclamação de IA” ou “questão de IA”. Em vez disso, aparecerá por meio de caminhos legais familiares, como responsabilidade pelo produto, infrações de propriedade intelectual, responsabilidade profissional, questões de proteção ao consumidor ou reclamações de privacidade, por exemplo.
Existem estruturas legais já estabelecidas que podem ser utilizadas para impor sanções ou ações de execução:
- Estruturas Legais | Exemplo de Potencial Responsabilidade Relacionada à IA
- Responsabilidade pelo Produto (Lei Estadual) | Falha da IA de veículos autônomos em detectar pedestres devido a falhas no design do sensor ou modelo, causando um acidente.
- Leis de UDAP | Ferramentas de precificação ou vendas impulsionadas por IA que visam injustamente consumidores vulneráveis com preços mais altos ou táticas manipulativas.
- Lei FTC, Seção 5 – Práticas Enganosas | Fornecedor de IA faz representações falsas sobre como os dados do consumidor são coletados, usados ou compartilhados para treinar modelos de IA.
- Leis Antitruste – Conduta Excludente | Plataforma dominante usa algoritmos de classificação ou recomendação de IA para favorecer seus próprios produtos e suprimir rivais.
- Leis Antitruste – Discriminação Algorítmica | Sistemas de IA desvantajam sistematicamente certos negócios ou entrantes no mercado, distorcendo a concorrência.
- Leis de Privacidade e Proteção de Dados (Estaduais e Federais) | Sistema de IA coleta ou processa dados pessoais sem o devido aviso, consentimento ou propósito legal.
- Leis de Privacidade Biométrica | IA usa reconhecimento facial ou dados de voz sem o consentimento exigido, levando a responsabilidade estatutária.
- Leis de Segurança de Dados e Violação | Dados de treinamento de IA mal protegidos expõem informações pessoais por meio de vazamentos de dados ou saídas de modelos.
- Infrações de Propriedade Intelectual | Modelo de IA é treinado em obras com direitos autorais sem autorização e produz conteúdo substancialmente semelhante.
- Usurpação de Segredo Comercial | IA é treinada em dados empresariais confidenciais obtidos indevidamente de um ex-empregado ou parceiro.
Embora estes sejam meramente exemplos ilustrativos, a incerteza contínua em torno da regulamentação da IA não elimina o risco legal; autoridades regulatórias existentes e demandantes privados ainda podem buscar ações de execução ou litígios, e a ausência de regras específicas para IA não isenta as empresas de responsabilidade.