Nova Lei sobre Transparência em IA: Revelando Dados de Treinamento

Nova Proposta de Lei sobre Transparência em IA Visa Revelar os Dados de Treinamento da IA

Em 22 de janeiro de 2026, representantes da Câmara introduziram um projeto de lei bipartidário que pode transformar significativamente a relação entre a legislação de direitos autorais e a inteligência artificial. Conhecido como o Ato de Transparência e Responsabilidade para Redes de Inteligência Artificial (TRAIN), a proposta busca oferecer aos proprietários de direitos autorais um caminho mais claro para entender se e como suas obras estão sendo usadas para treinar modelos de IA generativa.

Processo de Subpoena Administrativa

No cerne do projeto de lei está um novo processo de subpoena administrativa adicionado à Lei de Direitos Autorais. Segundo o Ato TRAIN, um proprietário de direitos autorais que tiver uma crença de boa-fé de que sua obra foi usada para treinar um modelo de IA generativa pode solicitar uma subpoena, emitida pelo cartório de um tribunal distrital dos EUA, obrigando um desenvolvedor de IA a divulgar cópias de materiais de treinamento ou registros suficientes para identificá-los com certeza. A lei se aplica não apenas a modelos originais, mas também a versões substancialmente modificadas, incluindo aquelas retrainadas ou ajustadas após o lançamento inicial.

Importante: os detentores de direitos podem buscar informações apenas sobre suas próprias obras protegidas por direitos autorais, não sobre os conjuntos de dados de treinamento mais amplos utilizados por um desenvolvedor. Para iniciar o processo, o solicitante deve apresentar uma declaração juramentada afirmando que a subpoena é solicitada exclusivamente para determinar se seu material protegido por direitos autorais foi utilizado e que quaisquer registros divulgados serão usados apenas para proteger seus direitos.

Obrigações para Desenvolvedores

Para os desenvolvedores, as obrigações são claras: cumprir rapidamente ou enfrentar consequências. A falta de cumprimento a uma subpoena válida criaria uma presunção refutável de que o desenvolvedor copiou a obra protegida por direitos autorais, uma mudança notável que poderia afetar futuros litígios por infração. Ao mesmo tempo, o projeto de lei inclui salvaguardas contra abusos, permitindo que os tribunais imponham sanções a detentores de direitos que solicitam subpoenas de má-fé sob os padrões existentes.

Implicações e Críticas

Apoiadores do Ato TRAIN o enquadram como uma medida de transparência, argumentando que os proprietários de direitos autorais atualmente carecem de ferramentas práticas para determinar se suas obras foram ingeridas por pipelines de treinamento de IA opacos. No entanto, críticos podem levantar preocupações sobre a carga administrativa, confidencialidade, incluindo a exposição de potenciais segredos comerciais sobre como um modelo é treinado, e o efeito inibitório no desenvolvimento de IA.

À medida que os debates sobre IA, direitos de dados e propriedade criativa se intensificam, o Ato TRAIN representa um dos esforços legislativos mais concretos até agora para abordar a “caixa preta” do treinamento de IA, e provavelmente atrairá a atenção de criadores, empresas de tecnologia e tribunais.

Legislação Estadual

Até agora, apenas um punhado de estados promulgou leis exigindo alguma forma de divulgação sobre dados de treinamento de IA, fazendo isso com escopos e mecanismos diferentes. Por exemplo, uma lei da Califórnia exige que desenvolvedores de sistemas de IA generativa oferecidos ao público publiquem um resumo dos dados de treinamento em um site público. Connecticut exige que controladores divulguem em seus avisos de privacidade se coletam, usam ou vendem dados pessoais para treinar grandes modelos de linguagem. O Ato de IA do Colorado exige que desenvolvedores de sistemas de IA de alto risco forneçam documentação sobre os sistemas, incluindo informações gerais sobre as categorias de dados usados para treinamento.

Ao contrário dessas leis estaduais, que dependem de divulgações generalizadas, o Ato TRAIN criaria um mecanismo direcionado, impulsionado por detentores de direitos, para obter informações específicas sobre se obras protegidas por direitos autorais foram usadas no treinamento de IA.

Conclusão

Se aprovado, o Ato TRAIN pode reduzir a necessidade de uma abordagem fragmentada, estado por estado, e fornecer um caminho mais amplo e eficaz para que os proprietários de conteúdo determinem se seus materiais estão sendo usados para treinar sistemas de IA.

More Insights

A Importância da IA Responsável: Riscos e Soluções

As empresas estão cientes da necessidade de uma IA responsável, mas muitas a tratam como um pensamento secundário ou um fluxo de trabalho separado. Isso pode levar a riscos legais, financeiros e de...

Modelo de Governança de IA que Combate o Shadow IT

As ferramentas de inteligência artificial (IA) estão se espalhando rapidamente pelos locais de trabalho, mudando a forma como as tarefas diárias são realizadas. A adoção da IA está ocorrendo de forma...

Acelerando Inovação com IA Ética

As empresas estão correndo para inovar com inteligência artificial, mas muitas vezes sem as diretrizes adequadas. A conformidade pode se tornar um acelerador da inovação, permitindo que as empresas se...

Riscos Ocultos da IA na Contratação

A inteligência artificial está transformando a forma como os empregadores recrutam e avaliam talentos, mas também introduz riscos legais significativos sob as leis federais de anti-discriminação. A...