Fora da Biblioteca Sombria: Uso Justo e Dados de Treinamento de IA
Desde o lançamento dos primeiros Modelos de Linguagem de Grande Escala (LLMs), uma onda de litígios de direitos autorais foi iniciada por autores, músicos e organizações de notícias que alegam que suas obras foram indevidamente utilizadas para construir as ferramentas de IA generativa mais poderosas de hoje. Em resposta, as empresas de IA afirmaram que tal uso é uso justo e não infrator. Essas ações judiciais envolvem um espectro de alegações de infração de direitos autorais. Algumas se concentram apenas no uso não autorizado de obras como entradas de treinamento, enquanto outras focam na capacidade do modelo de gerar resultados supostamente infratores.
Revisão do Uso Justo
Para provar a infração, um autor deve demonstrar que o réu usou uma obra protegida em violação de um dos direitos exclusivos concedidos a um proprietário de direitos autorais. No entanto, nem todo uso não autorizado resulta em responsabilidade. A proteção de direitos autorais incorpora certas limitações, incluindo o uso justo, que visa equilibrar os incentivos criativos com o interesse público. Historicamente, o uso justo acomodou inovações tecnológicas que exigem a reprodução de obras protegidas.
Os tribunais analisam o uso justo avaliando e equilibrando quatro fatores estatutários: (1) o propósito e o caráter do uso, (2) a natureza da obra original, (3) a quantidade e a substancialidade da parte usada e (4) os efeitos no mercado. Nenhum fator é determinante, mas os tribunais frequentemente se concentram em dois fatores: o propósito e o caráter do uso e seu efeito no mercado potencial.
Casos Judiciais Relevantes
Nos casos de infração de direitos autorais, foram analisados dois processos importantes: Bartz v. Anthropic e Kadrey v. Meta. Ambos os casos questionaram se o uso não autorizado de obras protegidas como “entradas” para treinar modelos de IA constituía uso justo. As decisões sugerem uma abertura para considerar mesmo o uso não autorizado de obras protegidas para treinar modelos de IA generativa como uso justo, mas cada caso apresenta importantes ressalvas.
Bartz v. Anthropic
No caso de Bartz v. Anthropic, o tribunal decidiu que o uso de obras protegidas para treinar um modelo de IA era uso justo, desde que as obras fossem obtidas de forma legal. O tribunal separou sua análise de uso justo entre o ato de treinamento e a retenção de dados por parte da Anthropic. A análise indicou que o treinamento do modelo era transformativo e não produzia substitutos infratores.
Kadrey v. Meta
Em Kadrey v. Meta, o tribunal também considerou a reprodução não autorizada de obras protegidas como uso justo. A decisão reconheceu o uso de bibliotecas sombrias, mas concluiu que, embora o uso de materiais piratas fosse relevante, o ato de baixar as obras foi considerado um passo integral para o objetivo transformativo final.
Implicações e Riscos
Essas decisões sugerem uma tendência em direção à aceitação do uso de obras protegidas como entradas de treinamento para modelos de IA generativa como uso justo. No entanto, essas proteções não são absolutas e a responsabilidade por aquisição de dados continua. O uso de bibliotecas sombrias e a maneira como os dados são adquiridos e utilizados permanecem questões abertas.
Conclusão
As recentes decisões sobre uso justo e alegações de infração fornecem um mapa preliminar sobre como a IA generativa se cruza com a legislação de direitos autorais. À medida que essa tecnologia e o cenário legal continuam a evoluir, várias avenidas para a responsabilidade permanecem, dependendo de como os dados de treinamento são obtidos, retidos e usados na geração de resultados.