A Meta, dona do Facebook e Instagram, está no centro de mais uma batalha judicial que pode ter implicações significativas para o futuro da inteligência artificial e dos direitos autorais. Um juiz federal dos Estados Unidos decidiu que a empresa deve responder a alegações de que removeu informações de gerenciamento de direitos autorais (CMI, na sigla em inglês) de obras usadas para treinar seus modelos de IA, incluindo o famoso Llama. O caso, que envolve autores renomados como Richard Kadrey, Sarah Silverman e Christopher Golden, levanta questões importantes sobre ética, propriedade intelectual e o uso de dados protegidos por direitos autorais no treinamento de sistemas de IA.
O que está em jogo?
O caso, conhecido como Kadrey et al vs Meta Platforms, foi inicialmente movido em julho de 2023 por um grupo de autores que alegam que a Meta usou suas obras protegidas por direitos autorais para treinar seus modelos de IA sem permissão. A alegação mais recente, apresentada em janeiro de 2025, é ainda mais grave: os autores afirmam que a Meta não apenas usou seus trabalhos, mas também removeu deliberadamente as informações de direitos autorais desses materiais para evitar que os usuários soubessem que os resultados gerados pela IA eram baseados em conteúdo protegido.
As informações de direitos autorais incluem detalhes como o nome do autor, a licença de uso, a data de criação e outros metadados que acompanham obras protegidas. Segundo os autores, a Meta teria removido esses dados para evitar que seus modelos de IA, como o Llama, gerassem resultados que revelassem a origem do material usado no treinamento.
A decisão do juiz
O juiz Vince Chhabria, da corte federal de São Francisco, permitiu que a alegação de violação da Lei de Direitos Autorais do Milênio Digital (DMCA) prosseguisse. Em sua decisão, o juiz afirmou que as alegações dos autores levantam uma “inferência razoável, se não particularmente forte”, de que a Meta removeu as informações de direitos autorais para evitar que o Llama revelasse que foi treinado com material protegido.
No entanto, nem tudo foi ruim para a Meta. O juiz rejeitou uma das alegações dos autores, relacionada à suposta violação da Lei de Acesso e Fraude de Dados de Computador da Califórnia (CDAFA), que tratava do uso de livros obtidos por meio de torrents. Ainda assim, a decisão de permitir que a alegação da DMCA avance é um revés significativo para a empresa, aumentando a probabilidade de que o caso termine em um acordo ou em um julgamento.
Esse caso é emblemático de um debate mais amplo sobre o uso de dados protegidos por direitos autorais no treinamento de modelos de IA. Até agora, a prática de usar material protegido para treinar sistemas de IA tem sido defendida com base no conceito de uso justo (fair use), que permite o uso limitado de obras protegidas sem a necessidade de permissão do titular dos direitos.
No entanto, decisões recentes, como a do caso Thomson Reuters vs Ross Intelligence, sugerem que os tribunais estão começando a questionar essa interpretação. No caso da Thomson Reuters, o juiz decidiu que a empresa de IA não poderia se esquivar da responsabilidade alegando uso justo, o que pode fortalecer os autores em casos semelhantes.
O caso contra a Meta também pode ter implicações para outras empresas de IA, como a OpenAI, que enfrenta uma ação semelhante. Recentemente, os autores do caso Tremblay et al vs OpenAI apresentaram novas evidências para reviver sua alegação de que a OpenAI também removeu informações de direitos autorais ao treinar seus modelos de linguagem.
A Meta já admitiu publicamente que usou o conjunto de dados Books3 para treinar seu modelo Llama 1. Esse conjunto de dados inclui obras protegidas por direitos autorais, o que coloca a empresa em uma posição delicada. No entanto, a empresa ainda não se pronunciou publicamente sobre as alegações de remoção de informações de direitos autorais.