Na semana passada, as grandes empresas de IA – em teoria – aumentaram duas grandes vitórias legais. Mas as coisas não são tão diretas quanto parecem, e a lei de direitos autorais não tem sido tão emocionante desde o confronto do mês passado na Biblioteca do Congresso.
Primeiro, o juiz William Alsup decidiu que era um uso justo para antropia treinar em uma série de livros de autores. Então, o juiz Vince Chhabria negou provimento a outro grupo de queixa dos autores contra a meta para treinamento deles livros. No entanto, longe de resolver os enigmas legais em torno da IA moderna, essas decisões podem ter acabado de tornar as coisas ainda mais complicadas.
Ambos os casos são de fato vitórias qualificadas para meta e antropia. E pelo menos um juiz – Alsup – parece simpático a alguns dos principais argumentos da indústria de IA sobre direitos autorais. Mas essa mesma decisão criticou o uso da mídia pirata pela startup, deixando -a potencialmente no gancho por danos financeiros maciços. (Antrópica até admitiu que não adquiriu inicialmente uma cópia de todos os livros que usava.) Enquanto isso, a meta decisão afirmou que, como uma inundação de conteúdo de IA poderia copiar artistas humanos, todo o campo de treinamento do sistema de IA pode estar fundamentalmente em desacordo com uso justo. E nenhum dos casos abordou uma das maiores questões sobre a IA generativa: quando é o seu saída infringem direitos autorais e quem está no gancho, se o fizer?
Alsup e Chhabria (aliás no distrito norte da Califórnia) estavam decidindo sobre conjuntos de fatos relativamente semelhantes. Meta e antropia ambos enormes coleções piratas de livros protegidos por direitos autorais para criar um conjunto de dados de treinamento para seus grandes modelos de idiomas e Claude. Mais tarde, Anthropic fez uma volta e começou a comprar legalmente livros, rasgando as cobertas para “destruir” a cópia original e examinando o texto.
Os autores argumentaram que, além da pirataria inicial, o processo de treinamento constituía um uso ilegal e não autorizado de seu trabalho. Meta e antropia rebateram que essa construção de banco de dados e o treinamento de LLM constituíam uso justo.
Ambos os juízes concordaram basicamente que os LLMs atendem a um requisito central para uso justo: eles transformam o material de origem em algo novo. Alsup chamou o uso de livros para treinar Claude de “extremamente transformador”, e Chhabria concluiu “não há como disputa” o valor transformador da llama. Outra grande consideração para uso justo é o impacto do novo trabalho em um mercado para o antigo. Ambos os juízes também concordaram que, com base nos argumentos apresentados pelos autores, o impacto não foi grave o suficiente para inclinar a escala.
Adicione essas coisas juntas, e as conclusões foram óbvias … mas apenas No contexto desses casos, e no caso de Meta, porque os autores pressionaram uma estratégia legal que seu juiz achou totalmente inepto.
Coloque desta maneira: quando um juiz diz que sua decisão “não representa a proposição de que o uso de materiais protegidos por direitos autorais para treinar seus modelos de idiomas é lícito” e “mantém apenas a proposição que esses demandantes fizeram os argumentos errados e falharam em desenvolver um recorde em apoio à direita” – como a Chhabria fez – a IA Prospects das empresas de futuras lutas com ele se destacou.
Ambas as decisões foram tratadas especificamente com o treinamento – ou a mídia sendo alimentada nos modelos – e não alcançou a questão da saída LLM, ou os modelos de coisas produzem em resposta aos avisos do usuário. Mas a produção é, de fato, extremamente pertinente. Uma enorme luta legal entre The New York Times e o OpenAI começou em parte com a alegação de que o chatgpt poderia verbatim regurgitar grandes seções de Vezes histórias. A Disney processou recentemente o Midjourney pela premissa de que “gerará, exibirá publicamente e distribuirá vídeos com os personagens protegidos por direitos autorais da Disney e da Universal” com uma ferramenta de vídeo recém -lançada. Mesmo em casos pendentes que não estavam focados na produção, os demandantes podem adaptar suas estratégias se agora acharem uma aposta melhor.
Os autores do caso antrópico não alegaram que Claude estava produzindo uma saída diretamente violando. Os autores do meta caso argumentaram que Llama, mas não conseguiu convencer o juiz – que descobriu que isso não cuspiria mais do que cerca de 50 palavras de qualquer trabalho. Como Alsup observou, lidar puramente com entradas mudou os cálculos drasticamente. “Se as saídas vistas pelos usuários estivessem violando, os autores teriam um caso diferente”, escreveu o ALSUP. “E, se os resultados se tornarem infratores, os autores poderiam trazer esse caso. Mas esse não é esse caso.”
Na sua forma atual, os principais produtos generativos de IA são basicamente inúteis sem saída. E não temos uma boa imagem da lei em torno dela, especialmente porque o uso justo é uma defesa idiossincrática e caso a caso que pode se aplicar de maneira diferente a mídias como música, arte visual e texto. A antropia é capaz de digitalizar livros de autores nos fala muito pouco sobre se o Midjourney pode ajudar legalmente as pessoas a produzir memes de minions.
Lacaios e New York Times Os artigos são exemplos de cópia direta na saída. Mas a decisão de Chhabria é particularmente interessante porque torna a questão da saída muito, muito mais ampla. Embora ele possa ter decidido a favor da meta, toda a abertura de Chhabria argumenta que os sistemas de IA são tão prejudiciais para artistas e escritores que seus danos superam qualquer possível valor transformador – basicamente, porque são máquinas de spam.
A IA generativa tem o potencial de inundar o mercado com quantidades infinitas de imagens, músicas, artigos, livros e muito mais. As pessoas podem levar os modelos generativos de IA a produzir essas saídas usando uma pequena fração do tempo e da criatividade que, de outra forma, seriam necessários. Assim, treinando modelos generativos de IA com obras protegidas por direitos autorais, as empresas estão criando algo que frequentemente minará dramaticamente o mercado para esses trabalhos e, portanto, minará dramaticamente o incentivo para os seres humanos criarem coisas da maneira antiquada.
…
Como a Suprema Corte enfatizou, o inquérito de uso justo depende de fatos e existem poucas regras de linha brilhante. Certamente não há regra de que, quando o uso de um trabalho protegido é “transformador”, isso inocula automaticamente você de uma reivindicação de violação de direitos autorais. E aqui, copiar os trabalhos protegidos, por mais transformadores que seja, envolve a criação de um produto com a capacidade de prejudicar gravemente o mercado para as obras que estão sendo copiadas e, portanto, minam severamente o incentivo para os seres humanos criarem.
…
O resultado é que, em muitas circunstâncias, será ilegal copiar trabalhos protegidos por direitos autorais para treinar modelos generativos de IA sem permissão. O que significa que as empresas, para evitar a responsabilidade pela violação de direitos autorais, geralmente precisam pagar aos detentores de direitos autorais pelo direito de usar seus materiais.
E garoto, isso claro Seria interessante se alguém processaria e fizesse esse caso. Depois de dizer que “no grande esquema das coisas, as consequências dessa decisão são limitadas”, Chhabria observou que essa decisão afeta apenas 13 autores, não os “inúmeros outros” cujo trabalho meta usou. Infelizmente, uma opinião judicial escrita é incapaz de transmitir fisicamente uma piscadela e um aceno de cabeça.
Esses processos podem estar longe no futuro. E Alsup, embora ele não estivesse confrontado com o tipo de argumento que Chhabria sugeriu, parecia potencialmente antipático a isso. “A queixa dos autores não é diferente do que seria se eles se queixassem de que o treinamento de crianças em idade escolar para escrever bem resultaria em uma explosão de obras concorrentes”, escreveu ele sobre os autores que processaram o Antrópico. “Este não é o tipo de deslocamento competitivo ou criativo que diz respeito à Lei dos Direitos Autorais. A Lei procura promover obras de autoria originais, não proteger os autores contra a concorrência”. Ele também desprezou a alegação de que os autores estavam sendo privados de taxas de licenciamento para treinamento: “um mercado”, ele escreveu, “não é um que a Lei de Direitos Autorais autorize os autores a explorar”.
Mas mesmo a decisão aparentemente positiva de Alsup tem uma pílula venenosa para as empresas de IA. Treinamento em adquirido legalmente O material, ele decidiu, é um uso justo clássico protegido. Treinamento em pirateado O material é uma história diferente, e Alsup absolutamente exoria qualquer tentativa de dizer que não é.
“Esta ordem duvida que qualquer infrator acusado possa cumprir seu ônus de explicar por que o download de cópias de origem de sites piratas que poderia ter comprado ou acessado legalmente era razoavelmente necessário para qualquer uso justo subsequente”, escreveu ele. Havia muitas maneiras de digitalizar ou copiar livros adquiridos legalmente (incluindo o próprio sistema de varredura da Anthropic), mas “antropia não fez essas coisas – em vez disso, roubou os trabalhos para sua biblioteca central, baixando -os de bibliotecas piratas”. Eventualmente, a mudança para a digitalização de livros não apaga o pecado original e, de certa forma, ele realmente o compõe, porque demonstra que o Antrópico poderia ter feito as coisas legalmente desde o início.
Se novas empresas de IA adotarem essa perspectiva, elas terão que construir em custos de inicialização extras, mas não necessariamente arruinados. Há o preço inicial da compra do que antropia em um ponto descrito como “todos os livros do mundo”, além de qualquer mídia necessária para coisas como imagens ou vídeo. E no caso do antropic, estes foram físico Trabalhos, porque as cópias impressas da mídia evitam os tipos de DRM e acordos de licenciamento que os editores podem colocar nos digitais – então adicione algum custo extra para o trabalho de digitalizá -los.
Mas praticamente qualquer grande jogador de IA atualmente opera é conhecido ou suspeito de ter treinado em livros baixados ilegalmente e outras mídias. Antrópico e os autores irão ser julgados para matar as acusações diretas de pirataria e, dependendo do que acontecer, muitas empresas podem estar hipoteticamente em risco de danos financeiros quase inestimáveis - não apenas de autores, mas de qualquer pessoa que demonstre seu trabalho foi adquirida ilegalmente. Como o especialista jurídico Blake Reid coloca vividamente, “se há evidências de que um engenheiro estava torrentando um monte de coisas com a bênção C-suite, transforma a empresa em uma piñata de dinheiro”.
Além de tudo isso, os muitos detalhes inquietos podem facilitar a falta do mistério maior: como essa disputa legal afetará a indústria da IA e as artes.
Ecoando um argumento comum entre os proponentes da IA, o ex -executivo da Meta Nick Clegg disse recentemente que obter a permissão dos artistas para o treinamento de dados “basicamente mataria a indústria da IA”. Essa é uma reivindicação extrema, e dado que todas as empresas de licenciamento já estão impressionantes (inclusive com a Vox Media, a empresa controladora da A beira), parece cada vez mais duvidoso. Mesmo que sejam confrontados com penalidades de pirataria graças à decisão da Alsup, as maiores empresas de IA têm bilhões de dólares em investimento – elas podem resistir muito. Mas menores, particularmente jogadores de código aberto podem ser muito mais vulneráveis, e muitos deles são também quase certamente treinado em obras piratas.
Enquanto isso, se a teoria de Chhabria estiver certa, os artistas poderiam colher uma recompensa por fornecer dados de treinamento aos gigantes da IA. Mas é altamente improvável que as taxas encerrassem esses serviços. Isso ainda nos deixaria em uma paisagem cheia de spam, sem espaço para futuros artistas.
O dinheiro nos bolsos dos artistas desta geração pode compensar o brighting do próximo? A lei de direitos autorais é a ferramenta certa para proteger o futuro? E que papel os tribunais devem desempenhar em tudo isso? Essas duas decisões entregaram vitórias parciais à indústria da IA, mas deixam muito mais questões muito maiores sem resposta.