A indústria da música está construindo a tecnologia para caçar músicas da IA

A indústria da música está construindo a tecnologia para caçar músicas da IA

Tecnologia

O pesadelo da indústria da música se tornou realidade em 2023 e parecia muito com Drake.

“Coração na minha manga”, um dueto convincentemente falso entre Drake e The Weeknd, acumulou milhões de riachos antes que alguém pudesse explicar quem fez isso ou de onde veio. A pista não se tornou viral – quebrou a ilusão de que alguém estava no controle.

Na disputa para responder, uma nova categoria de infraestrutura está tomando forma silenciosamente construída para não impedir a música generativa, mas para torná -la rastreável. Os sistemas de detecção estão sendo incorporados em todo o pipeline de música: nas ferramentas usadas para treinar modelos, as plataformas onde as músicas são carregadas, os bancos de dados que licenciam direitos e os algoritmos que moldam a descoberta. O objetivo não é apenas capturar conteúdo sintético após o fato. É para identificá -lo cedo, marcar -o com metadados e governar como ele se move pelo sistema.

“Se você não construir essas coisas na infraestrutura, estará perseguindo seu rabo”, diz Matt Adell, co -fundador da AI musical. “Você não pode continuar reagindo a todas as novas faixas ou modelo – que não escalam. Você precisa de infraestrutura que funcione desde o treinamento até a distribuição”.

O objetivo não é removido, mas licenciamento e controle

Agora, as startups estão surgindo para construir a detecção em fluxos de trabalho de licenciamento. Plataformas como o YouTube e o Deezer desenvolveram sistemas internos para sinalizar áudio sintético, pois é carregado e moldará como ele aparece em pesquisa e recomendações. Outras empresas musicais – incluindo magia audível, PEX, Rightsify e SoundCloud – estão expandindo os recursos de detecção, moderação e atribuição em tudo, desde conjuntos de dados de treinamento e distribuição.

O resultado é um ecossistema fragmentado, mas rápido, de empresas que tratam a detecção de conteúdo gerado pela IA não como uma ferramenta de execução, mas como infraestrutura de patches de mesa para rastrear a mídia sintética.

Em vez de detectar a música de IA depois de se espalhar, algumas empresas estão construindo ferramentas para identificá -la a partir do momento em que é feita. Vermillio e IA musical estão desenvolvendo sistemas para digitalizar faixas finalizadas quanto a elementos sintéticos e os marcam automaticamente nos metadados.

A estrutura Traceid de Vermillio é mais profunda divulgando músicas em hastes-como tom vocal, fraseling melódico e padrões líricos-e sinalizando os segmentos específicos gerados pela IA, permitindo que os detentores de direitos detectassem imitar no nível do STEM, mesmo que uma nova faixa possa usar apenas partes originais.

A empresa diz que seu foco não é removido, mas licenciamento proativo e liberação autenticada. O TraceID está posicionado como um substituto para sistemas como o ID de conteúdo do YouTube, que geralmente sentem falta de imitações sutis ou parciais. A Vermillio estima que o licenciamento autenticado alimentado por ferramentas como o Traceid pode crescer de US $ 75 milhões em 2023 para US $ 10 bilhões em 2025. Na prática, isso significa que um detentor de direitos ou plataforma pode executar uma pista final através da Traceid para ver se ele contém elementos protegidos – e, se for, o sistema é sinalizado para a liberação antes da liberação.

“Estamos tentando quantificar a influência criativa, não apenas capturar cópias”.

Algumas empresas estão indo ainda mais a montante para os próprios dados de treinamento. Ao analisar o que entra em um modelo, seu objetivo é estimar o quanto uma faixa gerada empresta de artistas ou músicas específicas. Esse tipo de atribuição pode permitir licenciamento mais preciso, com royalties baseados em influência criativa, em vez de disputas pós-lançamento. A idéia ecoa os antigos debates sobre influência musical – como o processo de “linhas borradas” – mas as aplica à geração algorítmica. A diferença agora é que o licenciamento pode acontecer antes do lançamento, não por meio de litígios após o fato.

A IA musical também está trabalhando em um sistema de detecção. A empresa descreve seu sistema como em camadas de ingestão, geração e distribuição. Em vez de filtrar saídas, ele rastreia a proveniência de ponta a ponta.

“A atribuição não deve começar quando a música é concluída – ela deve começar quando o modelo começar a aprender”, diz Sean Power, co -fundador da empresa. “Estamos tentando quantificar a influência criativa, não apenas capturar cópias”.

A Deezer desenvolveu ferramentas internas para sinalizar faixas totalmente geradas pela IA no upload e reduzir sua visibilidade nas recomendações algorítmicas e editoriais, especialmente quando o conteúdo aparece em spam. O diretor de inovação Aurélien Hérault diz que, em abril, essas ferramentas estavam detectando aproximadamente 20 % dos novos uploads todos os dias como totalmente gerados pela IA-mais que o dobro do que viram em janeiro. As faixas identificadas pelo sistema permanecem acessíveis na plataforma, mas não são promovidas. Hérault diz que Deezer planeja começar a rotular essas faixas para os usuários diretamente “em algumas semanas ou alguns meses”.

“Não somos contra a IA”, diz Hérault. “Mas muito desse conteúdo está sendo usado de má fé – não para a criação, mas para explorar a plataforma. É por isso que estamos prestando tanta atenção”.

A desova do DNTP da IA ​​(não treina protocolo) está pressionando a detecção ainda mais cedo – no nível do conjunto de dados. O protocolo de exclusão permite que artistas e detentores de direitos rotulem seu trabalho como fora dos limites para o treinamento de modelos. Enquanto os artistas visuais já têm acesso a ferramentas semelhantes, o mundo do áudio ainda está se recuperando. Até agora, há pouco consenso sobre como padronizar o consentimento, transparência ou licenciamento em escala. A regulamentação pode eventualmente forçar a questão, mas, por enquanto, a abordagem permanece fragmentada. O apoio das principais empresas de treinamento de IA também tem sido inconsistente, e os críticos dizem que o protocolo não ganhará tração, a menos que seja governado de forma independente e amplamente adotada.

“O protocolo de opção precisa ser sem fins lucrativos, supervisionado por alguns atores diferentes, para ser confiável”, diz Dryhurst. “Ninguém deve confiar no futuro do consentimento para uma empresa centralizada opaca que poderia sair do negócio – ou muito pior.”

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *