O mundo da música está cada vez mais IArtificializado. Golpistas têm utilizado essa tecnologia para criar músicas falsas e inflar números de transmissões de forma fraudulenta, manipulando plataformas de streaming e gerando lucros ilícitos. Evidentemente, essa prática está afetando o cenário musical e prejudicando artistas reais.
Um caso recente e notório é o de Michael Smith, um cidadão de 52 anos da Carolina do Norte, que foi preso sob a acusação de liderar um esquema massivo de fraude envolvendo inteligência artificial. De acordo com o Departamento de Justiça dos EUA, Smith, junto com dois cúmplices — um promotor musical e o CEO de uma empresa de música com IA — teria utilizado tecnologia de automação para criar milhares de músicas e transmiti-las usando bots.
Durante sete anos, o esquema gerou mais de US$ 10 milhões em royalties obtidos de forma ilícita. Esses pagamentos eram resultado de execuções falsas que simulavam milhões de ouvintes, quando, na verdade, não havia nenhuma audiência real por trás dos números.
O método engenhoso
As músicas criadas por IA recebiam títulos bizarros, como “Zygotes” e “Calypso Xored”, e eram lançadas em grandes plataformas de streaming, como Spotify, Apple Music, Amazon Music e YouTube Music.
Essas faixas eram distribuídas em playlists populares, o que ajudava a inflar ainda mais os números de execuções. Para o ouvinte casual, essas músicas passavam despercebidas em meio a listas como “vibes de verão”, fazendo com que o esquema parecesse legítimo. Porém, todos esses números eram sustentados por bots, e não por ouvintes reais, o que culminou em um sistema fraudulento altamente lucrativo.
A situação expõe vulnerabilidades nas plataformas de streaming
Essas plataformas, por sua vez, têm se tornado as principais fontes de receita para muitos artistas e gravadoras, especialmente à medida que as vendas de álbuns físicos e downloads digitais continuam a diminuir.
O golpe de Smith, portanto, além de um ataque à integridade dessas plataformas, é também uma ameaça direta aos artistas que dependem delas para sua subsistência.
Um detalhe interessante desse esquema foi revelado por uma troca de e-mails entre Smith e seus cúmplices, onde ele afirmava: “Precisamos criar MUITAS músicas rapidamente para superar as políticas antifraude que estão usando agora”.
Isso ilustra como o golpe estava sempre um passo à frente das tentativas das plataformas de identificar e bloquear práticas fraudulentas. As músicas eram originalmente entregues com nomes de arquivo criptográficos, mas, ao serem lançadas no streaming, recebiam títulos mais adequados para escapar da detecção.
Esse fenômeno não está restrito a um único gênero musical
Fãs de música country, por exemplo, descobriram um esquema similar, onde bandas falsas criadas por IA estavam sendo adicionadas a playlists autênticas.
Nomes como “Highway Outlaws” e “Waterfront Wranglers” aparentavam ser legítimos e acumulavam milhares de execuções. No entanto, após uma investigação mais detalhada, percebeu-se que essas bandas seguiam o mesmo padrão de manipulação de transmissões: perfis sem qualquer presença em redes sociais, biografias vagas que pareciam escritas por robôs e músicas sem nenhum traço de originalidade.
Conforme revelado pela revista Slate e pelo blog Metal Sucks, o uso de IA para criar músicas falsas já está presente em gêneros como jazz, música eletrônica e metalcore. Nesses casos, as músicas geradas por IA imitam de maneira genérica o estilo de bandas reais, e os algoritmos de plataformas como Spotify acabam recomendando essas faixas para playlists, ao lado de canções legítimas.
O que torna esse cenário ainda mais complexo é a dificuldade em combater esse tipo de fraude. O Spotify, por exemplo, não possui uma política que proíba o uso de IA na criação de músicas, desde que o conteúdo não infrinja outras diretrizes, como a política contra imitação enganosa.
Isso abre espaço para a exploração de brechas pelos golpistas, enquanto plataformas e gravadoras buscam maneiras de se proteger contra essas práticas. Com a facilidade de criação de músicas por IA, há uma produção massiva de faixas que inundam os serviços de streaming, competindo diretamente com o trabalho de artistas reais.
A proliferação de músicas falsas afeta diretamente a visibilidade e o alcance de artistas reais, que têm seu espaço reduzido em playlists e rankings de popularidade, dominados por algoritmos que não conseguem diferenciar entre músicas autênticas e criações artificiais. Some ainda, o impacto financeiro, pois esses esquemas drenam milhões de dólares que poderiam estar indo para criadores legítimos.
É mais difícil detectar músicas criadas por IA
Identificar uma música feita por inteligência artificial é uma tarefa muito mais complexa para o grande público do que distinguir, por exemplo, um texto ou uma imagem gerada por IA. Essa dificuldade decorre, em grande parte, da natureza imersiva e subjetiva da música, que atua em um nível emocional frequentemente abstrato.
Para o grande público, enquanto textos e imagens têm elementos tangíveis — como estrutura gramatical, estilo ou imperfeições artísticas — que podem sugerir sua origem artificial, a música trabalha com padrões sonoros que, muitas vezes, escapam a uma análise crítica imediata. A formação do público em relação à música é, muitas vezes, superficial. As pessoas, de modo geral, possuem uma educação voltada para a leitura e escrita, bem como, para a interpretação de imagens, enquanto a alfabetização musical e a escuta crítica não recebem a mesma atenção.
Considere ainda que a tecnologia de IA já alcançou um nível de sofisticação tal que consegue replicar de maneira muito fiel características estilísticas de diversos gêneros musicais, criando faixas que soam perfeitamente integradas ao que estamos acostumados a ouvir.
A música tem uma fluidez que dificulta a percepção de pequenas inconsistências. Para muitos ouvintes, o que define uma boa música é a sua capacidade de gerar uma resposta emocional — algo que pode ser facilmente simulado por IA através de algoritmos que identificam padrões de melodias, harmonias e ritmos populares.
Outro fator é o contexto no qual a música é consumida. Ao contrário de um texto ou uma imagem, que geralmente recebem uma atenção mais focada, a música é muitas vezes ouvida em segundo plano, durante outras atividades. Isso reduz a percepção crítica e a possibilidade de identificar nuances que poderiam sugerir a artificialidade da criação.
Por fim, vale lembrar que os ouvintes, muitas vezes, confiam nas plataformas de streaming e nas playlists para filtrar o que é autêntico ou não, criando um cenário perfeito para a infiltração de músicas geradas por IA. Enquanto textos e imagens podem ser rapidamente analisados e comparados a referências de estilo ou autoria, a música opera em uma esfera mais intuitiva e menos palpável.
Identificar uma música criada por IA requer, de modo geral, uma escuta atenta e crítica que nem sempre é acessível ao ouvinte casual. Isso torna a manipulação de músicas por IA ainda mais eficaz e difícil de ser detectada, especialmente quando inserida em um mercado saturado e guiado por algoritmos de recomendação.