Homem americano utilizou IA para gerar em massa dezenas de milhares de músicas falsas e criar visualizações, fraudando cerca de 8 milhões de dólares em royalties, com vulnerabilidades na partilha de receitas de streaming que despertaram atenção regulatória.
O Departamento de Justiça dos EUA anunciou recentemente que um homem da Carolina do Norte, Michael Smith, admitiu envolvimento num esquema de uso de inteligência artificial e sistemas automatizados para roubar royalties musicais, envolvendo aproximadamente 8 milhões de dólares. O caso está a ser julgado pelo Tribunal Federal do Distrito Sul de Nova Iorque, e Smith confessou conspiração para fraude telemática, concordando em devolver os lucros ilícitos, podendo ser condenado a até 5 anos de prisão.
A acusação aponta que Smith utilizou tecnologia de IA para gerar uma grande quantidade de obras musicais falsas, combinando com contas automatizadas para reproduzi-las repetidamente em várias plataformas de streaming, assim obtendo receitas de royalties. Os procuradores americanos afirmam que o esquema durou vários anos, e, através de operações sistemáticas, conseguiu transformar visualizações falsas em fluxo de dinheiro real, formando um modelo de fraude altamente escalável. O caso está atualmente em fase de sentença, com previsão de julgamento a 29 de julho, tornando-se um marco na utilização abusiva de IA na indústria de conteúdo nos últimos anos.
De acordo com investigações, Smith expandiu a sua operação gerando dezenas de milhares de músicas com IA, e as colocou em plataformas como Spotify, Apple Music, Amazon Music e YouTube Music. Essas obras são geradas automaticamente por algoritmos, incluindo melodias, letras e arranjos, quase sem intervenção humana.
Ao mesmo tempo, ele criou várias contas falsas, usando software automatizado para gerar cerca de 660 mil reproduções diárias, dispersando o tráfego por um vasto catálogo de músicas, reduzindo assim o risco de detecção pelas plataformas. Os procuradores indicam que essa estratégia evitou a concentração de reproduções em uma única música, conseguindo contornar alguns mecanismos de monitoramento de comportamentos anormais.
Durante o pico da operação, o esquema gerava cerca de 1,2 milhão de dólares em royalties por ano, e, ao longo do tempo, o valor total fraudado atingiu aproximadamente 8 milhões de dólares. Os investigadores destacam que, embora as músicas e os ouvintes sejam fictícios, os lucros ilícitos são reais.
Este caso também evidencia possíveis vulnerabilidades no atual sistema de partilha de receitas das plataformas de música. A maioria delas distribui royalties com base no número de reproduções, tornando as visualizações uma fonte de receita crucial, o que indiretamente incentiva a manipulação de tráfego.
Com a rápida popularização de ferramentas de geração de música por IA, como Suno, Udio e Lyria do Google, que permitem aos utilizadores comuns criar músicas completas com comandos simples, a barreira à criação de conteúdo diminuiu significativamente. Este avanço tecnológico, por um lado, promove a produção de conteúdo, mas, por outro, facilita a cópia e ampliação de fraudes semelhantes.
Os procuradores afirmam que Smith tentou inicialmente desenvolver-se na indústria musical e colaborou com o setor, mas acabou por optar por manipular o sistema para obter lucros. Isto reflete o aumento do risco de abuso de tecnologia num sistema de partilha de receitas altamente orientado por dados.
Com a revelação do caso, as questões de direitos de autor e regulação relacionadas com a música gerada por IA voltaram a estar na ordem do dia. A indústria já discute como definir os direitos sobre conteúdos criados por IA e como as plataformas devem identificar e lidar com tráfego não genuíno.
Fonte: YouTube No YouTube também há uma grande quantidade de músicas produzidas por IA
Atualmente, a maioria das plataformas de streaming ainda não possui mecanismos completos de identificação e regulação de músicas geradas por IA, o que permite que operações de caráter duvidoso continuem a ocorrer. Algumas empresas já começaram a reforçar os sistemas anti-fraude, mas, face à evolução das ferramentas de IA e automação, as medidas de proteção continuam a ser ajustadas.
Este caso serve como um alerta, demonstrando que, quando IA e a indústria de conteúdo se combinam, a falta de regulação adequada e de mecanismos de controlo pode não só distorcer a distribuição de receitas, mas também prejudicar os verdadeiros criadores.
Este conteúdo foi compilado pelo agente de criptografia, que reuniu informações de várias fontes, revisado e editado pelo “Crypto City”. Ainda está em fase de treino, podendo conter erros de lógica ou informações imprecisas. O conteúdo é apenas para fins informativos, não constituindo aconselhamento de investimento.