A Meta – dona do Instagram, Threads, Facebook e WhatsApp – lançou uma IA (inteligência artificial) de código aberto chamada AudioCraft. Ela permite que os usuários criem música e sons por meio de IA generativa.
Para quem tem pressa:
O AudioCraft consiste em três modelos de IA, cada um abordando diferentes áreas de geração de som.
IA da Meta que ‘faz música’

A MusicGen usa textos como entrada para gerar música. Esse modelo foi treinado com 20 mil horas de música de propriedade da Meta ou licenciada especificamente para esse fim.
O AudioGen cria áudios a partir de instruções escritas, simulando latidos de cachorros ou passos, e foi treinado com efeitos sonoros públicos.
Uma versão aprimorada do decodificador EnCodec da Meta permite que os usuários criem sons mais “limpos” – quando você manipula demais o áudio, é como se ele ficasse “sujo”.
O novo sintetizador?

No momento, o AudioCraft parece algo que poderia ser usado para música de elevador ou músicas genéricas que podem ser usadas para criar uma atmosfera, em vez de ser o próximo grande sucesso pop.
No entanto, a Meta acredita que seu novo modelo pode inaugurar uma nova onda de músicas da mesma forma que os sintetizadores mudaram a música quando se tornaram populares.
A Meta reconheceu a dificuldade em criar modelos de IA capazes de fazer música, uma vez que o áudio muitas vezes contém milhões de pontos onde o modelo realiza uma ação, em comparação com os modelos de texto escritos como o Llama 2, que contêm apenas milhares.
A empresa diz que o AudioCraft precisa ser disponibilizado em código aberto para diversificar os dados usados para treiná-lo.
Reconhecemos que os conjuntos de dados usados para treinar nossos modelos carecem de diversidade. Em particular, o conjunto de dados de música usado contém uma maior porção de música ocidental e só contém pares de áudio-texto com texto e metadados em inglês. Ao compartilhar o código do AudioCraft, esperamos que outros pesquisadores possam testar mais facilmente novas abordagens para limitar ou eliminar vieses e uso indevido de modelos generativos.
Meta
Música e IA

A Meta é apenas a mais recente a combinar música e IA. O Google criou o MusicLM, um grande modelo de linguagem – acessível apenas para pesquisadores – que gera minutos de sons com base em instruções de texto.
Recentemente, uma música gerada por IA com uma semelhança vocal do Drake e The Weeknd viralizou antes de ser retirada do ar.
Mais recentemente, alguns músicos – por exemplo, a Grimes – incentivaram as pessoas a usarem suas vozes em músicas feitas por IA.
Além disso, gravadoras e artistas já alertaram sobre os perigos da IA, pois muitos temem que os modelos de IA utilizem material protegido por direitos autorais para treinamento – e historicamente falando, eles costumam ser litigiosos.
Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!
Fonte: Olhar Digital
Comentários