A Meta – dona do Instagram, Threads, Facebook e WhatsApp – lançou uma IA (inteligência artificial) de código aberto chamada AudioCraft. Ela permite que os usuários criem música e sons por meio de IA generativa.

Para quem tem pressa:

O AudioCraft consiste em três modelos de IA, cada um abordando diferentes áreas de geração de som.

IA da Meta que ‘faz música’

Infográfico sobre inteligência artificial da Meta que faz música
(Imagem: Divulgação/Meta)

A MusicGen usa textos como entrada para gerar música. Esse modelo foi treinado com 20 mil horas de música de propriedade da Meta ou licenciada especificamente para esse fim.

O AudioGen cria áudios a partir de instruções escritas, simulando latidos de cachorros ou passos, e foi treinado com efeitos sonoros públicos.

Uma versão aprimorada do decodificador EnCodec da Meta permite que os usuários criem sons mais “limpos” – quando você manipula demais o áudio, é como se ele ficasse “sujo”.

O novo sintetizador?

Ilustração de ondas sonoras com logomarca da inteligência artificial da Meta no canto
(Imagem: Divulgação/Meta)

No momento, o AudioCraft parece algo que poderia ser usado para música de elevador ou músicas genéricas que podem ser usadas para criar uma atmosfera, em vez de ser o próximo grande sucesso pop.

No entanto, a Meta acredita que seu novo modelo pode inaugurar uma nova onda de músicas da mesma forma que os sintetizadores mudaram a música quando se tornaram populares.

A Meta reconheceu a dificuldade em criar modelos de IA capazes de fazer música, uma vez que o áudio muitas vezes contém milhões de pontos onde o modelo realiza uma ação, em comparação com os modelos de texto escritos como o Llama 2, que contêm apenas milhares.

A empresa diz que o AudioCraft precisa ser disponibilizado em código aberto para diversificar os dados usados para treiná-lo.

Reconhecemos que os conjuntos de dados usados para treinar nossos modelos carecem de diversidade. Em particular, o conjunto de dados de música usado contém uma maior porção de música ocidental e só contém pares de áudio-texto com texto e metadados em inglês. Ao compartilhar o código do AudioCraft, esperamos que outros pesquisadores possam testar mais facilmente novas abordagens para limitar ou eliminar vieses e uso indevido de modelos generativos.

Meta

Música e IA

Drake e The Weeknd com ilustração de IA por cima
(Imagem: Pedro Spadoni/Olhar Digital)

A Meta é apenas a mais recente a combinar música e IA. O Google criou o MusicLM, um grande modelo de linguagem – acessível apenas para pesquisadores – que gera minutos de sons com base em instruções de texto.

Recentemente, uma música gerada por IA com uma semelhança vocal do Drake e The Weeknd viralizou antes de ser retirada do ar.

Mais recentemente, alguns músicos – por exemplo, a Grimes – incentivaram as pessoas a usarem suas vozes em músicas feitas por IA.

Além disso, gravadoras e artistas já alertaram sobre os perigos da IA, pois muitos temem que os modelos de IA utilizem material protegido por direitos autorais para treinamento – e historicamente falando, eles costumam ser litigiosos.

Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!