IA na música

As possibilidades da música alimentada por IA têm sido discutidas nos bastidores da indústria musical há anos, mas foi somente com o lançamento do ChatGPT em 2022 que a conversa mais ampla sobre IA começou a se espalhar para o grande público. Estamos agora num ponto em que alguns músicos e profissionais da indústria musical estão fascinados com as possibilidades da música alimentada por IA, enquanto outros estão cautelosos com o desconhecido, especialmente quando a regulamentação ainda está na sua infância. Um estudo realizado pela empresa de distribuição musical Ditto descobriu que quase 60% dos artistas inquiridos afirmam usar IA nos seus projetos musicais, enquanto 28% afirmam que não usariam IA para fins musicais.
Christopher Wears, presidente associado do departamento de negócios/gestão musical da Berklee College of Music, é um defensor da tecnologia musical baseada em IA. Ele até escreveu uma tese de mestrado sobre por que a Warner Music deveria investir em IA, em 2016 (alerta de spoiler: eles investiram, assim como todas as outras grandes gravadoras). Wares introduziu a IA em seus cursos na Berklee e observou reações mistas dos alunos
.“Alguns dos meus alunos adoram a IA e já a utilizam de diferentes maneiras, enquanto outros não querem ter nada a ver com ela”, diz Wares. “Há muitos debates acalorados nas conversas, e tento incentivar meus alunos a abraçar a tecnologia e encontrar novas maneiras de utilizá-la para melhorar seus processos criativos.”
Outro autor de cursos e instrutor com uma mentalidade semelhante é Ben Camp, professor associado de composição musical na Berklee College of Music e autor de Songs Unmasked: Techniques and Tips for Songwriting Success . Eles estão fascinados pela tecnologia musical de IA desde 2016, depois de ouvirem “Daddy’s Car”, uma das primeiras canções pop de IA em que a IA foi treinada com a música dos Beatles.
Camp também oferece aos seus alunos a oportunidade de aprender IA na sala de aula, desde que eles verifiquem todas as informações que aprendem com o ChatGPT ou qualquer outro modelo de linguagem de grande porte.
“Acho que cada um tem que fazer a sua própria escolha”, diz Camp. “Quero dizer, tenho amigos que ainda usam telemóveis flip porque não se sentem confortáveis em ter todas as suas informações no telemóvel. Tenho amigos que ainda têm telefones fixos. Portanto, não estou a dizer: ‘Ei, pessoal, vocês precisam fazer isso’. Mas isso definitivamente está aqui. Não vai desaparecer. Só vai melhorar.”
Quer esteja a utilizar ativamente a IA na sua música ou tenha algumas dúvidas, está a tornar-se cada vez mais claro que a IA terá um papel importante na indústria musical no futuro. Com a experiência de Wares e Camp, discutimos o estado atual da IA na indústria musical, incluindo as ferramentas que estão disponíveis agora.
O que é música com IA?
Antes de definirmos o que significa música com IA, vamos primeiro definir inteligência artificial. Aqui está a definição de Wares:
“A inteligência artificial é como a inteligência de um computador; é uma tecnologia que permite que as máquinas imitem o pensamento ou comportamento humano, como resolução de problemas, aprendizagem ou reconhecimento de padrões.”
No contexto da música, a tecnologia de IA atingiu um ponto em que pode gerar, compor e aprimorar conteúdo musical que antes era executado por humanos. A música com IA pode assumir muitas formas e tipos de assistência, desde a criação de uma música inteira do início ao fim até a composição de aspectos específicos, mixagem e masterização de uma produção, clonagem de voz e muito mais. Também listaremos algumas ferramentas específicas de música com IA que podem realizar essas tarefas, cujas capacidades abriram uma caixa de Pandora de questões de direitos autorais.
História
A inteligência artificial tem as suas origens na música, com o problema da transcrição: gravar com precisão uma performance em notação musical à medida que é executada. O esquema de «fita de piano» de Père Engramelle, um modo de gravar automaticamente os tempos e durações das notas para que possam ser facilmente transcritos à mão em notação musical adequada, foi implementado pela primeira vez pelos engenheiros alemães J. F. Unger e J. Holfield em 1752.
Em 1957, o ILLIAC I (Illinois Automatic Computer) criou a «Illiac Suite for String Quartet», uma peça musical totalmente gerada por computador. O computador foi programado para realizar essa tarefa pelo compositor Lejaren Hiller e pelo matemático Leonard Isaacson. : v–vii Em 1960, o investigador russo Rudolf Zaripov publicou o primeiro artigo do mundo sobre composição musical algorítmica usando o computador Ural-1.
Em 1965, o inventor Ray Kurzweil desenvolveu um software capaz de reconhecer padrões musicais e sintetizar novas composições a partir deles. O computador apareceu pela primeira vez no programa de perguntas e respostas I've Got a Secret.
Em 1983, o Kansei Music System da Yamaha ganhou força, e um artigo sobre o seu desenvolvimento foi publicado em 1989. O software utilizava técnicas de processamento musical e inteligência artificial para resolver essencialmente o problema da transcrição de melodias mais simples, embora melodias de nível superior e complexidades musicais ainda sejam consideradas problemas difíceis de aprendizagem profunda hoje em dia, e a transcrição quase perfeita ainda seja um tema de investigação.
Em 1997, um programa de inteligência artificial chamado Experiments in Musical Intelligence (EMI) superou um compositor humano na tarefa de compor uma peça musical imitando o estilo de Bach. O EMI mais tarde se tornou a base para um algoritmo mais sofisticado chamado Emily Howell, em homenagem à sua criadora.
Em 2002, um grupo de investigadores musicais do Sony Computer Science Laboratory em Paris, liderado pelo compositor e cientista da computação francês François Pachet, desenvolveu o Continuator, um algoritmo único capaz de reiniciar uma composição após um músico ao vivo ter parado.
Emily Howell continuou a melhorar a IA musical com o lançamento do seu primeiro álbum, From Darkness, Light, em 2009. Desde então, muitos outros trabalhos de IA foram publicados por vários grupos.
Em 2010, Iamus tornou-se a primeira IA a criar uma peça de música clássica moderna original no seu próprio estilo: “Iamus’ Opus 1”. Localizado na Universidade de Málaga (Universidade de Málaga), em Espanha, o computador pode gerar uma peça musical completamente original em vários estilos musicais. Em agosto de 2019, foi criado um grande conjunto de dados com 12.197 músicas MIDI, cada uma com suas próprias letras e melodias, para investigar a viabilidade de gerar melodias a partir de letras de músicas usando um método LSTM-GAN condicional profundo.
Com os avanços na IA generativa, começaram a surgir modelos capazes de criar composições musicais completas (incluindo letras) a partir de descrições de texto simples. Duas aplicações web notáveis nesta área são a Suno AI, lançada em dezembro de 2023, e a Udio, que se seguiu em abril de 2024.
Aplicações de software
ChucK
Desenvolvido na Universidade de Princeton por Ge Wang e Perry Cook, o ChucK é uma linguagem baseada em texto e multiplataforma. Ao extrair e classificar técnicas teóricas que encontra em peças musicais, o software é capaz de sintetizar peças totalmente novas com base nas técnicas que aprendeu. A tecnologia é utilizada pela SLOrk (Stanford Laptop Orchestra) e pela PLOrk (Princeton Laptop Orchestra).
Jukebox
O Jukedeck era um site que permitia às pessoas usar inteligência artificial para criar músicas originais e livres de direitos autorais para uso em vídeos. A equipa começou a desenvolver a tecnologia de geração de música em 2010, formou uma empresa em torno dela em 2012 e lançou o site publicamente em 2015. A tecnologia usada era inicialmente um sistema de composição algorítmica baseado em regras, que mais tarde foi substituído por redes neurais artificiais. O site foi usado para gerar mais de 1 milhão de músicas, e as marcas que o utilizaram incluíram Coca-Cola, Google, UKTV e o Museu de História Natural de Londres. Em 2019, a empresa foi adquirida pela ByteDance.
Morpheus
MorpheuS é um projeto de investigação de Dorien Herremans e Elaine Chu da Queen Mary University of London, financiado pelo projeto Marie Skłodowska-Curie da UE. O sistema utiliza uma abordagem de otimização baseada no algoritmo de pesquisa de vizinhança variável para transformar fragmentos padronizados existentes em novos fragmentos com um determinado nível de ênfase tonal que muda dinamicamente ao longo do fragmento. Esta abordagem de otimização integra técnicas de deteção de padrões para garantir uma estrutura de longo prazo e temas recorrentes na música gerada. As peças compostas pelo MorpheuS foram apresentadas em concertos em Stanford e em Londres.
AIVA
Fundado em fevereiro de 2016 no Luxemburgo, o AIVA é um programa que produz trilhas sonoras para qualquer tipo de mídia. Os algoritmos por trás do AIVA são baseados em arquiteturas de aprendizagem profunda. O AIVA também foi usado para compor uma faixa de rock chamada On the Edge, bem como uma música pop chamada Love Sick, em colaboração com a cantora Taryn Southern para o seu álbum de 2018, I am AI.
Google Purple
A equipa Magenta do Google publicou vários aplicativos de música com IA e white papers desde o seu lançamento em 2016. Em 2017, eles lançaram o algoritmo e o conjunto de dados NSynth, um instrumento musical de hardware de código aberto projetado para facilitar o uso do algoritmo por músicos. O instrumento foi usado por artistas notáveis como Grimes e YACHT em seus álbuns. Em 2018, eles lançaram um aplicativo de improvisação de piano chamado Piano Genie. Mais tarde, veio o Magenta Studio, um conjunto de 5 plugins MIDI que permitem aos produtores musicais desenvolver músicas existentes em sua DAW. Em 2023, sua equipe de aprendizado de máquina publicou um artigo técnico no GitHub descrevendo o MusicLM, um gerador proprietário de texto para música que eles desenvolveram.
Riffusion
Riffusion é uma rede neural desenvolvida por Seth Forsgren e Ike Martiros que gera música usando padrões sonoros em vez de áudio. Foi criada como um ajuste fino do Stable Diffusion, um modelo de código aberto existente para gerar imagens a partir de pistas de texto em espectrogramas. Isso resulta num modelo que usa pistas de texto para gerar ficheiros de imagem que podem ser transformados por Fourier inverso e convertidos em ficheiros de áudio. Embora esses ficheiros tenham apenas alguns segundos de duração, o modelo também pode usar o espaço latente entre as saídas para interpolar diferentes ficheiros juntos. Isso é conseguido usando uma funcionalidade do modelo Stable Diffusion conhecida como img2img. A música resultante foi descrita como “de otro mundo” (de outro mundo), embora seja improvável que substitua a música feita por humanos. O modelo foi lançado em 15 de dezembro de 2022, e o código também está disponível gratuitamente no GitHub. É um dos muitos modelos derivados do Stable Diffusion. O Riffusion é classificado como um subconjunto de geradores de texto para música baseados em IA. Em dezembro de 2022, o Mubert usou de forma semelhante o Stable Diffusion para transformar texto descritivo em loops musicais. Em janeiro de 2023, a Google publicou um artigo sobre o seu próprio gerador de texto para música chamado MusicLM.
Spike AI
O Spike AI é um plugin de áudio alimentado por IA desenvolvido por Spike Stent em colaboração com o seu filho Joshua Stent e o amigo Henry Ramsey que analisa faixas e faz recomendações para clareza e outros aspetos durante a mixagem. A comunicação é realizada através de um chatbot treinado com os dados pessoais de Spike Stent. O plugin integra-se numa estação de trabalho de áudio digital.
Aplicações musicais
A inteligência artificial tem o potencial de influenciar a forma como os produtores criam música, gerando iterações de faixas com base em pistas fornecidas pelo criador. Essas pistas permitem que a IA siga um estilo específico que o artista está a tentar alcançar.
A IA também tem sido utilizada na análise musical, onde tem sido usada para extração de características, reconhecimento de padrões e recomendações musicais.
Composição
A inteligência artificial teve um grande impacto no setor da composição, pois influenciou as ideias de compositores/produtores e tem o potencial de tornar a indústria mais acessível a novos talentos. Com o seu desenvolvimento na música, já tem sido utilizada em colaboração com produtores. Os artistas utilizam este software para ajudar a gerar ideias e identificar estilos musicais, solicitando à IA que siga requisitos específicos que se adequam às suas necessidades. Os impactos futuros da tecnologia na composição incluem emulação e fusão de estilos, bem como revisão e refinamento. O desenvolvimento desses tipos de software pode facilitar a entrada de novos talentos na indústria musical. Softwares como o ChatGPT foram usados por produtores para realizar essas tarefas, enquanto outros softwares, como o Ozone11, foram usados para automatizar tarefas complexas e demoradas, como masterização.
Riscos e danos
Músicos, produtores e outros profissionais utilizam ferramentas de IA não generativas há anos. Cher popularizou o auto-tune com «Believe» há mais de um quarto de século, e inúmeros artistas têm-no utilizado desde então para «corrigir» o seu tom. As editoras discográficas utilizam IA para analisar as redes sociais em busca de utilizações não licenciadas de músicas que lhes pertencem, e o Shazam funciona de forma muito semelhante quando se trata de reconhecer áudio. Os engenheiros utilizam-no para otimizar o processo de mistura e masterização. Mais recentemente, o diretor de Get Back, Peter Jackson, utilizou a tecnologia para isolar faixas individuais de uma gravação mixada para reconstruir conversas de estúdio e criar uma música perdida dos Beatles.
Mas há uma diferença fundamental entre essas ferramentas auxiliares e aplicativos de IA generativa como Suno e Udio, que podem criar músicas inteiras a partir de apenas algumas palavras. Todas as novas IAs musicais funcionam de maneira um pouco diferente e continuam a evoluir, mas geralmente operam de forma semelhante a outras ferramentas de IA generativa: elas analisam um enorme conjunto de dados e usam os padrões encontrados nele para fazer previsões probabilísticas.
Para fazer isso com áudio, os desenvolvedores coletam uma enorme coleção de músicas (por meio de acordos com detentores de licenças e/ou raspando dados disponíveis publicamente sem permissão) e seus metadados associados (artistas e títulos de músicas, gêneros, anos, descrições, anotações, qualquer coisa relevante e disponível). Tudo isso geralmente é possível graças a trabalhadores mal remunerados no Sul Global, que anotam esses dados em uma escala gigantesca.
Os programadores preparam então este conjunto de dados para um modelo de aprendizagem automática, que é (em resumo) uma vasta rede de conexões, cada uma com um «peso» numérico atribuído. Os humanos então «treinam» o modelo, ensinando-o a observar padrões no conjunto de dados e fornecendo feedback ao modelo, pontuando as suas previsões. Com base nesses padrões, o modelo pode pegar um pequeno trecho de áudio ou texto e prever o que deve acontecer a seguir, e depois o que acontecerá depois disso, e assim por diante.
Os programadores ajustam os pesos para gerar resultados mais audíveis e previsíveis a partir das mesmas entradas. Os geradores de música alimentados por IA combinam duas vertentes da tecnologia: as ferramentas musicais que os profissionais têm usado em estúdios há décadas e os grandes modelos de linguagem que permitem aos utilizadores comuns aproveitar o seu poder. Qualquer gerador de música com IA é tão bom quanto os dados com que foi treinado. Esses sistemas requerem grandes quantidades de dados, e um modelo treinado com um conjunto de dados tendencioso reproduzirá essas tendências na sua saída. Quais vozes estão incluídas nesta enorme caixa de música e quais foram deixadas de fora? Os modelos de IA atuais tendem a excluir grandes partes da música, especialmente das tradições musicais que antecedem a tecnologia de gravação e são de origem não ocidental. Da forma como estão concebidos atualmente, são mais propensos a produzir sons estereotipados dentro de um género ou estilo do que algo invulgar, quanto mais inovador ou interessante. Os sistemas de IA generativa são propensos à mediocridade, mas a música transcendental encontra-se nas margens.
“O que se perderá em criatividade e diversidade humanas se os músicos começarem a confiar em modelos preditivos treinados em conjuntos de dados seletivos que excluem a maioria das culturas e línguas do mundo?”, perguntou-me Lauren M.E. Goodlad, presidente da iniciativa Critical AI da Rutgers University.
Do ponto de vista jurídico, os músicos que observam os modelos de IA a aprender com o seu trabalho têm as mesmas preocupações que o New York Times, a Getty e outros editores e criadores que estão a processar empresas de IA: a proveniência dos dados. Enquanto algumas empresas têm o cuidado de treinar os seus modelos apenas com dados licenciados, outras utilizam tudo o que conseguem obter, argumentando que tudo o que é do domínio público se enquadra no uso justo para este fim. A RIAA, a entidade comercial dominante no setor musical dos EUA, está agora a processar a Suno e a Udio por «violação de direitos de autor... em grande escala». (Divulgação: a Vox Media é uma das várias editoras que assinaram acordos de parceria com a OpenAI. A nossa reportagem mantém-se editorialmente independente.)
As pesquisas frequentemente mostram que a maioria das pessoas desaprova que as empresas de IA copiem dados públicos sem permissão. Mas, embora haja uma série de processos judiciais de alto perfil em andamento, ainda não está claro como o sistema jurídico afetará as empresas que exploram toda essa criatividade humana sem permissão, muito menos como irá compensá-las. Se essas práticas não forem coibidas em breve, os participantes menos escrupulosos ganharão rapidamente poder e os lobistas e advogados sofisticados que o acompanham. (Insensibilidade: não é só para máquinas!) Essas questões são urgentes agora porque se tornam mais difíceis de resolver com o tempo, e alguns profissionais da área estão a resistir. Ed Newton-Rex era vice-presidente de áudio da Stability AI quando ela lançou o Stable Audio, um gerador de música e som alimentado por IA, no outono passado.
Ele deixou a empresa apenas alguns meses depois devido à sua posição sobre a recolha de dados: a equipa de Newton-Rex treinou o Stable Audio apenas com dados licenciados, mas a liderança da empresa apresentou um comentário público ao Escritório de Direitos Autorais dos EUA afirmando que o desenvolvimento da IA era “um uso aceitável, transformador e socialmente benéfico do conteúdo existente protegido pelo uso justo”. Para combater a extração não licenciada, Newton-Rex fundou a Fairly Trained, que verifica e certifica conjuntos de dados usados por empresas de IA. Por enquanto, a organização sem fins lucrativos só pode certificar se o conteúdo do conjunto de dados de uma empresa foi devidamente licenciado. Um dia, ela poderá levar em consideração detalhes mais específicos (como se o artista consentiu explicitamente com tal uso ou simplesmente não se opôs) e outras questões, como a mitigação de preconceitos.
Como músico e compositor de música coral e para piano, ele vê isso como um ponto de viragem para o campo. “Os modelos de IA generativa geralmente competem com os seus dados de treino”, disse Newton-Rex. “Honestamente, as pessoas têm apenas uma quantidade limitada de tempo para ouvir música. Há um conjunto limitado de direitos autorais. E, portanto, quanto mais música é criada por meio desses sistemas, menos vai para os músicos humanos.”
Como observou a presidente da FTC, Lina Khan, no mês passado, se uma pessoa cria conteúdo ou informação que uma empresa de IA copia e, em seguida, o conteúdo ou informação produzido pelo gerador de IA compete com o produtor original “para expulsá-lo do mercado e desviar negócios... isso pode ser um método desleal de concorrência” que viola as leis antitrust.
Marc Ribot é um dos mais de 200 músicos que assinaram uma declaração da Artist Rights Alliance opondo-se à prática no início deste ano, e é um membro ativo do comité diretor de IA da Music Workers Alliance. Guitarrista em atividade desde a década de 1970, Ribot viu como a tecnologia moldou a indústria, observando os orçamentos de gravação diminuírem constantemente ao longo de décadas.
«Não sou contra a tecnologia em si, de forma alguma», diz Ribot. Tendo perdido as gravações originais que fez nos anos 90, ele próprio usou IA para isolar faixas individuais da mixagem final. Mas ele vê o momento atual como uma oportunidade crítica para resistir à tecnologia antes que as empresas que a possuem se tornem grandes demais para regulá-la
.«A verdadeira linha divisória entre útil e desastroso é muito simples», disse Ribot. “Tudo se resume a saber se os produtores da música ou de qualquer outra coisa que esteja a ser introduzida [como dados de treino] têm um direito real e funcional de consentimento. [Os geradores de música de IA] cospem o que consomem e, muitas vezes, produzem coisas com grandes pedaços de material protegido por direitos de autor. Esse é o resultado. Mas mesmo que não o fizessem, mesmo que o resultado não infringisse, a introdução em si infringe.”
Ribot disse que os músicos há muito tempo são indiferentes à IA, mas nos últimos anos ele viu uma “mudança radical nas atitudes em relação às questões de exploração digital”, alimentada pelas greves do SAG-AFTRA e do Writers Guild of America no ano passado, pelos processos judiciais em andamento contra empresas de IA e por uma maior compreensão do capitalismo de vigilância e das liberdades civis.
Embora os músicos possam ter-se visto uns aos outros como concorrentes há apenas alguns anos — mesmo que o bolo esteja a ficar menor, ainda há alguns artistas que podem enriquecer —, a IA representa uma ameaça para toda a indústria que pode não beneficiar nem mesmo os mais sortudos.
O que a IA pode e poderia fazer
Um dos primeiros exemplos de música criada por inteligência artificial remonta a 1956: uma peça para quarteto de cordas composta pelo computador ILLIAC I e programada pelos professores LeJaren Hiller e Leonard Isaacson da Universidade de Illinois em Urbana-Champaign.
Na sequência dos avanços tecnológicos dos últimos anos, artistas como Holly Herndon, Arca, YACHT, Taryn Southern e Brian Eno estão agora a usar IA generativa para experimentar as suas práticas criativas. A tendência da IA para produzir «alucinações» e outros resultados sem sentido, embora perigosa noutros contextos, pode ser uma fonte de inspiração na música. Assim como outras tecnologias de áudio passaram a ser definidas pela sua dissonância — distorção de CD, compressão de 8 bits, a voz humana rachada e poderosa demais para a garganta que a emite, «eventos importantes demais para o meio destinado a gravá-los», como escreve Brian Eno em The Year with Swollen Appendices —, a música gerada por IA pode ser mais valiosa quando é mais distinta. Ivan Paz, músico com doutoramento em ciência da computação, está a desenvolver sistemas de IA para as suas próprias apresentações ao vivo.
Começando com um ecrã em branco, ele escreve código em tempo real (exibido para o público ler) e treina o modelo respondendo aos sons que ele produz, que podem ser inesperados, chocantes ou simplesmente catastróficos. O resultado é um pouco como tocar um instrumento, mas também como improvisar com outro músico. “Se o seu algoritmo estiver a funcionar a um nível muito baixo, então sente-se como se estivesse a tocar um instrumento musical, porque está realmente a ajustar, por exemplo, os parâmetros da síntese”, disse Paz. “Mas se o algoritmo estiver a determinar a forma de uma peça musical, então é como tocar com um agente que está a determinar o que acontece a seguir.”
Para uma exposição no Centro de Cultura Contemporânea de Barcelona no início deste ano, Paz trabalhou com a cantora Maria Arnal para criar um modelo de renderização de timbre para a voz dela. Eles pediram aos visitantes que cantassem pequenos trechos de músicas; o modelo então misturou essas vozes com a de Arnal para criar uma nova voz cantada. Noutro projeto, a colega de Paz, Shelley Knotts, treinou um modelo com as suas próprias composições para evitar repetições no seu trabalho: ele analisa a sua música para detectar padrões, mas em vez de sugerir o seu próximo passo mais provável, sugere uma continuação menos provável.
O próximo passo na evolução musical da IA pode resumir-se à velocidade de processamento. A codificação ao vivo é possível com alguns tipos de modelos, mas outros demoram muito tempo a renderizar a música para a criar num espetáculo ao vivo. Instrumentos eletrónicos como sintetizadores foram originalmente projetados para imitar sons acústicos e desenvolveram seu próprio caráter único ao longo do tempo. Paz vê o potencial máximo da IA generativa como a criação de novos sons que não podemos imaginar atualmente, muito menos produzir. Neste contexto — em que a IA auxilia um artista — a IA não é mais provável de “substituir” um músico do que um afinador digital ou um pedal de delay.
No entanto, outros setores da indústria musical estão a adotar a IA para fins mais disruptivos. Embora a IA possa não criar (e nunca poderá criar) música melhor do que um humano, agora ela pode criar música aceitável em uma velocidade muito maior e em uma escala maior — e "aceitável" é muitas vezes o único obstáculo que uma faixa precisa superar.
Na maioria das vezes, quando ouve música, não sabe quem a criou. O jingle que ouve num anúncio. A trilha sonora ambiente num filme ou programa de TV, podcast ou videogame. Os loops que um produtor de hip-hop sampleia em uma batida. Essa é a parte da indústria mais suscetível de ser revolucionada pela IA generativa. A Bloomberg relata que professores estão a usar o Suno para criar recursos didáticos musicais. O Gizmodo observa que o público-alvo do Project Music GenAI Control da Adobe, outro gerador de música alimentado por IA, são pessoas que querem fazer música de fundo de forma rápida e barata, como podcasters e YouTubers, com a capacidade de especificar o clima, o tom e a duração de uma faixa.
Quer você goste ou nem perceba, esses tipos de música têm sido historicamente criados por seres humanos. Mas a geração automatizada de música por IA pode custar o emprego a esses músicos — e muitos deles usam essa renda para sustentar suas atividades mais satisfatórias do ponto de vista criativo, mas menos viáveis financeiramente. Você pode nunca ver um músico de IA no palco, mas provavelmente verá menos músicos humanos por causa da tecnologia.
Por sua vez, os intervenientes influentes na indústria musical já acreditam que a IA se tornará um pilar do seu negócio — eles estão preocupados com quem irá colher os benefícios. O Spotify não irá restringir a música gerada por IA, a menos que seja uma imitação descarada, o que acarreta o risco de litígios. A Universal Music Group (UMG) e o YouTube lançaram o YouTube Music AI Incubator para desenvolver ferramentas de IA com artistas da UMG. Enquanto isso, a UMG também é uma das mais de 150 organizações — incluindo ASCAP, BMI, RIAA e AFL-CIO — na coligação Human Artistry Campaign, que busca estabelecer estruturas éticas para o uso da IA em áreas criativas. Elas não querem proibir a tecnologia, mas querem ter participação nos resultados.
Com mais de 100 000 novas faixas carregadas para serviços de streaming todos os dias, as plataformas de streaming digital têm um forte incentivo para reduzir a participação de faixas criadas por humanos e livres de direitos autorais que os seus utilizadores reproduzem. Só o Spotify pagou US$ 9 bilhões em direitos autorais no ano passado, a maior parte de sua receita de US$ 14 bilhões. A maior empresa de streaming de música do mundo tem historicamente aumentado a disponibilidade e a visibilidade de faixas gratuitas e pode continuar a fazê-lo. Os geradores de música alimentados por IA são uma maneira fácil de criar música gratuita que pode substituir artistas reais, que ganham direitos autorais, em playlists populares, desviando essa receita de streaming dos artistas para a própria plataforma.
Há um novo poder — e um novo perigo — para os artistas consagrados. Após um derrame, o astro country Randy Travis tem dificuldade para falar, quanto mais cantar, mas com a ajuda de IA treinada em seu catálogo existente, ele pode reproduzir sua voz digitalmente.
Enquanto isso, um produtor anónimo pode criar uma colaboração entre Drake e The Weeknd que soa crível e acumular milhões de streams. Em maio, o produtor Metro Boomin foi criticado durante a briga na vida real entre Drake e Kendrick Lamar. Metro Boomin lançou uma batida com samples gerados por IA para qualquer pessoa usar, que Drake então sampleou e rappou, lançando a nova faixa para serviços de streaming. King Willonius, que usou o Udio para criar a faixa original que Metro Boomin remixou, contratou um advogado para manter os direitos sobre as suas contribuições.
Estes exemplos recentes mostram como a música feita rapidamente pode suplantar a música bem feita. Na economia do streaming, volume e velocidade são tudo: os artistas são incentivados a produzir quantidade, não qualidade.
«[Um futuro sucesso gerado por IA] não será algo que as pessoas vão voltar a estudar, como continuam a fazer com os grandes lançamentos da era dos discos», disse a música Jamie Brooks. Brooks lançou discos em seu próprio nome e com as bandas Elite Gymnastics e Default Genders, e escreve um blogue sobre a indústria musical em seu boletim informativo The Seat of Loss. «Mas ainda gera engajamento, e então um mundo onde o que está no topo das paradas do Spotify não é feito para durar, mas apenas para entreter naquele dia e nunca mais ser lembrado, seria uma coisa boa para todas essas empresas. Elas não precisam que seja arte para ganhar dinheiro.
Grande parte da tecnologia atual existe principalmente para imitar ou simplificar, o que pode fomentar o amadorismo. O compartilhamento de arquivos tornou a coleção compulsiva de discos acessível a qualquer pessoa com um disco rígido e um modem, as câmaras dos telemóveis permitiram que todos na multidão documentassem o show e agora o streaming de áudio nos oferece playlists dinâmicas adaptadas ao nosso humor e aos nossos grupos de publicidade. A IA generativa também poderia tornar a criação musical mais fácil para os não especialistas. Isso poderia mudar radicalmente não apenas a quantidade de música que ouvimos, mas também a nossa relação com a forma como um todo. Se criar uma música de sucesso não exigir mais esforço do que escrever um tweet viral, grande parte da energia criativa atualmente contida nas redes sociais poderia ser redirecionada para a geração de música com base em prompts.
Brooks vê isso como um fenómeno regressivo, enfatizando o imediato em detrimento da profundidade atemporal, chegando ao topo das paradas com memes de áudio e singles inovadores voltados para os ouvintes mais sofisticados, assim como as ondas de rádio já foram dominadas por canções vazias como “Take Me Out to the Ball Game”, escrita por duas pessoas que nunca tinham ido a um jogo de beisebol.
“Essa é a direção que esses serviços vão levar a música”, disse Brooks. “Não vai ter nada a ver com criatividade. Entre a forma como esses modelos funcionam e os feeds algorítmicos, tudo não passa de um grande repositório do passado. Não vai levar os discos adiante em termos de som. Vai acelerar a passagem dos discos do centro da cultura pop americana para a lata de lixo.”
Direitos autorais e música gerada por IA
Uma das questões mais debatidas em torno da IA na indústria musical diz respeito a quem ganha dinheiro com o trabalho gerado pela IA, especialmente se o algoritmo for treinado usando material protegido por direitos autorais existentes. Em março de 2023, o Escritório de Direitos Autorais dos Estados Unidos lançou uma iniciativa para investigar questões de direitos autorais relacionadas à IA. Camp está confiante de que os reguladores irão intervir e criar uma solução, mas ele teme que a questão seja difícil de resolver devido ao sistema de direitos autorais dos Estados Unidos sob o qual os artistas operam.
“Várias leis e precedentes que acabaram por levar ao nosso sistema moderno de direitos autorais simplesmente não se encaixam no que está a acontecer na música atualmente”, diz Camp. “Acredito que os criadores devem ter a autoria, devem ser creditados e devem ser remunerados. Mas, novamente, todo o sistema através do qual fazemos isso está muito desatualizado.”
A música gerada por IA ainda se encontra numa zona cinzenta legal, levantando a questão de se é possível um compromisso em que os artistas sejam creditados, remunerados e consentam a utilização do seu trabalho ou imagem pela IA, sem limitar o potencial de criatividade musical utilizando a tecnologia de IA. Em certa medida, a arte é derivada de outra arte, e o que é inspiração e o que é roubo está atualmente confuso. Algumas editoras discográficas estão a começar a reagir.
Em maio de 2023, a Universal Music Group apelou aos serviços de streaming para bloquearem a utilização de música gerada por IA, alegando que esta utiliza a música dos seus artistas para treinar o seu algoritmo e que tomará medidas legais, se necessário. A Spotify respondeu removendo 7% da música gerada por IA da sua plataforma, o que equivale a dezenas de milhares de músicas. Em julho de 2023, a UMG apelou ao Congresso para que aprovasse uma política nacional para proteger os criadores da violação de direitos autorais por IA. A gravadora é um dos 40 membros da Human Artistry Campaign, uma organização que defende o uso responsável da IA.
Nos Estados Unidos, o quadro jurídico atual tende a aplicar as leis tradicionais de direitos autorais à IA, apesar das suas diferenças em relação ao processo criativo humano. No entanto, as obras musicais criadas exclusivamente por IA não são protegidas por direitos autorais. No Compêndio de Práticas do Gabinete de Direitos Autorais, o Gabinete de Direitos Autorais declarou que não concederá direitos autorais a “obras que não tenham autoria humana” e “o Gabinete não registrará obras criadas por uma máquina ou por um mero processo mecânico que opere aleatoriamente ou automaticamente, sem qualquer contribuição criativa ou intervenção de um autor humano”. Em fevereiro de 2022, o Conselho de Revisão de Direitos Autorais rejeitou um pedido de direitos autorais para uma obra de arte gerada por IA, alegando que ela “carecia da autoria humana necessária para sustentar uma reivindicação de direitos autorais”.
A situação na União Europeia (UE) é semelhante à dos EUA, uma vez que o seu quadro jurídico também enfatiza o papel do envolvimento humano nas obras protegidas por direitos de autor. De acordo com o Instituto da Propriedade Intelectual da União Europeia e a jurisprudência recente do Tribunal de Justiça da União Europeia, o critério de originalidade exige que uma obra seja uma criação intelectual do próprio autor, refletindo a identidade do autor, evidenciada pelas escolhas criativas feitas durante a sua criação, exigindo um nível específico de envolvimento humano. O projeto reCreating Europe, financiado pelo programa de investigação e inovação Horizonte 2020 da União Europeia, aprofunda os desafios colocados pelo conteúdo gerado por IA, incluindo música, oferecendo segurança jurídica e proteção equilibrada que incentiva a inovação, respeitando as regras de direitos autorais. O reconhecimento da AIVA marca um afastamento significativo das visões tradicionais sobre autoria e direitos de autor no campo da composição musical, permitindo que intérpretes de IA lancem música e recebam royalties. Este reconhecimento torna a AIVA pioneira no reconhecimento formal da IA na produção musical.
Os recentes avanços em inteligência artificial por grupos como Stability AI, OpenAI e Google levaram a um grande número de processos judiciais por violação de direitos autorais contra tecnologias generativas, incluindo música gerada por IA. Se esses processos forem bem-sucedidos, os conjuntos de dados dos modelos de aprendizagem automática que alimentam essas tecnologias ficarão confinados ao domínio público.
Drake e The Weeknd
Embora não haja muitos precedentes legais para a clonagem de voz, para celebridades isso pode se enquadrar no direito de publicidade como uma violação de sua imagem, nome e voz. Um exemplo importante do ano passado foi quando um TikToker conhecido como Ghostwriter usou IA para criar um dueto falso entre Drake e The Weeknd chamado “Heart on My Sleeve”. A música foi retirada do ar, mas versões ainda circulam pela internet.
“Por um lado, pode-se argumentar que é uma obra original”, diz Wears. “Por outro lado, pode ser visto como uma forma de violação, já que a IA aprendeu a escrever letras no estilo de Drake analisando o seu catálogo, sem a sua permissão expressa. Outra preocupação é o uso não autorizado dos nomes e imagens dos artistas.”
A capacidade de copiar o nome e a imagem de alguém usando IA está a preocupar a indústria musical, bem como a indústria do entretenimento como um todo. Uma das principais reivindicações da atual greve da SAG-AFTRA é proteger os criadores de terem seus trabalhos usados para treinar geradores de IA e os atores de terem suas imagens e vozes copiadas sem consentimento.
Questões éticas com a IA
Os direitos de autor são apenas uma das muitas questões éticas em torno da IA, e é importante lembrar que esta tecnologia e o seu desenvolvimento não são isentos de consequências.
Uma preocupação imediata é o preconceito no treinamento de um conjunto de dados. Um exemplo é o rapper FN Meka, que assinou com a Capitol Music Group em 2022, mas depois rescindiu o contrato devido à perpetuação de estereótipos raciais.
“Uma das grandes questões é o lixo que entra e o lixo que sai”, diz Camp. “Se estamos a treinar esses modelos de linguagem, ou esses geradores de imagens, ou esses geradores de música com dados que são inerentemente tendenciosos, inerentemente racistas, então tudo o que estamos a pedir vai perpetuar esses estereótipos. Precisamos garantir que temos bons dados entrando e que estamos a monitorá-los.”
Monitorizar esses dados também tem os seus malefícios. Outra preocupação ética é o processo de treino, chamado «aprendizagem por reforço», que envolve fornecer feedback humano sobre uma variedade de conteúdos perturbadores. Um episódio recente do podcast The Journal, do Wall Street Journal, apresenta um trabalhador de dados queniano que, entre muitos outros, ajudou a treinar o ChatGPT a distinguir «o certo do errado» à custa de uma saúde mental muito debilitada.
“Basicamente, é dar um sinal de positivo ou negativo nas respostas”, diz Camp. “Esta é uma resposta inadequada? É muito violenta, gráfica ou perturbadora? A OpenAI subcontratou esse trabalho a pessoas no Quénia, pagando-lhes 2 dólares por hora para ler essas respostas. Então, imagine ser pago 2 dólares por hora para aparecer no trabalho e ler alguns dos textos mais horríveis e psicologicamente perturbadores, e fazer isso durante 10 horas, e depois ir para casa e ter tudo isso a girar na sua cabeça. Portanto, há muitas falhas na forma como as coisas são feitas atualmente.»
Deepfakes musicais
Um desenvolvimento mais recente da IA na música é o uso de deepfakes de áudio para falsificar a letra ou o estilo musical de uma música existente para se assemelhar à voz ou ao estilo de outro artista. Isso levantou muitas preocupações sobre a legalidade da tecnologia, bem como a ética do seu uso, especialmente no contexto da identidade artística. Além disso, também levantou a questão de quem recebe os créditos por essas obras. Como a IA não pode ter autoria própria, as especulações atuais sugerem que não haverá uma resposta clara até que sejam tomadas mais decisões sobre as tecnologias de aprendizagem automática em geral. As medidas preventivas mais recentes começaram a ser desenvolvidas pela Google e pela Universal Music Group, que levaram em consideração os direitos autorais e a atribuição de créditos para permitir que os produtores copiem as vozes e os estilos dos artistas.
“Heart on My Sleeve”
Em 2023, um artista conhecido como ghostwriter977 criou um deepfake musical chamado “Heart on My Sleeve” que clonou as vozes de Drake e The Weeknd, alimentando um conjunto de faixas vocais dos respectivos artistas em um algoritmo de deep learning, criando um modelo artificial das vozes de cada artista que poderia ser comparado com os vocais de referência originais com as letras originais. A faixa foi submetida à consideração do Grammy para Melhor Canção de Rap e Canção do Ano. Tornou-se viral e ganhou popularidade no TikTok, recebendo uma resposta positiva do público, o que levou ao seu lançamento oficial na Apple Music, Spotify e YouTube em abril de 2023. Muitos acreditaram que a faixa tinha sido inteiramente escrita por software de IA, mas o produtor afirmou que a composição, produção e vocais originais (antes da conversão) ainda eram da sua autoria. A música foi posteriormente removida da lista de nomeações para o Grammy porque não atendia aos requisitos para ser considerada para o prémio. A faixa foi removida de todas as plataformas de música pela Universal Music Group. A música foi um ponto de viragem para a clonagem de voz usando inteligência artificial e, desde então, modelos foram criados para centenas, senão milhares, de cantores e rappers populares.
“De onde isso veio”
Em 2013, o cantor country Randy Travis sofreu um derrame que o deixou incapaz de cantar. Enquanto isso, o vocalista James Dupré fez uma turnê em seu nome, interpretando suas canções. Travis e o produtor de longa data Kyle Lehning lançaram uma nova canção em maio de 2024 chamada “Where That Came From”, a primeira canção nova de Travis desde o derrame. A gravação usa tecnologia de inteligência artificial para recriar a voz de Travis, compilada a partir de mais de 40 gravações vocais existentes, juntamente com as gravações de Dupré.
Ferramentas musicais de IA
Agora que abordámos o que é a IA, bem como algumas das suas principais desvantagens, podemos discutir as ferramentas musicais de IA que existem. No Berklee Onsite 2023, uma conferência musical anual realizada no campus da Berklee College of Music em Boston, Wares partilhou algumas ferramentas musicais de IA que vale a pena conhecer; algumas que pode começar a aprender agora mesmo e outras que talvez queira apenas conhecer.
BandLab SongStarter
A aplicação SongStarter da BandLab é um gerador de músicas alimentado por IA que permite escolher um género, inserir letras de músicas (e emojis) e gera ideias gratuitas. Pode então levar essas ideias para o recurso de estúdio para torná-las suas. É uma ótima maneira de começar uma música se precisar de alguma inspiração inicial.
Midjourney
Como um dos geradores de imagens mais populares com tecnologia de IA, o Midjourney pode ser usado para criar capas de álbuns, capas de músicas, cartazes, loops do Spotify, imagens de merchandising e muito mais. O que o diferencia de outros geradores de imagens com tecnologia de IA é o seu estilo surreal e onírico, que pode ser mais adequado para projetos musicais. O programa é fácil de usar, mas há uma curva de aprendizagem definida. Como muitos programas de tecnologia novos, certifique-se de assistir a alguns tutoriais antes de mergulhar de cabeça.
Mix Monolith
O plugin Mix Monolith é um sistema de mixagem automática da AYAIC que uniformiza a sua mixagem. No artigo Mix Online, o desenvolvedor afirma: “O objetivo não é criar automaticamente uma mixagem finalizada, mas estabelecer relações fundamentais de ganho entre as faixas e garantir ajustes adequados de ganho”.
LANDR AI Mastering
A ferramenta de masterização com IA da LANDR permite que você arraste e solte sua faixa no programa, que então a analisa e oferece opções simples de estilo e volume. Depois de selecionar essas duas opções, o programa masterizará sua faixa, oferecendo mais opções de tipo de arquivo e método de distribuição. A LANDR possui mais de 20 milhões de faixas que foram mixadas com seu programa.
AIVA
A AIVA é um programa de inteligência artificial que foi treinado com mais de 30 000 partituras icónicas da história. Pode escolher entre vários estilos de música predefinidos, desde o cinema moderno ao cinema do século XX, do tango ao jazz. Em seguida, tem a opção de introduzir a tonalidade, a assinatura de tempo, o tempo, a instrumentação, a duração e muito mais. Se não souber o que introduzir, a AIVA fá-lo-á por si. Por fim, pode gerar uma faixa, personalizar a instrumentação e carregar vários tipos de ficheiros. Como assinante, tem uma licença de direitos autorais completa para tudo o que criar.
ChatGPT para músicos
Uma das ferramentas de IA mais utilizadas, o ChatGPT da OpenAI tem uma variedade de utilizações para músicos. A empresa está atualmente sob investigação pela Comissão Federal de Comércio, por isso deve tomar precauções sobre as informações que partilha com o ChatGPT, bem como verificar quaisquer factos que receba do ChatGPT.
Tendo isso em mente, o programa tem o potencial de reduzir o tempo que você gasta em tarefas que o afastam de realmente fazer música. Wares e Camp têm experimentado o ChatGPT desde o seu lançamento e têm algumas dicas específicas que músicos e profissionais da música podem achar úteis.
As redes sociais podem ser uma enorme perda de tempo para um músico amador, e o ChatGPT pode ajudar a aliviar a carga. Wares diz que pode começar por dizer ao ChatGPT que tipo de artista é, que género musical toca e quais são os seus passatempos e interesses. Em seguida, pode solicitar 30 conteúdos para os próximos 30 dias no TikTok, Instagram, Facebook ou qualquer outra plataforma de redes sociais que utilize. Não só pode solicitar ideias de conteúdo para redes sociais, como também pode pedir ao ChatGPT para criar legendas e hashtags otimizadas.
Quando saem em digressão, os músicos normalmente contratam alguém para criar um rider técnico que descreva todos os detalhes necessários para realizar o seu espetáculo. Isso pode incluir equipamento, montagem do palco, engenharia de som, iluminação, hospitalidade, contratos de concertos, itinerários da digressão, opções de locais, preços dos bilhetes e muito mais. Wares diz que o ChatGPT pode ser quem escreve esse rider técnico e, recentemente, trabalhou com a banda para planear a sua digressão usando a tecnologia.
«Começámos por criar o rider técnico, que incluía requisitos de backline, uma lista detalhada de entradas e até recomendações específicas de microfones, tudo com base em algumas dicas simples», diz Wares. «Em seguida, pedimos recomendações sobre o itinerário da digressão no Nordeste, quanto deveríamos cobrar pelos bilhetes e ideias de merchandising com base nos interesses e dados demográficos únicos da base de fãs da banda. O que teria levado dias foi feito em menos de uma hora.»
Se precisar de ajuda para escrever letras de músicas, precisar de inspiração ou quiser usar algumas sugestões de palavras, o ChatGPT pode ser uma ferramenta útil para composição. Camp dá o exemplo de trabalhar com a ex-aluna da Berklee Julia Perry (que os entrevistou para um artigo da Berklee Now sobre IA e música) para gerar ideias de músicas usando o ChatGPT.
“Estávamos a falar sobre como o universo é mágico e como ela queria expressar essa verdade profunda e incognoscível sobre o universo”, diz Camp. “E basicamente condensei tudo o que ela disse em dois ou três parágrafos e disse [ChatGPT], dê-me 20 versos iniciais para esta música.”
Eles acabaram por usar uma das 20 opções como ponto de partida para uma nova música.
Redação de conteúdo
O ChatGPT pode ajudar em várias tarefas de redação de conteúdo e copywriting, seja escrevendo um comunicado de imprensa, uma biografia com vários comprimentos de caracteres, uma estratégia de lançamento de álbum, uma publicação de blog, texto para site, e-mail e muito mais.
Acordos e contratos
Num mundo ideal, você teria um advogado para redigir e revisar todos os seus acordos e contratos, mas isso nem sempre é realista ou acessível. Em alguns casos, você pode preferir que o ChatGPT redija um acordo em vez de não ter nada. Isso pode ser usado para acordos de gestão, acordos de banda, planilhas de divisão, acordos de desempenho e muito mais. Mas, novamente, um advogado especializado em entretenimento é sempre preferível, quando possível.
Onde estão as pessoas?
O estado atual da música gerada por IA é mais uma mistura do que uma verdadeira geração. Não é realmente uma banda tributo, mas sim uma abordagem expansiva ao revival. Só pode produzir sons a partir do que está nos dados de treino e, embora possa combinar, misturar e refratar esses elementos de novas maneiras, não pode realmente experimentar além disso.
Os músicos dir-lhe-ão que há apenas um número limitado de notas que podem ser tocadas, ou que todos os sons são apenas uma questão de frequência e comprimento de onda e, portanto, há apenas uma quantidade limitada do que pode ser feito em termos puramente musicais. Mas há mais na música do que apenas arranjar alguns acordes ou ritmos, assim como há mais na criação de receitas do que apenas escolher a partir de uma lista finita de ingredientes e técnicas.
Ribo é um guitarrista conhecido pela sua experimentação e capacidade de extrair influências díspares e misturá-las em algo novo. À primeira vista, isso parece muito com a proposta de valor apresentada pelos defensores da IA generativa, mas ele diz que há diferenças fundamentais entre um humano e uma máquina fazendo a mesma coisa.
«Não consigo tocar um solo de blues de 12 compassos sem citar alguém», disse Ribot. «Temos que conceder o privilégio dos direitos humanos para fazer isso. Sou muito bom em saber quando estou a ultrapassar os limites. Sei que posso citar esta parte de uma música de Charlie Parker sem que seja uma música de Charlie Parker, e sei que posso estragar tudo e ainda assim ficar legal.»
O álbum Rootless Cosmopolitans, de Ribot, de 1990, inclui uma versão de “The Wind Cries Mary”, de Jimi Hendrix. Em homenagem a Hendrix, a versão de Ribot é abstrata, com a letra gritada sobre um som de guitarra distorcido, tendo pouca semelhança com a música original, exceto pelo tom da guitarra, omitindo a melodia, os acordes e o ritmo de Hendrix. Ainda assim, Ribot listou-a como um cover no álbum e paga royalties mecânicos por cada venda ou streaming
. «Este sistema precisa ser preservado e vale a pena lutar por ele», disse Ribot. «Não recebemos o salário mínimo quando estamos sentados num disco. Não temos garantias, mesmo quando estamos a atuar. [Os direitos autorais] são literalmente o único direito económico que temos.»
A prática discursiva de Ribot faz parte de uma longa tradição: a música como meio é definida pela consciência e pelo respeito pelo que veio antes, pelo que ainda pode crescer e mudar, e não apenas ser reciclado. “O que impulsiona a mudança na música são as mudanças no humor das pessoas, as suas necessidades e possibilidades, o que elas amam e o que as irrita. As pessoas podem aprender a pegar nos sentimentos, nos acontecimentos e na plenitude das suas vidas e representá-los na guitarra ou no piano. Isso expande o campo à medida que a experiência se expande, a história se alonga e surgem bandas que precisam de expressão e ideias.”
Historicamente, existe um contrato sagrado entre músicos e público que implica autenticidade e humanidade. Dos milhões de fãs de Taylor Swift que assistiram à Eras Tour, muitos poderiam dar um relato detalhado da sua vida pessoal. O mesmo vale para o público de Beyoncé, Harry Styles, Elton John ou qualquer um dos maiores artistas em turnê. É preciso uma pessoa real para lotar estádios. Ninguém assistiria ao The Masked Singer se não achasse que reconheceria os artistas quando eles fossem desmascarados.
Quando ouvimos música intencionalmente, muitas vezes estamos a ouvir hermenêuticamente, como se a música fosse uma porta de entrada para um espaço maior de compreensão das experiências e perspetivas de outras pessoas. Considere o Nirvana. Como a estética divergente do grunge encontrou a tecnologia moderna de estúdio no momento certo, Nevermind conquistou um grande público não apenas por causa do som, mas porque a trajetória pessoal de Kurt Cobain — a ascensão meteórica e a morte trágica de um jovem suburbano ansioso que se tornou uma estrela do rock ao desafiar abertamente (algumas) convenções das estrelas pop — ressoou nas pessoas.
Embora a banda reconhecesse os músicos que os inspiraram — os Pixies, os Gap Band e outros —, os discos do Nirvana são, em última análise, o produto único das escolhas feitas por Cobain, seus colegas de banda e seus colaboradores, uma expressão e reflexão de suas experiências e ideais. A arte, por definição, é o produto da tomada de decisões humanas.
Algumas músicas geradas por IA, como outras formas de processo musical, ainda mantêm esse elemento humano: como artistas como Ivan Paz e Shelley Knotts dependem muito de modelos automatizados, eles criam o sistema, tomam inúmeras decisões sobre como ele funciona e decidem o que fazer com os sons que ele produz.
Mas a música de IA que ameaça os músicos humanos, que leva pouco mais do que algumas palavras e produz canções inteiras a partir delas, é inerentemente limitada porque só pode olhar para dentro e para trás no tempo a partir dos seus dados, nunca para fora e, portanto, nunca para a frente. A guitarra foi inventada há séculos, mas um modelo de IA treinado em música antes do auge de Sister Rosetta Tharpe na década de 1940 provavelmente não produzirá nada parecido com uma guitarra elétrica. O hip-hop é um estilo musical baseado na amostragem e na reformulação do trabalho de outros artistas (às vezes em formas ou contextos que o artista original não gosta), mas um modelo treinado em música antes de 1973 não será capaz de criar nada parecido com isso.
Existem inúmeras razões pelas quais as pessoas ouvem música, mas existem tantas razões pelas quais as pessoas a fazem. As pessoas têm feito sons umas para as outras há milhares de anos e, durante a maior parte desse tempo, teria sido tolice imaginar ganhar a vida com isso — teria sido impossível até mesmo pensar em amplificá-la, muito menos gravá-la. As pessoas faziam música de qualquer maneira.
Há aqui uma tensão que antecede a IA. Por um lado, as editoras discográficas e as plataformas de streaming digital acreditam, em grande parte corretamente, que o mercado musical quer reconhecimento acima de tudo, por isso grande parte do dinheiro vem das vendas dos catálogos de artistas consagrados, com um relatório a sugerir que essas vendas representaram 70% do mercado musical dos EUA em 2021. Os artistas no topo das tabelas parecem cada vez mais semelhantes. Os algoritmos das plataformas de streaming muitas vezes reproduzem as mesmas músicas repetidamente.
Por outro lado, existe uma necessidade humana intrínseca de surpresa, inovação e transgressão. Isso é diferente para cada pessoa. Os objetivos de uma grande corporação — basicamente, a sua escala e supervisão — são diferentes dos seus utilizadores como um todo e dos indivíduos, e quanto maior for a sua base de utilizadores, mais ela tenderá a automatizar. Nem os geradores de música com IA, nem as listas de reprodução geradas dinamicamente, nem qualquer outro sistema de previsão algorítmica são inerentemente bons ou maus: os resultados dependem inteiramente de quem os opera e com que finalidade.
Mas, aconteça o que acontecer, nenhuma empresa terá o monopólio da música. Nenhuma espécie tem. Os pássaros fazem isso. As abelhas fazem isso. As baleias no mar fazem isso. Parte disso, aos ouvidos humanos, é bastante bonito. Mas mesmo com toda essa melodia natural, toda a música que os humanos já criaram e toda a música que a IA ajudará a criar ou criará por si mesma, o desejo humano de criar e nos expressar persiste. A música existe no nosso mundo por outras razões além do comercialismo.
Na maioria das vezes, a razão é bastante simples: uma pessoa ou um grupo de pessoas decidiu que ela deveria existir e, então, a criou. Ela continuará a existir, não importa quanta porcaria sonora as máquinas produzam.
Aceitar ou resistir?
Um dos temas recorrentes quando se trata de IA e outras tecnologias emergentes é que elas serão uma grande parte da indústria musical (e da maioria das indústrias) no futuro, e que ignorá-las não ajudará os futuros líderes da indústria.
«Acho que a IA pode ajudar os meus alunos a serem mais produtivos e apoiar o seu processo criativo, permitindo que se concentrem no que é mais importante para eles, que é criar e tocar música ou explorar novas ideias de negócios», diz Wears. «No entanto, como educador responsável, tenho de garantir que os meus alunos não se tornem demasiado dependentes dessas ferramentas e estou constantemente à procura de maneiras de usar a IA para ajudar a desenvolver as suas habilidades de pensamento crítico.»
Camp concorda e também incentiva as pessoas a fazerem o que se sentem confortáveis à medida que a IA continua a evoluir.
“Eu certamente encorajo você, se quiser se manter atualizado e usar a tecnologia para avançar naquilo que você veio fazer neste planeta, então sim, participe”, diz Camp. “Mas, como eu disse, tenho amigos que usam telefones fixos. Tenho amigos que preferem comprar discos de vinil. A IA está aqui. Ela tem um impacto enorme. Você não precisa usá-la, mas muitas pessoas optam por fazê-lo.”
IA na Berklee Online
Recentemente, a Berklee Online lançou uma iniciativa chamada ARIA: Realidades aprimoradas por IA e aplicações imersivas. O projeto é liderado por Gabriel Raifer Cohen, diretor associado de suporte e tecnologia de áudio da Berklee Online e ex-aluno da Berklee College of Music.
“Assim como as calculadoras, os computadores, a internet e os motores de busca antes dela, a GenAI veio para ficar”, diz Raifer Cohen. “Ignorar a realidade de que todas essas ferramentas estão prontamente disponíveis é um desserviço aos alunos. ... Ensinar os alunos a usar essas tecnologias da melhor maneira possível — e com responsabilidade — como ferramentas de empoderamento pode ser um esforço mais válido do que tentar combatê-las.”
E só porque a IA terá um papel importante no futuro da indústria musical, isso não significa que não possamos criticar essa nova tecnologia ou defender medidas de segurança. “Ao mesmo tempo, devemos resistir à disseminação da mediocridade e da insensibilidade criativa alimentadas pelo uso irracional da GenAI, mantendo-nos eticamente conscientes e proativos”, diz ele. “Não há nada de fácil nisso, mas devemos considerar que os avanços na IA também abrem oportunidades para experiências educacionais potencialmente transformadoras.” Raifer Cohen diz que, como parte da iniciativa ARIA, a Berklee Online continuará a explorar essas novas ferramentas e só depois de testadas e estudadas exaustivamente é que a escola considerará implementá-las em sala de aula. “Em última análise, não devemos esquecer que, para alunos e professores, espectadores e criadores, todas essas ferramentas poderosas são apenas isso: ferramentas”, diz Raifer Cohen.








