ESTÚDIO

    Ai na música

    Ai na música

    As possibilidades da música movida a IA estão murmurando sob a superfície da indústria da música há anos, mas não foi até o lançamento do ChatGPT em 2022 que a conversa mais ampla em torno da IA ​​começou a se espalhar para o mainstream. Agora estamos em um momento em que alguns músicos e profissionais da indústria da música são fascinados com as possibilidades da música movida à IA, enquanto outros têm cuidado com o desconhecido, especialmente quando a regulamentação ainda está em sua infância. Um estudo da empresa de distribuição de música Ditto descobriu que quase 60 % dos artistas pesquisados ​​dizem que usam a IA em seus projetos musicais, enquanto 28 % dizem que não usariam a IA para fins musicais.

    Christopher Wears, presidente associado do departamento de negócios/gerenciamento da música da Berklee College of Music, é um proponente da AI Music Technology. Ele até escreveu uma tese de mestrado sobre por que a Warner Music deveria investir na IA, em 2016 (alerta de spoiler: eles fizeram, junto com todas as outras principais gravadoras). As mercadorias introduziram a IA em seus cursos em Berklee e viu reações mistas dos alunos.
    "Alguns dos meus alunos adoram a IA e já o usam de maneiras diferentes, enquanto outros não querem nada com isso", diz Wares. "Há muito debate acalorado nas conversas, e eu tento incentivar meus alunos a adotar a tecnologia e encontrar novas maneiras de usá -la para melhorar seus processos criativos".

    Outro autor e instrutor do curso com uma mentalidade semelhante é Ben Camp, um professor associado de composição do Berklee College of Music e o autor de Songs UnMalked: Techniques and Dips para sucesso de composição. Eles ficam fascinados com a tecnologia musical da IA ​​desde 2016, depois de ouvir "Daddy's Car", uma das primeiras músicas pop da AI em que a IA foi treinada na música dos Beatles.

    O acampamento também oferece a seus alunos a oportunidade de aprender IA na sala de aula, desde que eles verifiquem todas as informações que aprendem com o ChatGPT ou qualquer modelo de idioma grande.

    "Acho que todo mundo tem que fazer sua própria escolha", diz Camp. “Quero dizer, tenho amigos que ainda usam telefones flip porque não se sentem confortáveis ​​em ter todas as informações no telefone deles. Tenho amigos que ainda têm telefones fixos. Então, não estou dizendo: 'Ei, pessoal, você precisa fazer isso'. Mas está definitivamente aqui. Não está indo embora. Só vai melhorar. ”

    Se você está usando ativamente a IA em sua música ou tem algumas dúvidas, está ficando cada vez mais claro que a IA desempenhará um papel importante na indústria da música no futuro. Com a experiência de produtos e acampamento, discutimos o estado atual da IA ​​na indústria da música, incluindo as ferramentas disponíveis agora.

    O que é música da IA?

    Antes de definirmos o que significa música da IA, vamos primeiro definir a inteligência artificial. Aqui está a definição de Wares:
    “A inteligência artificial é como a inteligência de um computador; É uma tecnologia que permite que as máquinas imitem o pensamento ou comportamento humano, como resolução, aprendizado ou reconhecimento de problemas. ”

    No contexto da música, a tecnologia de IA chegou a um ponto em que pode gerar, compor e aprimorar o conteúdo musical que foi realizado anteriormente pelos humanos. A Música da IA ​​pode assumir muitas formas e tipos de assistência, desde a criação de uma música inteira do começo ao fim, a escrever aspectos específicos de uma composição, misturar e dominar uma produção, clonagem de voz e muito mais. Também listaremos algumas ferramentas específicas de música de IA que podem executar essas tarefas, cujos recursos abriram uma caixa de problemas de direitos autorais de uma Pandora.

    História

    A inteligência artificial tem suas origens na música, com o problema da transcrição: gravando com precisão uma performance na notação musical como é realizada. O esquema de “fita de piano” de Père Engramelle, um modo de gravar automaticamente os tempos e durações da nota para que eles possam ser facilmente transcritos para a notação musical adequada à mão, foi implementada pela primeira vez pelos engenheiros alemães JF Unger e J. Holfield em 1752.
    Em 1957, O Iliac I (Illinois Automatic Computer) criou a “Illiac Suite for String Quartet”, uma peça de música completamente gerada por computador. O computador foi programado para executar esta tarefa pelo compositor Lejaren Hiller e pelo matemático Leonard Isaacson. : V-VII Em 1960, o pesquisador russo Rudolf Zaripov publicou o primeiro artigo do mundo sobre composição musical algorítmica usando o computador Ural-1.
    Em 1965, o inventor Ray Kurzweil desenvolveu software que poderia reconhecer padrões musicais e sintetizar novas composições deles. O computador apareceu pela primeira vez no programa de questionários que eu tenho um segredo.

    Em 1983, o sistema de música Kansei da Yamaha ganhou força, e um artigo sobre seu desenvolvimento foi publicado em 1989. O software usou técnicas de processamento musical e inteligência artificial para resolver essencialmente o problema de transcrição para melodias mais simples, embora melodias de nível superior e complexidades musicais sejam ainda hoje considerados difíceis problemas de aprendizado profundo, e a transcrição quase perfeita ainda é um assunto de pesquisa.

    Em 1997, um programa de inteligência artificial chamado Experimentos em Inteligência Musical (EMI) superou um compositor humano na tarefa de compor uma peça de música que imitando o estilo de Bach. A Emi mais tarde se tornou a base para um algoritmo mais sofisticado chamado Emily Howell, nomeado após seu criador.

    Em 2002, um grupo de pesquisadores de música do Sony Computer Science Laboratory, em Paris, liderado pelo compositor francês e cientista da computação François Pachet, desenvolveu o continuador, um algoritmo único capaz de reiniciar uma composição depois que um músico ao vivo parou.

    Emily Howell continuou a melhorar a AI da música, lançando seu primeiro álbum, de Darkness, Light, em 2009. Desde então, muitas outras obras de IA foram publicadas por vários grupos.
    Em 2010, o IAMUS se tornou a primeira IA a criar uma peça da música clássica moderna original em seu próprio estilo: “Iamus '' Opus 1”. Localizado na Universidade de Málaga (Universidade de Málaga), na Espanha, o computador pode gerar uma peça de música completamente original em uma variedade de estilos musicais. Em agosto de 2019, um grande conjunto de dados de 12.197 músicas midi, cada uma com suas próprias letras e melodias, foi criada para investigar a viabilidade de gerar neuralmente melodias das letras de músicas usando um método LSTM-Gan condicional profundo.

    Com os avanços na IA generativa, os modelos começaram a surgir que podem criar composições musicais completas (incluindo letras) a partir de descrições de texto simples. Dois aplicativos notáveis ​​da Web nessa área são o SUNO AI, lançado em dezembro de 2023, e Udo, que se seguiu em abril de 2024.

    Aplicativos de software

    Mandril

    Desenvolvido na Universidade de Princeton por Ge Wang e Perry Cook, Chuck é uma linguagem de plataforma cruzada baseada em texto. Ao extrair e classificar técnicas teóricas encontradas em peças musicais, o software é capaz de sintetizar peças inteiramente novas com base nas técnicas que aprendeu. A tecnologia é usada pela Slork (Stanford Laptop Orchestra) e Plok (Princeton Laptop Orchestra).

    Juke-box

    Jukedeck era um site que permitia que as pessoas usassem inteligência artificial para criar músicas originais e sem royalties para uso em vídeos. A equipe começou a desenvolver a tecnologia geradora de músicas em 2010, formou uma empresa em torno de 2012 e lançou o site publicamente em 2015. A tecnologia usada foi inicialmente um sistema de composição algorítmica baseada em regras, que mais tarde foi substituída por redes neurais artificiais. O site foi usado para gerar mais de 1 milhão de músicas e marcas que o usaram incluíram a Coca-Cola, Google, UKTV e o Museu de História Natural em Londres. Em 2019, a empresa foi adquirida pela Bytedance.

    Morfeu

    Morfeus é um projeto de pesquisa de Dorien Herremans e Elaine Chu na Universidade de Queen Mary de Londres, financiada pelo projeto da UE Marie Skłodowska-Curie. O sistema usa uma abordagem de otimização baseada no algoritmo de pesquisa de bairro variável para transformar fragmentos padronizados existentes em novos fragmentos com um determinado nível de tensão tonal que muda dinamicamente em todo o fragmento. Essa abordagem de otimização integra técnicas de detecção de padrões para garantir a estrutura a longo prazo e os temas recorrentes na música gerada. Peças compostas por Morfeu foram realizadas em shows em Stanford e em Londres.

    Aiva

    Fundada em fevereiro de 2016 no Luxemburgo, a Aiva é um programa que produz trilhas sonoras para qualquer tipo de mídia. Os algoritmos por trás da Aiva são baseados em arquiteturas de aprendizado profundo. A Aiva também foi usada para compor uma faixa de rock chamada On the Edge, bem como uma música pop chamada Love Sick, em colaboração com a cantora Taryn Southern para seu álbum de 2018, I Am Ai.

    Google Purple

    A equipe Magenta do Google publicou vários aplicativos de música de IA e white papers desde o seu lançamento em 2016. Em 2017, eles lançaram o algoritmo e o conjunto de dados do Nsynth, um instrumento musical de hardware de código aberto projetado para facilitar para os músicos usarem o algoritmo. O instrumento tem sido usado por artistas notáveis ​​como Grimes e Yacht em seus álbuns. Em 2018, eles lançaram um aplicativo de improvisação de piano chamado piano Genie. Mais tarde, foi seguido pelo Magenta Studio, um conjunto de 5 plugins MIDI que permitem aos produtores musicais desenvolver música existente em seu DAW. Em 2023, sua equipe de aprendizado de máquina publicou um artigo técnico no Github descrevendo o MusicLM, um gerador de texto para música proprietário que eles haviam desenvolvido.

    Rifusão

    A Riffusion é uma rede neural desenvolvida por Seth Forsgren e Ike Martiros que gera música usando padrões de som em vez de áudio. Foi criado como um ajuste fino da difusão estável, um modelo de código aberto existente para gerar imagens a partir de pistas de texto em espectrogramas. Isso resulta em um modelo que usa pistas de texto para gerar arquivos de imagem que podem ser transformados e convertidos em Fourier inverso e convertidos em arquivos de áudio. Embora esses arquivos tenham apenas alguns segundos, o modelo também pode usar o espaço latente entre as saídas para interpolar diferentes arquivos juntos. Isso é alcançado usando uma funcionalidade do modelo de difusão estável conhecido como img2Img. A música resultante foi descrita como "De Otro Mundo" (de outro mundo), embora seja improvável que substitua a música criada pelo homem. O modelo foi lançado em 15 de dezembro de 2022, e o código também está disponível gratuitamente no GitHub. É um dos muitos modelos derivados da difusão estável. A riffusão é classificada como um subconjunto de geradores de texto para música baseados em IA. Em dezembro de 2022, Mubert também usou difusão estável para transformar texto descritivo em loops musicais. Em janeiro de 2023, o Google publicou um artigo sobre seu próprio gerador de texto para música chamado Musiclm.

    Pico ai

    O Spike AI é um plug-in de áudio movido a IA desenvolvido pelo Spike Stent em colaboração com seu filho Joshua Stent e o amigo Henry Ramsey que analisa rastrear e faz recomendações para clareza e outros aspectos durante a mistura. A comunicação é realizada por meio de um chatbot treinado nos dados pessoais do Spike Stent. O plugin se integra a uma estação de trabalho de áudio digital.

    Aplicativos musicais

    A inteligência artificial tem o potencial de influenciar a maneira como os produtores criam música, gerando iterações de faixas com base nas dicas dadas pelo Criador. Essas dicas permitem que a IA siga um estilo específico que o artista está tentando alcançar.

    A IA também tem sido usada na análise musical, onde foi usada para extração de recursos, reconhecimento de padrões e recomendações musicais.

    Composição

    A inteligência artificial teve um grande impacto no setor de composição, pois influenciou as idéias de compositores/produtores e tem o potencial de tornar a indústria mais acessível aos recém -chegados. Com seu desenvolvimento na música, ele já foi usado em colaboração com os produtores. Os artistas usam este software para ajudar a gerar idéias e identificar estilos musicais, solicitando a IA a seguir requisitos específicos que atendam às suas necessidades. Os impactos futuros da tecnologia na composição incluem emulação e fusão de estilos, além de revisão e refinamento. O desenvolvimento desses tipos de software pode facilitar a entrada da indústria da música. Software como o ChatGPT foi usado pelos produtores para executar essas tarefas, enquanto outros softwares como o OZONE11 foram usados ​​para automatizar tarefas demoradas e complexas, como dominar.

    Riscos e danos

    Músicos, produtores e outros usam ferramentas de IA não generativas há anos. Cher popularizou o auto-ajuste com "Believe" há mais de um quarto de século, e inúmeros artistas o usaram para "corrigir" seu tom. As gravadoras usam a IA para digitalizar as mídias sociais quanto a usos não licenciados das músicas que possuem, e Shazam funciona da mesma maneira quando se trata de reconhecer o áudio. Os engenheiros o usam para otimizar o processo de mistura e masterização. Mais recentemente, o diretor da Get Back Peter Jackson usou a tecnologia para isolar faixas individuais de uma gravação mista para reconstruir conversas em estúdio e criar uma música perdida dos Beatles.

    Mas há uma diferença fundamental entre essas ferramentas auxiliares e aplicativos de IA generativos como SUNO e UDIO, que podem criar músicas inteiras a partir de apenas algumas palavras. Todas as novas músicas funcionam de maneira um pouco diferente e continuam a evoluir, mas geralmente operam de maneira semelhante a outras ferramentas generativas de IA: analisam um enorme conjunto de dados e usam os padrões encontrados nele para fazer previsões probabilísticas.

    Para fazer isso para o áudio, os desenvolvedores coletam uma enorme coleção de músicas (por meio de acordos com titulares de licenças e/ou eliminando dados publicamente disponíveis sem permissão) e seus metadados associados (artistas e títulos de músicas, gêneros, anos, descrições, anotações, qualquer coisa relevante e disponível). Tudo isso geralmente é possível pelos trabalhadores mal pagos no sul global que anota esses dados em uma escala gigantesca.

    Os desenvolvedores então preparam esse conjunto de dados para um modelo de aprendizado de máquina, que é (em suma) uma vasta rede de conexões, cada uma atribuiu um "peso" numérico. Os seres humanos "treinar" o modelo, ensinando -o a observar padrões no conjunto de dados e fornecer feedback ao modelo, pontuando suas previsões. Com base nesses padrões, o modelo pode tomar uma pequena peça de áudio ou sugestão de texto e prever o que deve acontecer a seguir, e então o que acontecerá depois disso, e assim por diante.

    Os desenvolvedores ajustam os pesos para gerar resultados mais ouvidos e previsíveis das mesmas entradas. Os geradores de música movidos a IA combinam dois fios de tecnologia: as ferramentas musicais que os profissionais usam nos estúdios há décadas e os grandes modelos de idiomas que permitem que os usuários do cotidiano aproveitem seu poder. Qualquer gerador de música da AI é tão bom quanto os dados em que é treinado. Esses sistemas requerem grandes quantidades de dados e um modelo treinado em um conjunto de dados tendencioso reproduzirá esses vieses em sua saída. De quem as vozes estão incluídas nesta enorme caixa de música e de quem é deixado de fora? Os modelos de IA de hoje tendem a excluir enormes faixas de música, especialmente de tradições musicais que antecedem a tecnologia de gravação e são de origem não ocidental. Conforme projetado atualmente, é mais provável que produza sons estereotipados dentro de um gênero ou estilo do que qualquer coisa incomum, muito menos inovadora ou interessante. Os sistemas generativos de IA são propensos à mediocridade, mas a música transcendental é encontrada nas margens.

    “O que será perdido na criatividade e na diversidade humana se os músicos começarem a confiar em modelos preditivos treinados em conjuntos de dados seletivos que excluem a maioria das culturas e idiomas do mundo?” Lauren Me Goodlad, presidente da iniciativa crítica de IA da Universidade Rutgers, me disse.

    De uma perspectiva legal, os músicos que assistem aos modelos de IA aprendem com seu trabalho têm as mesmas preocupações que o New York Times, Getty e outros editores e criadores que estão processando as empresas de IA: a proveniência dos dados. Embora algumas empresas tenham o cuidado de treinar seus modelos apenas em dados licenciados, outras usam o que puderem colocar em mãos, argumentando que qualquer coisa no domínio público se enquadra em uso justo para esse fim. O RIAA, o corpo de comércio musical dominante nos EUA, agora está processando o SUNO e o Udio por "violação de direitos autorais ... em grande escala". (Divulgação: a Vox Media é um dos vários editores que assinaram lides de parceria com o OpenAI. Nossos relatórios permanecem editorialmente independentes.)

    As pesquisas geralmente mostram que a maioria das pessoas desaprova as empresas de IA copiando dados públicos sem permissão. Mas, embora existam vários processos de alto perfil em cima da mesa, ainda não está claro como o sistema legal afetará as empresas que minerando toda essa criatividade humana sem permissão, muito menos compensá-las. Se essas práticas não forem controladas em breve, os jogadores menos escrupulosos ganharão rapidamente poder e os lobistas e advogados sofisticados que o acompanham. (Instação: não é apenas para máquinas!) Esses problemas estão pressionando agora porque se tornam mais difíceis de resolver com o tempo, e alguns no campo estão recuando. Ed Newton-Rex foi vice-presidente de áudio da Stability IA quando lançou o estábulo Audio, um gerador de música e som de IA, no outono passado.

    Ele deixou a empresa apenas alguns meses depois por sua posição sobre a coleta de dados: a equipe de Newton-Rex treinou áudio estável apenas em dados licenciados, mas a liderança da empresa apresentou um comentário público no escritório de direitos autorais dos EUA de que o desenvolvimento da IA ​​era “um aceitável , uso transformador e socialmente benéfico do conteúdo existente protegido pelo uso justo. ” Para combater a raspagem não licenciada, a Newton-Rex fundou, que verifica e certifica os conjuntos de dados usados ​​pelas empresas de IA. Por enquanto, a organização sem fins lucrativos só pode certificar se o conteúdo no conjunto de dados de uma empresa foi licenciado adequadamente. Algum dia, será capaz de levar em consideração detalhes mais delicados (como o artista consentiu explicitamente com esse uso ou simplesmente não optou por não participar) e outros problemas como a mitigação de viés.

    Como músico e compositor da música coral e de piano, ele vê isso como um ponto de virada para o campo. "Os modelos generativos de IA geralmente estão competindo com seus dados de treinamento", disse Newton-Rex. “Honestamente, as pessoas só têm um tempo limitado para ouvir música. Há um pool limitado de royalties. E assim, quanto mais música criada através desses sistemas, menos isso é para músicos humanos. ”

    Como observou a presidente da FTC, Lina Khan, se uma pessoa criar conteúdo ou informação que uma empresa de IA copia, e então o conteúdo ou as informações produzidas pelo gerador de IA compete com o produtor original “para expulsá -lo do mercado e desviar Negócios ... isso pode ser um método injusto de concorrência ”, que viola as leis antitruste.
    Marc Ribot é um dos mais de 200 músicos que assinaram uma declaração de Direitos de Artistas que se opõem à prática no início deste ano, e ele é um membro ativo do Comitê Diretor de AI da Aliança dos Trabalhadores da Música. Um guitarrista praticante desde a década de 1970, Ribot viu como a tecnologia moldou a indústria, assistindo a gravação de orçamentos diminuindo constantemente por décadas.

    "Não sou contra a própria tecnologia de forma alguma", diz Ribot. Tendo perdido as gravações principais que ele fez nos anos 90, ele próprio usou a IA para isolar faixas individuais da mistura final. Mas ele vê o momento atual como uma oportunidade crítica de recuar contra a tecnologia perante as empresas que ela possui se tornar grande demais para regular.
    "A verdadeira linha divisória entre útil e desastrosa é muito simples", disse Ribot. “É tudo sobre se os produtores da música ou o que mais estiver sendo inserido [como dados de treinamento] têm um direito de consentimento real e funcional. [AI Geradores de música] cuspiu o que eles consomem e, muitas vezes, produzem coisas com grandes pedaços de material protegido por direitos autorais. Essa é a saída. Mas mesmo que não o fizessem, mesmo que a saída não seja infrator, a própria entrada está violando. ”

    Ribot disse que os músicos há muito tempo são indiferentes à IA, mas nos últimos anos ele viu uma "mudança sísmica de atitudes em relação a questões de exploração digital", alimentadas pelas greves do ano passado e da America e uma maior compreensão do capitalismo da vigilância e das liberdades civis.

    Embora os músicos possam ter visto um ao outro como concorrentes há apenas alguns anos - mesmo que a torta esteja ficando menor, ainda existem alguns artistas que podem ficar ricos - a IA representa uma ameaça para toda a indústria que pode não beneficiar nem os mais sortudos do eles.

    O que a IA pode e poderia fazer

    Um dos primeiros exemplos de música criada pela inteligência artificial remonta a 1956: uma peça para quarteto de cordas composta pelo computador Iliac I e programada pela Universidade de Illinois nos professores de Urbana-Champaign, Lejaren Hiller e Leonard Isaacson.

    Após os saltos tecnológicos dos últimos anos, artistas como Holly Herndon, Arca, Yacht, Taryn Southern e Brian Eno estão agora usando IA generativa para experimentar suas práticas criativas. A tendência da IA ​​de produzir "alucinações" e outros resultados sem sentido, embora perigosos em outros contextos, pode ser uma fonte de inspiração na música. Assim como outras tecnologias de áudio passaram a ser definidas por sua dissonância-distorção do CD, compressão de 8 bits, a voz humana rachada muito poderosa para a garganta que o emite, "eventos importantes para o meio destinados a gravá-los", como Brian A ENO escreve no ano com apêndices inchados-a música gerada pela AI pode ser mais valiosa quando é mais distinta. Ivan Paz, um músico com doutorado em ciência da computação, está desenvolvendo sistemas de IA para suas próprias apresentações ao vivo.

    Começando com uma tela em branco, ele escreve código em tempo real (exibido para o público ler) e treina o modelo respondendo aos sons que faz, o que pode ser inesperado, chocante ou simplesmente catastrófico. O resultado é um pouco como tocar um instrumento, mas também como improvisar com outro músico. "Se o seu algoritmo está operando em um nível muito baixo, você sente que está tocando um instrumento musical porque está realmente aprimorando, por exemplo, os parâmetros da síntese", disse Paz. "Mas se o algoritmo estiver determinando a forma de uma peça musical, é como brincar com um agente que está determinando o que acontece a seguir."

    Para uma exposição no Centro de Cultura Contemporânea em Barcelona no início deste ano, Paz trabalhou com a cantora Maria Arnal para criar um modelo de renderização do Timbre para sua voz. Eles pediram aos visitantes que cantassem trechos de músicas; O modelo então misturou essas vozes com o Arnal's para criar uma nova voz de canto. Em outro projeto, a colega de Paz, Shelley Knotts, treinou um modelo em suas próprias composições para evitar a repetição em seu trabalho: analisa sua música para detectar padrões, mas, em vez de sugerir seu próximo passo provavelmente, sugere uma continuação menos provável.

    O próximo passo na evolução musical da IA ​​pode se resumir à velocidade de processamento. A codificação ao vivo é possível com alguns tipos de modelos, mas outros demoram muito para renderizar a música para criá -la em um show ao vivo. Instrumentos eletrônicos como sintetizadores foram originalmente projetados para imitar sons acústicos e desenvolveram seu próprio caráter único ao longo do tempo. Paz vê o potencial final da IA ​​generativa como criando novos sons que não podemos imaginar atualmente, muito menos produzir. Nesse contexto - no qual a IA auxilia um artista - a IA não tem mais probabilidade de "substituir" um músico do que um sintonizador digital ou pedal de atraso.

    No entanto, outros cantos da indústria da música estão adotando a IA para fins mais perturbadores. Embora a IA possa não (e nunca pode) criar música melhor que um humano, agora pode criar músicas aceitáveis ​​a uma velocidade muito mais rápida e em uma escala maior - e "aceitável" é frequentemente o único bar que uma faixa precisa limpar.

    Na maioria das vezes, quando você ouve música, você não sabe quem a criou. O jingle que você ouve em um anúncio. A pontuação ambiente em um filme ou programa de TV, podcast ou videogame. Os Loops que um produtor de hip-hop amostra em uma batida. Esta é a parte da indústria com maior probabilidade de ser despertada pela IA generativa. A Bloomberg relata que os professores estão usando o SUNO para criar auxiliares de ensino de música. Gizmodo observa que o público-alvo do Projeto Music Genai Control, outro gerador de música movido a IA, é pessoas que desejam fazer música de fundo de forma rápida e barata, como podcasters e YouTubers, com a capacidade de especificar o humor, o tom e o comprimento de uma faixa.
    Quer você goste ou até perceba, esses tipos de música foram historicamente criados por humanos. Mas a geração automatizada de música da IA ​​pode custar a esses músicos seus empregos - e muitos deles usam essa renda para apoiar suas atividades mais criativas, mas menos viáveis ​​financeiramente. Você pode nunca ver um músico de IA no palco, mas provavelmente ainda verá menos músicos humanos por causa da tecnologia.

    Por sua parte, jogadores influentes da indústria da música já acreditam que a IA se tornará um dos pilares de seus negócios - estão preocupados com quem colherá os benefícios. O Spotify não restringirá a música gerada pela IA, a menos que seja uma imitação total, que arrisca litígios. O Universal Music Group (UMG) e o YouTube lançaram a incubadora de IA da AI do YouTube para desenvolver ferramentas de IA com artistas da UMG. Enquanto isso, a UMG também é uma das mais de 150 organizações-incluindo ASCAP, IMC, RIAA e AFL-CIO-na Coalizão de Campanha de Arte Humana, que busca estabelecer estruturas éticas para o uso da IA ​​em campos criativos. Eles não querem proibir a tecnologia, mas querem uma participação nos resultados.

    Com mais de 100.000 novas faixas enviadas para serviços de streaming todos os dias, as plataformas de streaming digital têm um forte incentivo para reduzir a parcela de faixas sem royalties e sem royalties que seus usuários tocam. Somente o Spotify pagou US $ 9 bilhões em royalties no ano passado, a maior parte de seus US $ 14 bilhões em receita. A maior empresa de transmissão de música do mundo aumentou historicamente a disponibilidade e a visibilidade das faixas gratuitas e pode continuar a fazê -lo. Os geradores de música movidos a IA são uma maneira fácil de criar músicas gratuitas que podem deslocar artistas reais e compensados ​​de listas de reprodução populares, mudando essa receita de transmissão dos artistas e em direção à própria plataforma.

    Há um novo poder - e um novo perigo - para artistas estabelecidos. Depois de um derrame, o ator Randy Travis tem problemas para falar, muito menos cantar, mas com a ajuda de IA treinada em seu catálogo existente, ele pode reproduzir seus vocais digitalmente.

    Enquanto isso, um produtor anônimo pode criar uma colaboração Drake/The Weeknd, que não tem um som crível e acumulando milhões de fluxos. Em maio, o produtor Metro Boomin foi criticado durante a carne bovina da vida real de Drake com Kendrick Lamar. O Metro Boomin lançou uma batida com amostras geradas pela IA para qualquer pessoa usar, que Drake depois amostrou e bateu, liberando a nova faixa para os serviços de streaming. O rei Willonius, que usou Udio para criar a faixa original que o Metro Boomin remixou, contratou um advogado para manter os direitos de suas contribuições.
    Esses exemplos mais recentes mostram como a música feita rapidamente pode ser uma boa música. Na economia de streaming, o volume e a velocidade são tudo: os artistas são incentivados a produzir quantidade, não de qualidade.

    "[Um futuro sucesso gerado pela IA] não será algo que as pessoas voltem e estudam a maneira como continuam fazendo com os grandes lançamentos da era dos discos", disse o músico Jamie Brooks. Brooks lançou discos sob seu próprio nome e com a ginástica da banda Elite e os sexos padrão e blogs sobre a indústria da música em seu boletim, a sede da perda. “Mas ainda gera engajamento e, portanto, um mundo em que o que quer que esteja no topo do Spotify, as paradas não devem durar, isso é apenas para ser divertido naquele dia e nunca pensou novamente, seria uma coisa boa para todas essas empresas . Eles não precisam que seja arte para ganhar dinheiro.

    “Grande parte da tecnologia de hoje existe principalmente para imitar ou simplificar, o que pode promover o amadorismo. O compartilhamento de arquivos tornou o registro compulsivo que coleta acessível a qualquer pessoa com um disco rígido e um modem, as câmeras de telefone celular permitiram a todos na multidão documentar o programa, e agora o streaming de áudio nos oferece todas as listas de reprodução dinâmicas adaptadas aos nossos humor e coortes de publicidade. A IA generativa também pode facilitar a criação de música para não especialistas. Isso pode mudar radicalmente não apenas quanta música ouvimos, mas nosso relacionamento com a forma como um todo. Se a criação de uma música de sucesso não exige mais esforço do que escrever um tweet viral, grande parte da energia criativa atualmente contida nas mídias sociais pode ser redirecionada para gerar música com base em avisos.

    Brooks vê isso como um fenômeno regressivo, enfatizando a profundidade imediata sobre a atemporal, superando as paradas com memes de áudio e singles inovadores destinados aos ouvintes mais sofisticados, assim como as ondas de rádio foram dominadas por músicas vazias como “Take Me Out to the Ball Game , ”Escrito por duas pessoas que nunca haviam participado de um jogo de beisebol.

    "Essa é a direção que esses serviços vão empurrar a música", disse Brooks. “Não será sobre criatividade. Entre a maneira como esses modelos funcionam e os feeds algorítmicos, tudo é apenas um grande repositório do passado. Não vai avançar os registros em som. Vai acelerar os registros do centro da cultura pop americana para a lata de lixo. ”

    Direitos autorais e música da IA

    Uma das questões mais debatidas em torno da IA ​​nas preocupações da indústria da música que ganha dinheiro com o trabalho gerado pela IA, especialmente se o algoritmo for treinado usando material protegido por direitos autorais. Em março de 2023, o escritório de direitos autorais dos EUA lançou uma iniciativa para investigar problemas de direitos autorais relacionados à IA. Camp está confiante de que os reguladores intervirão e criarão um patch, mas ele se preocupa que a questão seja difícil de resolver por causa do sistema de direitos autorais dos EUA com o qual os artistas operam.

    "Várias leis e precedentes que levaram ao nosso moderno sistema de direitos autorais simplesmente não se encaixam no que está acontecendo na música agora", diz Camp. “Acredito que os criadores devem ter autoria, devem ser creditados e devem ser compensados. Mas, novamente, todo o sistema pelo qual fazemos isso está muito desatualizado. ”

    A IA Music ainda está em uma área cinzenta legal, levantando a questão de saber se um compromisso é possível quando os artistas são creditados, compensados ​​e consentindo com o uso de seu trabalho ou semelhança por IA sem limitar o potencial de criatividade musical usando a tecnologia de IA. Até certo ponto, a arte é derivada de outra arte, e o que é inspiração e o que é o roubo está atualmente embaçado. Algumas gravadoras estão começando a revidar.

    Em maio de 2023, o Universal Music Group chamou os serviços de streaming para bloquear o uso da música gerada pela IA, dizendo que usa a música de seus artistas para treinar seu algoritmo e que eles tomarão medidas legais, se necessário. O Spotify respondeu removendo 7 % da música gerada pela IA em sua plataforma, o que equivale a dezenas de milhares de músicas. Em julho de 2023, a UMG pediu ao Congresso que promulgue uma política nacional para proteger os criadores da violação de direitos autorais movidos a IA. A gravadora é um dos 40 membros a ingressar na campanha de arte humana, uma organização que defende o uso responsável da IA.

    Nos Estados Unidos, a estrutura legal atual tende a aplicar as leis de direitos autorais tradicionais à IA, apesar de suas diferenças em relação ao processo criativo humano. No entanto, as obras musicais criadas exclusivamente pela IA não são protegidas por direitos autorais. No compêndio de prática do escritório de direitos autorais, o escritório de direitos autorais afirmou que não concederá direitos autorais a "obras que não têm autoria humana" e "o escritório não registrará trabalhos criados por uma máquina ou por um mero processo mecânico que opera aleatoriamente ou automaticamente sem qualquer entrada criativa ou intervenção de um autor humano. ” Em fevereiro de 2022, o Conselho de Revisão de Direitos Autorais rejeitou um pedido de direitos autorais para uma obra de arte gerada pela IA, alegando que "não tinha a autoria humana necessária para sustentar uma reivindicação de direitos autorais".

    A situação na União Europeia (UE) é semelhante à dos EUA, pois sua estrutura legal também enfatiza o papel do envolvimento humano em obras protegidas por direitos autorais. De acordo com o Escritório de Propriedade Intelectual da União Europeia e a Contra recente jurisprudência do Tribunal de Justiça da União Europeia, o critério de originalidade exige que uma obra seja a própria criação intelectual do autor, refletindo a identidade do autor, evidenciada pelas escolhas criativas feitas durante sua criação , exigindo um nível específico de envolvimento humano. O projeto Recreating Europe, financiado pelo Programa de Pesquisa e Inovação Horizonte 2020 da União Europeia, investiga os desafios colocados pelo conteúdo gerado pela IA, incluindo música, oferecendo certeza legal e proteção equilibrada que incentiva a inovação e respeitando as regras de direitos autorais. O reconhecimento da Aiva marca um afastamento significativo das visões tradicionais sobre autoria e direitos autorais no campo da composição musical, permitindo que os artistas de IA liberassem música e recebam royalties. Esse reconhecimento faz da Aiva um pioneiro no reconhecimento formal da IA ​​na produção musical.

    Avanços recentes na inteligência artificial de grupos como AI de estabilidade, OpenAI e Google levaram a um grande número de ações de violação de direitos autorais que estão sendo movidas contra tecnologias generativas, incluindo a música de IA. Se esses processos forem bem -sucedidos, os conjuntos de dados dos modelos de aprendizado de máquina que alimentam essas tecnologias serão confinados ao domínio público.

    Drake e The Weeknd

    Embora não haja muito precedente legal para a clonagem de voz, para as celebridades, ele pode se enquadrar no direito de publicidade como uma violação de sua imagem, nome e voz. Um exemplo importante do ano passado foi quando um tiktoker com o nome Ghostwriter usou a IA para criar um dueto falso entre Drake e The Weeknd chamado "Heart na minha manga". Desde então, a música foi retirada, mas as versões ainda estão flutuando pela Internet.

    "Por um lado, você pode argumentar que é um trabalho original", diz Wears. “Por outro lado, pode ser visto como uma forma de infração, pois a IA aprendeu a escrever letras no estilo de Drake analisando seu catálogo, sem sua permissão expressa. Outra preocupação é o uso não autorizado dos nomes e semelhanças dos artistas. ”

    A capacidade de copiar o nome e a semelhança de alguém usando a IA está incomodando a indústria da música, bem como a indústria do entretenimento como um todo. Uma das principais demandas da atual greve de SAG-AFTRA é proteger os criadores de ter seu trabalho usado para treinar geradores de IA e atores de ter suas semelhanças e vozes copiadas sem consentimento.

    Questões éticas com AI

    Os direitos autorais são apenas uma das muitas questões éticas em torno da IA, e é importante lembrar que essa tecnologia e seu desenvolvimento não não têm consequências.

    Uma preocupação imediata é o viés no treinamento de um conjunto de dados. Um exemplo é o rapper FN Meka, que assinou com o Capitol Music Group em 2022, mas depois retirou o contrato devido a estereótipos raciais perpetuados.

    "Um dos grandes problemas é o lixo e o lixo", diz Camp. “Se estamos treinando esses modelos de idiomas, ou esses geradores de imagens ou esses geradores de música em dados inerentemente tendenciosos, inerentemente racistas, tudo o que estamos pedindo perpetuará esses estereótipos. Precisamos garantir que tenhamos bons dados e que estejamos monitorando -os. ”

    Monitorando esses dados também não está sem os danos. Outra preocupação ética é o processo de treinamento, chamado de "aprendizado de reforço", que envolve fornecer feedback humano sobre uma série de conteúdo perturbador. Um episódio recente do podcast The Wall Street Journal The Journal apresenta um trabalhador de dados do Quênia que, entre muitos outros, ajudou a treinar o Chatgpt para distinguir “certo do errado” ao custo de uma saúde mental muito alta.

    "Basicamente, está dando um polegar para cima ou um polegar sobre as respostas", diz Camp. “Isso é uma resposta inadequada? É muito violento, gráfico ou perturbador? O Openai contratou esse trabalho para as pessoas no Quênia, pagando US $ 2 por hora para ler essas respostas. Imagine receber US $ 2 por hora para aparecer para trabalhar e ler um dos texto mais horrível e psicologicamente perturbador, e você faz isso por 10 horas e depois vai para casa e tudo está girando na sua cabeça. Portanto, há muitas falhas na maneira como a salsicha é feita agora. ”

    Música DeepFakes

    Um desenvolvimento mais nascente da IA ​​na música é o uso de Audio DeepFakes para fingir a letra ou o estilo musical de uma música existente para se parecer com a voz ou estilo de outro artista. Isso levantou muitas preocupações sobre a legalidade da tecnologia, bem como a ética de seu uso, especialmente no contexto da identidade artística. Além disso, também levantou a questão de quem é creditado por esses trabalhos. Como a IA não pode ter sua própria autoria, a especulação atual sugere que não haverá uma resposta clara até que sejam tomadas decisões adicionais sobre as tecnologias de aprendizado de máquina em geral. As medidas preventivas mais recentes começaram a ser desenvolvidas pelo Google e pelo Universal Music Group, que levaram em consideração royalties e atribuição de crédito para permitir que os produtores copiassem as vozes e estilos dos artistas.

    “Coração na minha manga”

    Em 2023, um artista conhecido como Ghostwriter977 criou um musical Deepfake chamado "Coração na minha manga" que clonou as vozes de Drake e The Weeknd, alimentando um conjunto de faixas vocais dos respectivos artistas em um algoritmo de aprendizado profundo, criando um modelo artificial de As vozes de cada artista que poderiam ser combinadas com os vocais de referência originais com as letras originais. A faixa foi enviada para consideração do Grammy para a melhor música de rap e música do ano. Ele se tornou viral e ganhou popularidade no Tiktok e recebeu uma resposta positiva do público, levando ao seu lançamento oficial na Apple Music, Spotify e YouTube em abril de 2023. Muitos acreditavam que a faixa foi inteiramente escrita pelo software de IA, mas o produtor afirmou As composições, produção e vocais originais (antes da conversão) ainda eram feitos por ele. Mais tarde, a música foi removida da lista de indicação do Grammy porque não atendeu aos requisitos para consideração do Grammy. A faixa foi removida de todas as plataformas musicais do Universal Music Group. A música foi um ponto de virada para a clonagem de voz usando inteligência artificial e, desde então, os modelos foram criados para centenas, se não milhares, de cantores e rappers populares.

    “De onde isso veio”

    Em 2013, o cantor country Randy Travis sofreu um derrame que o deixou incapaz de cantar. Enquanto isso, o vocalista James Dupré viajou em seu nome, tocando suas músicas. Travis e o produtor de longa data Kyle Lehning lançaram uma nova música em maio de 2024 chamada "Where That Come From", a primeira nova música de Travis desde seu derrame. A gravação usa a tecnologia de inteligência artificial para recriar a voz vocal de Travis, compilada de mais de 40 gravações vocais existentes, juntamente com as gravações de Dupré.

    AI Ferramentas musicais

    Agora que cobrimos o que é IA, assim como algumas de suas principais desvantagens, podemos discutir as ferramentas musicais da IA ​​que existem. Na Berklee Onsite 2023, uma conferência de música anual realizada no campus da Berklee College of Music em Boston, as mercadorias compartilhavam algumas ferramentas musicais de IA para saber; Alguns você pode começar a aprender agora, e outros que você pode querer aprender.

    Bandlab Songstarter

    O App Songstarter do Bandlab é um gerador de músicas movido a IA que permite escolher um gênero, inserir letras de músicas (e emoji), e ele gerará idéias gratuitas. Você pode levar essas idéias para o recurso de estúdio para torná -las as suas. É uma ótima maneira de começar uma música se você precisar de alguma inspiração inicial.

    Midjourney

    Como um dos geradores de imagens mais populares de IA, o Midjourney pode ser usado para criar arte, capas de músicas, pôsteres, loops do Spotify, imagens de mercadorias e muito mais. O que o diferencia de alguns outros geradores de imagens movidos a IA é o seu estilo surreal e de sonho, que pode ser mais adequado para projetos musicais. O programa é fácil de usar, mas há uma curva de aprendizado definitiva. Como muitos novos programas de tecnologia, não deixe de assistir a alguns tutoriais antes de mergulhar.

    Misture o monólito

    O plug -in Mix Monolith é um sistema de mistura automático da Ayaic que será destacada. No artigo do Mix Online, o desenvolvedor diz: "Seu objetivo não é criar automaticamente um mix final, mas estabelecer relações fundamentais de ganho entre as faixas e garantir ajustes adequados de ganho".

    Landr Ai dominando

    A ferramenta de masterização de AI da Landr permite arrastar e soltar sua faixa para o programa, que o analisa e oferece opções simples de estilo e volume. Depois de selecionar essas duas opções, o programa dominará sua faixa, oferecendo mais opções para o tipo de arquivo e o método de distribuição. O Landr possui mais de 20 milhões de faixas que foram misturadas com seu programa.

    Aiva

    A Aiva é um programa de inteligência artificial que foi treinado em mais de 30.000 pontuações icônicas da história. Você pode escolher entre vários estilos de música predefinidos diferentes, do cinema moderno ao cinema do século XX, do tango ao jazz. Você tem a opção de inserir a assinatura da chave, assinatura de tempo, ritmo, instrumentação, duração e muito mais. Se você não souber o que entrar, a Aiva fará isso por você. Por fim, você pode gerar uma faixa, personalizar a instrumentação e fazer upload de uma variedade de tipos de arquivos. Como assinante, você tem uma licença completa de direitos autorais para tudo o que cria.

    Chatgpt para músicos

    Uma das ferramentas de IA mais usadas, o ChatGPT da OpenAI tem uma variedade de usos para os músicos. Atualmente, a empresa está sob investigação da Federal Trade Commission, portanto, você deve tomar precauções sobre quais informações compartilha com o ChatGPT, além de verificar os fatos que receber do ChatGPT.

    Com isso em mente, o programa tem o potencial de reduzir o tempo que você gasta em tarefas que o afastam de realmente fazer música. Wares and Camp vêm experimentando o ChatGPT desde o seu lançamento e têm algumas dicas específicas que músicos e profissionais da música podem achar úteis.

    Estratégia de mídia social

    A mídia social pode ser um tempo enorme para um músico amador, e o ChatGPT pode ajudar a aliviar a carga. As mercadorias dizem que você pode começar dizendo ao Chatgpt que tipo de artista você é, que gênero de música você toca e quais são seus hobbies e interesses. Em seguida, você pode solicitar 30 peças de conteúdo para os próximos 30 dias em Tiktok, Instagram, Facebook ou qualquer plataforma de mídia social que você usar. Você não apenas pode solicitar idéias de conteúdo de mídia social, mas também pode solicitar que o ChatGPT crie legendas e hashtags otimizadas.

    Cavaleiros técnicos para turnê

    Ao sair em turnê, os músicos normalmente contratam alguém para criar um piloto técnico que descreve todos os detalhes necessários para realizar seu show. Isso pode incluir equipamentos, configuração de palco, engenharia de som, iluminação, hospitalidade, contratos de show, itinerários da turnê, opções de local, preços dos ingressos e muito mais. Wares diz que o ChatGPT pode ser o único a escrever esse piloto de tecnologia e trabalhou recentemente com a banda para planejar sua turnê usando a tecnologia.

    "Começamos criando seu piloto de tecnologia, que incluía requisitos de linha de fundo, uma lista detalhada de insumos e até recomendações específicas de microfone, todas com base em algumas dicas simples", diz Wares. “Pedimos recomendações sobre o itinerário da turnê no nordeste, quanto devemos cobrar por ingressos e idéias de mercadorias com base nos interesses e dados demográficos únicos da base de fãs da banda. O que levaria dias foi feito em menos de uma hora. ”

    Letra da música Writing

    Se você precisar de ajuda para escrever letras de músicas, precisa de inspiração ou deseja usar algumas sugestões de palavras, o ChatGPT pode ser uma ferramenta de composição útil. Camp dá o exemplo de trabalhar com a ex -aluna da Berklee, Julia Perry (que os entrevistou para um artigo da Berklee Now sobre IA e música) para gerar idéias de músicas usando o ChatGpt.

    "Estávamos falando sobre como o universo é mágico e como ela queria expressar essa verdade profunda e incognoscível sobre o universo", diz Camp. "E eu basicamente condensei tudo o que ela disse em dois ou três parágrafos e disse [Chatgpt], me dê 20 linhas de abertura para esta música."

    Eles acabaram usando uma das 20 opções como ponto de partida para uma nova música.

    Escrita de conteúdo

    O ChatGPT pode ajudar com uma variedade de tarefas de redação e redação de conteúdo, seja escrevendo um comunicado de imprensa, uma biografia com vários comprimentos de personagem, uma estratégia de lançamento do álbum, uma postagem de blog, cópia do site, email e muito mais.

    Acordos e contratos

    Em um mundo ideal, você teria um advogado escrever e revisar todos os seus acordos e contratos, mas isso nem sempre é realista ou acessível. Em alguns casos, você pode querer fazer com que o ChatGPT redigisse um acordo, em vez de não ter nada. Isso pode ser usado para acordos de gerenciamento, acordos de banda, folhas divididas, acordos de desempenho e muito mais. Mas, novamente, um advogado de entretenimento é sempre preferível quando possível.

    Onde estão as pessoas?

    O estado atual da música generativa da IA ​​é mais mistura e combinação do que a verdadeira geração. Não é realmente uma banda de tributo, mas uma abordagem expansiva do reavivamento. Ele só pode produzir sons a partir do que está nos dados de treinamento e, embora possa combinar, misturar e refratar esses elementos de novas maneiras, não pode realmente experimentar além disso.

    Os músicos lhe dirão que há apenas um número limitado de notas que podem ser tocadas, ou que todos os sons são apenas uma questão de frequência e comprimento de onda e, portanto, há apenas uma quantidade limitada do que pode ser feito em termos puramente musicais. Mas há mais música do que apenas organizar alguns acordes ou ritmos, assim como há mais para criar receitas do que apenas escolher entre uma lista finita de ingredientes e técnicas.

    Ribo é um guitarrista conhecido por sua experimentação e capacidade de se basear de influências díspares e misturá -las a algo novo. À primeira vista, isso parece muito com a proposta de valor apresentada pelos proponentes da IA ​​generativa, mas ele diz que há diferenças fundamentais entre uma humana e uma máquina fazendo a mesma coisa.

    "Não consigo passar por um solo de 12 barras sem citar alguém", disse Ribot. “Temos que dar o privilégio dos direitos humanos para fazer isso. Sou muito bom em saber quando estou cruzando a linha. Eu sei que posso citar essa parte de uma música de Charlie Parker sem que seja uma música de Charlie Parker, e eu sei que posso estragar tudo isso e será legal. ”
    O álbum de Ribot, em 1990, Root Cosmopolitans inclui uma capa de "The Wind Crie Mary", de Jimi Hendrix. Em uma homenagem a Hendrix, a versão de Ribot é abstrata, a letra latiu sobre uma guitarra arranhada, com pouca semelhança com a música original que não o tom do violão, omitindo a melodia, acordes e ritmo de Hendrix. Ainda assim, Ribot o listou como uma capa no álbum e paga uma realeza mecânica em todas as vendas ou fluxo.
    "Este sistema precisa ser preservado e vale a pena lutar", disse Ribot. “Não recebemos salário mínimo quando estamos sentados em um recorde. Não temos garantias, mesmo quando estamos atuando. [Copyright] é literalmente o único direito econômico que temos. ”

    A prática discursiva de Ribot faz parte de uma longa tradição: a música como meio é definida por uma consciência e respeito pelo que veio antes, o que ainda pode crescer e mudar, e não apenas ser reciclado. “O que os impulsos mudam na música são mudanças no humor das pessoas, suas necessidades e possibilidades, e o que elas amam e o que as irrita. As pessoas podem aprender a tomar sentimentos, eventos e a plenitude de suas vidas e representá -las no violão ou piano. Ele expande o campo à medida que a experiência se expande, surge a história e as bandas surgem que precisam de expressão e idéias. ”

    Historicamente, houve um contrato sagrado entre músicos e público que implica autenticidade e humanidade. Dos milhões de fãs de Taylor Swift que participaram da turnê Eras, muitos poderiam lhe dar um relato detalhado de sua vida pessoal. O mesmo vale para o público de Beyoncé, Harry Styles, Elton John, ou qualquer um dos maiores artistas de turismo. Você precisa de uma pessoa real para vender estádios. Ninguém assistiria ao cantor mascarado se eles não pensassem que reconheceriam os artistas quando foram desmascarados.

    Quando ouvimos a música intencionalmente, muitas vezes estamos ouvindo hermenuticamente, como se a música fosse uma porta para um espaço maior de entender as experiências e perspectivas de outras pessoas. Considere o Nirvana. Como o desvio estético de Grunge encontrou a tecnologia moderna de estúdio no momento certo, Nevermind encontrou um grande público não apenas por causa da maneira como parece, mas porque porque o arco pessoal de Kurt Cobain - a ascensão meteórica e a trágica morte precoce de um garoto suburbano ansioso que se tornou A Superstar de rock por convenções pop-estrelas abertamente desafiadoras (algumas)-ressonadas com as pessoas.

    Enquanto a banda reconheceu os músicos que os inspiraram - os pixies, a banda de gap e outros - os discos da Nirvana são, em última análise, o produto único das escolhas feitas por Cobain, seus colegas de banda e seus colaboradores, uma expressão e reflexão de suas experiências e ideais . A arte, por definição, é o produto da tomada de decisão humana.

    Algumas músicas geradas pela IA, como outras formas de processo musical, ainda mantêm esse elemento humano: porque artistas como Ivan Paz e Shelley Knotts dependem fortemente de modelos automatizados, eles criam o sistema, tomam inúmeras decisões sobre como ele funciona e decidem o que decidir fazer com quaisquer sons que produz.
    Mas a música da IA ​​que ameaça músicos humanos, que leva pouco mais do que algumas palavras e produz músicas inteiras deles, é inerentemente limitada porque só pode olhar para dentro e para trás no tempo a partir de seus dados, nunca para fora e, portanto, nunca a seguir. O violão foi inventado séculos atrás, mas um modelo de IA treinado na música antes que o auge da irmã Rosetta Tharpe na década de 1940 é improvável que produza algo parecido com uma guitarra elétrica. O hip-hop é um estilo de música baseado na amostragem e reembalagem do trabalho de outros artistas (às vezes em formas ou contextos que o artista original não gosta), mas um modelo treinado na música antes de 1973 não será capaz de criar nada como que.

    Existem inúmeras razões pelas quais as pessoas ouvem música, mas há tantas razões pelas quais as pessoas conseguem. As pessoas vêm emitindo sons umas para as outras há milhares de anos e, na maior parte desse tempo, teria sido tolice imaginar ganhar a vida - seria impossível pensar em ampliá -lo, muito menos gravá -lo. As pessoas fizeram música de qualquer maneira.

    Há uma tensão aqui que antecede a IA. Por um lado, as gravadoras e as plataformas de streaming digital acreditam, em grande parte corretamente, que o mercado musical deseja reconhecimento acima de tudo, grande parte do dinheiro vem das vendas de catálogos de artistas estabelecidos, com um relatório sugerindo que essas vendas foram responsáveis ​​por 70 A porcentagem do mercado musical dos EUA em 2021. Os toppers de paradas parecem cada vez mais semelhantes. Os algoritmos da plataforma de streaming geralmente alimentam as mesmas músicas repetidamente.

    Por outro lado, há uma necessidade humana intrínseca de surpresa, inovação e transgressão. É diferente para cada pessoa. Os objetivos de uma grande corporação - sua escala e supervisão, basicamente - são diferentes dos de seus usuários como um todo e para o indivíduo, e quanto maior sua base de usuários se torna, mais ela tenderá a automatizar. Nem os geradores de música da IA ​​nem as listas de reprodução geradas dinamicamente, nem qualquer outro sistema preditivo algoritmicamente são inerentemente boas ou ruins: os resultados dependem inteiramente de quem os está executando e com que finalidade.

    Mas aconteça o que acontecer, nenhuma empresa jamais terá o monopólio da música. Nenhuma espécie faz. Os pássaros fazem isso. As abelhas fazem isso. As baleias no mar fazem isso. Parte disso, para o ouvido humano, é muito bonita. Mas mesmo com toda essa melodia natural, todos os humanos da música já criaram e toda a música que a IA ajudará a criar ou criar a si mesma, o desejo humano de criar e nos expressar persiste. A música existe em nosso mundo por outras razões além do comercialismo.

    Na maioria das vezes, o motivo é bastante simples: uma pessoa ou grupo de pessoas decidiu que deveria existir e depois o fez. Ele continuará a existir, não importa o quanto o Sonic lodo as máquinas bombossem.

    Abraçar ou resistir?

    Um dos temas recorrentes quando se trata de IA e outras tecnologias emergentes é que elas serão uma grande parte da indústria da música (e a maioria das indústrias) no futuro, e que ignorá -los não ajudará os futuros líderes do setor.

    "Acho que a IA pode ajudar meus alunos a serem mais produtivos e apoiar seu processo criativo e permitir que eles se concentrem no que mais importa para eles, o que está criando e tocando música ou explorando novas idéias de negócios", diz Wears. "No entanto, como educador responsável, tenho que garantir que meus alunos não se tornem muito dependentes dessas ferramentas, e estou constantemente procurando maneiras de usar a IA para ajudar a desenvolver suas habilidades de pensamento crítico".

    O acampamento concorda e também incentiva as pessoas a fazer o que se sentem confortáveis ​​à medida que a IA continua a evoluir.

    "Eu certamente o encorajo, se você deseja permanecer atual e usar a tecnologia para avançar no que você está no planeta, então sim, entre", diz Camp. “Mas, como eu disse, tenho amigos que usam telefones fixos. Tenho amigos que preferem comprar discos de vinil. Ai está aqui. Tem um enorme impacto. Você não precisa usá -lo, mas muitas pessoas escolhem. ”

    Ai em Berklee online

    Recentemente, a Berklee Online lançou uma iniciativa chamada ARIA: Realidades aprimoradas e aplicações imersivas. O projeto é liderado por Gabriel Raifer Cohen, diretor associado de suporte e tecnologia de áudio da Berklee Online e um ex -aluno da Berklee College of Music.

    "Como calculadoras, computadores, internet e mecanismos de pesquisa antes, Genai está aqui para ficar", diz Raifaer Cohen. “Ignorar a realidade de que todas essas ferramentas estão prontamente disponíveis é um desserviço para os alunos. . . . Ensinar os alunos a melhorar a melhor - e responsabilidade - essas tecnologias como ferramentas de empoderamento podem ser um empreendimento mais que vale a pena do que tentar combatê -las. ”

    E apenas porque a IA desempenhará um papel importante no futuro da indústria da música não significa que não podemos criticar essa nova tecnologia ou defender medidas de segurança. "Ao mesmo tempo, devemos resistir à disseminação da mediocridade e insensibilidade criativa alimentada pelo uso irracional de Genai, mantendo -se eticamente consciente e proativo", diz ele. "Não há nada fácil nisso, mas devemos considerar que os desenvolvimentos na IA também abrem oportunidades para experiências educacionais potencialmente transformadoras". Raifer Cohen diz que, como parte da iniciativa ARIA, a Berklee Online continuará a explorar essas novas ferramentas e somente depois de terem sido testadas e estudadas minuciosamente, a escola considerará implementá -las na sala de aula. "Por fim, não devemos esquecer que, para estudantes e professores, espectadores e criadores, todas essas ferramentas poderosas são exatamente isso: ferramentas", diz Raifo Cohen.

    Registro gratuito

    Registre-se gratuitamente e obtenha um projeto gratuitamente