AI in muziek

Author Avatar
Author
Antony Tornver
Published
February 25, 2025
AI in muziek

De mogelijkheden van door AI aangestuurde muziek worden al jarenlang besproken binnen de muziekindustrie, maar pas sinds de release van ChatGPT in 2022 is de discussie over AI breder geworden en heeft deze zich verspreid naar het grote publiek. We bevinden ons nu op een punt waarop sommige muzikanten en professionals uit de muziekindustrie gefascineerd zijn door de mogelijkheden van AI-aangedreven muziek, terwijl anderen op hun hoede zijn voor het onbekende, vooral omdat de regelgeving nog in de kinderschoenen staat. Uit een onderzoek van muziekdistributiebedrijf Ditto blijkt dat bijna 60 procent van de ondervraagde artiesten zegt AI te gebruiken in hun muziekprojecten, terwijl 28 procent zegt AI niet te gebruiken voor muziekdoeleinden.

Christopher Wears, adjunct-voorzitter van de afdeling muziekbusiness/management aan het Berklee College of Music, is een voorstander van AI-muziektechnologie. Hij schreef in 2016 zelfs een masterscriptie over waarom Warner Music in AI zou moeten investeren (spoiler alert: dat hebben ze gedaan, net als alle andere grote platenlabels). Wares heeft AI geïntroduceerd in zijn cursussen aan Berklee en heeft gemengde reacties van studenten gezien. "Sommige van mijn studenten zijn dol op AI en gebruiken het al op verschillende
manieren, terwijl anderen er niets mee te maken willen hebben", zegt Wares. "Er zijn veel verhitte discussies in de gesprekken, en ik probeer mijn studenten aan te moedigen om de technologie te omarmen en nieuwe manieren te vinden om deze te gebruiken om hun creatieve processen te verbeteren."

Een andere cursusontwikkelaar en docent met een vergelijkbare mentaliteit is Ben Camp, universitair hoofddocent songwriting aan het Berklee College of Music en auteur van Songs Unmasked: Techniques and Tips for Songwriting Success . Ze zijn sinds 2016 gefascineerd door AI-muziektechnologie, nadat ze "Daddy's Car" hadden gehoord, een van de eerste AI-popsongs waarbij de AI was getraind op de muziek van The Beatles.

Camp biedt zijn studenten ook de mogelijkheid om AI in de klas te leren, op voorwaarde dat ze alle informatie die ze van ChatGPT of een ander groot taalmodel leren, controleren op juistheid.

"Ik denk dat iedereen zijn eigen keuze moet maken", zegt Camp. "Ik heb vrienden die nog steeds een klaptelefoon gebruiken omdat ze het niet prettig vinden om al hun informatie op hun telefoon te hebben. Ik heb vrienden die nog steeds een vaste telefoon hebben. Dus ik zeg niet: 'Hé, iedereen, jullie moeten dit doen.' Maar het is er zeker. Het gaat niet weg. Het wordt alleen maar beter."

Of je nu actief AI gebruikt in je muziek of nog twijfels hebt, het wordt steeds duidelijker dat AI in de toekomst een belangrijke rol zal spelen in de muziekindustrie. Met de expertise van Wares en Camp bespreken we de huidige stand van zaken van AI in de muziekindustrie, inclusief de tools die nu beschikbaar zijn.

Wat is AI-muziek?

Voordat we definiëren wat AI-muziek betekent, moeten we eerst kunstmatige intelligentie definiëren. Hier is de definitie van Wares: "
Kunstmatige intelligentie is als de intelligentie van een computer; het is een technologie die machines in staat stelt om menselijk denken of gedrag na te bootsen, zoals het oplossen van problemen, leren of het herkennen van patronen."

In de context van muziek heeft AI-technologie een punt bereikt waarop het muzikale content kan genereren, componeren en verbeteren die voorheen door mensen werd uitgevoerd. AI-muziek kan vele vormen en soorten ondersteuning aannemen, van het creëren van een volledig nummer van begin tot eind, tot het schrijven van specifieke aspecten van een compositie, het mixen en masteren van een productie, het klonen van stemmen en meer. We zullen ook enkele specifieke AI-muziektools noemen die deze taken kunnen uitvoeren, waarvan de mogelijkheden een doos van Pandora aan auteursrechtkwesties hebben geopend.

Geschiedenis

Kunstmatige intelligentie vindt zijn oorsprong in de muziek, met het probleem van transcriptie: het nauwkeurig vastleggen van een uitvoering in muzieknotatie terwijl deze wordt uitgevoerd. Het "pianotape"-schema van Père Engramelle, een methode om automatisch de tijden en duur van noten vast te leggen, zodat deze gemakkelijk met de hand kunnen worden getranscribeerd naar de juiste muzieknotatie, werd voor het eerst geïmplementeerd door de Duitse ingenieurs J. F. Unger en J. Holfield in 1752.
In 1957 creëerde de ILLIAC I (Illinois Automatic Computer) de "Illiac Suite for String Quartet", een volledig door de computer gegenereerd muziekstuk. De computer werd voor deze taak geprogrammeerd door componist Lejaren Hiller en wiskundige Leonard Isaacson. : v–vii In 1960 publiceerde de Russische onderzoeker Rudolf Zaripov 's werelds eerste artikel over algoritmische muziekcompositie met behulp van de Ural-1-computer.
In 1965 ontwikkelde uitvinder Ray Kurzweil software die muzikale patronen kon herkennen en daaruit nieuwe composities kon synthetiseren. De computer verscheen voor het eerst in de quizshow I've Got a Secret.

In 1983 had het Kansei Music System van Yamaha aan populariteit gewonnen en in 1989 werd een artikel over de ontwikkeling ervan gepubliceerd. De software maakte gebruik van muziekverwerking en kunstmatige intelligentie om in wezen het transcriptieprobleem voor eenvoudigere melodieën op te lossen, hoewel melodieën van een hoger niveau en muzikale complexiteiten vandaag de dag nog steeds als moeilijke deep learning-problemen worden beschouwd en een bijna perfecte transcriptie nog steeds een onderwerp van onderzoek is.

In 1997 presteerde een kunstmatig intelligentieprogramma genaamd Experiments in Musical Intelligence (EMI) beter dan een menselijke componist bij het componeren van een muziekstuk in de stijl van Bach. EMI vormde later de basis voor een geavanceerder algoritme genaamd Emily Howell, genoemd naar de maker ervan.

In 2002 ontwikkelde een groep muziekonderzoekers van het Sony Computer Science Laboratory in Parijs, onder leiding van de Franse componist en computerwetenschapper François Pachet, Continuator, een uniek algoritme dat in staat is om een compositie opnieuw te starten nadat een live muzikant was gestopt.

Emily Howell bleef muziek-AI verbeteren door in 2009 haar eerste album, From Darkness, Light, uit te brengen. Sindsdien zijn er door verschillende groepen nog veel meer AI-werken gepubliceerd.
In 2010 werd Iamus de eerste AI die een origineel stuk moderne klassieke muziek in zijn eigen stijl creëerde: "Iamus' Opus 1". De computer, die zich bevindt aan de Universiteit van Malaga (Universidad de Málaga) in Spanje, kan volledig originele muziekstukken genereren in verschillende muziekstijlen. In augustus 2019 werd een grote dataset van 12.197 MIDI-nummers, elk met hun eigen teksten en melodieën, gecreëerd om de haalbaarheid te onderzoeken van het neurale genereren van melodieën op basis van songteksten met behulp van een diepe conditionele LSTM-GAN-methode.

Met de vooruitgang op het gebied van generatieve AI zijn er modellen ontstaan die complete muziekcomposities (inclusief songteksten) kunnen creëren op basis van eenvoudige tekstbeschrijvingen. Twee opmerkelijke webapplicaties op dit gebied zijn Suno AI, die in december 2023 werd gelanceerd, en Udio, die in april 2024 volgde.

Softwaretoepassingen

ChucK

ChucK is een op tekst gebaseerde, platformonafhankelijke taal die is ontwikkeld aan de Princeton University door Ge Wang en Perry Cook. Door theoretische technieken uit muziekstukken te extraheren en te classificeren, kan de software volledig nieuwe stukken synthetiseren op basis van de technieken die het heeft geleerd. De technologie wordt gebruikt door SLOrk (Stanford Laptop Orchestra) en PLOrk (Princeton Laptop Orchestra).

Jukebox

Jukedeck was een website waarop mensen kunstmatige intelligentie konden gebruiken om originele, royaltyvrije muziek te creëren voor gebruik in video's. Het team begon in 2010 met de ontwikkeling van de muziekgenererende technologie, richtte in 2012 een bedrijf op en lanceerde de website in 2015. De gebruikte technologie was aanvankelijk een op regels gebaseerd algoritmisch compositiesysteem, dat later werd vervangen door kunstmatige neurale netwerken. De website is gebruikt om meer dan 1 miljoen muziekstukken te genereren, en merken die er gebruik van hebben gemaakt zijn onder andere Coca-Cola, Google, UKTV en het Natural History Museum in Londen. In 2019 werd het bedrijf overgenomen door ByteDance.

Morpheus

MorpheuS is een onderzoeksproject van Dorien Herremans en Elaine Chu aan de Queen Mary University of London, gefinancierd door het EU Marie Skłodowska-Curie-project. Het systeem maakt gebruik van een optimalisatiebenadering op basis van het variabele buurtzoekalgoritme om bestaande patroonfragmenten om te zetten in nieuwe fragmenten met een bepaald niveau van tonale stress dat dynamisch verandert door het fragment heen. Deze optimalisatiebenadering integreert patroonherkenningstechnieken om te zorgen voor een langetermijnstructuur en terugkerende thema's in de gegenereerde muziek. Stukken gecomponeerd door MorpheuS zijn uitgevoerd tijdens concerten in zowel Stanford als Londen.

AIVA

AIVA, opgericht in februari 2016 in Luxemburg, is een programma dat soundtracks produceert voor alle soorten media. De algoritmen achter AIVA zijn gebaseerd op deep learning-architecturen. AIVA is ook gebruikt om een rocknummer genaamd On the Edge te componeren, evenals een popnummer genaamd Love Sick, in samenwerking met zangeres Taryn Southern voor haar album I am AI uit 2018.

Google Purple

Het Magenta-team van Google heeft sinds de lancering in 2016 verschillende AI-muziekapps en whitepapers gepubliceerd. In 2017 brachten ze het NSynth-algoritme en de dataset uit, een open-source hardware-muziekinstrument dat is ontworpen om het voor muzikanten gemakkelijker te maken om het algoritme te gebruiken. Het instrument is door bekende artiesten als Grimes en YACHT gebruikt op hun albums. In 2018 brachten ze een app voor piano-improvisatie uit, genaamd Piano Genie. Later volgde Magenta Studio, een set van 5 MIDI-plugins waarmee muziekproducenten bestaande muziek in hun DAW kunnen ontwikkelen. In 2023 publiceerde hun machine learning-team een technisch artikel op GitHub waarin MusicLM werd beschreven, een eigen text-to-music-generator die ze hadden ontwikkeld.

Riffusion

Riffusion is een neuraal netwerk ontwikkeld door Seth Forsgren en Ike Martiros dat muziek genereert met behulp van geluidspatronen in plaats van audio. Het is gemaakt als een verfijning van Stable Diffusion, een bestaand open-source model voor het genereren van afbeeldingen op basis van tekstuele aanwijzingen in spectrogrammen. Dit resulteert in een model dat tekstuele aanwijzingen gebruikt om afbeeldingsbestanden te genereren die met een inverse Fourier-transformatie kunnen worden omgezet in audiobestanden. Hoewel deze bestanden slechts enkele seconden lang zijn, kan het model ook de latente ruimte tussen de outputs gebruiken om verschillende bestanden samen te interpoleren. Dit wordt bereikt met behulp van een functionaliteit van het Stable Diffusion-model die bekend staat als img2img. De resulterende muziek wordt omschreven als "de otro mundo" (buitenaards), hoewel het onwaarschijnlijk is dat deze muziek door mensen gemaakte muziek zal vervangen. Het model werd op 15 december 2022 uitgebracht en de code is ook vrij beschikbaar op GitHub. Het is een van de vele modellen die zijn afgeleid van Stable Diffusion. Riffusion wordt geclassificeerd als een subset van op AI gebaseerde tekst-naar-muziekgeneratoren. In december 2022 gebruikte Mubert op vergelijkbare wijze Stable Diffusion om beschrijvende tekst om te zetten in muzieklussen. In januari 2023 publiceerde Google een paper over zijn eigen tekst-naar-muziekgenerator, MusicLM genaamd.

Spike AI

Spike AI is een door AI aangestuurde audioplugin, ontwikkeld door Spike Stent in samenwerking met zijn zoon Joshua Stent en vriend Henry Ramsey, die tracks analyseert en aanbevelingen doet voor de helderheid en andere aspecten tijdens het mixen. De communicatie verloopt via een chatbot die is getraind op basis van de persoonlijke gegevens van Spike Stent. De plugin kan worden geïntegreerd in een digitaal audiowerkstation.

Muziektoepassingen

Kunstmatige intelligentie heeft het potentieel om de manier waarop producers muziek maken te beïnvloeden door trackiteraties te genereren op basis van aanwijzingen van de maker. Deze aanwijzingen stellen de AI in staat om een specifieke stijl te volgen die de artiest nastreeft.

AI wordt ook gebruikt in muziekanalyse, waar het wordt ingezet voor feature-extractie, patroonherkenning en muziekaanbevelingen.

Compositie

Kunstmatige intelligentie heeft een grote impact gehad op de compositiesector, omdat het de ideeën van componisten/producenten heeft beïnvloed en de industrie toegankelijker kan maken voor nieuwkomers. Met de ontwikkeling ervan in de muziek is het al gebruikt in samenwerking met producenten. Artiesten gebruiken deze software om ideeën te genereren en muziekstijlen te identificeren door de AI te vragen specifieke vereisten te volgen die aan hun behoeften voldoen. Toekomstige effecten van de technologie op compositie zijn onder meer emulatie en fusie van stijlen, evenals herziening en verfijning. De ontwikkeling van dit soort software kan het voor nieuwkomers gemakkelijker maken om de muziekindustrie te betreden. Software zoals ChatGPT werd door producers gebruikt om deze taken uit te voeren, terwijl andere software zoals Ozone11 werd gebruikt om tijdrovende en complexe taken zoals mastering te automatiseren.

Risico's en schade

Muzikanten, producers en anderen gebruiken al jaren niet-generatieve AI-tools. Cher maakte auto-tune meer dan een kwart eeuw geleden populair met "Believe" en sindsdien hebben talloze artiesten het gebruikt om hun toon te "corrigeren". Platenlabels gebruiken AI om sociale media te scannen op ongeoorloofd gebruik van nummers die zij in eigendom hebben, en Shazam werkt op vrijwel dezelfde manier als het gaat om het herkennen van audio. Technici gebruiken het om het mix- en masteringproces te stroomlijnen. Meer recentelijk gebruikte Peter Jackson, regisseur van Get Back, de technologie om individuele tracks uit een gemixte opname te isoleren om studiogesprekken te reconstrueren en een verloren Beatles-nummer te creëren.

Maar er is een belangrijk verschil tussen deze hulpmiddelen en generatieve AI-apps zoals Suno en Udio, die complete nummers kunnen creëren op basis van slechts een paar woorden. Alle nieuwe muziek-AI's werken iets anders en blijven zich ontwikkelen, maar over het algemeen werken ze op dezelfde manier als andere generatieve AI-tools: ze analyseren een enorme dataset en gebruiken de patronen die ze daarin vinden om probabilistische voorspellingen te doen.

Om dit voor audio te doen, verzamelen ontwikkelaars een enorme collectie nummers (via overeenkomsten met licentiehouders en/of door zonder toestemming openbaar beschikbare gegevens te scrapen) en de bijbehorende metadata (artiesten en titels van nummers, genres, jaren, beschrijvingen, annotaties, alles wat relevant en beschikbaar is). Dit alles wordt meestal mogelijk gemaakt door laagbetaalde werknemers in het Zuiden, die deze gegevens op gigantische schaal annoteren.

De ontwikkelaars bereiden deze dataset vervolgens voor op een machine learning-model, dat (kort gezegd) een uitgebreid netwerk van verbindingen is, waaraan elk een numeriek "gewicht" is toegekend. Vervolgens 'trainen' mensen het model door het te leren patronen in de dataset te observeren en feedback te geven aan het model door zijn voorspellingen te scoren. Op basis van deze patronen kan het model een kort stukje audio of tekst nemen en voorspellen wat er daarna moet gebeuren, en vervolgens wat er daarna zal gebeuren, enzovoort.

Ontwikkelaars passen de gewichten aan om meer beluisterbare en voorspelbare resultaten te genereren op basis van dezelfde inputs. AI-aangedreven muziekgeneratoren combineren twee technologieën: de muzikale tools die professionals al decennialang in studio's gebruiken, en de grote taalmodellen waarmee gewone gebruikers hun kracht kunnen benutten. Elke AI-muziekgenerator is slechts zo goed als de gegevens waarop hij is getraind. Deze systemen hebben enorme hoeveelheden gegevens nodig, en een model dat is getraind op een bevooroordeelde dataset zal die vooroordelen in zijn output reproduceren. Wiens stemmen zijn opgenomen in deze enorme muziekbox, en wiens stemmen zijn weggelaten? De huidige AI-modellen hebben de neiging om grote delen van de muziek uit te sluiten, met name uit muzikale tradities die dateren van vóór de opnametechnologie en van niet-westerse oorsprong zijn. Zoals ze nu zijn ontworpen, produceren ze eerder stereotiepe geluiden binnen een genre of stijl dan iets ongewoons, laat staan innovatiefs of interessants. Generatieve AI-systemen zijn vatbaar voor middelmatigheid, maar transcendentale muziek is te vinden in de marge.

"Wat gaat er verloren aan menselijke creativiteit en diversiteit als muzikanten gaan vertrouwen op voorspellende modellen die zijn getraind op selectieve datasets die de meeste culturen en talen van de wereld uitsluiten?", vroeg Lauren M.E. Goodlad, voorzitter van het Critical AI-initiatief van Rutgers University, zich af.

Vanuit juridisch oogpunt hebben muzikanten die zien hoe AI-modellen van hun werk leren, dezelfde zorgen als de New York Times, Getty en andere uitgevers en makers die AI-bedrijven aanklagen: de herkomst van de gegevens. Sommige bedrijven zijn voorzichtig en trainen hun modellen alleen op gelicentieerde gegevens, maar andere gebruiken alles wat ze maar kunnen vinden, met het argument dat alles wat in het publieke domein is, voor dit doel onder fair use valt. De RIAA, de dominante muziekorganisatie in de VS, klaagt Suno en Udio nu aan wegens "schending van het auteursrecht... op grote schaal". (Openbaarmaking: Vox Media is een van de verschillende uitgevers die een samenwerkingsovereenkomst met OpenAI hebben gesloten. Onze berichtgeving blijft redactioneel onafhankelijk.)

Uit peilingen blijkt vaak dat de meeste mensen het afkeuren dat AI-bedrijven zonder toestemming openbare gegevens kopiëren. Maar hoewel er een aantal spraakmakende rechtszaken op tafel liggen, is het nog niet duidelijk hoe het rechtssysteem bedrijven zal beïnvloeden die zonder toestemming al die menselijke creativiteit exploiteren, laat staan hen compenseren. Als deze praktijken niet snel worden beteugeld, zullen de minst scrupuleuze spelers snel aan macht winnen en daarmee ook de chique lobbyisten en advocaten die daarbij horen. (Hardvochtigheid: niet alleen voor machines!) Deze kwesties zijn nu urgent omdat ze na verloop van tijd moeilijker op te lossen worden, en sommigen in het veld verzetten zich hiertegen. Ed Newton-Rex was vicepresident audio bij Stability AI toen het bedrijf afgelopen najaar Stable Audio lanceerde, een door AI aangestuurde muziek- en geluidsgenerator.

Hij verliet het bedrijf slechts een paar maanden later vanwege het standpunt van het bedrijf over het verzamelen van gegevens: het team van Newton-Rex trainde Stable Audio alleen op gelicentieerde gegevens, maar het management van het bedrijf diende een openbare opmerking in bij het Amerikaanse auteursrechtenbureau dat de AI-ontwikkeling "een acceptabel, transformatief en maatschappelijk nuttig gebruik was van bestaande inhoud die beschermd is door fair use". Om ongeoorloofd scrapen tegen te gaan, richtte Newton-Rex Fairly Trained op, dat datasets van AI-bedrijven verifieert en certificeert. Voorlopig kan de non-profitorganisatie alleen certificeren of de content in de dataset van een bedrijf over de juiste licenties beschikt. Op termijn zal het ook rekening kunnen houden met fijnere details (zoals of de artiest expliciet toestemming heeft gegeven voor dergelijk gebruik of zich gewoon niet heeft afgemeld) en andere kwesties, zoals het verminderen van vooringenomenheid.

Als muzikant en componist van koor- en pianomuziek ziet hij dit als een keerpunt voor het vakgebied. "Generatieve AI-modellen concurreren meestal met hun trainingsdata", aldus Newton-Rex. "Eerlijk gezegd hebben mensen maar een beperkte hoeveelheid tijd om naar muziek te luisteren. Er is een beperkte pool van royalty's. Dus hoe meer muziek er via deze systemen wordt gecreëerd, hoe minder er naar menselijke muzikanten gaat."

Zoals FTC-voorzitter Lina Khan vorige maand opmerkte, kan het een oneerlijke concurrentiemethode zijn die in strijd is met de antitrustwetgeving als iemand inhoud of informatie creëert die door een AI-bedrijf wordt gekopieerd, en de door de AI-generator geproduceerde inhoud of informatie vervolgens concurreert met de oorspronkelijke producent "om deze uit de markt te verdrijven en zaken af te leiden".
Marc Ribot is een van de meer dan 200 muzikanten die eerder dit jaar een verklaring van de Artist Rights Alliance hebben ondertekend waarin zij zich tegen deze praktijk verzetten, en hij is een actief lid van de AI-stuurgroep van de Music Workers Alliance. Ribot, die sinds de jaren zeventig als gitarist actief is, heeft gezien hoe technologie de industrie heeft gevormd en heeft decennialang gezien hoe de opnamebudgetten gestaag zijn gekrompen.

"Ik ben op geen enkele manier tegen de technologie zelf", zegt Ribot. Nadat hij de masteropnames die hij in de jaren 90 had gemaakt kwijtgeraakt was, gebruikte hij zelf AI om individuele tracks uit de uiteindelijke mix te isoleren. Maar hij ziet het huidige moment als een cruciale kans om weerstand te bieden tegen de technologie, voordat de bedrijven die er eigenaar van zijn te groot worden om te reguleren. "
De echte scheidslijn tussen nuttig en rampzalig is heel eenvoudig", aldus Ribot. "Het gaat erom of de producenten van de muziek of wat dan ook dat wordt ingevoerd [als trainingsdata] een echt, functioneel recht op toestemming hebben. [AI-muziekgeneratoren] spuwen uit wat ze consumeren, en vaak produceren ze dingen met grote stukken auteursrechtelijk beschermd materiaal erin. Dat is de output. Maar zelfs als dat niet het geval is, zelfs als de output geen inbreuk maakt, maakt de input zelf wel inbreuk."

Ribot zei dat muzikanten lange tijd onverschillig stonden tegenover AI, maar dat hij de afgelopen jaren een "aardverschuiving in de houding ten opzichte van digitale exploitatie" heeft gezien, aangewakkerd door de stakingen van SAG-AFTRA en Writers Guild of America vorig jaar, lopende rechtszaken tegen AI-bedrijven en een beter begrip van surveillancenkapitalisme en burgerlijke vrijheden.

Hoewel muzikanten elkaar een paar jaar geleden misschien nog als concurrenten zagen – zelfs als de taart kleiner wordt, zijn er nog steeds een paar artiesten die rijk kunnen worden – vormt AI een bedreiging voor de hele industrie, waar zelfs de gelukkigsten onder hen misschien niet van zullen profiteren.

Wat AI kan en zou kunnen doen

Een van de eerste voorbeelden van muziek die door kunstmatige intelligentie is gecreëerd, dateert uit 1956: een stuk voor strijkkwartet, gecomponeerd door de ILLIAC I-computer en geprogrammeerd door LeJaren Hiller en Leonard Isaacson, professoren aan de Universiteit van Illinois in Urbana-Champaign.

In navolging van de technologische sprongen van de afgelopen jaren gebruiken artiesten als Holly Herndon, Arca, YACHT, Taryn Southern en Brian Eno nu generatieve AI om te experimenteren met hun creatieve praktijken. De neiging van AI om "hallucinaties" en andere onzinnige resultaten te produceren, die in andere contexten gevaarlijk zijn, kan in de muziek een bron van inspiratie zijn. Net zoals andere audiotechnologieën worden gekenmerkt door hun dissonantie – cd-vervorming, 8-bit compressie, de gebroken menselijke stem die te krachtig is voor de keel die haar voortbrengt, 'gebeurtenissen die te belangrijk zijn voor het medium dat bedoeld is om ze op te nemen', zoals Brian Eno schrijft in The Year with Swollen Appendices – kan door AI gegenereerde muziek het meest waardevol zijn wanneer ze het meest onderscheidend is. Ivan Paz, een muzikant met een doctoraat in de informatica, ontwikkelt AI-systemen voor zijn eigen liveoptredens.

Hij begint met een leeg scherm en schrijft in realtime code (die voor het publiek zichtbaar is) en traint het model door te reageren op de geluiden die het maakt, die onverwacht, schokkend of gewoonweg catastrofaal kunnen zijn. Het resultaat lijkt een beetje op het bespelen van een instrument, maar ook op improviseren met een andere muzikant. "Als je algoritme op een zeer laag niveau werkt, heb je het gevoel dat je een muziekinstrument bespeelt, omdat je in feite bijvoorbeeld de parameters van de synthese aanpast", aldus Paz. "Maar als het algoritme de vorm van een muziekstuk bepaalt, is het alsof je speelt met een agent die bepaalt wat er vervolgens gebeurt."

Voor een tentoonstelling in het Centre for Contemporary Culture in Barcelona eerder dit jaar werkte Paz samen met zangeres Maria Arnal om een timbre-weergavemodel voor haar stem te creëren. Ze vroegen bezoekers om korte fragmenten van liedjes te zingen; het model mixte die stemmen vervolgens met die van Arnal om een nieuwe zangstem te creëren. In een ander project trainde Paz' collega Shelley Knotts een model op haar eigen composities om herhaling in haar werk te voorkomen: het analyseert haar muziek om patronen te detecteren, maar in plaats van haar meest waarschijnlijke volgende stap voor te stellen, suggereert het een minder waarschijnlijke voortzetting.

De volgende stap in de muzikale evolutie van AI komt wellicht neer op verwerkingssnelheid. Live coderen is mogelijk met sommige soorten modellen, maar andere hebben te veel tijd nodig om de muziek te renderen om deze in een liveshow te creëren. Elektronische instrumenten zoals synthesizers zijn oorspronkelijk ontworpen om akoestische geluiden na te bootsen en hebben in de loop van de tijd hun eigen unieke karakter ontwikkeld. Paz ziet het ultieme potentieel van generatieve AI in het creëren van nieuwe geluiden die we ons momenteel niet kunnen voorstellen, laat staan produceren. In deze context – waarin AI een artiest assisteert – is het niet waarschijnlijker dat AI een muzikant zal "vervangen" dan een digitale tuner of delay-pedaal.

In andere delen van de muziekindustrie wordt AI echter voor meer disruptieve doeleinden ingezet. Hoewel AI misschien geen betere muziek kan maken dan een mens (en dat ook nooit zal kunnen), kan het nu wel acceptabele muziek creëren met een veel hogere snelheid en op grotere schaal – en 'acceptabel' is vaak de enige lat die een nummer hoeft te halen.

Meestal weet je niet wie de muziek heeft gemaakt als je ernaar luistert. De jingle die je in een reclame hoort. De achtergrondmuziek in een film of tv-programma, podcast of videogame. De loops die een hiphopproducer in een beat sampleert. Dit is het deel van de industrie dat het meest waarschijnlijk op zijn kop zal worden gezet door generatieve AI. Bloomberg meldt dat leraren Suno gebruiken om leermiddelen voor muziek te maken. Gizmodo merkt op dat de doelgroep voor Adobe's Project Music GenAI Control, een andere AI-aangedreven muziekgenerator, mensen zijn die snel en goedkoop achtergrondmuziek willen maken, zoals podcasters en YouTubers, met de mogelijkheid om de sfeer, toon en lengte van een nummer te specificeren.
Of je het nu leuk vindt of zelfs maar opmerkt, dit soort muziek is van oudsher door mensen gemaakt. Maar geautomatiseerde AI-muziekgeneratie zou deze muzikanten hun baan kunnen kosten – en velen van hen gebruiken dat inkomen om hun creatief bevredigende, maar financieel minder rendabele bezigheden te ondersteunen. Je zult misschien nooit een AI-muzikant op het podium zien, maar je zult waarschijnlijk wel minder menselijke muzikanten zien vanwege de technologie.

Invloedrijke spelers in de muziekindustrie zijn er al van overtuigd dat AI een steunpilaar van hun bedrijf zal worden – ze maken zich zorgen over wie hiervan zal profiteren. Spotify zal AI-gegenereerde muziek niet beperken, tenzij het om regelrechte imitatie gaat, wat tot rechtszaken kan leiden. Universal Music Group (UMG) en YouTube hebben de YouTube Music AI Incubator gelanceerd om AI-tools te ontwikkelen met UMG-artiesten. Ondertussen is UMG ook een van de meer dan 150 organisaties – waaronder ASCAP, BMI, RIAA en AFL-CIO – in de Human Artistry Campaign-coalitie, die ethische kaders wil vaststellen voor het gebruik van AI in creatieve sectoren. Ze willen de technologie niet verbieden, maar ze willen wel een aandeel in de resultaten.

Met meer dan 100.000 nieuwe nummers die dagelijks naar streamingdiensten worden geüpload, hebben digitale streamingplatforms een sterke prikkel om het aandeel van door mensen gemaakte, royaltyvrije nummers dat hun gebruikers afspelen te verminderen. Spotify alleen al betaalde vorig jaar 9 miljard dollar aan royalty's, het grootste deel van zijn 14 miljard dollar aan inkomsten. 's Werelds grootste muziekstreamingbedrijf heeft in het verleden de beschikbaarheid en zichtbaarheid van gratis nummers vergroot en zal dat waarschijnlijk blijven doen. AI-aangedreven muziekgeneratoren zijn een gemakkelijke manier om gratis muziek te creëren die echte, royalty's verdienende artiesten uit populaire afspeellijsten zou kunnen verdringen, waardoor die streaminginkomsten van artiesten naar het platform zelf verschuiven.

Er is een nieuwe kracht – en een nieuw gevaar – voor gevestigde artiesten. Na een beroerte heeft countryster Randy Travis moeite met spreken, laat staan zingen, maar met behulp van AI die is getraind op zijn bestaande catalogus, kan hij zijn zang digitaal reproduceren.

Ondertussen kan een anonieme producer een geloofwaardig klinkende samenwerking tussen Drake en The Weeknd creëren en miljoenen streams verzamelen. In mei kwam producer Metro Boomin onder vuur te liggen tijdens de ruzie tussen Drake en Kendrick Lamar. Metro Boomin bracht een beat uit met door AI gegenereerde samples die iedereen kon gebruiken. Drake sampleerde deze beat en rapt eroverheen, waarna hij het nieuwe nummer uitbracht op streamingdiensten. King Willonius, die Udio gebruikte om het originele nummer te maken dat Metro Boomin remixte, nam een advocaat in de arm om de rechten op zijn bijdragen te behouden.
Deze recente voorbeelden laten zien hoe snel gemaakte muziek goed gemaakte muziek kan verdringen. In de streamingeconomie zijn volume en snelheid alles: artiesten worden gestimuleerd om kwantiteit te produceren, niet kwaliteit.

"[Een toekomstige door AI gegenereerde hit] zal niet iets zijn waar mensen op terugkomen en bestuderen, zoals ze blijven doen met de grote releases uit het tijdperk van de platen", aldus muzikant Jamie Brooks. Brooks heeft platen uitgebracht onder haar eigen naam en met de bands Elite Gymnastics en Default Genders, en blogt over de muziekindustrie in haar nieuwsbrief The Seat of Loss. "Maar het genereert nog steeds betrokkenheid, en dus zou een wereld waarin wat er bovenaan de Spotify-hitlijsten staat niet bedoeld is om lang mee te gaan, maar alleen bedoeld is om die dag vermaak te bieden en daarna nooit meer aan te denken, een goede zaak zijn voor al deze bedrijven. Ze hebben geen kunst nodig om geld te verdienen.

" Veel van de huidige technologie bestaat voornamelijk om te imiteren of te vereenvoudigen, wat amateurisme in de hand kan werken. Door het delen van bestanden is het verzamelen van platen voor iedereen met een harde schijf en een modem toegankelijk geworden, dankzij de camera's van mobiele telefoons kan iedereen in het publiek de show vastleggen, en nu biedt streaming audio ons allemaal dynamische afspeellijsten die zijn afgestemd op onze stemming en advertentiecohorten. Generatieve AI zou het maken van muziek ook voor niet-experts gemakkelijker kunnen maken. Dit zou niet alleen radicaal kunnen veranderen hoeveel muziek we horen, maar ook onze relatie tot de vorm als geheel. Als het maken van een hit niet meer moeite kost dan het schrijven van een virale tweet, zou een groot deel van de creatieve energie die momenteel in sociale media zit, kunnen worden omgebogen naar het genereren van muziek op basis van prompts.

Brooks ziet dit als een regressief fenomeen, waarbij de nadruk ligt op het directe in plaats van op tijdloze diepgang, en de hitlijsten worden aangevoerd door audiomemes en baanbrekende singles gericht op de meest verfijnde luisteraars, net zoals de ether ooit werd gedomineerd door inhoudsloze liedjes als "Take Me Out to the Ball Game", geschreven door twee mensen die nog nooit een honkbalwedstrijd hadden bijgewoond.

"Dat is de richting waarin deze diensten muziek gaan sturen", aldus Brooks. "Het gaat helemaal niet meer om creativiteit. Tussen de manier waarop deze modellen werken en de algoritmische feeds is het allemaal gewoon een grote opslagplaats van het verleden. Het gaat de muziek niet vooruit helpen. Het gaat de muziek vanuit het centrum van de Amerikaanse popcultuur versneld naar de prullenbak sturen."

Auteursrecht en AI-muziek

Een van de meest besproken kwesties rond AI in de muziekindustrie betreft de vraag wie er geld verdient aan door AI gegenereerd werk, vooral als het algoritme is getraind met behulp van bestaand auteursrechtelijk beschermd materiaal. In maart 2023 lanceerde het Amerikaanse Copyright Office een initiatief om AI-gerelateerde auteursrechtkwesties te onderzoeken. Camp heeft er vertrouwen in dat regelgevers zullen ingrijpen en een oplossing zullen bedenken, maar hij vreest dat de kwestie moeilijk op te lossen is vanwege het Amerikaanse auteursrechtsysteem waaronder artiesten opereren.

"Een aantal wetten en precedenten die uiteindelijk hebben geleid tot ons moderne auteursrechtensysteem, sluiten gewoon niet aan bij wat er momenteel in de muziekwereld gebeurt", zegt Camp. "Ik ben ervan overtuigd dat makers auteursrecht moeten hebben, vermeld moeten worden en gecompenseerd moeten worden. Maar nogmaals, het hele systeem waarmee we dat doen, is erg verouderd."

AI-muziek bevindt zich nog steeds in een juridisch grijs gebied, wat de vraag oproept of er een compromis mogelijk is waarbij artiesten worden vermeld, vergoed en instemmen met het gebruik van hun werk of gelijkenis door AI, zonder het potentieel voor muzikale creativiteit met behulp van AI-technologie te beperken. In zekere zin is kunst een afgeleide van andere kunst, en wat inspiratie is en wat diefstal is, is momenteel onduidelijk. Sommige platenlabels beginnen terug te vechten.

In mei 2023 riep Universal Music Group streamingdiensten op om het gebruik van door AI gegenereerde muziek te blokkeren, omdat deze muziek wordt gebruikt om hun algoritme te trainen en ze indien nodig juridische stappen zullen ondernemen. Spotify reageerde door 7 procent van de door AI gegenereerde muziek op zijn platform te verwijderen, wat neerkomt op tienduizenden nummers. In juli 2023 riep UMG het Congres op om een nationaal beleid in te voeren om makers te beschermen tegen inbreuken op het auteursrecht door AI. De platenmaatschappij is een van de 40 leden van de Human Artistry Campaign, een organisatie die pleit voor verantwoord gebruik van AI.

In de Verenigde Staten neigt het huidige wettelijke kader ertoe traditionele auteursrechtwetten toe te passen op AI, ondanks de verschillen met het menselijke creatieve proces. Muziekwerken die uitsluitend door AI zijn gecreëerd, worden echter niet door het auteursrecht beschermd. In het Compendium of Practice van het Copyright Office verklaarde het Copyright Office dat het geen auteursrecht zal toekennen aan "werken die geen menselijke auteurschap hebben" en dat "het Office geen werken zal registreren die zijn gemaakt door een machine of door een louter mechanisch proces dat willekeurig of automatisch werkt zonder enige creatieve inbreng of tussenkomst van een menselijke auteur". In februari 2022 heeft de Copyright Review Board een auteursrechtaanvraag voor een door AI gegenereerd kunstwerk afgewezen op grond van het feit dat het "niet het vereiste menselijke auteurschap had dat nodig is om een auteursrechtclaim te ondersteunen".

De situatie in de Europese Unie (EU) is vergelijkbaar met die in de VS, aangezien ook het wettelijke kader van de EU de nadruk legt op de rol van menselijke betrokkenheid bij auteursrechtelijk beschermde werken. Volgens het Bureau voor intellectuele eigendom van de Europese Unie en recente jurisprudentie van het Hof van Justitie van de Europese Unie vereist het originaliteitscriterium dat een werk een eigen intellectuele creatie van de auteur is, die de identiteit van de auteur weerspiegelt, wat blijkt uit de creatieve keuzes die tijdens de creatie ervan zijn gemaakt, en dat een bepaald niveau van menselijke betrokkenheid vereist. Het project reCreating Europe, gefinancierd door het onderzoeks- en innovatieprogramma Horizon 2020 van de Europese Unie, verdiept zich in de uitdagingen die AI-gegenereerde inhoud, waaronder muziek, met zich meebrengt, en biedt rechtszekerheid en evenwichtige bescherming die innovatie aanmoedigt met inachtneming van de auteursrechtregels. De erkenning van AIVA betekent een belangrijke afwijking van de traditionele opvattingen over auteurschap en auteursrecht op het gebied van muziekcompositie, waardoor AI-artiesten muziek kunnen uitbrengen en royalty's kunnen ontvangen. Deze erkenning maakt AIVA tot een pionier in de formele erkenning van AI in de muziekproductie.

Recente ontwikkelingen op het gebied van kunstmatige intelligentie door groepen als Stability AI, OpenAI en Google hebben geleid tot een groot aantal rechtszaken wegens schending van het auteursrecht tegen generatieve technologieën, waaronder AI-muziek. Als deze rechtszaken succesvol zijn, zullen de datasets van de machine learning-modellen die deze technologieën aandrijven, beperkt blijven tot het publieke domein.

Drake en The Weeknd

Hoewel er niet veel juridische precedenten zijn voor het klonen van stemmen, kan het voor beroemdheden vallen onder hun recht op publiciteit als een schending van hun imago, naam en stem. Een belangrijk voorbeeld uit vorig jaar was toen een TikToker met de naam Ghostwriter AI gebruikte om een nepduet tussen Drake en The Weeknd te creëren, getiteld "Heart on My Sleeve". Het nummer is inmiddels verwijderd, maar er circuleren nog steeds versies op internet.

"Aan de ene kant zou je kunnen stellen dat het een origineel werk is", zegt Wears. "Aan de andere kant zou het kunnen worden gezien als een vorm van inbreuk, aangezien de AI heeft geleerd om songteksten in de stijl van Drake te schrijven door zijn catalogus te analyseren, zonder zijn uitdrukkelijke toestemming. Een ander punt van zorg is het ongeoorloofde gebruik van de namen en beeltenissen van artiesten."

De mogelijkheid om iemands naam en gelijkenis te kopiëren met behulp van AI baart de muziekindustrie, en de entertainmentindustrie in het algemeen, zorgen. Een van de belangrijkste eisen van de huidige SAG-AFTRA-staking is om makers te beschermen tegen het gebruik van hun werk voor het trainen van AI-generatoren, en acteurs tegen het kopiëren van hun gelijkenis en stem zonder toestemming.

Ethische kwesties met AI

Auteursrecht is slechts een van de vele ethische kwesties rond AI, en het is belangrijk om te onthouden dat deze technologie en de ontwikkeling ervan niet zonder gevolgen zijn.

Een directe zorg is vooringenomenheid bij het trainen van een dataset. Een voorbeeld hiervan is rapper FN Meka, die in 2022 een contract tekende bij Capitol Music Group, maar dit later opzegde vanwege het in stand houden van raciale stereotypen.

"Een van de grote problemen is garbage in, garbage out", zegt Camp. "Als we deze taalmodellen, beeldgeneratoren of muziekgeneratoren trainen op basis van gegevens die inherent bevooroordeeld en racistisch zijn, dan zal alles wat we vragen die stereotypen in stand houden. We moeten ervoor zorgen dat we goede gegevens invoeren en dat we deze controleren."

Het controleren van die gegevens is ook niet zonder nadelen. Een ander ethisch probleem is het trainingsproces, "reinforcement learning" genaamd, waarbij menselijke feedback wordt gegeven op een reeks verontrustende inhoud. In een recente aflevering van de Wall Street Journal-podcast The Journal komt een Keniaanse datamedewerker aan het woord die, samen met vele anderen, heeft geholpen ChatGPT te trainen om "goed van kwaad" te onderscheiden, ten koste van zijn geestelijke gezondheid.

"In feite gaat het om het geven van een duim omhoog of een duim omlaag voor reacties", zegt Camp. "Is dit een ongepaste reactie? Is het te gewelddadig, te expliciet of te verontrustend? OpenAI besteedde dat werk uit aan mensen in Kenia en betaalde hen 2 dollar per uur om die reacties te lezen. Stel je voor dat je 2 dollar per uur krijgt om naar je werk te gaan en enkele van de meest gruwelijke, psychologisch verontrustende teksten te lezen, en dat je dat 10 uur lang doet, en dan naar huis gaat en het allemaal door je hoofd blijft spoken. Er zijn dus veel tekortkomingen in de manier waarop worst momenteel wordt gemaakt."

Deepfakes in muziek

Een meer recente ontwikkeling van AI in de muziek is het gebruik van audio-deepfakes om de tekst of muziekstijl van een bestaand nummer te vervalsen, zodat deze lijkt op de stem of stijl van een andere artiest. Dit heeft veel vragen opgeroepen over de legaliteit van de technologie en de ethiek van het gebruik ervan, vooral in de context van artistieke identiteit. Bovendien heeft het ook de vraag opgeworpen wie de credits voor deze werken krijgt. Aangezien AI geen eigen auteurschap kan hebben, suggereert de huidige speculatie dat er geen duidelijk antwoord zal komen totdat er verdere beslissingen worden genomen over machine learning-technologieën in het algemeen. De meest recente preventieve maatregelen zijn ontwikkeld door Google en de Universal Music Group, die rekening hebben gehouden met royalty's en credits, zodat producenten de stemmen en stijlen van artiesten kunnen kopiëren.

"Heart on My Sleeve"

In 2023 creëerde een artiest die bekend staat als ghostwriter977 een muzikale deepfake genaamd "Heart on My Sleeve", waarbij de stemmen van Drake en The Weeknd werden gekloond door een reeks vocale tracks van de respectievelijke artiesten in een deep learning-algoritme te voeren, waardoor een kunstmatig model van de stemmen van elke artiest werd gecreëerd dat kon worden vergeleken met de originele referentievocalen met de originele songteksten. Het nummer werd ingediend voor een Grammy-nominatie voor Beste Rapnummer en Nummer van het Jaar. Het ging viraal en werd populair op TikTok en kreeg positieve reacties van het publiek, wat leidde tot de officiële release op Apple Music, Spotify en YouTube in april 2023. Velen dachten dat het nummer volledig door AI-software was geschreven, maar de producer beweerde dat het schrijven, de productie en de originele zang (vóór de conversie) nog steeds door hem waren gedaan. Het nummer werd later verwijderd van de Grammy-nominatielijst omdat het niet voldeed aan de vereisten voor Grammy-nominatie. Het nummer werd door Universal Music Group van alle muziekplatforms verwijderd. Het nummer was een keerpunt voor het klonen van stemmen met behulp van kunstmatige intelligentie, en sindsdien zijn er modellen gemaakt voor honderden, zo niet duizenden populaire zangers en rappers.

"Waar dat vandaan kwam"

In 2013 kreeg countryzanger Randy Travis een beroerte waardoor hij niet meer kon zingen. Ondertussen ging zanger James Dupré namens hem op tournee en zong hij zijn nummers. Travis en zijn vaste producer Kyle Lehning brachten in mei 2024 een nieuw nummer uit, getiteld "Where That Came From", het eerste nieuwe nummer van Travis sinds zijn beroerte. Bij de opname is gebruikgemaakt van kunstmatige intelligentie om de stem van Travis te recreëren, samengesteld uit meer dan 40 bestaande vocale opnames en opnames van Dupré.

AI-muziektools

Nu we hebben besproken wat AI is en wat enkele van de belangrijkste nadelen ervan zijn, kunnen we het hebben over de AI-muziektools die er zijn. Tijdens Berklee Onsite 2023, een jaarlijkse muziekconferentie op de campus van Berklee College of Music in Boston, deelde Wares een aantal AI-muziektools die de moeite waard zijn om te kennen; sommige kun je nu meteen leren gebruiken, andere zijn misschien alleen interessant om over te leren.

BandLab SongStarter

De SongStarter-app van BandLab is een door AI aangestuurde songgenerator waarmee je een genre kunt kiezen, songteksten (en emoji's) kunt invoeren en waarmee je gratis ideeën kunt genereren. Je kunt die ideeën vervolgens meenemen naar hun studiofunctie om ze naar je hand te zetten. Het is een geweldige manier om aan een song te beginnen als je wat inspiratie nodig hebt.

Midjourney

Midjourney is een van de populairste AI-aangedreven beeldgeneratoren en kan worden gebruikt om albumhoezen, songcovers, posters, Spotify-loops, merch-afbeeldingen en meer te maken. Wat het onderscheidt van sommige andere AI-aangedreven beeldgeneratoren is de surrealistische, droomachtige stijl, die wellicht beter geschikt is voor muziekprojecten. Het programma is gemakkelijk te gebruiken, maar er is wel een leercurve. Zoals bij veel nieuwe technische programma's, is het raadzaam om eerst een paar tutorials te bekijken voordat je ermee aan de slag gaat.

Mix Monolith

De Mix Monolith-plug-in is een automatisch mixsysteem van AYAIC dat je mix egaliseert. In het artikel van Mix Online zegt de ontwikkelaar: "Het doel is niet om automatisch een voltooide mix te creëren, maar om fundamentele gain-relaties tussen tracks vast te stellen en te zorgen voor de juiste gain-aanpassingen."

LANDR AI Mastering

Met de AI-masteringtool van LANDR kun je je track naar het programma slepen en neerzetten, waarna deze wordt geanalyseerd en eenvoudige opties voor stijl en volume worden aangeboden. Zodra je deze twee opties hebt geselecteerd, mastert het programma je track en krijg je meer opties voor het bestandstype en de distributiemethode. LANDR heeft meer dan 20 miljoen tracks die met hun programma zijn gemixt.

AIVA

AIVA is een kunstmatig intelligentieprogramma dat is getraind op meer dan 30.000 iconische partituren uit de geschiedenis. Je kunt kiezen uit verschillende vooraf ingestelde muziekstijlen, van moderne cinema tot twintigste-eeuwse cinema, van tango tot jazz. Vervolgens kun je de toonsoort, maatsoort, tempo, instrumentatie, duur en meer invoeren. Als je niet weet wat je moet invoeren, doet AIVA dat voor je. Ten slotte kun je een track genereren, de instrumentatie aanpassen en verschillende bestandstypen uploaden. Als abonnee heb je een volledige auteursrechtlicentie voor alles wat je creëert.

ChatGPT voor muzikanten

Een van de meest gebruikte AI-tools, ChatGPT van OpenAI, heeft verschillende toepassingen voor muzikanten. Het bedrijf wordt momenteel onderzocht door de Federal Trade Commission, dus je moet voorzichtig zijn met de informatie die je met ChatGPT deelt en alle feiten die je van ChatGPT ontvangt, controleren.

Met dat in gedachten heeft het programma wel het potentieel om de tijd te verminderen die je besteedt aan taken die je afleiden van het daadwerkelijk maken van muziek. Wares en Camp hebben sinds de release geëxperimenteerd met ChatGPT en hebben een aantal specifieke tips die muzikanten en muziekprofessionals wellicht nuttig vinden.

Socialemediastrategie

Sociale media kunnen een enorme tijdverslinder zijn voor een amateurmuzikant, en ChatGPT kan helpen om die last te verlichten. Wares zegt dat je kunt beginnen door ChatGPT te vertellen wat voor soort artiest je bent, welk muziekgenre je speelt en wat je hobby's en interesses zijn. Vervolgens kun je 30 stukken content aanvragen voor de komende 30 dagen op TikTok, Instagram, Facebook of welk socialemediaplatform je ook gebruikt. Je kunt niet alleen ideeën voor socialemediacontent aanvragen, maar ChatGPT ook vragen om geoptimaliseerde bijschriften en hashtags te maken.

Technische riders voor tournees

Als muzikanten op tournee gaan, huren ze meestal iemand in om een technische rider op te stellen met alle details die nodig zijn om hun show te laten slagen. Dit kan onder meer gaan over apparatuur, podiumopstelling, geluidstechniek, belichting, hospitality, optredenscontracten, tournee-itineraria, locatieopties, ticketprijzen en nog veel meer. Wares zegt dat ChatGPT die technische rider zou kunnen schrijven en heeft onlangs met de band samengewerkt om hun tournee te plannen met behulp van deze technologie.

"We zijn begonnen met het opstellen van hun technische rider, met daarin de backline-vereisten, een gedetailleerde lijst met inputs en zelfs specifieke microfoonaanbevelingen, allemaal op basis van een paar eenvoudige tips", zegt Wares. "Vervolgens hebben we om aanbevelingen gevraagd voor de tourroute in het noordoosten, hoeveel we voor tickets moesten vragen en ideeën voor merchandise op basis van de unieke interesses en demografische gegevens van de fanbase van de band. Wat normaal gesproken dagen zou hebben geduurd, was in minder dan een uur klaar."

Songteksten schrijven

Als je hulp nodig hebt bij het schrijven van songteksten, inspiratie nodig hebt of enkele woordsuggesties wilt gebruiken, kan ChatGPT een handig hulpmiddel zijn bij het schrijven van liedjes. Camp geeft het voorbeeld van de samenwerking met voormalig Berklee-studente Julia Perry (die hen interviewde voor een artikel in Berklee Now over AI en muziek) om met behulp van ChatGPT ideeën voor liedjes te genereren.

"We hadden het over hoe het universum magisch is en hoe zij deze diepe, onkenbare waarheid over het universum wilde uitdrukken", zegt Camp. "Ik heb alles wat ze zei in twee of drie alinea's samengevat en tegen [ChatGPT] gezegd: geef me 20 openingsregels voor dit liedje."

Uiteindelijk gebruikten ze een van de 20 opties als uitgangspunt voor een nieuw liedje.

Content schrijven

ChatGPT kan helpen bij verschillende taken op het gebied van content schrijven en copywriting, of het nu gaat om het schrijven van een persbericht, een biografie met verschillende lengtes, een albumreleasestrategie, een blogpost, websiteteksten, e-mails en meer.

Overeenkomsten en contracten

In een ideale wereld zou je al je overeenkomsten en contracten door een advocaat laten opstellen en controleren, maar dat is niet altijd realistisch of betaalbaar. In sommige gevallen kun je beter ChatGPT een overeenkomst laten opstellen dan helemaal niets hebben. Dit kan worden gebruikt voor managementovereenkomsten, bandovereenkomsten, split sheets, optredensovereenkomsten en meer. Maar nogmaals, een entertainmentadvocaat heeft altijd de voorkeur, indien mogelijk.

Waar zijn de mensen?

De huidige staat van AI-generatieve muziek is meer mix-and-match dan echte generatie. Het is niet echt een tributeband, maar eerder een uitgebreide benadering van revival. Het kan alleen geluiden produceren op basis van wat er in de trainingsgegevens staat, en hoewel het die elementen op nieuwe manieren kan combineren, mixen en breken, kan het niet echt verder experimenteren dan dat.

Muzikanten zullen je vertellen dat er maar een beperkt aantal noten kan worden gespeeld, of dat alle geluiden slechts een kwestie zijn van frequentie en golflengte, en dat er daarom maar een beperkte hoeveelheid mogelijk is in puur muzikale termen. Maar muziek is meer dan alleen het arrangeren van akkoorden of ritmes, net zoals het bedenken van recepten meer is dan alleen kiezen uit een eindige lijst van ingrediënten en technieken.

Ribo is een gitarist die bekend staat om zijn experimenten en zijn vermogen om uit uiteenlopende invloeden te putten en deze te combineren tot iets nieuws. Op het eerste gezicht lijkt dit sterk op de waardepropositie van voorstanders van generatieve AI, maar hij zegt dat er fundamentele verschillen zijn tussen een mens en een machine die hetzelfde doen.

"Ik kan geen 12-maten blues solo spelen zonder iemand te citeren," zei Ribot. "We moeten het voorrecht van mensenrechten geven om dat te doen. Ik ben er vrij goed in om te weten wanneer ik de grens overschrijd. Ik weet dat ik dit deel van een nummer van Charlie Parker kan citeren zonder dat het een nummer van Charlie Parker wordt, en ik weet dat ik het zo erg kan verpesten dat het nog steeds cool is."
Ribots album Rootless Cosmopolitans uit 1990 bevat een cover van Jimi Hendrix' "The Wind Cries Mary". Als eerbetoon aan Hendrix is Ribots versie abstract, met de tekst die over een krassende gitaar wordt gebruld, en lijkt het nummer weinig op het origineel, behalve de gitaarklank, waarbij Hendrix' melodie, akkoorden en ritme zijn weggelaten. Toch heeft Ribot het als cover op het album vermeld en betaalt ze een mechanische royalty voor elke verkoop of stream.
"Dit systeem moet behouden blijven en het is de moeite waard om ervoor te vechten", aldus Ribot. "We krijgen geen minimumloon als we op een plaat zitten. We hebben geen garanties, zelfs niet als we optreden. [Auteursrecht] is letterlijk het enige economische recht dat we hebben."

Ribots discursieve praktijk maakt deel uit van een lange traditie: muziek als medium wordt bepaald door een bewustzijn van en respect voor wat er eerder was, wat nog kan groeien en veranderen, en niet alleen maar gerecycled kan worden. "Wat verandering in muziek stimuleert, zijn veranderingen in de stemming van mensen, hun behoeften en mogelijkheden, en wat ze leuk vinden en wat hen irriteert. Mensen kunnen leren om gevoelens, gebeurtenissen en de volheid van hun leven te vertalen naar hun gitaar of piano. Het veld breidt zich uit naarmate de ervaring toeneemt, de geschiedenis langer wordt en er bands ontstaan die behoefte hebben aan expressie en ideeën."

Historisch gezien is er een heilige overeenkomst tussen muzikanten en hun publiek die authenticiteit en menselijkheid impliceert. Van de miljoenen fans van Taylor Swift die de Eras Tour hebben bijgewoond, kunnen velen je een gedetailleerd verslag geven van haar persoonlijke leven. Hetzelfde geldt voor het publiek van Beyoncé, Harry Styles, Elton John of welke andere grote artiest dan ook die op tournee is. Je hebt een echt persoon nodig om stadions uit te verkopen. Niemand zou zelfs maar naar The Masked Singer kijken als ze niet dachten dat ze de artiesten zouden herkennen wanneer ze ontmaskerd werden.

Als we bewust naar muziek luisteren, luisteren we vaak hermeneutisch, alsof het liedje een deur is naar een grotere ruimte waarin we de ervaringen en perspectieven van andere mensen kunnen begrijpen. Neem Nirvana. Omdat de esthetische afwijking van grunge op precies het juiste moment samenkwam met moderne studiotechnologie, vond Nevermind een enorm publiek, niet alleen vanwege de manier waarop het klinkt, maar ook omdat Kurt Cobains persoonlijke ontwikkeling – de snelle opkomst en tragische vroege dood van een angstige jongen uit de buitenwijken die een rocksuperster werd door (sommige) popsterconventies openlijk uit te dagen – weerklank vond bij mensen.

Hoewel de band de muzikanten erkende die hen inspireerden – de Pixies, de Gap Band en anderen – zijn de platen van Nirvana uiteindelijk het unieke product van de keuzes die Cobain, zijn bandleden en hun medewerkers hebben gemaakt, een uitdrukking en weerspiegeling van hun ervaringen en idealen. Kunst is per definitie het product van menselijke besluitvorming.

Sommige door AI gegenereerde muziek behoudt, net als andere vormen van muzikale processen, nog steeds dat menselijke element: omdat artiesten als Ivan Paz en Shelley Knotts sterk leunen op geautomatiseerde modellen, creëren ze het systeem, nemen ze talloze beslissingen over hoe het werkt en beslissen ze wat ze doen met de geluiden die het produceert.
Maar de AI-muziek die een bedreiging vormt voor menselijke muzikanten, die met slechts een paar woorden hele nummers produceert, is inherent beperkt omdat het alleen naar binnen en terug in de tijd kan kijken vanuit zijn data, nooit naar buiten en dus nooit vooruit. De gitaar is eeuwen geleden uitgevonden, maar een AI-model dat is getraind op muziek van vóór de hoogtijdagen van Sister Rosetta Tharpe in de jaren 40 zal waarschijnlijk niets produceren dat lijkt op een elektrische gitaar. Hiphop is een muziekstijl die gebaseerd is op het samplen en herverpakken van het werk van andere artiesten (soms in vormen of contexten die de oorspronkelijke artiest niet leuk vindt), maar een model dat is getraind op muziek van vóór 1973 zal zoiets niet kunnen creëren.

Er zijn talloze redenen waarom mensen naar muziek luisteren, maar er zijn net zoveel redenen waarom mensen muziek maken. Mensen maken al duizenden jaren geluiden voor elkaar, en gedurende het grootste deel van die tijd zou het dwaas zijn geweest om te denken dat je er je brood mee kon verdienen – het was onmogelijk om zelfs maar te denken aan versterking, laat staan aan opname. Mensen maakten toch muziek.

Hier is sprake van een spanning die al bestond vóór de komst van AI. Aan de ene kant zijn platenlabels en digitale streamingplatforms, grotendeels terecht, van mening dat de muziekmarkt boven alles erkenning wil, dus komt veel van het geld uit de verkoop van catalogi van gevestigde artiesten. Uit een rapport blijkt dat die verkoop in 2021 goed was voor 70 procent van de Amerikaanse muziekmarkt. De toppers in de hitlijsten klinken steeds meer op elkaar. De algoritmen van streamingplatforms spelen vaak steeds weer dezelfde nummers.

Aan de andere kant is er een intrinsieke menselijke behoefte aan verrassing, innovatie en transgressie. Dat is voor iedereen anders. De doelstellingen van een grote onderneming – in feite haar omvang en toezicht – verschillen van die van haar gebruikers als geheel en van het individu, en hoe groter haar gebruikersbestand wordt, hoe meer zij zal neigen naar automatisering. Noch AI-muziekgeneratoren, noch dynamisch gegenereerde afspeellijsten, noch enig ander algoritmisch voorspellend systeem zijn inherent goed of slecht: de resultaten hangen volledig af van wie ze gebruikt en voor welk doel.

Maar wat er ook gebeurt, geen enkel bedrijf zal ooit een monopolie op muziek hebben. Geen enkele soort heeft dat. Vogels doen het. Bijen doen het. Walvissen in de zee doen het. Sommige daarvan zijn voor het menselijk oor heel mooi. Maar zelfs met al die natuurlijke melodieën, alle muziek die mensen al hebben gecreëerd en alle muziek die AI zal helpen creëren of zelf zal creëren, blijft de menselijke drang om te creëren en ons uit te drukken bestaan. Muziek bestaat in onze wereld om andere redenen dan commercialisme.

Meestal is de reden heel eenvoudig: een persoon of een groep mensen besloot dat het moest bestaan, en zorgde ervoor dat het zo kwam. Het zal blijven bestaan, hoeveel sonische modder de machines ook produceren.

Omhelzen of weerstaan?

Een van de terugkerende thema's als het gaat om AI en andere opkomende technologieën is dat ze in de toekomst een groot deel van de muziekindustrie (en de meeste industrieën) zullen uitmaken, en dat het negeren ervan de toekomstige leiders van de industrie niet zal helpen.

"Ik denk dat AI mijn studenten kan helpen productiever te zijn en hun creatieve proces kan ondersteunen, zodat ze zich kunnen concentreren op wat voor hen het belangrijkst is, namelijk het maken en uitvoeren van muziek of het verkennen van nieuwe zakelijke ideeën", zegt Wears. "Als verantwoordelijk docent moet ik er echter voor zorgen dat mijn studenten niet te afhankelijk worden van deze tools, en ik ben voortdurend op zoek naar manieren om AI te gebruiken om hun kritisch denkvermogen te ontwikkelen."

Camp is het daarmee eens en moedigt mensen ook aan om te doen waar ze zich prettig bij voelen, terwijl AI zich blijft ontwikkelen.

"Ik moedig je zeker aan om mee te doen als je bij wilt blijven en technologie wilt gebruiken om vooruit te komen in wat je op deze planeet doet", zegt Camp. "Maar zoals ik al zei, ik heb vrienden die vaste telefoons gebruiken. Ik heb vrienden die liever vinylplaten kopen. AI is er nu eenmaal. Het heeft een enorme impact. Je hoeft het niet te gebruiken, maar veel mensen kiezen ervoor om dat wel te doen."

AI bij Berklee Online

Onlangs heeft Berklee Online een initiatief gelanceerd met de naam ARIA: AI-enhanced Realities & Immersive Applications. Het project wordt geleid door Gabriel Raifer Cohen, adjunct-directeur ondersteuning en audiotechnologie bij Berklee Online en alumnus van het Berklee College of Music.

"Net als rekenmachines, computers, internet en zoekmachines voorheen, is GenAI een blijvertje", zegt Raifer Cohen. "Het negeren van de realiteit dat al deze tools direct beschikbaar zijn, is een slechte dienst aan studenten. . . . Studenten leren hoe ze deze technologieën het beste – en op verantwoorde wijze – kunnen gebruiken als hulpmiddelen om hun mogelijkheden te vergroten, is misschien wel een waardevollere onderneming dan proberen ze te bestrijden."

En alleen omdat AI een belangrijke rol zal spelen in de toekomst van de muziekindustrie, betekent dat nog niet dat we deze nieuwe technologie niet mogen bekritiseren of pleiten voor veiligheidsmaatregelen. "Tegelijkertijd moeten we ons verzetten tegen de verspreiding van middelmatigheid en creatieve ongevoeligheid die wordt aangewakkerd door het gedachteloze gebruik van GenAI, terwijl we ethisch bewust en proactief blijven", zegt hij. "Dit is niet eenvoudig, maar we moeten bedenken dat ontwikkelingen op het gebied van AI ook kansen bieden voor potentieel transformatieve educatieve ervaringen." Raifer Cohen zegt dat Berklee Online als onderdeel van het ARIA-initiatief deze nieuwe hulpmiddelen zal blijven onderzoeken en dat de school pas na grondige tests en onderzoek zal overwegen om ze in de klas in te zetten. "Uiteindelijk mogen we niet vergeten dat al deze krachtige tools voor studenten en docenten, kijkers en makers, slechts dat zijn: tools", zegt Raifer Cohen.


Author Avatar
Author
Antony Tornver
Published
February 25, 2025
Make Music Now.
No Downloads, Just
Your Browser.
Start creating beats and songs in minutes. No experience needed — it's that easy.
Get started