KI in Musik

Die Möglichkeiten der KI-betriebenen Musik murmelten seit Jahren unter der Oberfläche der Musikindustrie, aber erst die Veröffentlichung von Chatgpt im Jahr 2022 breitete sich das breitere Gespräch um AI in den Mainstream aus. Wir sind jetzt an einem Punkt, an dem einige Musiker und Musikindustrieprofis von den Möglichkeiten der KI-betriebenen Musik fasziniert sind, während andere vor dem Unbekannten vorsichtig sind, insbesondere wenn die Regulierung noch in den Kinderschuhen steckt. Eine Studie des Musikvertriebsunternehmens Ditto ergab, dass fast 60 Prozent der befragten Künstler angeben, dass sie KI in ihren Musikprojekten verwenden, während 28 Prozent angeben, dass sie KI für Musikzwecke nicht verwenden würden.
Christopher Wears, Associate Chair der Abteilung für Musikgeschäft/Management am Berklee College of Music, ist ein Befürworter der AI -Musiktechnologie. Er schrieb sogar eine Master -These darüber, warum Warner Music im Jahr 2016 in KI investieren sollte (Spoiler -Alarm: Sie haben zusammen mit jedem anderen großen Label). Wares hat KI in seine Kurse in Berklee eingeführt und gemischte Reaktionen von Studenten erlebt.
"Einige meiner Schüler lieben KI und verwenden sie bereits auf unterschiedliche Weise, während andere nichts damit zu tun haben wollen", sagt Wares. "Es gibt viele hitzige Debatten in den Gesprächen, und ich versuche meine Schüler zu ermutigen, die Technologie zu nutzen und neue Wege zu finden, um sie zu nutzen, um ihre kreativen Prozesse zu verbessern."
Ein weiterer Kursautor und Ausbilder mit einer ähnlichen Denkweise ist Ben Camp, ein außerordentlicher Professor für Songwriting am Berklee College of Music und der Autor von Songs Unmasked: Techniques and Tipps für den Erfolg von Songwriting. Sie sind seit 2016 von der KI -Musiktechnologie fasziniert, nachdem sie „Daddy's Car“ gehört hatten, einem der ersten AI -Pop -Songs, bei denen die KI in der Musik der Beatles trainiert wurde.
Das Camp gibt seinen Schülern auch die Möglichkeit, KI im Klassenzimmer zu lernen, solange sie alle Informationen, die sie aus ChatGPT oder einem großen Sprachmodell lernen, fakten überprüfen.
"Ich denke, jeder muss seine eigene Wahl treffen", sagt Camp. „Ich meine, ich habe Freunde, die immer noch Flip -Telefone verwenden, weil sie nicht mit all ihren Informationen auf ihrem Telefon vertraut sind. Ich habe Freunde, die immer noch Vermieter haben. Also sage ich nicht: "Hey, alle, du musst das tun." Aber es ist definitiv hier. Es geht nicht weg. Es wird nur besser. “
Egal, ob Sie KI in Ihrer Musik aktiv verwenden oder einige Zweifel haben, es wird immer klarer, dass KI in Zukunft eine wichtige Rolle in der Musikindustrie spielen wird. Mit der Expertise von Waren und Camp diskutieren wir den aktuellen Stand der KI in der Musikindustrie, einschließlich der Tools, die jetzt verfügbar sind.
Was ist AI -Musik?
Bevor wir definieren, was AI -Musik bedeutet, definieren wir zunächst künstliche Intelligenz. Hier ist Waren -Definition:
„Künstliche Intelligenz ist wie die Intelligenz eines Computers; Es ist eine Technologie, die es Maschinen ermöglicht, das menschliche Denken oder Verhalten zu imitieren, wie z. B. Problemlösung, Lernen oder Erkennen von Mustern. “
Im Zusammenhang mit Musik hat die AI -Technologie einen Punkt erreicht, an dem sie musikalische Inhalte erzeugen, komponieren und verbessern kann, die zuvor von Menschen aufgeführt wurden. KI -Musik kann viele Formen und Arten von Hilfe annehmen, von der Erstellung eines ganzen Songs von Anfang bis Ende bis hin zum Schreiben spezifischer Aspekte einer Komposition, des Mischens und Beherrschens einer Produktion, des Sprachklonen und vieles mehr. Wir werden auch einige spezifische KI -Musik -Tools auflisten, mit denen diese Aufgaben ausgeführt werden können.
Geschichte
Künstliche Intelligenz hat ihren Ursprung in Musik mit dem Problem der Transkription: genaue Aufführung in musikalischer Notation aufzunehmen, wie sie aufgeführt wird. Père Engramelles „Piano Tape“ -Programm, eine Art, die Notizzeiten und -dauer automatisch aufzunehmen, so dass sie von Hand leicht in die richtige musikalische Notation transkribiert werden können, wurde erstmals von den deutschen Ingenieuren JF Unger und J. Holfield im Jahr 1752 implementiert
. 1957. Der iLIAC I (Illinois Automatic Computer) erstellte die „Iliac Suite für Streichquartett“, ein komplett computergeneriertes Musikstück. Der Computer wurde so programmiert, dass diese Aufgabe vom Komponisten Lejaren Hiller und Mathematiker Leonard Isaacson ausgeführt wurde. : V-VII 1960 veröffentlichte der russische Forscher Rudolf Zaripov das erste Papier der weltweiten Algorithmic-Musikkomposition mit dem Ural-1-Computer.
Im Jahr 1965 entwickelte der Erfinder Ray Kurzweil Software, die Musikmuster erkennen und neue Kompositionen daraus synthetisieren konnten. Der Computer erschien zum ersten Mal in der Quizshow. Ich habe ein Geheimnis.
Bis 1983 hatte Yamahas Kansei-Musiksystem an Traktion gewonnen, und ein Papier über seine Entwicklung wurde 1989 veröffentlicht. Die Software verwendete Musikverarbeitung und künstliche Intelligenztechniken, um das Transkriptionsproblem für einfachere Melodien im Wesentlichen zu lösen Heute immer noch als schwierige Probleme mit tiefem Lernen angesehen, und die nahezu perfekte Transkription ist immer noch ein Thema der Forschung.
Im Jahr 1997 übertraf ein Programm für künstliche Intelligenz namens Experimente in Musical Intelligence (EMI) einen menschlichen Komponisten bei der Aufgabe, ein Musikstück zu komponieren, der den Bachstil nachahmt. EMI wurde später die Grundlage für einen anspruchsvolleren Algorithmus namens Emily Howell, benannt nach seinem Schöpfer.
Im Jahr 2002 entwickelte eine Gruppe von Musikforschern des Sony Informatik Laboratory in Paris unter der Leitung des französischen Komponisten und Informatiker, François Pachet, einen einzigartigen Algorithmus, der in der Lage war, eine Komposition neu zu starten, nachdem ein Live -Musiker angehalten hatte.
Emily Howell verbesserte die Musik -KI weiter, indem sie 2009 ihr erstes Album von Darkness, Light veröffentlichte. Seitdem wurden viele weitere KI -Werke von verschiedenen Gruppen veröffentlicht.
Im Jahr 2010 war Iamus die erste KI, die ein Stück originaler moderner klassischer Musik im eigenen Stil kreierte: „Iamus 'Opus 1“. Der Computer an der Universität von Malaga (Universität von Malaga) in Spanien kann ein völlig originelles Musikstück in einer Vielzahl von Musikstilen erzeugen. Im August 2019 wurde ein großer Datensatz von 12.197 MIDI-Songs mit ihren eigenen Texten und Melodien erstellt, um die Machbarkeit von neural generierenden Melodien aus Song-Texten unter Verwendung einer tiefen bedingten LSTM-Gan-Methode zu untersuchen.
Mit Fortschritten in der generativen KI entstehen Modelle, die komplette musikalische Kompositionen (einschließlich Texte) aus einfachen Textbeschreibungen erstellen können. Zwei bemerkenswerte Webanwendungen in diesem Bereich sind Suno AI, die im Dezember 2023 gestartet wurden, und Udio, die im April 2024 folgten.
Softwareanwendungen
Futter
Chuck wurde an der Princeton University von Ge Wang und Perry Cook entwickelt und ist eine textbasierte plattformübergreifende Sprache. Durch die Extraktion und Klassifizierung theoretischer Techniken, die sie in Musikstücken findet, kann die Software völlig neue Stücke synthetisieren, basierend auf den gelernten Techniken. Die Technologie wird von SLORK (Stanford Laptop Orchestra) und Plork (Princeton Laptop Orchestra) verwendet.
Jukebox
Jukedeck war eine Website, auf der Menschen künstliche Intelligenz nutzen konnten, um originelle, lizenzfreie Musik für die Verwendung in Videos zu erstellen. Das Team begann 2010 mit der Entwicklung der Musik-generierenden Technologie, bildete 2012 ein Unternehmen in der Nähe und startete die Website 2015 öffentlich. Die verwendete Technologie war zunächst ein regelbasiertes algorithmisches Kompositionssystem, das später durch künstliche neuronale Netzwerke ersetzt wurde. Die Website wurde verwendet, um über 1 Million Musikstücke zu generieren, und Marken, die sie verwendet haben, umfassten Coca-Cola, Google, UKTV und das Natural History Museum in London. Im Jahr 2019 wurde das Unternehmen von Bytedance übernommen.
Morpheus
Morpheus ist ein Forschungsprojekt von Dorien Herremans und Elaine Chu an der Queen Mary University of London, finanziert vom EU Marie Skłodowska-Kurie-Projekt. Das System verwendet einen Optimierungsansatz, der auf dem variablen Suchalgorithmus für die Nachbarschaftssuche basiert, um vorhandene strukturierte Fragmente in neue Fragmente mit einer bestimmten Tonspannung zu verwandeln, die sich dynamisch im gesamten Fragment verändert. Dieser Optimierungsansatz integriert Mustererkennungstechniken, um eine langfristige Struktur und wiederkehrende Themen in der erzeugten Musik zu gewährleisten. Von Morpheus komponierte Stücke wurden sowohl in Stanford als auch in London in Konzerten durchgeführt.
AIVA
AIVA wurde im Februar 2016 in Luxemburg gegründet und ist ein Programm, das Soundtracks für jede Art von Medien produziert. Die Algorithmen hinter AIVA basieren auf Deep -Learning -Architekturen. AIVA wurde auch verwendet, um einen Rock -Track zu komponieren, der in Zusammenarbeit mit der Sängerin Taryn Southern für ihr Album I Am AI von 2018 eine Popmelodie namens Love Sick ist.
Google Purple
Das Magenta-Team von Google hat seit ihrem Start im Jahr 2016 mehrere AI-Musik-Apps und White Papers veröffentlicht. 2017 veröffentlichten sie den Nsynth-Algorithmus und den Datensatz, ein Open-Source-Hardware-Musikinstrument, das den Musikern die Verwendung des Algorithmus erleichtert. Das Instrument wurde von bemerkenswerten Künstlern wie Grimes und Yacht auf ihren Alben verwendet. Im Jahr 2018 veröffentlichten sie eine Klavier -Improvisations -App namens Piano Genie. Später folgten Magenta Studio, ein Satz von 5 MIDI -Plugins, mit denen Musikproduzenten vorhandene Musik in ihrer DAW entwickeln können. Im Jahr 2023 veröffentlichte ihr maschinelles Lernteam ein technisches Papier über Github, das MusicLM beschreibt, einen proprietären Text-zu-Musik-Generator, den sie entwickelt hatten.
Riffusion
Riffusion ist ein neuronales Netzwerk, das von Seth Forsgren und Ike Martiros entwickelt wurde, die Musik unter Verwendung von Tonmustern und nicht von Audio erzeugen. Es wurde als Feinabstimmung stabiler Diffusion erstellt, ein vorhandenes Open-Source-Modell zum Erstellen von Bildern aus Texthinweisen in Spektrogrammen. Dies führt zu einem Modell, das Texthinweise verwendet, um Bilddateien zu generieren, die inverse Fourier transformiert und in Audiodateien konvertiert werden können. Obwohl diese Dateien nur wenige Sekunden lang dauern, kann das Modell auch den latenten Speicherplatz zwischen den Ausgängen verwenden, um verschiedene Dateien miteinander zu interpolieren. Dies wird unter Verwendung einer Funktionalität des stabilen Diffusionsmodells erreicht, das als IMG2IMG bekannt ist. Die resultierende Musik wurde als „de otro mundo“ (jenseits der Welt) beschrieben, obwohl es unwahrscheinlich ist, dass sie von Menschen hergestellt werden. Das Modell wurde am 15. Dezember 2022 veröffentlicht und der Code ist auch auf Github frei verfügbar. Es ist eines von vielen Modellen, die aus einer stabilen Diffusion abgeleitet sind. Riffusion wird als Teilmenge von AI-basierten Text-zu-Musik-Generatoren eingestuft. Im Dezember 2022 verwendete Mubert ähnlich eine stabile Diffusion, um beschreibenden Text in Musikschleifen zu verwandeln. Im Januar 2023 veröffentlichte Google ein Papier über einen eigenen Text-zu-Musik-Generator namens Musiclm.
Spike ai
Spike AI ist ein von Spike Stent in Zusammenarbeit mit seinem Sohn Joshua Stent und dem Freund Henry Ramsey, der Tracks analysierte und Empfehlungen für Klarheit und andere Aspekte beim Mischen analysiert, ein KI-angetriebenes Audio-Plugin, das von Spike Stent entwickelt wurde. Die Kommunikation erfolgt über einen Chatbot, der auf den persönlichen Daten von Spike Stent geschult wurde. Das Plugin integriert sich in eine digitale Audio -Workstation.
Musikanwendungen
Künstliche Intelligenz hat das Potenzial, die Art und Weise zu beeinflussen, wie Produzenten Musik erstellen, indem sie Track -Iterationen erzeugen, die auf Hinweisen basieren, die vom Schöpfer angegeben sind. Diese Hinweise ermöglichen es der KI, einem bestimmten Stil zu folgen, den der Künstler zu erreichen versucht.
KI wurde auch in der Musikanalyse verwendet, bei der sie für die Extraktion, Mustererkennung und Musikempfehlungen für Feature verwendet wurde.
Komposition
Künstliche Intelligenz hat einen großen Einfluss auf den Kompositionssektor, da sie die Ideen von Komponisten/Produzenten beeinflusst hat und die Branche für Neuankömmlinge zugänglicher macht. Mit seiner Entwicklung in Musik wurde es bereits in Zusammenarbeit mit Produzenten eingesetzt. Künstler verwenden diese Software, um Ideen zu generieren und Musikstile zu identifizieren, indem sie die KI dazu veranlassen, spezifische Anforderungen zu erfüllen, die ihren Anforderungen entsprechen. Zukünftige Auswirkungen der Technologie auf die Komposition umfassen die Emulation und die Verschmelzung von Stilen sowie Überarbeitung und Verfeinerung. Die Entwicklung dieser Art von Software kann es den Neuankömmlingen erleichtern, in die Musikindustrie einzutreten. Software wie Chatgpt wurde von Produzenten verwendet, um diese Aufgaben auszuführen, während andere Software wie Ozone11 zur Automatisierung zeitaufwändiger und komplexer Aufgaben wie Mastering verwendet wurde.
Risiken und Schaden
Musiker, Produzenten und andere verwenden seit Jahren nicht generative KI-Tools. Cher hat vor mehr als einem Vierteljahrhundert Auto-Tune mit „Glauben“ populär gemacht, und unzählige Künstler haben es seitdem verwendet, um ihren Ton „zu korrigieren“. Rekordetiketten verwenden KI, um soziale Medien nach nicht lizenzierten Verwendung von Songs zu scannen, die sie besitzen, und Shazam arbeitet auf die gleiche Weise, wenn es darum geht, Audio zu erkennen. Ingenieure verwenden es, um den Misch- und Mastering -Prozess zu optimieren. In jüngerer Zeit nutzte Get Back -Regisseur Peter Jackson die Technologie, um einzelne Tracks von einer gemischten Aufnahme zu isolieren, um Studiogespräche zu rekonstruieren und einen Lost Beatles -Song zu erstellen.
Es gibt jedoch einen wesentlichen Unterschied zwischen diesen Nebenwerkzeugen und generativen AI -Apps wie Suno und Udio, die ganze Songs aus nur wenigen Wörtern erstellen können. Alle neuen Musik -AIs funktionieren etwas anders und entwickeln sich weiterentwickelt. Im Allgemeinen arbeiten sie im Allgemeinen ähnlich wie andere generative KI -Tools: Sie analysieren einen riesigen Datensatz und verwenden die darin enthaltenen Muster, um probabilistische Vorhersagen zu treffen.
Um dies für Audio zu tun, sammeln Entwickler eine riesige Sammlung von Songs (durch Vereinbarungen mit Lizenzinhabern und/oder durch das Abkratzen öffentlich verfügbarer Daten ohne Erlaubnis) und ihre damit verbundenen Metadaten (Künstler und Songtitel, Genres, Jahre, Beschreibungen, Annotationen, alles relevante und verfügbar). All dies ermöglicht normalerweise von niedrig bezahlten Arbeitnehmern im globalen Süden, die diese Daten in gigantischer Ebene kommentieren.
Die Entwickler erstellen diesen Datensatz dann für ein maschinelles Lernmodell, das (kurz) ein riesiges Netzwerk von Verbindungen ist und jeweils ein numerisches „Gewicht“ zugewiesen. Die Menschen „trainieren“ das Modell dann, indem sie es lehren, Muster im Datensatz zu beobachten und das Modell durch die Bewertung seiner Vorhersagen Feedback zu geben. Basierend auf diesen Mustern kann das Modell ein kurzes Stück Audio- oder Text -Hinweis aufnehmen und vorhersagen, was als nächstes passieren sollte und was danach passieren wird und so weiter.
Entwickler optimieren die Gewichte, um hörbarere und vorhersehbare Ergebnisse aus denselben Eingaben zu erzielen. KI-betriebene Musikgeneratoren kombinieren zwei Technologiestränge: die musikalischen Tools, die Fachleute seit Jahrzehnten in Studios verwenden, und die großen Sprachmodelle, die es den Alltagsnutzern ermöglichen, ihre Kraft zu nutzen. Jeder AI -Musikgenerator ist nur so gut wie die Daten, an denen er trainiert wird. Diese Systeme erfordern große Datenmengen, und ein auf einem voreingenommener Datensatz geschultes Modell reproduziert diese Verzerrungen in seiner Ausgabe. Wessen Stimmen sind in dieser riesigen Musikschachtel enthalten und wessen sind ausgelassen? Die heutigen KI-Modelle schließen in der Regel enorme Musikschwaden aus, insbesondere von Musiktraditionen, die vor der Aufnahme-Technologie und nicht-westlicher Herkunft sind. Wie derzeit entworfen, produzieren sie eher stereotype Klänge innerhalb eines Genres oder Stils als alles Ungewöhnliche, geschweige denn innovative oder Interessante. Generative KI -Systeme sind anfällig für Mittelmäßigkeit, aber transzendentale Musik befindet sich am Rande.
"Was wird in menschlicher Kreativität und Vielfalt verloren gehen, wenn sich Musiker auf prädiktive Modelle verlassen, die auf selektiven Datensätzen geschult sind, die die meisten Kulturen und Sprachen der Welt ausschließen?" Lauren Me Goodlad, Vorsitzende der kritischen KI -Initiative der Rutgers University, sagte mir.
Aus rechtlicher Sicht haben Musiker, die KI -Models aus ihrer Arbeit lernen, die gleichen Bedenken wie die New York Times, Getty und andere Verlage und Schöpfer, die KI -Unternehmen verklagen: die Herkunft der Daten. Während einige Unternehmen darauf achten, ihre Modelle nur für lizenzierte Daten auszubilden, verwenden andere alles, was sie in die Hände bekommen können, und argumentieren, dass alles im öffentlichen Bereich für diesen Zweck faire Nutzung fällt. Die RIAA, die dominierende Musikhandelskörper in den USA, verklagt jetzt Suno und Udio wegen „Urheberrechtsverletzung… in massivem Maßstab“. (Offenlegung: Vox Media ist einer von mehreren Verlage, die Partnerschaftsabkommen mit OpenAI unterzeichnet haben. Unsere Berichterstattung bleibt redaktionell unabhängig.)
Umfragen zeigen oft, dass die meisten Menschen KI -Unternehmen missbilligen, die öffentliche Daten ohne Erlaubnis kopieren. Obwohl es eine Reihe hochkarätiger Klagen auf dem Tisch gibt, ist es noch nicht klar, wie sich das Rechtssystem auf Unternehmen auswirkt, die all diese menschliche Kreativität ohne Erlaubnis abbauen, geschweige denn sie entschädigen. Wenn diese Praktiken nicht bald eingeschränkt werden, werden die am wenigsten gewissenhaften Spieler schnell an Kraft gewinnen und die schicken Lobbyisten und Anwälte, die damit einhergehen. (Kiefern: Es ist nicht nur für Maschinen!) Diese Probleme drücken jetzt, weil sie im Laufe der Zeit schwerer zu lösen sind und einige auf dem Feld zurückschieben. Ed Newton-Rex war Vice President von Audio bei Stability AI, als es im vergangenen Herbst Stable Audio, einen KI-angetriebenen Musik- und Soundgenerator, auf den Markt brachte.
Er verließ das Unternehmen nur ein paar Monate später wegen seiner Haltung zur Datenerfassung: Das Newton-Rex-Team hat stabile Audio nur für lizenzierte Daten ausgebildet, aber die Führung des Unternehmens reichte beim US-amerikanischen Urheberrechtsbüro einen öffentlichen Kommentar ein, dass die KI-Entwicklung „eine akzeptable Akzeptanz war , transformative und sozial vorteilhafte Verwendung vorhandener Inhalte, die durch faire Verwendung geschützt sind. “ Um nicht lizenziertes Scraping zu bekämpfen, gründete Newton-Rex Fair. Derzeit kann die gemeinnützige Organisation nur zertifizieren, ob der Inhalt im Datensatz eines Unternehmens ordnungsgemäß lizenziert wurde. Eines Tages wird es in der Lage sein, feinere Details zu berücksichtigen (z.
Als Musiker und Komponist von Chor- und Klaviermusik sieht er dies als Wendepunkt für das Feld. "Generative KI-Modelle konkurrieren normalerweise mit ihren Trainingsdaten", sagte Newton-Rex. „Ehrlich gesagt haben die Leute nur eine begrenzte Zeit, um Musik zu hören. Es gibt einen begrenzten Pool von Lizenzgebühren. Und je mehr Musik durch diese Systeme erzeugt wird, desto weniger geht das an menschliche Musiker. “
Wie die FTC -Vorsitzende Lina Khan im letzten Monat feststellte, wenn eine Person Inhalte oder Informationen erstellt, die ein KI -Unternehmen kopiert, und dann die vom KI -Generator erstellten Inhalte oder Informationen mit dem ursprünglichen Produzenten konkurrieren, um ihn aus dem Markt zu vertreiben und umzuleiten Geschäft… das könnte eine unfaire Wettbewerbsmethode sein “, die gegen Kartellgesetze verstößt.
Marc Ribot ist einer von mehr als 200 Musikern, die Anfang dieses Jahres eine Erklärung zur Künstlerrechts -Allianz unterschrieben haben, und er ist ein aktives Mitglied des KI -Lenkungsausschusses der Music Workers Alliance. Ribot, ein praktizierender Gitarrist seit den 1970er Jahren und hat gesehen, wie die Technologie die Branche geprägt hat und die Aufnahmebudgets seit Jahrzehnten stetig schrumpfen.
"Ich bin in keiner Weise, in irgendeiner Form oder Form gegen die Technologie selbst", sagt Ribot. Nachdem er die Meisteraufnahmen verloren hatte, die er in den 90ern gemacht hat, isolierte er selbst KI, um einzelne Spuren aus dem letzten Mix zu isolieren. Aber er sieht den aktuellen Moment als kritische Gelegenheit, sich gegen die Technologie zu wehren, bevor die Unternehmen, die es besitzen, zu groß werden, um sie zu regulieren.
"Die wahre Trennlinie zwischen nützlich und katastrophal ist sehr einfach", sagte Ribot. „Es geht nur darum, ob die Produzenten der Musik oder was auch immer in Eingabe [als Trainingsdaten] ein reales, funktionales Einwilligungsrecht haben. [AI -Musikgeneratoren] spucken aus, was sie konsumieren, und oft produzieren sie Dinge mit großen Stücken aus urheberrechtlich geschütztem Material. Das ist die Ausgabe. Aber selbst wenn dies nicht der Fall ist, selbst wenn der Ausgang nicht verletzt wird, verletzt der Eingang selbst. “
Ribot sagte, Musiker seien seit langem gleichgültig gegenüber der KI, aber in den letzten Jahren hat er eine „seismische Veränderung der Einstellungen zu Fragen der digitalen Ausbeutung“ gesehen, die von den Sag-Aftra- und Writers Guild of America-Streiks des letzten Jahres, laufende Klagen gegen AI-Unternehmen, angeheizt wurde und ein besseres Verständnis des Überwachungskapitalismus und der bürgerlichen Freiheiten.
Während sich Musiker erst vor ein paar Jahren als Konkurrenten gesehen haben - auch wenn der Kuchen kleiner wird, gibt es immer noch einige Künstler, die reich werden können - KI ist eine Bedrohung für die gesamte Branche, die möglicherweise nicht selbst dem glücklichsten zugute kommt. ihnen.
Was AI kann und könnte
Eines der ersten Beispiele für Musik, die durch künstliche Intelligenz geschaffen wurden, stammt aus dem Jahr 1956: Ein Stück für das Streichquartett, das vom Iliak I-Computer komponiert und von der University of Illinois an den Urbana-Champaign-Professoren Lejaren Hiller und Leonard Isaacson programmiert wurde.
Nach den technologischen Sprüngen der letzten Jahre nutzen Künstler wie Holly Herndon, Arca, Yacht, Taryn Southern und Brian Eno jetzt generative KI, um mit ihren kreativen Praktiken zu experimentieren. Die Tendenz von AI, „Halluzinationen“ und andere unsinnige Ergebnisse zu produzieren, obwohl sie in anderen Kontexten gefährlich sind, könnten eine Quelle der Inspiration in der Musik sein. So wie andere Audio-Technologien durch ihre Dissonanz definiert wurden-CD-Verzerrung, 8-Bit Eno schreibt im Jahr mit geschwollenen Anhängen-die Musik-generierte Musik ist möglicherweise am wertvollsten, wenn sie am deutlichsten ist. Ivan Paz, ein Musiker mit einem Doktortitel in Informatik, entwickelt KI -Systeme für seine eigenen Live -Auftritte.
Beginnend mit einem leeren Bildschirm schreibt er Code in Echtzeit (für das Publikum zum Lesen angezeigt) und trainiert das Modell, indem er auf die Geräusche reagiert, die unerwartet, unglaublich oder einfach nur katastrophal sein können. Das Ergebnis ist ein bisschen wie das Spielen eines Instruments, aber auch wie improvisieren mit einem anderen Musiker. "Wenn Ihr Algorithmus auf einem sehr niedrigen Niveau arbeitet, haben Sie das Gefühl, ein Musikinstrument zu spielen, weil Sie beispielsweise die Parameter der Synthese optimieren", sagte Paz. "Aber wenn der Algorithmus die Form eines Musikstücks bestimmt, dann ist es so, als würde man mit einem Agenten spielen, der feststellt, was als nächstes passiert."
Für eine Ausstellung im Zentrum für zeitgenössische Kultur in Barcelona Anfang dieses Jahres arbeitete Paz mit Sängerin Maria Arnal zusammen, um ein Timbre-Rendering-Modell für ihre Stimme zu schaffen. Sie baten die Besucher, kurze Liederausschnitte zu singen. Das Modell mischte dann diese Stimmen mit Arnal, um eine neue Gesangsstimme zu erstellen. In einem anderen Projekt trainierte Paz 'Kollegin Shelley Knotts ein Modell in ihren eigenen Kompositionen, um eine Wiederholung in ihrer Arbeit zu vermeiden: Es analysiert ihre Musik, um Muster zu erkennen, aber anstatt ihren wahrscheinlichsten nächsten Schritt vorzuschlagen, deutet dies auf eine geringere Wahrscheinlichkeit hin.
Der nächste Schritt in der musikalischen Entwicklung von AI kann auf die Verarbeitungsgeschwindigkeit zurückzuführen sein. Mit einigen Arten von Modellen ist Live -Codierung möglich, aber andere brauchen zu lange, um die Musik zu rendern, um sie in einer Live -Show zu erstellen. Elektronische Instrumente wie Synthesizer wurden ursprünglich entwickelt, um akustische Klänge nachzuahmen und im Laufe der Zeit ihren eigenen Charakter entwickelt. Paz sieht das ultimative Potenzial der generativen KI als neue Sounds, die wir uns derzeit nicht vorstellen können, geschweige denn zu produzieren. In diesem Zusammenhang, in dem AI einen Darsteller unterstützt, ist AI nicht wahrscheinlicher, dass sie einen Musiker „ersetzen“ als einen digitalen Tuner oder ein Verzögerungspedal.
Andere Ecken der Musikindustrie übernehmen jedoch KI für störendere Zwecke. Während KI Musik möglicherweise nicht besser als ein Mensch schafft (und niemals kann), kann sie jetzt mit viel schneller und in größerem Maßstab akzeptable Musik erzeugen - und „akzeptabel“ ist oft die einzige Bar, die ein Track klären muss.
Meistens, wenn Sie Musik hören, wissen Sie nicht, wer sie geschaffen hat. Das Jingle, das Sie in einer Anzeige hören. Die Ambient -Partitur in einem Film oder einer Fernsehsendung, einem Podcast oder einem Videospiel. Die Schleifen produzieren ein Hip-Hop-Produzent in einen Schlag. Dies ist der Teil der Branche, der höchstwahrscheinlich von generativer KI aufgenommen wird. Bloomberg berichtet, dass Lehrer Suno verwenden, um Musikunterrichtshilfen zu erstellen. Gizmodo merkt an, dass die Zielgruppe für Adobe's Project Music Genai Control, ein weiterer KI-angetanter Musikgenerator, Menschen ist, die schnell und billig Hintergrundmusik machen möchten, wie Podcasters und YouTubers, mit der Fähigkeit, die Stimmung, den Ton und die Länge von Länge zu spezifizieren ein Track.
Egal, ob Sie es mögen oder es sogar bemerken, diese Arten von Musik wurden historisch von Menschen geschaffen. Aber die automatisierte KI -Musikgenerierung könnte diese Musiker ihre Arbeit kosten - und viele von ihnen nutzen dieses Einkommen, um ihre kreativeren, aber weniger finanziell tragfähigen Aktivitäten zu unterstützen. Sie sehen vielleicht nie einen KI -Musiker auf der Bühne, aber aufgrund der Technologie werden Sie wahrscheinlich immer noch weniger menschliche Musiker sehen.
Einflussreiche Spieler in der Musikindustrie glauben bereits, dass KI zu einer Hauptstütze ihres Geschäfts wird - sie besorgen, wer die Vorteile nutzen wird. Spotify schränkt die Musik nicht ein, es sei denn, es ist eine direkte Nachahmung, die Rechtsstreitigkeiten riskiert. Die Universal Music Group (UMG) und YouTube haben den YouTube Music AI -Inkubator gestartet, um KI -Tools mit UMG -Künstlern zu entwickeln. In der Zwischenzeit ist UMG auch eine von mehr als 150 Organisationen-darunter ASCAP, BMI, RIAA und AFL-CIO-in der Kampagnenkoalition der menschlichen Kunst, in der ethische Rahmenbedingungen für die Verwendung von KI in kreativen Bereichen festgelegt werden sollen. Sie wollen die Technologie nicht verbieten, aber sie wollen einen Anteil an den Ergebnissen.
Mit mehr als 100.000 neuen Tracks, die jeden Tag auf Streaming-Dienste hochgeladen werden, haben digitale Streaming-Plattformen einen starken Anreiz, den Anteil von Menschen mit Menschenherstellern, Lizenzgebühren, ihre Benutzer zu verringern. Allein Spotify hat im vergangenen Jahr 9 Milliarden US -Dollar an Lizenzgebühren ausgezahlt, der Großteil des Umsatzes von 14 Milliarden US -Dollar. Das weltweit größte Musik -Streaming -Unternehmen hat historisch die Verfügbarkeit und Sichtbarkeit freier Tracks erhöht und kann dies auch weiterhin tun. AI-betriebene Musikgeneratoren sind eine einfache Möglichkeit, kostenlose Musik zu erstellen, die echte, lizenzgebrauchende Künstler von populären Wiedergabelisten verdrängen und diese Einnahmen von Künstlern auf die Plattform selbst entfernen.
Es gibt eine neue Macht - und eine neue Gefahr - für etablierte Künstler. Nach einem Schlaganfall hat Country -Star Randy Travis Probleme, geschweige denn zu singen, aber mit Hilfe von KI, die auf seinem bestehenden Katalog trainiert hat, kann er seinen Gesang digital reproduzieren.
In der Zwischenzeit kann ein anonymer Produzent eine glaubwürdige Drake/die Weeknd-Zusammenarbeit erstellen und Millionen von Streams in die Hand bringen. Im Mai wurde der Produzent Metro Boomin während Drakes reales Rindfleisch mit Kendrick Lamar unter Beschuss genommen. Metro Boomin veröffentlichte einen Beat mit AI-generierten Proben für alle, die Drake dann probierte und überfuhr, um den neuen Track für Streaming-Dienste zu veröffentlichen. König Willonius, der Udio benutzte, um den ursprünglichen Track zu erstellen, den Metro Boomin remixte, stellte einen Anwalt ein, um die Rechte an seinen Beiträgen zu behalten.
Diese neuesten Beispiele zeigen, wie Musik, die schnell gemacht wurde, gut Musik machen, die gut gemacht werden. In der Streaming -Wirtschaft sind Volumen und Geschwindigkeit alles: Künstler werden dazu angeregt, Quantität und nicht Qualität zu erzeugen.
"[Ein zukünftiger Ai-generierter Hit] wird nicht etwas sein, das die Leute zurückgehen und so studieren, wie sie mit den großen Veröffentlichungen der Plattenzeit weiterhin zu tun haben", sagte Musiker Jamie Brooks. Brooks hat Rekorde unter ihrem eigenen Namen und mit den Bands Elite Gymnastics und standardmäßigen Geschlechtern veröffentlicht und in ihrem Newsletter den Sitz des Verlusts über die Musikindustrie bloggt. „Aber es erzeugt immer noch Engagement, und so eine Welt, in der alles, was an der Spitze der Spotify -Charts steht . Sie brauchen es nicht, Kunst zu sein, um Geld zu verdienen.
„So viel von der heutigen Technologie besteht in erster Linie, um zu imitieren oder zu vereinfachen, was den Amateurismus fördern kann. Die Dateifreigabe hat zwanghafte Aufzeichnungen zum Zugriff auf alle mit einer Festplatte und einem Modem gemacht. Handykameras haben es jedem in der Menge ermöglicht, die Show zu dokumentieren, und jetzt gibt wir uns alle dynamischen Wiedergabelisten, die auf unsere Stimmungen und Werbekohorten zugeschnitten sind. Generative KI könnte auch für Nicht-Experten die Musikerstellung erleichtern. Dies könnte sich radikal verändern, nicht nur wie viel Musik wir hören, sondern auch unsere Beziehung zur Form als Ganzes. Wenn das Erstellen eines Hit -Songs nicht mehr Anstrengung erfordert, als einen viralen Tweet zu schreiben, könnte ein Großteil der kreativen Energie, die derzeit in den sozialen Medien enthalten ist, zur Generierung von Musik auf der Grundlage von Eingabeaufforderungen umgeleitet werden.
Brooks sieht es als ein regressives Phänomen an, betont die unmittelbare über zeitlose Tiefe und führt die Charts mit Audio -Memes und bahnbrechenden Singles an, die auf die anspruchsvollsten Hörer gerichtet sind, so wie die Airwaves einst von leeren Songs dominiert wurden wie „Take Me Out to the Ball Game , “Geschrieben von zwei Leuten, die noch nie in einem Baseballspiel gewesen waren.
"In die Richtung werden diese Dienste Musik schieben", sagte Brooks. „Es geht überhaupt nicht um Kreativität. Zwischen der Funktionsweise dieser Modelle und den algorithmischen Futtermitteln ist alles nur ein großes Repository der Vergangenheit. Es wird keine Schallplatten in Sound vorantreiben. Es wird Rekorde vom Zentrum der amerikanischen Popkultur bis zur Mülldose beschleunigen. “
Urheberrechts- und KI -Musik
Eines der am meisten diskutierten Themen im Zusammenhang mit KI in der Musikindustrie, die mit der Arbeit von AI-generierten Arbeiten Geld verdienen, insbesondere wenn der Algorithmus mit vorhandenem urheberrechtlich geschütztem Material geschult wird. Im März 2023 startete das US-amerikanische Urheberrechtsbüro eine Initiative zur Untersuchung von KI-bezogenen Urheberrechtsfragen. Camp ist zuversichtlich, dass die Aufsichtsbehörden ein Patch erstellen, aber er befürchtet, dass das Problem aufgrund des US -amerikanischen Urheberrechtssystems, unter dem Künstler betrieben werden, schwer zu lösen ist.
"Eine Reihe von Gesetzen und Präzedenzfällen, die letztendlich zu unserem modernen Urheberrechtssystem geführt haben, passt einfach nicht zu dem, was gerade in der Musik vor sich geht", sagt Camp. „Ich glaube, dass Schöpfer die Urheberschaft haben, gutgeschrieben und entschädigt werden sollten. Aber das gesamte System, durch das wir das tun, ist sehr veraltet. “
AI -Musik befindet sich noch in einer legalen Grauzone und wirft die Frage auf, ob ein Kompromiss möglich ist, wenn Künstler durch KI zugeschrieben, entschädigt und der Verwendung ihrer Arbeit oder Ähnlichkeit durch KI zustimmen, ohne das Potenzial für musikalische Kreativität mit AI -Technologie einzuschränken. Bis zu einem gewissen Grad ist Kunst der anderen Kunst abgeleitet, und was Inspiration ist und was der Diebstahl derzeit ist, ist derzeit verschwommen. Einige Rekordetiketten beginnen sich zu wehren.
Im Mai 2023 forderte die Universal Music Group Streaming-Dienste auf, um die Verwendung von AI-generierten Musik zu blockieren. Spotify reagierte, indem er 7 Prozent der AI-generierten Musik auf ihrer Plattform entfernen und Zehntausenden von Songs entspricht. Im Juli 2023 forderte UMG den Kongress auf, eine landesweite Politik zu erlassen, um die Schöpfer vor AI-angetriebenen Urheberrechtsverletzungen zu schützen. Das Plattenlabel ist eines von 40 Mitgliedern, die sich der Kampagne Human Artistry anschließen, einer Organisation, die sich für die verantwortungsvolle Verwendung von KI einsetzt.
In den Vereinigten Staaten wendet der aktuelle Rechtsrahmen trotz seiner Unterschiede zum menschlichen kreativen Prozess in der Regel traditionelle Urheberrechtsgesetze auf KI an. Musikalische Werke, die ausschließlich durch KI erzeugt werden, sind jedoch nicht durch das Urheberrecht geschützt. In dem Kompendium der Praxis des Urheberrechts stellte das Büro des Urheberrechts fest, dass es keinen Urheberrecht für „Arbeit Jegliche kreative Input oder Intervention eines menschlichen Autors. “ Im Februar 2022 lehnte das Copyright Review Board einen Urheberrechtsantrag für ein Kunstwerk der AI-generierten Kunst ab, wobei es „die erforderliche menschliche Urheberschaft fehlte, die erforderlich war, um einen Urheberrechtsanspruch aufrechtzuerhalten“.
Die Situation in der Europäischen Union (EU) ähnelt der in den USA, da ihr rechtlicher Rahmen auch die Rolle der menschlichen Beteiligung an urheberrechtlich geschützten Werken betont. Nach Angaben des Büros der Europäischen Union und der jüngsten Rechtsprechung des Gerichtshofs der Europäischen Union verlangt das Originalitätskriterium, dass ein Werk die eigene geistige Schöpfung des Autors ist, was die Identität des Autors widerspiegelt, die sich aus den kreativen Entscheidungen, die während seiner Erstellung getroffen wurden ein bestimmtes Maß an menschlicher Beteiligung. Das von dem Horizon 2020 Forschungs- und Innovationsprogramm der Europäischen Union erbautes Europa-Projekt befasst sich mit den Herausforderungen, die durch AI-generierte Inhalte, einschließlich Musik, und bietet rechtliche Gewissheit und ausgewogener Schutz, der Innovationen fördert und gleichzeitig die urheberrechtlichen Regeln beachtet. Die Anerkennung von AIVA markiert eine bedeutende Abkehr von traditionellen Ansichten zu Urheberschaft und Urheberrecht im Bereich der musikalischen Komposition, sodass KI -Performer Musik veröffentlichen und Lizenzgebühren erhalten können. Diese Anerkennung macht AIVA zu einem Pionier in der formalen Anerkennung der KI in der Musikproduktion.
Jüngste Fortschritte in der künstlichen Intelligenz durch Gruppen wie Stabilität AI, OpenAI und Google haben zu einer Vielzahl von Klagen zur Verstöße gegen Urheberrechte geführt, die gegen generative Technologien, einschließlich AI -Musik, eingereicht wurden. Wenn diese Klagen erfolgreich sind, werden die Datensätze der maschinellen Lernmodelle, die diese Technologien mit Strom versorgen, auf die Öffentlichkeit beschränkt.
Drake und die Woche
Es gibt zwar nicht viel rechtliche Präzedenzfälle für das Klonen von Sprachklonen, aber für Prominente können es unter ihrem Recht auf Werbung als Verletzung ihres Bildes, Namens und ihrer Stimme fallen. Ein wesentliches Beispiel aus dem letzten Jahr war, als ein Tiktoker unter dem Namen Ghostwriter AI ein gefälschtes Duett zwischen Drake und dem Weeknd namens "Heart on My Sleeve" verwendete. Das Lied wurde inzwischen niedergeschlagen, aber Versionen schweben immer noch im Internet.
"Einerseits könnte man argumentieren, dass es sich um eine originelle Arbeit handelt", sagt Wears. „Andererseits könnte es als eine Form des Verstoßes angesehen werden, als die KI lernte, Texte in Drakes Stil zu schreiben, indem er seinen Katalog ohne seine ausdrückliche Erlaubnis analysierte. Ein weiteres Problem ist die nicht autorisierte Verwendung von Namen und Ähnlichkeiten der Künstler. “
Die Fähigkeit, den Namen und die Ähnlichkeit eines Menschen mit KI zu kopieren, beunruhigt die Musikindustrie sowie die Unterhaltungsbranche insgesamt. Einer der Hauptanforderungen des aktuellen SAG-AFTRA-Streiks besteht darin, die Schöpfer davor zu schützen, ihre Arbeiten zur Ausbildung von KI-Generatoren zu schulen, und Schauspieler vor ihrer kopierten Kopie ohne Zustimmung.
Ethische Fragen mit KI
Das Urheberrecht ist nur eines von vielen ethischen Fragen der KI, und es ist wichtig, sich daran zu erinnern, dass diese Technologie und ihre Entwicklung nicht ohne Konsequenzen sind.
Ein unmittelbares Problem ist die Verzerrung bei der Schulung eines Datensatzes. Ein Beispiel ist der Rapper FN Meka, der 2022 bei der Capitol Music Group unterschrieb, aber später den Vertrag aufgrund von Rassenstereotypen fallen ließ.
"Eines der großen Probleme ist Müll in und Müll", sagt Camp. „Wenn wir diese Sprachmodelle, diese Bildgeneratoren oder diese Musikgeneratoren zu Daten ausbilden, die von Natur aus voreingenommen, von Natur aus rassistisch sind, dann wird alles, was wir fragen, diese Stereotypen aufrechterhalten. Wir müssen sicherstellen, dass wir gute Daten haben und sie überwachen. “
Die Überwachung dieser Daten ist auch nicht ohne Schaden. Ein weiteres ethisches Anliegen ist der Schulungsprozess, der als „Verstärkungslernen“ bezeichnet wird und das menschliche Feedback zu einer Reihe von störenden Inhalten beinhaltet. In einer kürzlich durchgeführten Folge des Wall Street Journal Podcasts The Journal beinhaltet das Journal einen kenianischen Datenarbeiter, der unter anderem Chatgpt ausgebildet hat, um „direkt von falsch“ auf Kosten einer sehr hohen psychischen Gesundheit zu unterscheiden.
"Grundsätzlich gibt es einen Daumen hoch oder einen Daumen nach unten auf die Antworten", sagt Camp. „Ist das eine unangemessene Antwort? Ist es zu gewalttätig oder grafisch oder störend? Openai hat diese Arbeit an die Menschen in Kenia abgeschlossen und ihnen 2 Dollar pro Stunde zahlt, um diese Antworten zu lesen. Stellen Sie sich also vor, Sie erhalten 2 US -Dollar pro Stunde, um zur Arbeit zu erscheinen und einige der schrecklichsten und psychisch beunruhigendsten Text zu lesen. Es gibt also viele Mängel in der Art und Weise, wie Wurst jetzt gemacht wird. “
Musik Deepfakes
Eine aufstrebendere Entwicklung von KI in der Musik ist die Verwendung von Audio -Deepfakes, um die Texte oder den Musikstil eines bestehenden Songs zu fälschen, um der Stimme oder dem Stil eines anderen Künstlers zu ähneln. Dies hat viele Bedenken hinsichtlich der Rechtmäßigkeit der Technologie sowie der Ethik ihrer Verwendung, insbesondere im Kontext der künstlerischen Identität, ausgelöst. Darüber hinaus hat es auch die Frage aufgeworfen, wer für diese Werke zugeschrieben wird. Da KI keine eigene Urheberschaft haben kann, deuten aktuelle Spekulationen darauf hin, dass es keine klare Antwort geben wird, bis weitere Entscheidungen über Technologien für maschinelles Lernen im Allgemeinen getroffen werden. Die jüngsten vorbeugenden Maßnahmen wurden von Google und der Universal Music Group entwickelt, die Lizenzgebühren und Kreditzuordnungen berücksichtigt haben, damit die Produzenten die Stimmen und Stile der Künstler kopieren können.
"Herz auf meinem Ärmel"
Im Jahr 2023 schuf ein als Ghostwriter977 bekanntes Künstler eine musikalische Deepfake namen Die Stimmen jedes Künstlers, die mit den ursprünglichen Texten mit den ursprünglichen Referenzgesang abgestimmt werden könnten. Der Track wurde für Grammy -Überlegungen für den besten Rap -Song und Song des Jahres eingereicht. Es wurde viral und wurde bei Tiktok beliebt und erhielt eine positive Reaktion von Publikum Das Songwriting, die Produktion und der originelle Gesang (vor der Konvertierung) wurden von ihm noch durchgeführt. Das Lied wurde später aus der Grammy -Nominierungsliste entfernt, da es die Anforderungen an die Grammy -Überlegung nicht erfüllte. Der Track wurde von der Universal Music Group aus allen Musikplattformen entfernt. Das Lied war ein Wendepunkt für das Klonen von Sprachklonen mit künstlicher Intelligenz, und seitdem wurden Models für Hunderte, wenn nicht Tausende populärer Sänger und Rapper erstellt.
"Woher das kam"
Im Jahr 2013 erlitt der Country -Sänger Randy Travis einen Schlaganfall, bei dem er nicht singen konnte. Währenddessen tourte der Sänger James Dupré in seinem Namen und spielte seine Songs. Travis und der langjährige Produzent Kyle Lehning veröffentlichten im Mai 2024 einen neuen Song namens "Where the That Coming From", Travis 'erstes neues Lied seit seinem Schlag. Die Aufnahme verwendet künstliche Intelligenztechnologie, um Travis 'Gesangsstimme neu zu erstellen, die aus mehr als 40 vorhandenen Gesangsaufnahmen zusammen mit Duprés Aufnahmen zusammengestellt wurde.
KI -Musikwerkzeuge
Nachdem wir das, was AI ist, sowie einige seiner wichtigsten Nachteile behandelt haben, können wir die existierenden KI -musikalischen Werkzeuge diskutieren. In Berklee Onsite 2023, einer jährlichen Musikkonferenz auf dem Campus des Berklee College of Music in Boston, teilte Wares einige KI -Musikwerkzeuge, über die man Bescheid wissen konnte. Einige können jetzt anfangen zu lernen, und einige möchten vielleicht nur lernen.
Bandlab Songstarter
Bandlabs Songstarter-App ist ein mit KI betriebener Songgenerator, mit dem Sie ein Genre auswählen können, Song-Texte (und Emoji) eingeben und kostenlose Ideen erzeugen. Sie können diese Ideen dann in ihre Studio -Funktion bringen, um sie zu Ihren eigenen zu machen. Es ist eine großartige Möglichkeit, mit einem Song zu beginnen, wenn Sie eine erste Inspiration benötigen.
Midjourney
Als einer der beliebtesten KI-betriebenen Bildgeneratoren kann Midjourney zum Erstellen von Album Art, Song Covers, Poster, Spotify Loops, Merch-Bildern und vielem mehr verwendet werden. Was es von einigen anderen KI-betriebenen Bildgeneratoren unterscheidet, ist sein surrealer, traumhafter Stil, der für Musikprojekte besser geeignet ist. Das Programm ist einfach zu bedienen, aber es gibt eine eindeutige Lernkurve. Schauen Sie sich wie viele neue Tech -Programme unbedingt ein paar Tutorials an, bevor Sie eintauchen.
Monolith mischen
Das Mix -Monolith -Plugin ist ein automatisches Mischsystem von Ayaic, das Ihre Mischung ausgeht. In dem Artikel von Mix Online sagt der Entwickler: „Sein Zweck besteht nicht darin, automatisch einen fertigen Mix zu erstellen, sondern grundlegende Gewinnbeziehungen zwischen Tracks aufzubauen und ordnungsgemäße Gewinnanpassungen zu gewährleisten.“
Landr ai Mastering
Mit dem KI -Mastering -Tool von Landr können Sie Ihre Spur in das Programm ziehen und fallen lassen, das es dann analysiert und einfache Optionen für Stil und Lautstärke bietet. Sobald Sie diese beiden Optionen ausgewählt haben, beherrscht das Programm Ihren Track und bietet Ihnen weitere Optionen für die Dateityp- und Verteilungsmethode. Landr verfügt über über 20 Millionen Strecken, die mit ihrem Programm gemischt wurden.
AIVA
AIVA ist ein künstliches Intelligenzprogramm, das über 30.000 legendäre Ergebnisse aus der Geschichte geschult wurde. Sie können aus verschiedenen voreingestellten Musikstilen, vom modernen Kino bis zum Kino des 20. Jahrhunderts, vom Tango bis zum Jazz auswählen. Sie haben dann die Möglichkeit, die Schlüsselsignatur, die Zeitsignatur, das Tempo, die Instrumentierung, die Dauer und mehr einzugeben. Wenn Sie nicht wissen, was Sie betreten sollen, wird AIVA es für Sie tun. Schließlich können Sie einen Track erstellen, die Instrumentierung anpassen und eine Vielzahl von Dateitypen hochladen. Als Abonnent haben Sie eine vollständige Copyright -Lizenz für alles, was Sie erstellen.
Chatgpt für Musiker
OpenAIs Chatgpt ist eines der am häufigsten verwendeten KI -Tools und bietet eine Vielzahl von Verwendungen für Musiker. Das Unternehmen wird derzeit von der Federal Trade Commission untersucht. Sie sollten daher Vorsichtsmaßnahmen darüber treffen, welche Informationen Sie mit ChatGPT teilen, und alle Fakten, die Sie von CHATGPT erhalten, überprüfen.
In diesem Sinne kann das Programm die Zeit verkürzen, die Sie für Aufgaben ausgeben, die Sie davon abhalten, Musik tatsächlich zu machen. Waren und Camp experimentieren seit seiner Veröffentlichung mit ChatGPT und haben einige spezifische Tipps, die Musiker und Musikfachleute nützlich finden.
Social Media Strategie
Social Media kann für einen Amateurmusiker eine große Zeitspüle sein, und Chatgpt kann dazu beitragen, die Ladung zu lindern. Wares sagt, Sie können zunächst Chatgpt sagen, was für ein Künstler Sie sind, welches Musikgenre Sie spielen und was Ihre Hobbys und Interessen sind. Anschließend können Sie 30 Inhalte für die nächsten 30 Tage in Tiktok, Instagram, Facebook oder einer beliebigen Social -Media -Plattform anfordern. Sie können nicht nur Ideen für Social -Media -Inhalte anfordern, sondern auch Chatgpt bitten, optimierte Bildunterschriften und Hashtags zu erstellen.
Technische Fahrer zum Tourneen
Wenn Musiker auf Tour gehen, stellen sie normalerweise jemanden ein, um einen technischen Fahrer zu erstellen, der alle Details umreißt, die für die Ausarbeitung ihrer Show erforderlich sind. Dies kann Geräte, Bühnen -Setup, Soundtechnik, Beleuchtung, Gastfreundschaft, Gig -Verträge, Tourrouten, Veranstaltungsortoptionen, Ticketpreise und vieles mehr umfassen. Laut Wares könnte Chatgpt derjenige sein, der diesen Tech -Fahrer schreibt, und arbeitete kürzlich mit der Band zusammen, um ihre Tour mit der Technologie zu planen.
„Wir haben damit begonnen, ihren Tech -Fahrer zu erstellen, der Backline -Anforderungen, eine detaillierte Liste von Eingaben und sogar spezifische Mikrofonempfehlungen beinhaltete, die alle auf ein paar einfachen Tipps basieren“, sagt Wares. „Wir haben dann um Empfehlungen auf der Tour -Route im Nordosten gefragt, wie viel wir für Tickets und Merch -Ideen berechnen sollten, die auf den einzigartigen Interessen und demografischen Daten der Fangemeinde der Band basieren. Was Tage gedauert hätte, wurde in weniger als einer Stunde getan. “
Schreiben von Song -Texten
Wenn Sie Hilfe beim Schreiben von Song -Texten benötigen, Inspiration benötigen oder einige Wortvorschläge verwenden möchten, kann Chatgpt ein nützliches Songwriting -Tool sein. Camp gibt das Beispiel, mit dem ehemaligen Berklee -Studenten Julia Perry (der sie für einen Artikel über Berklee Now über KI und Musik interviewte), um Liederideen mit Chatgpt zu generieren.
"Wir haben darüber gesprochen, wie das Universum Magie ist und wie sie diese tiefe, unerkennbare Wahrheit über das Universum ausdrücken wollte", sagt Camp. "Und ich habe im Grunde alles, was sie gesagt hat, in zwei oder drei Absätze zusammengefasst und sagte [Chatgpt], gib mir 20 Eröffnungszeilen für dieses Lied."
Am Ende verwendeten sie eine der 20 Optionen als Ausgangspunkt für ein neues Lied.
Inhaltsschreiben
ChatGPT kann bei einer Vielzahl von Aufgaben des Inhalts schreiben und Texterschreiber, unabhängig davon, ob es sich um eine Pressemitteilung handelt, eine Biografie mit mehreren Charakterlängen, eine Album -Release -Strategie, einen Blog -Beitrag, eine Website -Kopie, eine E -Mail und mehr.
Vereinbarungen und Verträge
In einer idealen Welt würden ein Anwalt alle Ihre Vereinbarungen und Verträge schreiben und überprüfen, aber das ist nicht immer realistisch oder erschwinglich. In einigen Fällen möchten Sie möglicherweise ChatgPT -Entwurf einer Vereinbarung haben, anstatt überhaupt nichts zu haben. Dies kann für Managementvereinbarungen, Bandvereinbarungen, geteilte Blätter, Leistungsvereinbarungen und mehr verwendet werden. Aber auch hier ist ein Unterhaltungsanwalt immer vorzuziehen, wenn möglich.
Wo sind die Leute?
Der aktuelle Zustand der generativen Musik ist mehr Mix-and-Match als echte Generation. Es ist nicht wirklich eine Tributband, sondern ein weitläufiges Ansatz zur Wiederbelebung. Es kann nur Geräusche aus den Trainingsdaten erzeugen, und obwohl es diese Elemente auf neue Weise kombinieren, mischen und bremst, kann es nicht wirklich experimentieren.
Musiker werden Ihnen sagen, dass es nur eine begrenzte Anzahl von Notizen gibt, die gespielt werden können oder dass alle Geräusche nur eine Frage der Frequenz und Wellenlänge sind, und daher gibt es nur eine begrenzte Menge von dem, was in rein musikalischen Begriffen getan werden kann. Es gibt jedoch mehr Musik, als nur einige Akkorde oder Rhythmen zu arrangieren, ebenso wie es mehr zu erstellen gibt, als nur aus einer endlichen Liste von Zutaten und Techniken auszuwählen.
Ribo ist ein Gitarrist, der für seine Experimente und Fähigkeit bekannt ist, aus unterschiedlichen Einflüssen zu ziehen und sie in etwas Neues zu mischen. Auf den ersten Blick klingt dies sehr nach dem Wertversprechen der Befürworter der generativen KI, aber er sagt, dass es grundlegende Unterschiede zwischen einem Menschen und einer Maschine gibt, die dasselbe tun.
"Ich kann nicht durch ein 12-Taar-Blues-Solo kommen, ohne jemanden zu zitieren", sagte Ribot. „Wir müssen das Privileg der Menschenrechte geben, dies zu tun. Ich bin ziemlich gut zu wissen, wann ich die Linie überquere. Ich weiß, ich kann diesen Teil eines Charlie Parker -Songs zitieren, ohne dass es sich um ein Charlie Parker -Song handelt, und ich weiß, dass ich es so schlecht vermasseln kann und es wird cool. “
Ribots 1990er Album Rootless Cosmopolitans enthält ein Cover von Jimi Hendrix '"The Wind Cries Mary". In einer Hommage an Hendrix ist Ribots Version abstrakt, die Texte über einer kratzigen Gitarre, die wenig Ähnlichkeit mit dem Original -Song als dem Gitarrenton hat und Hendrix 'Melodie, Akkorde und Rhythmus weglässt. Trotzdem hat Ribot es als Cover auf dem Album aufgelistet und zahlt bei jedem Verkauf oder Stream eine mechanische Könige.
"Dieses System muss erhalten bleiben und es lohnt sich, dafür zu kämpfen", sagte Ribot. „Wir haben keinen Mindestlohn bezahlt, wenn wir auf einer Aufzeichnung sitzen. Wir haben keine Garantien, selbst wenn wir auftreten. [Copyright] ist buchstäblich das einzige wirtschaftliche Recht, das wir haben. “
Ribots diskursive Praxis ist Teil einer langen Tradition: Musik als Medium wird durch ein Bewusstsein und den Respekt für das definiert, was zuvor kam, was immer noch wachsen und sich verändern kann und nicht nur recycelt werden kann. „Was Veränderungen in der Musik verändert, sind Veränderungen in den Stimmungen, ihren Bedürfnissen und Möglichkeiten der Menschen und was sie lieben und was sie verärgert. Menschen können lernen, Gefühle, Ereignisse und die Fülle ihres Lebens zu nehmen und sie auf ihrer Gitarre oder Klavier zu vertreten. Es erweitert das Feld, wenn die Erfahrung erweitert, die Geschichte verlängert und Bänder entstehen, die Ausdruck und Ideen benötigen. “
In der Vergangenheit gab es einen heiligen Vertrag zwischen Musikern und Publikum, der Authentizität und Menschlichkeit impliziert. Von den Millionen von Taylor Swift -Fans, die an der Eras -Tour teilnahmen, konnten Ihnen viele einen detaillierten Bericht über ihr persönliches Leben geben. Gleiches gilt für das Publikum von Beyoncé, Harry Styles, Elton John oder einem der größten Tour -Künstler. Sie brauchen eine echte Person, um Stadien ausverkauft zu haben. Niemand würde sich den maskierten Sänger ansehen, wenn er nicht glaubte, die Darsteller zu erkennen, wenn sie entlarvt wurden.
Wenn wir die Musik absichtlich hören, hören wir oft hermeneutisch zu, als wäre das Lied eine Tür in einen größeren Raum, in dem die Erfahrungen und Perspektiven anderer Menschen verstanden werden. Betrachten Sie Nirvana. Weil die ästhetische Abweichung von Grunge im richtigen Moment die moderne Studio -Technologie traf, fand Nevermind ein großes Publikum, nicht nur wegen der Art und Weise, wie es sich anhört, sondern weil Kurt Cobains persönliches Bogen - der meteorische Aufstieg und der tragische frühe Tod eines ängstlichen Vorortkind Rock-Superstar durch offen herausfordernde (einige) Pop-Star-Konventionen-mit Menschen aufgeworfen.
Während die Band die Musiker anerkannte, die sie inspirierten - die Bilder, die Gap -Band und andere - sind die Platten von Nirvana letztendlich das einzigartige Produkt der Entscheidungen von Cobain, seinen Bandkollegen und ihren Mitarbeitern, Ausdruck und Reflexion ihrer Erfahrungen und Ideale, . Kunst ist per Definition das Produkt menschlicher Entscheidungsfindung.
Einige mit AI-generierte Musik behalten wie andere Formen des musikalischen Prozesses dieses menschliche Element immer noch bei Machen Sie mit allen Geräuschen, die es produziert.
Aber die KI -Musik, die menschliche Musiker bedroht, die etwas mehr als ein paar Worte erfordert und ganze Songs von ihnen produziert, ist von Natur aus begrenzt, weil sie nur rechtzeitig von ihren Daten nach innen und rückwärts aussehen kann, niemals nach außen und so nie vorwärts. Die Gitarre wurde vor Jahrhunderten erfunden, aber ein KI -Model, das vor der Blütezeit von Schwester Rosetta Tharpe in den 1940er Jahren auf Musik trainiert wurde, ist unwahrscheinlich, dass sie etwas produziert, das einer E -Gitarre ähnelt. HIP-Hop ist ein Musikstil, der auf der Probenahme und Neuverpackung der Arbeit anderer Künstler basiert (manchmal in Formularen oder Kontexten, die der ursprüngliche Künstler nicht mögen), aber ein Modell, das vor 1973 auf Musik trainiert wird Das.
Es gibt unzählige Gründe, warum Menschen Musik hören, aber es gibt genauso viele Gründe, warum Menschen es schaffen. Die Menschen machen seit Tausenden von Jahren Geräusche für einander, und die meiste Zeit wäre es dumm gewesen, sich vorzustellen, seinen Lebensunterhalt davon zu verdienen - es wäre unmöglich gewesen, überhaupt darüber nachzudenken, es zu verstärken, geschweige denn aufzunehmen. Die Leute machten sowieso Musik.
Hier gibt es eine Spannung, die vor KI geht. Einerseits glauben, dass Rekordetiketten und digitale Streaming -Plattformen weitgehend korrekt sind, dass der Musikmarkt vor allem Anerkennung wünscht, so viel Geld aus dem Verkauf etablierter Künstlerkataloge entsteht, wobei ein Bericht vorschlägt, dass diese Verkäufe 70 ausmachen Prozent des US-Musikmarktes im Jahr 2021. Die Chart-Topper klingen immer ähnlicher. Streaming -Plattformalgorithmen füttern oft immer wieder die gleichen Songs.
Andererseits besteht ein intrinsischer menschliches Bedürfnis nach Überraschung, Innovation und Übertretung. Für jede Person ist es anders. Die Ziele eines riesigen Unternehmens - im Grunde genommen unterscheiden sich die Skala und die Ausweitung - unterscheiden sich von denen seiner Benutzer als Ganzes und für den Einzelnen, und je größer die Benutzerbasis wird, desto mehr wird es dazu neigen, zu automatisieren. Weder AI -Musikgeneratoren noch dynamisch erzeugte Wiedergabelisten noch ein anderes algorithmisch prädiktives System sind von Natur aus gut oder schlecht: Die Ergebnisse hängen ausschließlich davon ab, wer sie ausführt und zu welchem Zweck.
Aber was auch immer passiert, kein Unternehmen wird jemals ein Monopol auf Musik haben. Keine Spezies tut. Vögel tun es. Bienen machen es. Wale im Meer tun es. Einiges davon, zum menschlichen Ohr, ist ziemlich schön. Aber trotz all dieser natürlichen Melodie haben alle Musik Menschen bereits geschaffen, und all die Musik, die KI entweder dazu beiträgt, sich selbst zu erschaffen oder sich selbst zu schaffen, bleibt der menschliche Drang, uns selbst zu erschaffen und auszudrücken. Musik existiert in unserer Welt aus anderen Gründen als dem Kommerzialismus.
Meistens ist der Grund recht einfach: Eine Person oder Gruppe von Menschen entschieden, dass es existieren sollte, und machte es dann so. Es wird weiterhin existieren, egal wie viel Schallschlamm die Maschinen herauspumpen.
Umarmen oder widerstehen?
Eines der wiederkehrenden Themen in Bezug auf KI und andere aufstrebende Technologien ist, dass sie in Zukunft ein großer Teil der Musikindustrie (und den meisten Branchen) sein werden und dass das Ignorieren nicht den zukünftigen Führungskräften der Branche helfen wird.
„Ich denke, AI kann meinen Schülern helfen, produktiver zu sein und ihren kreativen Prozess zu unterstützen und ihnen zu ermöglichen, sich auf das zu konzentrieren, was für sie am wichtigsten ist, was Musik erstellt und durchführt oder neue Geschäftsideen erforscht“, sagt Wears. „Als verantwortungsbewusster Pädagoge muss ich jedoch sicherstellen, dass meine Schüler nicht zu sehr von diesen Tools abhängig werden, und ich suche ständig nach Möglichkeiten, KI zu nutzen, um ihre Fähigkeiten im kritischen Denken zu entwickeln.“
Camp stimmt zu und ermutigt die Menschen auch, das zu tun, mit dem sie sich wohl fühlen, wenn sich die KI weiterentwickelt.
„Ich ermutige Sie auf jeden Fall, wenn Sie auf dem Laufenden bleiben und Technologie verwenden möchten, um das, wofür Sie sich auf dem Planeten befinden, dann aufzunehmen, ja, ja, Camp. „Aber wie ich schon sagte, ich habe Freunde, die Festnetzwerke benutzen. Ich habe Freunde, die es vorziehen, Vinyl Records zu kaufen. KI ist hier. Es hat einen großen Einfluss. Sie müssen es nicht benutzen, aber viele Leute entscheiden sich dafür. “
KI bei Berklee online
Kürzlich hat Berklee Online eine Initiative namens ARIA: AI-verstärkte Realitäten und immersive Anwendungen gestartet. Das Projekt wird von Gabriel Raifer Cohen, Associate Director of Support and Audio Technology bei Berklee Online und einem Berklee College of Music Alumnus, geleitet.
„Wie Calzulner, Computer, Internet und Suchmaschinen zuvor ist Genai hier, um zu bleiben“, sagt Raifer Cohen. „Die Realität zu ignorieren, dass alle diese Tools leicht verfügbar sind, ist für die Schüler ein schlechter Dienst. . . . Die Schüler beizubringen, wie man diese Technologien am besten und verantwortungsbewusst als Instrumente der Ermächtigung verwendete, kann ein lohnenderes Unterfangen sein, als zu versuchen, sie zu bekämpfen. “
Und nur weil die KI eine wichtige Rolle in der Zukunft der Musikindustrie spielen wird, heißt das nicht, dass wir diese neue Technologie oder einen Befürworter für Sicherheitsmaßnahmen nicht kritisieren können. „Gleichzeitig müssen wir der Ausbreitung von Mittelmäßigkeit und kreativer Unempfindlichkeit widerstehen, die durch den sinnlosen Gebrauch von Genai angetrieben werden, während wir ethisch bewusst und proaktiv bleiben“, sagt er. "Das ist nichts einfach, aber wir müssen berücksichtigen, dass Entwicklungen in der KI auch Möglichkeiten für potenziell transformative Bildungserfahrungen eröffnen." Raifer Cohen sagt, dass Berklee Online im Rahmen der ARIA -Initiative weiterhin diese neuen Tools erkunden wird, und erst, nachdem sie getestet und gründlich untersucht wurden, wird die Schule in Betracht ziehen, sie im Klassenzimmer umzusetzen. „Letztendlich müssen wir nicht vergessen, dass für Schüler und Lehrer, Zuschauer und Schöpfer all diese leistungsstarken Tools genau das sind: Tools“, sagt Raifer Cohen.
Registrieren Sie sich kostenlos und erhalten Sie ein Projekt gratis