STUDIO

    AI nella musica

    AI nella musica

    Le possibilità della musica alimentata dall'intelligenza artificiale si sono mormorate sotto la superficie dell'industria musicale per anni, ma non è stato fino all'uscita di Chatgpt nel 2022 che la più ampia conversazione intorno all'IA ha iniziato a diffondersi nel mainstream. Ora siamo a un certo punto in cui alcuni musicisti e professionisti del settore della musica sono affascinati dalle possibilità della musica basata sull'intelligenza artificiale, mentre altri sono diffidenti nei confronti dell'ignoto, specialmente quando la regolamentazione è ancora agli inizi. Uno studio della società di distribuzione musicale Ditto ha scoperto che quasi il 60 % degli artisti intervistati afferma di usare l'IA nei loro progetti musicali, mentre il 28 percento afferma di non usare AI per scopi musicali.

    Christopher Wears, presidente associato del dipartimento di affari/gestione della musica del Berklee College of Music, è un sostenitore della tecnologia musicale AI. Ha anche scritto una tesi di maestro sul perché Warner Music dovrebbe investire in AI, nel 2016 (avviso spoiler: lo hanno fatto, insieme a ogni altra etichetta importante). Wares ha introdotto l'IA nei suoi corsi a Berklee e ha visto reazioni contrastanti da parte degli studenti.
    "Alcuni dei miei studenti adorano l'IA e lo stanno già usando in modi diversi, mentre altri non vogliono avere nulla a che fare con esso", afferma Wares. "C'è molto dibattito acceso nelle conversazioni e cerco di incoraggiare i miei studenti ad abbracciare la tecnologia e trovare nuovi modi per usarla per migliorare i loro processi creativi."

    Un altro autore e istruttore di corsi con una mentalità simile è Ben Camp, professore associato di songwriting al Berklee College of Music e l'autore di canzoni Unmasked: Techniques e suggerimenti per il successo del songwriting. Sono stati affascinati dalla tecnologia musicale AI dal 2016, dopo aver ascoltato "Daddy's Car", una delle prime canzoni pop di AI in cui l'IA è stata addestrata alla musica dei Beatles.

    Il campo offre anche ai suoi studenti l'opportunità di imparare l'IA in classe, purché controlli tutte le informazioni che imparano da CHATGPT o da qualsiasi modello linguistico di grandi dimensioni.

    "Penso che tutti debbano fare la propria scelta", afferma Camp. “Voglio dire, ho amici che usano ancora i telefoni a fogli mobili perché non si sentono a proprio agio con tutte le loro informazioni sul loro telefono. Ho amici che hanno ancora i fischi. Quindi non sto dicendo: "Ehi, tutti, devi farlo." Ma è sicuramente qui. Non sta andando via. Sarà solo meglio. "

    Sia che tu stia usando attivamente l'IA nella tua musica o che abbia qualche dubbio, sta diventando sempre più chiaro che l'IA giocherà un ruolo importante nel settore musicale in futuro. Con l'esperienza degli articoli e del campo, discutiamo dell'attuale stato dell'IA nel settore della musica, compresi gli strumenti che sono ora disponibili.

    Cos'è la musica AI?

    Prima di definire cosa significa musica di intelligenza artificiale, definiamo prima l'intelligenza artificiale. Ecco la definizione dei articoli:
    “L'intelligenza artificiale è come l'intelligenza di un computer; È una tecnologia che consente alle macchine di imitare il pensiero o il comportamento umano, come la risoluzione dei problemi, l'apprendimento o il riconoscimento di modelli. "

    Nel contesto della musica, la tecnologia AI ha raggiunto un punto in cui può generare, comporre e migliorare i contenuti musicali che erano stati precedentemente eseguiti dagli umani. La musica AI può assumere molte forme e tipi di assistenza, dalla creazione di un'intera canzone dall'inizio alla fine, alla scrittura di aspetti specifici di una composizione, mescolando e padroneggiando una produzione, clonazione vocale e altro ancora. Elencheremo anche alcuni specifici strumenti musicali di intelligenza artificiale in grado di eseguire queste attività, le cui capacità hanno aperto una scatola di problemi di copyright di Pandora.

    Storia

    L'intelligenza artificiale ha le sue origini nella musica, con il problema della trascrizione: registrare accuratamente una performance nella notazione musicale mentre viene eseguita. Lo schema "Piano Tape" di Père Engramelle, una modalità per registrare automaticamente i tempi delle note e le durate in modo che possano essere facilmente trascritti in una corretta notazione musicale a mano, fu implementata per la prima volta dagli ingegneri tedeschi JF Unger e J. Holfield nel 1752.
    Nel 1957. Il Illiac I (Illinois Automatic Computer) ha creato la "Suite Illiac per String Quartet", un pezzo di musica completamente generato dal computer. Il computer è stato programmato per eseguire questo compito del compositore Lejaren Hiller e del matematico Leonard Isaacson. : V-VII Nel 1960, il ricercatore russo Rudolf Zaripov ha pubblicato il primo documento mondiale sulla composizione della musica algoritmica usando il computer URAl-1.
    Nel 1965, l'inventore Ray Kurzweil sviluppò software in grado di riconoscere i modelli musicali e sintetizzare nuove composizioni da essi. Il computer è apparso per la prima volta nello spettacolo di quiz che ho un segreto.

    Nel 1983, il sistema musicale Kansei di Yamaha aveva guadagnato trazione e un articolo sul suo sviluppo fu pubblicato nel 1989. Il software utilizzava l'elaborazione musicale e le tecniche di intelligenza artificiale per risolvere essenzialmente il problema della trascrizione per melodie più semplici, sebbene le melodie di livello superiore e le complessità musicali siano Ancora considerati difficili problemi di apprendimento profondo oggi e la trascrizione quasi perfetta è ancora oggetto di ricerca.

    Nel 1997, un programma di intelligenza artificiale chiamato Experiments in Musical Intelligence (EMI) ha sovraperformato un compositore umano al compito di comporre un brano musicale che imita lo stile di Bach. EMI in seguito divenne la base per un algoritmo più sofisticato chiamato Emily Howell, dal nome del suo creatore.

    Nel 2002, un gruppo di ricercatori musicali del Sony Computer Science Laboratory di Parigi, guidato dal compositore e scienziato informatico francese François Pachet, ha sviluppato Continuator, un algoritmo unico in grado di riavviare una composizione dopo che un musicista dal vivo si era fermato.

    Emily Howell ha continuato a migliorare la musica AI pubblicando il suo primo album, da Darkness, Light, nel 2009. Da allora, molte altre opere di intelligenza artificiale sono state pubblicate da vari gruppi.
    Nel 2010, Imus è diventato il primo intelligenza artificiale a creare un pezzo di musica classica moderna originale nel suo stile: "IMUS" Opus 1 ". Situato all'Università di Malaga (Università di Malaga) in Spagna, il computer può generare un pezzo di musica completamente originale in una varietà di stili musicali. Nell'agosto 2019, è stato creato un grande set di dati di 12.197 canzoni MIDI, ognuna con i propri testi e melodie, per studiare la fattibilità della generazione di melodie neuralmente dai testi delle canzoni usando un profondo metodo LSTM-GAN condizionale.

    Con i progressi nell'intelligenza artificiale generativa, i modelli hanno iniziato a emergere che possono creare composizioni musicali complete (inclusi testi) da semplici descrizioni di testo. Due notevoli applicazioni Web in quest'area sono SUNO AI, lanciata nel dicembre 2023, e Udio, che seguirono nell'aprile 2024.

    Applicazioni software

    Mandrino

    Sviluppato alla Princeton University da Ge Wang e Perry Cook, Chuck è una lingua multipiattaforma basata sul testo. Estrando e classificando le tecniche teoriche che trova nei pezzi musicali, il software è in grado di sintetizzare pezzi completamente nuovi in ​​base alle tecniche che ha appreso. La tecnologia è utilizzata da Slork (Stanford Laptop Orchestra) e Plurk (Princeton Laptop Orchestra).

    Juke-box

    Jukedeck era un sito Web che consentiva alle persone di utilizzare l'intelligenza artificiale per creare musica originale e senza royalty da utilizzare nei video. Il team ha iniziato a sviluppare la tecnologia di generazione di musica nel 2010, ha costituito un'azienda attorno al 2012 e ha lanciato pubblicamente il sito Web nel 2015. La tecnologia utilizzata era inizialmente un sistema di composizione algoritmica basato sulle regole, che è stato successivamente sostituito da reti neurali artificiali. Il sito Web è stato utilizzato per generare oltre 1 milione di pezzi di musica e marchi che lo hanno usato hanno incluso Coca-Cola, Google, UKTV e il Natural History Museum di Londra. Nel 2019, la società è stata acquisita da Bytedance.

    Morfeo

    Morpheus è un progetto di ricerca di Dorien Herremans ed Elaine Chu presso la Queen Mary University di Londra, finanziato dal progetto UE Marie Skłodowska-Curie. Il sistema utilizza un approccio di ottimizzazione basato sull'algoritmo di ricerca di vicinato variabile per trasformare frammenti modellati esistenti in nuovi frammenti con un determinato livello di stress tonale che cambia dinamicamente durante il frammento. Questo approccio di ottimizzazione integra tecniche di rilevamento dei modelli per garantire una struttura a lungo termine e temi ricorrenti nella musica generata. Pezzi composti da Morpheus sono stati esibiti in concerti sia a Stanford che a Londra.

    Aiva

    Fondata nel febbraio 2016 in Lussemburgo, AIVA è un programma che produce colonne sonore per qualsiasi tipo di media. Gli algoritmi alla base dell'AIVA si basano su architetture di apprendimento profondo. AIVA è stato anche usato per comporre una traccia rocciosa chiamata On the Edge, nonché una melodia pop chiamata Love Sick, in collaborazione con la cantante Taryn Southern per il suo album I am AI.

    Google Purple

    Il team Magenta di Google ha pubblicato diverse app musicali di intelligenza artificiale e white paper dal loro lancio nel 2016. Nel 2017 hanno pubblicato l'algoritmo e il set di dati NSYNTH, uno strumento musicale hardware open source progettato per rendere più facile per i musicisti utilizzare l'algoritmo. Lo strumento è stato utilizzato da artisti notevoli come Grimes e Yacht nei loro album. Nel 2018, hanno pubblicato un'app di improvvisazione per pianoforte chiamata Piano Genie. In seguito è stato seguito da Magenta Studio, un set di 5 plug -in MIDI che consentono ai produttori musicali di sviluppare musica esistente nel loro DAW. Nel 2023, il loro team di apprendimento automatico pubblicò un documento tecnico su GitHub che descrive MusicLM, un generatore di testo di musica proprietario che avevano sviluppato.

    Riffusione

    Riffusion è una rete neurale sviluppata da Seth Forsgren e Ike Martiros che genera musica usando motivi sonori piuttosto che audio. È stato creato come una messa a punto della diffusione stabile, un modello esistente open source per generare immagini da segnali di testo negli spettrogrammi. Ciò si traduce in un modello che utilizza segnali di testo per generare file di immagine che possono essere trasformati e convertiti in inversi in file audio. Sebbene questi file siano lunghi solo pochi secondi, il modello può anche utilizzare lo spazio latente tra gli output per interpolare insieme diversi file. Ciò si ottiene utilizzando una funzionalità del modello di diffusione stabile noto come IMG2IMG. La musica risultante è stata descritta come "De Otro Mundo" (ultraterreno), sebbene sia improbabile che sostituisca la musica creata dall'uomo. Il modello è stato rilasciato il 15 dicembre 2022 e il codice è anche liberamente disponibile su GitHub. È uno dei tanti modelli derivati ​​da diffusione stabile. Riffusion è classificato come sottoinsieme di generatori di testo-music basati sull'intelligenza artificiale. Nel dicembre 2022, Mubert usò allo stesso modo la diffusione stabile per trasformare il testo descrittivo in circuiti musicali. Nel gennaio 2023, Google pubblicò un documento sul proprio generatore di testo-music chiamato Musiclm.

    Spike AI

    Spike AI è un plug-in audio basato sull'intelligenza artificiale sviluppato da Spike Stent in collaborazione con suo figlio Joshua Stent e amico Henry Ramsey che analizza le tracce e formula raccomandazioni per chiarezza e altri aspetti durante la miscelazione. La comunicazione viene effettuata tramite un chatbot addestrato sui dati personali di Spike Stent. Il plugin si integra in una workstation audio digitale.

    Applicazioni musicali

    L'intelligenza artificiale ha il potenziale per influenzare il modo in cui i produttori creano musica generando iterazioni della traccia basate su segnali forniti dal Creatore. Questi segnali consentono all'IA di seguire uno stile specifico che l'artista sta cercando di ottenere.

    L'intelligenza artificiale è stata anche utilizzata nell'analisi della musica in cui è stata utilizzata per l'estrazione delle caratteristiche, il riconoscimento dei motivi e le raccomandazioni musicali.

    Composizione

    L'intelligenza artificiale ha avuto un grande impatto sul settore della composizione in quanto ha influenzato le idee di compositori/produttori e ha il potenziale per rendere l'industria più accessibile ai nuovi arrivati. Con il suo sviluppo nella musica, è già stato utilizzato in collaborazione con i produttori. Gli artisti usano questo software per aiutare a generare idee e identificare gli stili musicali spingendo l'intelligenza artificiale a seguire requisiti specifici adatti alle loro esigenze. Gli impatti futuri della tecnologia sulla composizione comprendono l'emulazione e la fusione di stili, nonché la revisione e il perfezionamento. Lo sviluppo di questi tipi di software può rendere più facile per i nuovi arrivati ​​entrare nel settore della musica. Software come CHATGPT è stato utilizzato dai produttori per eseguire queste attività, mentre altri software come Ozone11 sono stati utilizzati per automatizzare le attività che richiedono tempo e complesse come il mastering.

    Rischi e danni

    Musicisti, produttori e altri utilizzano strumenti di intelligenza artificiale non generativi per anni. Cher ha reso popolare l'auto-tune con "credi" più di un quarto di secolo fa, e da allora innumerevoli artisti lo hanno usato per "correggere" il loro tono. Le etichette discografiche usano l'IA per scansionare i social media per usi senza licenza di canzoni che possiedono e Shazam funziona più o meno allo stesso modo quando si tratta di riconoscere l'audio. Gli ingegneri lo usano per semplificare il processo di miscelazione e mastering. Più recentemente, il regista di Get Back Peter Jackson ha utilizzato la tecnologia per isolare le singole tracce da una registrazione mista per ricostruire le conversazioni in studio e creare una canzone dei Beatles perduti.

    Ma c'è una differenza chiave tra questi strumenti ausiliari e le app di AI generative come Suno e Udio, che possono creare intere canzoni da poche parole. Tutte le nuove AIS musicali funzionano in modo leggermente diverso e continuano ad evolversi, ma generalmente operano in modo simile ad altri strumenti di AI generativi: analizzano un enorme set di dati e usano i modelli trovati in esso per fare previsioni probabilistiche.

    Per fare questo per l'audio, gli sviluppatori raccolgono una vasta raccolta di canzoni (attraverso accordi con titolari di licenza e/o raschiando i dati disponibili pubblicamente senza permesso) e i loro metadati associati (artisti e titoli di canzoni, generi, anni, descrizioni, annotazioni, tutto ciò che è rilevante e disponibile). Tutto ciò è generalmente reso possibile dai lavoratori a basso pagamento nel Sud globale che annotano questi dati su una scala gigantesca.

    Gli sviluppatori preparano quindi questo set di dati per un modello di apprendimento automatico, che è (in breve) una vasta rete di connessioni, ciascuno ha assegnato un "peso" numerico. Gli umani quindi "addestrano" il modello insegnandolo a osservare i modelli nel set di dati e fornendo feedback al modello segnando le sue previsioni. Sulla base di questi schemi, il modello può prendere un breve pezzo di audio o di testo e prevedere cosa dovrebbe accadere dopo, e quindi cosa succederà dopo e così via.

    Gli sviluppatori modificano i pesi per generare risultati più ascoltabili e prevedibili dagli stessi input. I generatori di musica alimentati dall'intelligenza artificiale combinano due fili di tecnologia: gli strumenti musicali che i professionisti hanno utilizzato negli studi da decenni e i modelli di grandi dimensioni che consentono agli utenti di tutti i giorni di sfruttare il loro potere. Qualsiasi generatore di musica di intelligenza artificiale è buono solo quanto i dati su cui è addestrato. Questi sistemi richiedono grandi quantità di dati e un modello addestrato su un set di dati distorto riprodurrà tali pregiudizi nel suo output. Di chi sono incluse le voci in questa enorme scatola di musica e di chi sono lasciate fuori? I modelli di intelligenza artificiale di oggi tendono ad escludere enormi fasce di musica, in particolare da tradizioni musicali che precedono la tecnologia di registrazione e sono di origine non occidentale. Come attualmente progettato, hanno maggiori probabilità di produrre suoni stereotipati all'interno di un genere o stile di qualsiasi cosa insolita, per non parlare di innovativa o interessante. I sistemi di intelligenza artificiale generativi sono soggetti a mediocrità, ma la musica trascendentale si trova sui margini.

    "Cosa andrà perso nella creatività e nella diversità umana se i musicisti iniziano a fare affidamento su modelli predittivi addestrati su set di dati selettivi che escludono la maggior parte delle culture e delle lingue del mondo?" Lauren Me Goodlad, presidente dell'iniziativa AI critica della Rutgers University, mi ha detto.

    Dal punto di vista legale, i musicisti che guardano i modelli di intelligenza artificiale imparano dal loro lavoro hanno le stesse preoccupazioni del New York Times, Getty e altri editori e creatori che stanno facendo causa alle società di intelligenza artificiale: la provenienza dei dati. Mentre alcune aziende stanno attenti ad addestrare i loro modelli solo su dati autorizzati, altre usano tutto ciò che possono mettere le mani, sostenendo che qualsiasi cosa di dominio pubblico è sotto fatica a questo scopo. La RIAA, l'organo di commercio musicale dominante negli Stati Uniti, ora sta facendo causa a Suno e Udio per "violazione del copyright ... su vasta scala". (Divulgazione: Vox Media è uno dei numerosi editori che ha firmato accordi di partnership con Openi. Il nostro reporting rimane editoriale indipendente.)

    I sondaggi spesso mostrano che la maggior parte delle persone disapprova le società di intelligenza artificiale che copiano dati pubblici senza permesso. Ma mentre ci sono una serie di cause legali di alto profilo sul tavolo, non è ancora chiaro come il sistema legale influenzerà le aziende che estraggono tutta la creatività umana senza autorizzazione, per non parlare di compensarle. Se queste pratiche non sono presto frenate, i giocatori meno scrupolosi guadagneranno rapidamente potere e i fantasiosi lobbisti e avvocati che ne derivano. (Cusonness: non è solo per le macchine!) Questi problemi stanno premendo ora perché diventano più difficili da risolvere nel tempo e alcuni sul campo stanno respingendo. Ed Newton-Rex è stato vicepresidente dell'audio presso Stability AI quando ha lanciato Audio stabile, un generatore di musica e audio basato sull'intelligenza artificiale, lo scorso autunno.

    Ha lasciato la società solo un paio di mesi dopo sulla sua posizione sulla raccolta dei dati: il team di Newton-Rex ha formato l'audio stabile solo sui dati autorizzati, ma la leadership dell'azienda ha presentato un commento pubblico presso l'ufficio del copyright degli Stati Uniti secondo cui lo sviluppo dell'IA era "un accettabile , Uso trasformativo e socialmente vantaggioso del contenuto esistente protetto dal fair use. " Per combattere il raschiatura senza licenza, Newton-Rex ha fondato abbastanza addestrato, che verifica e certifica set di dati utilizzati dalle società di intelligenza artificiale. Per ora, il non profit può solo certificare se il contenuto nel set di dati di un'azienda è stato adeguatamente autorizzato. Un giorno, sarà in grado di tenere conto dei dettagli più fini (come se l'artista ha acconsentito esplicitamente a tale uso o semplicemente non ha rinunciato) e altre questioni come la pregiudizio mitigato.

    Come musicista e compositore di musica corale e piano, vede questo come un punto di svolta per il campo. "I modelli AI generativi di solito sono in competizione con i loro dati di formazione", ha affermato Newton-Rex. “Onestamente, le persone hanno solo un tempo limitato per ascoltare la musica. C'è un pool limitato di royalties. E così più musica creata attraverso questi sistemi, meno questo va ai musicisti umani. "

    Come ha osservato la presidente della FTC Lina Khan il mese scorso, se una persona crea contenuti o informazioni che una società di intelligenza artificiale copia, e quindi il contenuto o le informazioni prodotte dal generatore di intelligenza artificiale compete con il produttore originale "al fine di scacciarla dal mercato e deviazione affari ... potrebbe essere un metodo ingiusto di concorrenza "che viola le leggi antitrust.
    Marc Ribot è uno degli oltre 200 musicisti che hanno firmato una dichiarazione dell'Alleanza per i diritti degli artisti che si oppone alla pratica all'inizio di quest'anno, ed è un membro attivo del comitato direttivo dell'IA dell'AILIGHT Music Worker. Un chitarrista praticante dagli anni '70, Ribot ha visto come la tecnologia ha modellato l'industria, osservando i budget di registrazione in costante riduzione per decenni.

    "Non sono contrario alla tecnologia stessa in alcun modo, forma o forma", afferma Ribot. Avendo perso le registrazioni principali che ha fatto negli anni '90, lui stesso ha usato l'IA per isolare le singole tracce dal mix finale. Ma vede il momento attuale come un'opportunità fondamentale per respingere la tecnologia prima che le aziende lo possiedano troppo grandi per regolarlo.
    "La vera linea di divisione tra utile e disastroso è molto semplice", ha detto Ribot. “Si tratta di se i produttori della musica o qualsiasi altra cosa vengano inseriti [come dati di addestramento] hanno un diritto reale e funzionale del consenso. [Generatori di musica AI] sputano ciò che consumano e spesso producono cose con grandi pezzi di materiale protetto da copyright. Questo è l'output. Ma anche se non lo hanno fatto, anche se l'output non sta violando, l'input stesso si sta violando. "

    Ribot ha detto che i musicisti sono stati a lungo indifferenti all'IA, ma negli ultimi anni ha visto un "cambiamento sismico negli atteggiamenti nei confronti di questioni di sfruttamento digitale", alimentato dagli scioperi SAG-Aftra e Writers Guild of America, in corso contro le società di intelligenza artificiale e una maggiore comprensione del capitalismo di sorveglianza e delle libertà civili.

    Mentre i musicisti potrebbero essersi visti come concorrenti solo pochi anni fa - anche se la torta sta diventando più piccola, ci sono ancora alcuni artisti che possono diventare ricchi - l'IA rappresenta una minaccia per l'intero settore che potrebbe non beneficiare nemmeno del più fortunato di loro.

    Cosa può fare e potrebbe fare.

    Uno dei primi esempi di musica creati dall'intelligenza artificiale risale al 1956: un pezzo per il quartetto di stringa composto dal computer Illiac I e programmato dall'Università dell'Illinois presso i professori di Urbana-Champaign Lejaren Hiller e Leonard Isaacson.

    Seguendo i salti tecnologici degli ultimi anni, artisti come Holly Herndon, Arca, Yacht, Taryn Southern e Brian Eno stanno ora usando AI generativa per sperimentare le loro pratiche creative. La tendenza dell'intelligenza artificiale a produrre "allucinazioni" e altri risultati senza senso, sebbene pericolosi in altri contesti, potrebbe essere una fonte di ispirazione nella musica. Proprio come altre tecnologie audio sono diventate definite dalla loro dissonanza: distorsione CD, compressione a 8 bit, la voce umana incrinata troppo potente per la gola che la emette: "Eventi troppo importanti per il mezzo destinato a registrarli", come Brian Eno scrive nell'anno con appendici gonfie: la musica generata può essere più preziosa quando è più distinta. Ivan Paz, un musicista con un dottorato in informatica, sta sviluppando sistemi di intelligenza artificiale per le sue esibizioni dal vivo.

    A partire da uno schermo vuoto, scrive il codice in tempo reale (visualizzato per il pubblico da leggere) e addestra il modello rispondendo ai suoni che emette, che può essere inaspettato, stonante o semplicemente catastrofico. Il risultato è un po 'come suonare uno strumento, ma anche come improvvisare con un altro musicista. "Se il tuo algoritmo funziona a un livello molto basso, allora ti senti come se stessi suonando uno strumento musicale perché stai effettivamente modificando, ad esempio, i parametri della sintesi", ha detto Paz. "Ma se l'algoritmo sta determinando la forma di un pezzo di musica, allora è come suonare con un agente che sta determinando cosa succederà dopo."

    Per una mostra presso il Center for Contemporary Culture a Barcellona all'inizio di quest'anno, Paz ha lavorato con la cantante Maria Arnal per creare un modello di rendering del timbro per la sua voce. Hanno chiesto ai visitatori di cantare brevi frammenti di canzoni; Il modello ha quindi mescolato quelle voci con Arnal per creare una nuova voce di canto. In un altro progetto, il collega di Paz Shelley Knotts ha addestrato una modella sulle sue composizioni per evitare la ripetizione nel suo lavoro: analizza la sua musica per rilevare i modelli, ma invece di suggerire la sua prossima mossa, suggerisce una continuazione meno probabile.

    Il prossimo passo nell'evoluzione musicale di AI potrebbe dipendere dalla velocità di elaborazione. La codifica dal vivo è possibile con alcuni tipi di modelli, ma altri impiegano troppo tempo per rendere la musica per crearla in uno spettacolo dal vivo. Strumenti elettronici come i sintetizzatori sono stati originariamente progettati per imitare i suoni acustici e hanno sviluppato il loro carattere unico nel tempo. Paz vede il potenziale finale dell'intelligenza artificiale generativa come creazione di nuovi suoni che al momento non possiamo immaginare, per non parlare della produzione. In questo contesto - in cui l'IA aiuta un artista - l'IA non ha più probabilità di "sostituire" un musicista che un sintonizzatore digitale o un pedale di ritardo.

    Tuttavia, altri angoli dell'industria musicale stanno adottando AI per scopi più dirompenti. Mentre l'IA potrebbe non (e non può mai) creare musica meglio di un essere umano, ora può creare musica accettabile a una velocità molto più veloce e su una scala più ampia - e "accettabile" è spesso l'unica barra che una traccia deve cancellare.

    Il più delle volte, quando senti la musica, non sai chi la ha creato. Il jingle che senti in un annuncio. La colonna sonora ambientale in un film o in un programma televisivo, podcast o videogioco. I loop un produttore hip-hop si campiona in un battito. Questa è la parte del settore che è più probabile che sia ribaltata dall'intelligenza artificiale generativa. Bloomberg riferisce che gli insegnanti stanno usando SUNO per creare sussidi didattici. Gizmodo nota che il pubblico target per il progetto di Music di Adobe Genai Control, un altro generatore di musica alimentato dall'intelligenza artificiale, sono persone che vogliono fare musica di sottofondo in modo rapido ed economico, come podcaster e youtubers, con la capacità di specificare l'umore, il tono e la lunghezza della una traccia.
    Che ti piaccia o addirittura noti, questi tipi di musica sono stati storicamente creati dagli umani. Ma la generazione di musica automatizzata di intelligenza artificiale potrebbe costare a questi musicisti il ​​loro lavoro - e molti di loro usano quel reddito per supportare le loro attività più creative, ma meno finanziariamente praticabili. Potresti non vedere mai un musicista di AI sul palco, ma probabilmente vedrai ancora meno musicisti umani a causa della tecnologia.

    Da parte loro, i giocatori influenti nel settore della musica credono già che l'IA diventerà un pilastro della loro attività: sono preoccupati per chi trarrà i benefici. Spotify non limiterà la musica generata dall'IA a meno che non sia perfettamente imitazione, il che rischia il contenzioso. Universal Music Group (UMG) e YouTube hanno lanciato l'incubatore di AI Music YouTube per sviluppare strumenti di intelligenza artificiale con artisti UMG. Nel frattempo, UMG è anche una delle oltre 150 organizzazioni-tra cui ASCAP, BMI, RIAA e AFL-CIO-nella Coalizione della campagna artistica umana, che cerca di stabilire quadri etici per l'uso dell'IA nei campi creativi. Non vogliono vietare la tecnologia, ma vogliono una partecipazione nei risultati.

    Con oltre 100.000 nuovi brani caricati ogni giorno su servizi di streaming, le piattaforme di streaming digitale hanno un forte incentivo per ridurre la quota di tracce di royalty-senza royalty che i loro utenti giocano. Spotify da solo ha pagato $ 9 miliardi di royalties l'anno scorso, la maggior parte dei suoi $ 14 miliardi di entrate. La più grande azienda di streaming musicale del mondo ha storicamente aumentato la disponibilità e la visibilità dei brani gratuiti e potrebbe continuare a farlo. I generatori musicali alimentati dall'intelligenza artificiale sono un modo semplice per creare musica gratuita in grado di spostare artisti reali, che guadagnano da royalty di playlist popolari, spostando quel trasversale di entrate dagli artisti e verso la piattaforma stessa.

    C'è un nuovo potere - e un nuovo pericolo - per gli artisti affermati. Dopo un ictus, la star di campagna Randy Travis ha difficoltà a parlare, per non parlare del canto, ma con l'aiuto di AI addestrato sul suo catalogo esistente, può riprodurre la sua voce digitalmente.

    Nel frattempo, un produttore anonimo può creare una collaborazione Drake/Weeknd dal suono credibile e accumulare milioni di flussi. A maggio, il produttore Metro Boomin è stato messo a fuoco durante la carne di manzo nella vita reale di Drake con Kendrick Lamar. Metro Boomin ha rilasciato un ritmo con campioni generati dall'IA da utilizzare per chiunque, che Drake ha poi campionato e sconfigito, rilasciando la nuova traccia ai servizi di streaming. King Willonius, che ha usato l'UDIO per creare la traccia originale che Metro Boomin ha remix, ha assunto un avvocato per conservare i diritti ai suoi contributi.
    Questi ultimi esempi mostrano come la musica fatta rapidamente può affollare la musica fatta bene. Nell'economia di streaming, il volume e la velocità sono tutto: gli artisti sono incentivati ​​a produrre quantità, non di qualità.

    "[Un futuro successo generato dall'integrità] non sarà qualcosa che le persone tornano indietro e studiano il modo in cui continuano a fare con le grandi uscite dell'era del disco", ha detto il musicista Jamie Brooks. Brooks ha pubblicato dischi con il suo nome e con le band Elite Gymnastics e i sessi di default e blog sull'industria musicale nella sua newsletter The Seat of Loss. “Ma genera ancora un coinvolgimento, e quindi un mondo in cui qualunque cosa sia in cima alle classifiche Spotify non è pensato per durare, questo è solo pensato per essere divertente quel giorno e non mai più pensato, sarebbe una buona cosa per tutte queste aziende . Non hanno bisogno che sia arte per fare soldi.

    "Gran parte della tecnologia odierna esiste principalmente per imitare o semplificare, il che può favorire il dilettanismo. La condivisione di file ha reso la raccolta di record compulsivi accessibile a chiunque abbia un disco rigido e un modem, le telecamere per telefoni cellulari hanno permesso a tutti nella folla di documentare lo spettacolo e ora lo streaming audio ci offre tutte le playlist dinamiche su misura per i nostri umori e coorti pubblicitarie. L'intelligenza artificiale generativa potrebbe rendere più semplice la creazione di musica per i non esperti. Ciò potrebbe cambiare radicalmente non solo quanta musica ascoltiamo, ma la nostra relazione con la forma nel suo insieme. Se la creazione di una canzone di successo non richiede più sforzi che scrivere un tweet virale, gran parte dell'energia creativa attualmente contenuta nei social media potrebbe essere reindirizzata alla generazione di musica basata su istruzioni.

    Brooks lo vede come un fenomeno regressivo, sottolineando l'immediata profondità senza tempo, in cima alle classifiche con meme audio e singoli innovativi rivolti agli ascoltatori più sofisticati, proprio come le onde radio erano una volta dominate da canzoni vuote come "portami fuori al gioco della palla , "Scritto da due persone che non erano mai state a una partita di baseball.

    "Questa è la direzione in cui questi servizi spingeranno la musica", ha detto Brooks. “Non riguarderà affatto la creatività. Tra il modo in cui funzionano questi modelli e i feed algoritmici, è tutto solo un grande repository del passato. Non sposta i record in avanti nel suono. Accelererà i record dal centro della cultura pop americana alla spazzatura. "

    Copyright e AI Music

    Una delle questioni più dibattute che circondano l'IA nell'industria musicale si preoccupa che guadagna da un lavoro generato dall'IA, soprattutto se l'algoritmo viene addestrato utilizzando materiale protetto da copyright esistente. Nel marzo 2023, l'ufficio del copyright degli Stati Uniti ha lanciato un'iniziativa per indagare sulle questioni relative al copyright relative all'IA. Camp è fiducioso che i regolatori intervengano e creeranno una patch, ma si preoccupa che il problema sia difficile da risolvere a causa del sistema di copyright statunitense in cui operano gli artisti.

    "Alcune leggi e precedenti che alla fine hanno portato al nostro moderno sistema di copyright non si adattano a ciò che sta accadendo nella musica in questo momento", afferma Camp. “Credo che i creatori dovrebbero avere la paternità, dovrebbero essere accreditati e dovrebbero essere compensati. Ma ancora una volta, l'intero sistema attraverso il quale lo facciamo è molto obsoleto. "

    La musica di AI è ancora in un'area grigia legale, sollevando la questione se sia possibile un compromesso in cui gli artisti siano accreditati, compensati e acconsentiti all'uso del loro lavoro o somiglianza da parte dell'IA senza limitare il potenziale per la creatività musicale usando la tecnologia AI. In una certa misura, l'arte è derivata da altre arte e ciò che è ispirazione e ciò che è il furto è attualmente sfocato. Alcune etichette discografiche stanno iniziando a reagire.

    Nel maggio 2023, Universal Music Group ha invitato i servizi di streaming per bloccare l'uso della musica generata dall'IA, dicendo che usa la musica dei loro artisti per addestrare il suo algoritmo e che intraprenderà un'azione legale se necessario. Spotify ha risposto rimuovendo il 7 percento della musica generata dall'IA sulla sua piattaforma, equivale a decine di migliaia di canzoni. Nel luglio 2023, UMG ha invitato il Congresso a emanare una politica a livello nazionale per proteggere i creatori dalla violazione del copyright basata sull'intelligenza artificiale. L'etichetta discografica è uno dei 40 membri per unirsi alla campagna artistica umana, un'organizzazione che sostiene l'uso responsabile dell'IA.

    Negli Stati Uniti, l'attuale quadro giuridico tende ad applicare le leggi tradizionali del copyright all'IA, nonostante le sue differenze rispetto al processo creativo umano. Tuttavia, le opere musicali create esclusivamente dall'IA non sono protette dal copyright. Nel compendio della pratica dell'ufficio del copyright, l'ufficio del copyright ha dichiarato che non concederà il copyright a "opere prive di paternità umane" e "l'ufficio non si registrerà le opere create da una macchina o da un semplice processo meccanico che opera casualmente o automaticamente senza Qualsiasi input creativo o intervento da parte di un autore umano. " Nel febbraio 2022, il comitato di revisione del copyright ha respinto una domanda di copyright per un'opera d'arte generata dall'AI sulla base del fatto che "mancava della paternità umana necessaria per sostenere una richiesta di copyright".

    La situazione nell'Unione Europea (UE) è simile a quella negli Stati Uniti, poiché il suo quadro giuridico sottolinea anche il ruolo del coinvolgimento umano nelle opere protette da copyright. Secondo l'Ufficio della proprietà intellettuale dell'Unione europea e la recente giurisprudenza della Corte di Giustizia dell'Unione Europea, il criterio di originalità richiede che un'opera sia la creazione intellettuale dell'autore, che riflette l'identità dell'autore, evidenziata dalle scelte creative fatte durante la sua creazione , richiedendo un livello specifico di coinvolgimento umano. Il progetto ricreativo in Europa, finanziato dal programma di ricerca e innovazione Horizon 2020 dell'Unione Europea, approfondisce le sfide poste dai contenuti generati dall'AI, compresa la musica, che offre certezza legale e protezione equilibrata che incoraggia l'innovazione nel rispetto delle regole del copyright. Il riconoscimento di AIVA segna una significativa allontanamento dalle opinioni tradizionali sulla paternità e sul copyright nel campo della composizione musicale, consentendo agli artisti di AI di rilasciare musica e ricevere royalties. Questo riconoscimento rende Aiva un pioniere nel riconoscimento formale di AI nella produzione musicale.

    I recenti progressi nell'intelligenza artificiale da parte di gruppi come Stability AI, Openi e Google hanno portato a un numero enorme di cause di violazione del copyright che vengono intentate contro le tecnologie generative, tra cui la musica AI. Se queste cause hanno successo, i set di dati dei modelli di apprendimento automatico che alimentano queste tecnologie saranno limitati al dominio pubblico.

    Drake e The Weeknd

    Sebbene non ci sia molto precedente legale per la clonazione vocale, per le celebrità può cadere sotto il loro diritto di pubblicità come violazione della loro immagine, nome e voce. Un esempio chiave dell'anno scorso è stato quando un tiktoker che andava con il nome Ghostwriter ha usato AI per creare un falso duetto tra Drake e il Weeknd chiamato "Heart on My Sleeve". Da allora la canzone è stata rimossa, ma le versioni sono ancora fluttuanti su Internet.

    "Da un lato, potresti sostenere che si tratta di un'opera originale", afferma Wears. “D'altra parte, potrebbe essere visto come una forma di violazione, poiché l'IA ha imparato a scrivere testi nello stile di Drake analizzando il suo catalogo, senza il suo espresso autorizzazione. Un'altra preoccupazione è l'uso non autorizzato dei nomi e delle somiglianze degli artisti. "

    La possibilità di copiare il nome e la somiglianza di qualcuno usando l'IA è preoccupante l'industria musicale, nonché l'intera industria dell'intrattenimento. Una delle principali esigenze dell'attuale sciopero SAG-AFTRA è quella di proteggere i creatori dall'avere il proprio lavoro per formare i generatori di intelligenza artificiale e gli attori dall'avere la loro somiglianza e voci copiate senza consenso.

    Problemi etici con AI

    Il copyright è solo una delle tante questioni etiche che circondano l'IA ed è importante ricordare che questa tecnologia e il suo sviluppo non sono senza conseguenze.

    Una preoccupazione immediata è la distorsione nella formazione di un set di dati. Un esempio è il rapper FN Meka, che ha firmato con Capitol Music Group nel 2022, ma in seguito ha lasciato cadere il contratto a causa del perpetuazione di stereotipi razziali.

    "Uno dei grandi problemi è la spazzatura e la spazzatura", afferma Camp. “Se stiamo addestrando questi modelli linguistici, o questi generatori di immagini, o questi generatori di musica su dati che sono intrinsecamente di parte, intrinsecamente razzisti, allora tutto ciò che ci chiediamo sta per perpetuare quegli stereotipi. Dobbiamo assicurarci di avere buoni dati e che li stiamo monitorando. "

    Il monitoraggio di tali dati non è neanche senza danni. Un'altra preoccupazione etica è il processo di formazione, chiamato "apprendimento di rinforzo", che prevede la fornitura di feedback umani su una serie di contenuti inquietanti. Un recente episodio del podcast del Wall Street Journal, la rivista presenta un lavoratore di dati kenioti che, tra molti altri, ha contribuito a formare Chatgpt a distinguere "Right from Wrong" a costo di una salute mentale molto elevata.

    "Fondamentalmente, sta dando un pollice in su o un pollice in giù sulle risposte", afferma Camp. “È una risposta inappropriata? È troppo violento o grafico o inquietante? Openi ha contratto quel lavoro per le persone in Kenya, pagando loro $ 2 l'ora per leggere quelle risposte. Quindi immagina di essere pagato $ 2 l'ora per presentarsi al lavoro e leggere alcuni dei testo più orribili e psicologicamente inquietanti, e lo fai per 10 ore, e poi vai a casa e tutto turbina nella tua testa. Quindi ci sono molti difetti nel modo in cui la salsiccia è fatta in questo momento. "

    Music DeepFakes

    Uno sviluppo più nascente dell'IA nella musica è l'uso di profondi audio per fingere i testi o lo stile musicale di una canzone esistente per assomigliare alla voce o allo stile di un altro artista. Ciò ha sollevato molte preoccupazioni sulla legalità della tecnologia, nonché sull'etica del suo uso, specialmente nel contesto dell'identità artistica. Inoltre, ha anche sollevato la questione di chi è accreditato per queste opere. Poiché l'IA non può avere una propria paternità, l'attuale speculazione suggerisce che non vi sarà alcuna risposta chiara fino a quando non saranno prese ulteriori decisioni sulle tecnologie di apprendimento automatico in generale. Le più recenti misure preventive hanno iniziato a essere sviluppate da Google e dall'Universal Music Group, che hanno tenuto conto dei royalties e dell'attribuzione del credito per consentire ai produttori di copiare voci e stili degli artisti.

    "Cuore sulla manica"

    Nel 2023, un artista noto come Ghostwriter977 ha creato un profondo musicale chiamato "Heart on My Sleeve" che clonava le voci di Drake e The Weeknd alimentando una serie di tracce vocali dei rispettivi artisti in un algoritmo di apprendimento profondo, creando un modello artificiale di Le voci di ogni artista che potrebbero essere abbinate alla voce di riferimento originali con i testi originali. La traccia è stata presentata per la considerazione di Grammy per la migliore canzone rap e la canzone dell'anno. È diventato virale e ha guadagnato popolarità su Tiktok e ha ricevuto una risposta positiva dal pubblico, portando alla sua uscita ufficiale su Apple Music, Spotify e YouTube nell'aprile 2023. Molti credevano che la traccia fosse stata completamente scritta da AI Software, ma il produttore lo sosteneva Il songwriting, la produzione e la voce originale (prima della conversione) erano ancora fatti da lui. La canzone è stata successivamente rimossa dall'elenco delle nomination dei Grammy perché non ha soddisfatto i requisiti per la considerazione di Grammy. La traccia è stata rimossa da tutte le piattaforme musicali di Universal Music Group. La canzone è stata una svolta per la clonazione vocale usando l'intelligenza artificiale e da allora sono stati creati modelli per centinaia, se non migliaia, di cantanti e rapper popolari.

    "Da dove veniva"

    Nel 2013, il cantante country Randy Travis ha subito un ictus che lo ha lasciato incapace di cantare. Nel frattempo, il cantante James Dupré ha girato per suo conto, eseguendo le sue canzoni. Travis e il produttore di lunga data Kyle Leynning pubblicarono una nuova canzone nel maggio 2024 intitolato "Where That Outs From", la prima nuova canzone di Travis dal suo ictus. La registrazione utilizza la tecnologia di intelligenza artificiale per ricreare la voce vocale di Travis, compilata da oltre 40 registrazioni vocali esistenti insieme alle registrazioni di Dupré.

    AI Strumenti musicali

    Ora che abbiamo coperto ciò che è l'IA, così come alcuni dei suoi aspetti negativi, possiamo discutere gli strumenti musicali di AI esistenti. A Berklee Onsite 2023, una conferenza musicale annuale tenutasi nel campus del Berklee College of Music di Boston, Wares ha condiviso alcuni strumenti musicali di AI da conoscere; Alcuni puoi iniziare a imparare in questo momento, e alcuni che potresti voler conoscere.

    Bandlab Songstarter

    L'app Songstarter di BandLab è un generatore di canzoni alimentato dall'intelligenza artificiale che ti consente di scegliere un genere, inserire testi delle canzoni (ed emoji) e genererà idee gratuite. Puoi quindi portare quelle idee nella loro funzione in studio per renderle quelle tue. È un ottimo modo per iniziare una canzone se hai bisogno di un'ispirazione iniziale.

    Midjourney

    Essendo uno dei più popolari generatori di immagini alimentati dall'intelligenza artificiale, Midjourney può essere utilizzato per creare arte album, copertine di canzoni, poster, loop Spotify, immagini di merch e altro ancora. Ciò che lo distingue da altri generatori di immagini alimentati dall'intelligenza artificiale è il suo stile surreale, simile a un sogno, che può essere più adatto ai progetti musicali. Il programma è facile da usare, ma c'è una curva di apprendimento definita. Come molti nuovi programmi tecnologici, assicurati di guardare alcuni tutorial prima di immergersi.

    Mescola il monolite

    Il plug -in MIX Monolith è un sistema di miscelazione automatico di Ayaic che uscirà anche il tuo mix. Nell'articolo online mix, lo sviluppatore afferma: "Il suo scopo non è quello di creare automaticamente un mix finito, ma di stabilire relazioni di guadagno fondamentali tra le tracce e garantire adeguati aggiustamenti di guadagno".

    Landr AI Mastering

    Lo strumento di mastering AI di Landr ti consente di trascinare e rilasciare la traccia nel programma, che poi la analizza e offre semplici opzioni per stile e volume. Una volta selezionate queste due opzioni, il programma padroneggerà la tua traccia, offrendo più opzioni per il tipo di file e il metodo di distribuzione. Landr vanta oltre 20 milioni di brani che sono stati mescolati con il loro programma.

    Aiva

    AIVA è un programma di intelligenza artificiale che è stato addestrato su oltre 30.000 punteggi iconici della storia. Puoi scegliere tra diversi stili di musica preimpostati, dal cinema moderno al cinema del ventesimo secolo, dal tango al jazz. Quindi hai la possibilità di inserire la firma chiave, la firma del tempo, il tempo, la strumentazione, la durata e altro ancora. Se non sai cosa entrare, Aiva lo farà per te. Infine, puoi generare una traccia, personalizzare la strumentazione e caricare una varietà di tipi di file. Come abbonato, hai una licenza di copyright completo per tutto ciò che crei.

    CHATGPT per i musicisti

    Uno degli strumenti di intelligenza artificiale più utilizzati, Opens's Chatgpt ha una varietà di usi per i musicisti. La società è attualmente sotto inchiesta dalla Federal Trade Commission, quindi dovresti prendere precauzioni su quali informazioni condividi con CHATGPT e verificare eventuali fatti che ricevi da CHATGPT.

    Con questo in mente, il programma ha il potenziale per ridurre il tempo che trascorri in compiti che ti toglie la musica effettivamente. Gli articoli e il campo hanno sperimentato CHATGPT dalla sua uscita e hanno alcuni suggerimenti specifici che musicisti e professionisti della musica potrebbero trovare utili.

    Strategia dei social media

    I social media possono essere un grande affondare per un musicista dilettante e Chatgpt possono aiutare ad alleviare il carico. Wares dice che puoi iniziare dicendo a Chatgpt che tipo di artista sei, che genere di musica suoni e quali sono i tuoi hobby e interessi. Quindi puoi richiedere 30 contenuti per i prossimi 30 giorni su Tiktok, Instagram, Facebook o qualsiasi piattaforma di social media che usi. Non solo puoi richiedere idee sui contenuti sui social media, ma puoi anche chiedere a Chatgpt di creare didascalie e hashtag ottimizzati.

    Cavalieri tecnici per il tour

    Quando vanno in tournée, i musicisti in genere assumono qualcuno per creare un pilota tecnico che delinea tutti i dettagli necessari per realizzare il loro spettacolo. Ciò potrebbe includere attrezzature, configurazione del palcoscenico, ingegneria del suono, illuminazione, ospitalità, contratti di concerti, itinerari del tour, opzioni di sede, prezzi dei biglietti e altro ancora. Wares afferma che Chatgpt potrebbe essere quello a scrivere quel pilota tecnologico e recentemente ha lavorato con la band per pianificare il loro tour utilizzando la tecnologia.

    "Abbiamo iniziato creando il loro pilota tecnologico, che includeva i requisiti di backline, un elenco dettagliato di input e persino consigli specifici sul microfono, il tutto basato su alcuni semplici suggerimenti", afferma Wares. “Abbiamo quindi chiesto raccomandazioni sull'itinerario del tour nel nord -est, quanto dovremmo addebitare i biglietti e le idee di merch basate sugli interessi unici e sui dati demografici della base di fan della band. Ciò che avrebbe richiesto giorni è stato fatto in meno di un'ora. "

    Testo di scrittura di canzoni

    Se hai bisogno di aiuto per scrivere testi delle canzoni, hai bisogno di ispirazione o vuoi usare alcuni suggerimenti di parole, Chatgpt può essere un utile strumento di songwriting. Camp fornisce l'esempio di lavorare con l'ex studentessa Berklee Julia Perry (che li ha intervistati per un articolo Berklee ora su AI e musica) per generare idee di canzoni usando Chatgpt.

    "Stavamo parlando di come l'universo è magico e di come voleva esprimere questa profonda e inconoscibile verità sull'universo", afferma Camp. "E sostanzialmente ho condensato tutto ciò che ha detto in due o tre paragrafi e ho detto [CHATGPT], dammi 20 linee di apertura per questa canzone."

    Hanno finito per usare una delle 20 opzioni come punto di partenza per una nuova canzone.

    Scrittura di contenuti

    CHATGPT può aiutare con una varietà di attività di scrittura di contenuti e copywriting, che si tratti di scrivere un comunicato stampa, una biografia con più lunghezze di personaggi, una strategia di rilascio di album, un post sul blog, una copia del sito Web, un'e -mail e altro ancora.

    Accordi e contratti

    In un mondo ideale, avresti un avvocato scrivere e rivedere tutti i tuoi accordi e contratti, ma non è sempre realistico o conveniente. In alcuni casi, potresti voler avere CHATGPT. Questo può essere utilizzato per accordi di gestione, accordi di banda, fogli divisi, accordi di performance e altro ancora. Ma ancora una volta, un avvocato di intrattenimento è sempre preferibile quando possibile.

    Dove sono le persone?

    Lo stato attuale della musica generativa AI è più mix-and-match della vera generazione. Non è davvero una band tributo, ma piuttosto un approccio espansivo al risveglio. Può solo produrre suoni da ciò che è nei dati di allenamento e, sebbene possa combinare, mescolare e rifrattare quegli elementi in nuovi modi, non può davvero sperimentare oltre.

    I musicisti ti diranno che ci sono solo un numero limitato di note che possono essere suonate o che tutti i suoni sono solo una questione di frequenza e lunghezza d'onda, e quindi c'è solo una quantità limitata di ciò che può essere fatto in termini puramente musicali. Ma c'è di più nella musica piuttosto che organizzare solo accordi o ritmi, così come c'è di più nella creazione di ricette piuttosto che scegliere da un elenco finito di ingredienti e tecniche.

    Ribo è un chitarrista noto per la sua sperimentazione e capacità di attingere da influenze disparate e mescolarle in qualcosa di nuovo. A prima vista, questo sembra molto simile alla proposta di valore proposta dai sostenitori dell'IA generativa, ma dice che ci sono differenze fondamentali tra un essere umano e una macchina che fanno la stessa cosa.

    "Non riesco a superare un assolo blu a 12 bar senza citare qualcuno", ha detto Ribot. “Dobbiamo dare il privilegio dei diritti umani per farlo. Sono abbastanza bravo a sapere quando attraverserò la linea. So di poter citare questa parte di una canzone di Charlie Parker senza che sia una canzone di Charlie Parker, e so di poterlo rovinare così male e sarà bello. "
    L'album di Ribot del 1990 Cosmopolitans Rootless include una copertina di "The Wind Cries Mary" di Jimi Hendrix. In omaggio a Hendrix, la versione di Ribot è astratta, i testi abbaiavano su una chitarra graffiante, con una piccola somiglianza con la canzone originale oltre al tono della chitarra, omettendo la melodia, gli accordi e il ritmo di Hendrix. Tuttavia, Ribot lo ha elencato come copertina sull'album e paga una royalty meccanica su ogni vendita o flusso.
    "Questo sistema deve essere preservato e vale la pena combattere", ha detto Ribot. “Non abbiamo pagato il salario minimo quando siamo seduti su un record. Non abbiamo garanzie anche quando ci esibiamo. [Copyright] è letteralmente l'unico diritto economico che abbiamo. "

    La pratica discorsiva di Ribot fa parte di una lunga tradizione: la musica come mezzo è definita da una consapevolezza e rispetto per ciò che è accaduto prima, ciò che può ancora crescere e cambiare e non solo essere riciclato. “Ciò che guida il cambiamento della musica è i cambiamenti negli umori delle persone, i loro bisogni e le possibilità e ciò che amano e ciò che li fa incazzare. Le persone possono imparare a prendere sentimenti, eventi e pienezza delle loro vite e rappresentarli sulla loro chitarra o pianoforte. Espande il campo mentre l'esperienza si espande, la storia si allunga e le bande emergono che hanno bisogno di espressione e idee. "

    Storicamente, c'è stato un contratto sacro tra musicisti e pubblico che implica autenticità e umanità. Dei milioni di fan di Taylor Swift che hanno partecipato al tour ERAS, molti potrebbero darti un resoconto dettagliato della sua vita personale. Lo stesso vale per il pubblico di Beyoncé, Harry Styles, Elton John o uno dei più grandi artisti in tournée. Hai bisogno di una persona reale per vendere stadi. Nessuno avrebbe nemmeno guardato il cantante mascherato se non pensassero di riconoscere gli artisti quando erano smascherati.

    Quando ascoltiamo intenzionalmente la musica, spesso ascoltiamo ermeneuticamente, come se la canzone fosse una porta in uno spazio più ampio di comprensione delle esperienze e delle prospettive degli altri. Considera il Nirvana. Because grunge's aesthetic deviance met modern studio technology at just the right moment, Nevermind found a huge audience not just because of the way it sounds, but because Kurt Cobain's personal arc—the meteoric rise and tragic early death of an anxious suburban kid who became a Rock Superstar sfidando apertamente (alcune) convenzioni pop-star, resistenti alle persone.

    Mentre la band ha riconosciuto i musicisti che li hanno ispirati: i Pixies, la Gap Band e altri - i record di Nirvana sono in definitiva il prodotto unico delle scelte fatte da Cobain, i suoi compagni di band e i loro collaboratori, un'espressione e il riflesso delle loro esperienze e ideali . L'arte, per definizione, è il prodotto del processo decisionale umano.

    Alcune musica generata dall'IA, come altre forme di processo musicale, mantengono ancora quell'elemento umano: perché artisti come Ivan Paz e Shelley Knotts si basano fortemente su modelli automatizzati, creano il sistema, prendono innumerevoli decisioni su come funziona e decidono cosa Fai con tutti i suoni che produce.
    Ma la musica di intelligenza artificiale che minaccia i musicisti umani, che richiede poco più di poche parole e produce intere canzoni da loro, è intrinsecamente limitata perché può solo guardare verso l'interno e indietro nel tempo dai suoi dati, mai esterno e quindi mai in avanti. La chitarra è stata inventata secoli fa, ma è improbabile che una modella AI si è allenata sulla musica prima che il periodo di massimo splendore di Suor Rosetta Tharpe negli anni '40 produca qualcosa che assomiglia a una chitarra elettrica. L'hip-hop è uno stile musicale basato sul campionamento e il riconfezionamento dell'opera di altri artisti (a volte in forme o contesti che non piace all'artista originale), ma un modello addestrato sulla musica prima del 1973 non sarà in grado di creare nulla di simile Quello.

    Ci sono innumerevoli ragioni per cui le persone ascoltano la musica, ma ci sono altrettanti ragioni per cui le persone ce la fanno. La gente ha suoni reciprocamente per migliaia di anni, e per la maggior parte di quel tempo sarebbe stato sciocco immaginare di guadagnarne da vivere: sarebbe stato impossibile persino pensare di amplificarlo, per non parlare di registrarlo. La gente ha fatto musica comunque.

    C'è una tensione qui che precede l'IA. Da un lato, le etichette discografiche e le piattaforme di streaming digitale credono, in gran parte correttamente, che il mercato della musica desidera il riconoscimento sopra ogni altra cosa, così tanto del denaro proviene dalle vendite dei cataloghi degli artisti affermati, con un rapporto che suggerisce che tali vendite rappresentano per 70 Percentuale del mercato della musica statunitense nel 2021. I grafici sembrano sempre più simili. Gli algoritmi della piattaforma di streaming spesso alimentano più e più volte le stesse canzoni.

    D'altra parte, c'è un intrinseco bisogno umano di sorpresa, innovazione, trasgressione. È diverso per ogni persona. Gli obiettivi di una grande società - la sua scala e la supervisione, in sostanza, sono diversi da quelli dei suoi utenti nel loro insieme e per l'individuo, e maggiore diventa la sua base di utenti, più tenderà ad automatizzare. Né i generatori di musica di intelligenza artificiale né le playlist generate dinamicamente né nessun altro sistema algoritmico predittivo sono intrinsecamente buoni o cattivi: i risultati dipendono interamente da chi li gestisce e per quale scopo.

    Ma qualunque cosa accada, nessuna compagnia avrà mai un monopolio sulla musica. Nessuna specie lo fa. Gli uccelli lo fanno. Le api lo fanno. Le balene in mare lo fanno. Alcuni di questi, all'orecchio umano, sono piuttosto belli. Ma anche con tutta quella melodia naturale, tutta la musica che gli umani hanno già creato e tutta la musica che Ai aiuterà a creare o creare se stessa, la voglia umana di creare ed esprimerci persiste. La musica esiste nel nostro mondo per ragioni diverse dal commercialismo.

    Più spesso, il motivo è abbastanza semplice: una persona o un gruppo di persone ha deciso che dovrebbe esistere e poi l'hanno resa. Continuerà a esistere, non importa quanto i fanghi sonori le macchine pumino.

    Abbracciare o resistere?

    Uno dei temi ricorrenti quando si tratta di AI e altre tecnologie emergenti è che saranno una parte importante dell'industria musicale (e della maggior parte delle industrie) in futuro, e che ignorarli non aiuterà i futuri leader del settore.

    "Penso che l'IA possa aiutare i miei studenti a essere più produttivi e a sostenere il loro processo creativo e consentire loro di concentrarsi su ciò che conta di più per loro, che sta creando ed eseguendo musica o esplorando nuove idee di business", afferma Wears. "Tuttavia, come educatore responsabile, devo assicurarmi che i miei studenti non diventino troppo dipendenti da questi strumenti e cerco costantemente modi per usare l'IA per aiutare a sviluppare le loro capacità di pensiero critico".

    Camp concorda e incoraggia anche le persone a fare ciò con cui si sentono a proprio agio mentre l'IA continua a evolversi.

    "Certamente ti incoraggio, se vuoi rimanere aggiornato e utilizzare la tecnologia per far avanzare ciò per cui sei sul pianeta, allora sì, unisciti", afferma Camp. “Ma come ho detto, ho amici che usano la rete fissa. Ho amici che preferiscono acquistare dischi in vinile. Ai è qui. Ha un impatto enorme. Non devi usarlo, ma molte persone scelgono. "

    AI a Berklee online

    Di recente, Berklee Online ha lanciato un'iniziativa chiamata ARIA: Ai-Realties e applicazioni immersive. Il progetto è guidato da Gabriel Raifer Cohen, direttore associato per il supporto e la tecnologia audio presso Berklee Online e un alunno del Berklee College of Music.

    "Come calcolatori, computer, Internet e motori di ricerca prima di esso, Genai è qui per rimanere", afferma Raifer Cohen. “Ignorare la realtà che tutti questi strumenti sono prontamente disponibili è un disservizio per gli studenti. . . . Insegnare agli studenti come utilizzare al meglio e responsabilmente queste tecnologie come strumenti di empowerment può essere uno sforzo più utile che cercare di combatterli. "

    E solo perché l'IA svolgerà un ruolo importante nel futuro dell'industria musicale non significa che non possiamo criticare questa nuova tecnologia o sostenere misure di sicurezza. "Allo stesso tempo, dobbiamo resistere alla diffusione della mediocrità e dell'insensibilità creativa alimentata dall'uso senza cervello di Genai, pur rimanendo eticamente consapevole e proattivo", afferma. "Non c'è nulla di facile in questo, ma dobbiamo considerare che anche gli sviluppi dell'IA aprivano opportunità per esperienze educative potenzialmente trasformative." Raifer Cohen afferma che, nell'ambito dell'iniziativa ARIA, Berklee Online continuerà a esplorare questi nuovi strumenti, e solo dopo essere stati testati e studiati a fondo, la scuola prenderà in considerazione l'impostazione in classe. "Alla fine, non dobbiamo dimenticare che per studenti e insegnanti, spettatori e creatori, tutti questi potenti strumenti sono proprio questo: strumenti", afferma Raifer Cohen.

    Registrazione gratuita

    Registrati gratuitamente e ottieni un progetto gratis