L'intelligenza artificiale nella musica

Author Avatar
Author
Antony Tornver
Published
February 25, 2025
L'intelligenza artificiale nella musica

Le possibilità offerte dalla musica basata sull'intelligenza artificiale sono state oggetto di discussione nel settore musicale per anni, ma è stato solo con il rilascio di ChatGPT nel 2022 che il dibattito sull'intelligenza artificiale ha iniziato a diffondersi nel mainstream. Ora siamo arrivati a un punto in cui alcuni musicisti e professionisti dell'industria musicale sono affascinati dalle possibilità offerte dalla musica basata sull'intelligenza artificiale, mentre altri sono diffidenti nei confronti dell'ignoto, soprattutto quando la regolamentazione è ancora agli albori. Uno studio condotto dalla società di distribuzione musicale Ditto ha rilevato che quasi il 60% degli artisti intervistati dichiara di utilizzare l'intelligenza artificiale nei propri progetti musicali, mentre il 28% afferma che non la utilizzerebbe per scopi musicali.

Christopher Wears, vicepreside del dipartimento di musica e management del Berklee College of Music, è un sostenitore della tecnologia musicale basata sull'intelligenza artificiale. Nel 2016 ha persino scritto una tesi di laurea sul perché la Warner Music dovrebbe investire nell'intelligenza artificiale (spoiler alert: lo ha fatto, insieme a tutte le altre major). Wares ha introdotto l'IA nei suoi corsi al Berklee e ha riscontrato reazioni contrastanti da parte degli studenti
."Alcuni dei miei studenti amano l'IA e la stanno già utilizzando in modi diversi, mentre altri non vogliono averci nulla a che fare", afferma Wares. "Ci sono molti dibattiti accesi nelle conversazioni e cerco di incoraggiare i miei studenti ad abbracciare la tecnologia e a trovare nuovi modi per utilizzarla al fine di migliorare i loro processi creativi".

Un altro autore di corsi e docente con una mentalità simile è Ben Camp, professore associato di songwriting al Berklee College of Music e autore di Songs Unmasked: Techniques and Tips for Songwriting Success . Sono affascinati dalla tecnologia musicale basata sull'intelligenza artificiale dal 2016, dopo aver ascoltato "Daddy's Car", una delle prime canzoni pop basate sull'intelligenza artificiale, in cui l'intelligenza artificiale è stata addestrata sulla musica dei Beatles.

Il campo offre anche ai suoi studenti l'opportunità di imparare l'IA in classe, a condizione che verifichino tutte le informazioni apprese da ChatGPT o da qualsiasi altro modello linguistico di grandi dimensioni.

"Penso che ognuno debba fare la propria scelta", dice Camp. "Voglio dire, ho amici che usano ancora i telefoni a conchiglia perché non si sentono a loro agio ad avere tutte le loro informazioni sul telefono. Ho amici che hanno ancora il telefono fisso. Quindi non sto dicendo: 'Ehi, ragazzi, dovete farlo'. Ma è sicuramente qui. Non se ne andrà. Andrà solo migliorando".

Che tu stia utilizzando attivamente l'IA nella tua musica o che tu abbia qualche dubbio, è sempre più chiaro che l'IA avrà un ruolo importante nell'industria musicale del futuro. Con l'esperienza di Wares e Camp, discutiamo dello stato attuale dell'IA nell'industria musicale, compresi gli strumenti attualmente disponibili.

Cos'è la musica AI?

Prima di definire cosa si intende per musica AI, definiamo innanzitutto l'intelligenza artificiale. Ecco la definizione di Wares: "L'intelligenza
artificiale è come l'intelligenza di un computer; è una tecnologia che consente alle macchine di imitare il pensiero o il comportamento umano, come la risoluzione di problemi, l'apprendimento o il riconoscimento di modelli".

Nel contesto musicale, la tecnologia AI ha raggiunto un livello tale da poter generare, comporre e migliorare contenuti musicali che in precedenza erano eseguiti da esseri umani. La musica AI può assumere molte forme e tipi di assistenza, dalla creazione di un'intera canzone dall'inizio alla fine, alla scrittura di aspetti specifici di una composizione, al missaggio e al mastering di una produzione, alla clonazione della voce e altro ancora. Elencheremo anche alcuni strumenti musicali specifici basati sull'intelligenza artificiale in grado di svolgere questi compiti, le cui capacità hanno aperto un vaso di Pandora di questioni relative al diritto d'autore.

Storia

L'intelligenza artificiale ha le sue origini nella musica, con il problema della trascrizione: registrare accuratamente un'esecuzione in notazione musicale mentre viene eseguita. Lo schema del "nastro per pianoforte" di Père Engramelle, un modo per registrare automaticamente i tempi e le durate delle note in modo che possano essere facilmente trascritti a mano in una corretta notazione musicale, fu implementato per la prima volta dagli ingegneri tedeschi J. F. Unger e J. Holfield nel 1752.
Nel 1957, l'ILLIAC I (Illinois Automatic Computer) creò la "Illiac Suite for String Quartet", un brano musicale interamente generato dal computer. Il computer fu programmato per eseguire questo compito dal compositore Lejaren Hiller e dal matematico Leonard Isaacson. : v–vii Nel 1960, il ricercatore russo Rudolf Zaripov pubblicò il primo articolo al mondo sulla composizione musicale algoritmica utilizzando il computer Ural-1.
Nel 1965, l'inventore Ray Kurzweil sviluppò un software in grado di riconoscere i pattern musicali e sintetizzare nuove composizioni a partire da essi. Il computer fece la sua prima apparizione nel quiz televisivo I've Got a Secret.

Nel 1983, il Kansei Music System di Yamaha aveva guadagnato popolarità e nel 1989 fu pubblicato un articolo sul suo sviluppo. Il software utilizzava tecniche di elaborazione musicale e intelligenza artificiale per risolvere essenzialmente il problema della trascrizione di melodie più semplici, anche se le melodie di livello superiore e le complessità musicali sono ancora oggi considerate problemi di deep learning difficili da risolvere e la trascrizione quasi perfetta è ancora oggetto di ricerca.

Nel 1997, un programma di intelligenza artificiale chiamato Experiments in Musical Intelligence (EMI) ha superato un compositore umano nel compito di comporre un brano musicale che imitasse lo stile di Bach. EMI è poi diventato la base per un algoritmo più sofisticato chiamato Emily Howell, dal nome della sua creatrice.

Nel 2002, un gruppo di ricercatori musicali del Sony Computer Science Laboratory di Parigi, guidato dal compositore e informatico francese François Pachet, ha sviluppato Continuator, un algoritmo unico in grado di riavviare una composizione dopo che un musicista dal vivo si era fermato.

Emily Howell ha continuato a migliorare l'intelligenza artificiale musicale pubblicando il suo primo album, From Darkness, Light, nel 2009. Da allora, molti altri lavori di intelligenza artificiale sono stati pubblicati da vari gruppi.
Nel 2010, Iamus è diventato il primo sistema di intelligenza artificiale a creare un brano di musica classica moderna originale nel proprio stile: "Iamus' Opus 1". Situato presso l'Università di Malaga (Università di Malaga) in Spagna, il computer è in grado di generare un brano musicale completamente originale in una varietà di stili musicali. Nell'agosto 2019 è stato creato un ampio set di dati di 12.197 brani MIDI, ciascuno con i propri testi e melodie, per studiare la fattibilità della generazione neurale di melodie dai testi delle canzoni utilizzando un metodo LSTM-GAN condizionale profondo.

Con i progressi nell'intelligenza artificiale generativa, hanno iniziato ad emergere modelli in grado di creare composizioni musicali complete (compresi i testi) a partire da semplici descrizioni testuali. Due applicazioni web degne di nota in questo settore sono Suno AI, lanciata nel dicembre 2023, e Udio, seguita nell'aprile 2024.

Applicazioni software

ChucK

Sviluppato all'Università di Princeton da Ge Wang e Perry Cook, ChucK è un linguaggio multipiattaforma basato su testo. Estraendo e classificando le tecniche teoriche che trova nei brani musicali, il software è in grado di sintetizzare brani completamente nuovi basati sulle tecniche apprese. La tecnologia è utilizzata da SLOrk (Stanford Laptop Orchestra) e PLOrk (Princeton Laptop Orchestra).

Jukebox

Jukedeck era un sito web che permetteva alle persone di utilizzare l'intelligenza artificiale per creare musica originale e libera da diritti d'autore da utilizzare nei video. Il team ha iniziato a sviluppare la tecnologia di generazione musicale nel 2010, ha costituito una società nel 2012 e ha lanciato il sito web al pubblico nel 2015. La tecnologia utilizzata era inizialmente un sistema di composizione algoritmica basato su regole, che è stato successivamente sostituito da reti neurali artificiali. Il sito web è stato utilizzato per generare oltre 1 milione di brani musicali e tra i marchi che lo hanno utilizzato figurano Coca-Cola, Google, UKTV e il Museo di Storia Naturale di Londra. Nel 2019, la società è stata acquisita da ByteDance.

Morpheus

MorpheuS è un progetto di ricerca di Dorien Herremans ed Elaine Chu della Queen Mary University di Londra, finanziato dal progetto Marie Skłodowska-Curie dell'UE. Il sistema utilizza un approccio di ottimizzazione basato sull'algoritmo di ricerca del vicinato variabile per trasformare frammenti con pattern esistenti in nuovi frammenti con un dato livello di stress tonale che cambia dinamicamente in tutto il frammento. Questo approccio di ottimizzazione integra tecniche di rilevamento dei pattern per garantire una struttura a lungo termine e temi ricorrenti nella musica generata. I brani composti da MorpheuS sono stati eseguiti in concerti sia a Stanford che a Londra.

AIVA

Fondato nel febbraio 2016 in Lussemburgo, AIVA è un programma che produce colonne sonore per qualsiasi tipo di media. Gli algoritmi alla base di AIVA si basano su architetture di deep learning. AIVA è stato anche utilizzato per comporre un brano rock chiamato On the Edge, così come un brano pop chiamato Love Sick, in collaborazione con la cantante Taryn Southern per il suo album del 2018 I am AI.

Google Purple

Il team Magenta di Google ha pubblicato diverse app musicali basate sull'intelligenza artificiale e white paper dal loro lancio nel 2016. Nel 2017, hanno rilasciato l'algoritmo e il set di dati NSynth, uno strumento musicale hardware open source progettato per facilitare l'uso dell'algoritmo da parte dei musicisti. Lo strumento è stato utilizzato da artisti famosi come Grimes e YACHT nei loro album. Nel 2018 hanno rilasciato un'app di improvvisazione pianistica chiamata Piano Genie. Successivamente è stato lanciato Magenta Studio, un set di 5 plugin MIDI che consentono ai produttori musicali di sviluppare musica esistente nella loro DAW. Nel 2023, il loro team di machine learning ha pubblicato un documento tecnico su GitHub che descrive MusicLM, un generatore proprietario di testo-musica da loro sviluppato.

Riffusion

Riffusion è una rete neurale sviluppata da Seth Forsgren e Ike Martiros che genera musica utilizzando modelli sonori anziché audio. È stata creata come una messa a punto di Stable Diffusion, un modello open source esistente per la generazione di immagini da segnali testuali in spettrogrammi. Il risultato è un modello che utilizza segnali testuali per generare file immagine che possono essere trasformati con la trasformata di Fourier inversa e convertiti in file audio. Sebbene questi file durino solo pochi secondi, il modello può anche utilizzare lo spazio latente tra gli output per interpolare insieme diversi file. Ciò è possibile grazie a una funzionalità del modello Stable Diffusion nota come img2img. La musica risultante è stata descritta come "de otro mundo" (ultraterrena), anche se è improbabile che possa sostituire la musica creata dall'uomo. Il modello è stato rilasciato il 15 dicembre 2022 e il codice è disponibile gratuitamente su GitHub. È uno dei tanti modelli derivati da Stable Diffusion. Riffusion è classificato come un sottoinsieme dei generatori di musica basati sull'intelligenza artificiale. Nel dicembre 2022, Mubert ha utilizzato in modo simile Stable Diffusion per trasformare testi descrittivi in loop musicali. Nel gennaio 2023, Google ha pubblicato un articolo sul proprio generatore di musica da testo chiamato MusicLM.

Spike AI

Spike AI è un plugin audio basato sull'intelligenza artificiale sviluppato da Spike Stent in collaborazione con suo figlio Joshua Stent e l'amico Henry Ramsey che analizza i brani e fornisce consigli sulla chiarezza e altri aspetti durante il missaggio. La comunicazione avviene tramite un chatbot addestrato sui dati personali di Spike Stent. Il plugin si integra in una workstation audio digitale.

Applicazioni musicali

L'intelligenza artificiale ha il potenziale per influenzare il modo in cui i produttori creano musica, generando iterazioni di brani basate su indicazioni fornite dal creatore. Queste indicazioni consentono all'IA di seguire uno stile specifico che l'artista sta cercando di ottenere.

L'IA è stata utilizzata anche nell'analisi musicale, dove è stata impiegata per l'estrazione di caratteristiche, il riconoscimento di pattern e i consigli musicali.

Composizione

L'intelligenza artificiale ha avuto un impatto importante sul settore della composizione, poiché ha influenzato le idee dei compositori/produttori e ha il potenziale per rendere l'industria più accessibile ai nuovi arrivati. Con il suo sviluppo nella musica, è già stata utilizzata in collaborazione con i produttori. Gli artisti utilizzano questo software per aiutare a generare idee e identificare stili musicali, suggerendo all'IA di seguire requisiti specifici che si adattano alle loro esigenze. Gli impatti futuri della tecnologia sulla composizione includono l'emulazione e la fusione di stili, nonché la revisione e il perfezionamento. Lo sviluppo di questi tipi di software può rendere più facile l'ingresso dei nuovi arrivati nell'industria musicale. Software come ChatGPT sono stati utilizzati dai produttori per eseguire queste attività, mentre altri software come Ozone11 sono stati utilizzati per automatizzare attività complesse e dispendiose in termini di tempo come il mastering.

Rischi e danni

Musicisti, produttori e altri utilizzano da anni strumenti di IA non generativi. Cher ha reso popolare l'auto-tune con "Believe" più di un quarto di secolo fa e da allora innumerevoli artisti lo hanno utilizzato per "correggere" il loro tono. Le etichette discografiche utilizzano l'IA per scansionare i social media alla ricerca di usi non autorizzati delle canzoni di loro proprietà, e Shazam funziona in modo molto simile quando si tratta di riconoscere l'audio. Gli ingegneri lo utilizzano per semplificare il processo di missaggio e masterizzazione. Più recentemente, il regista di Get Back Peter Jackson ha utilizzato questa tecnologia per isolare singole tracce da una registrazione mixata, ricostruire le conversazioni in studio e creare una canzone perduta dei Beatles.

Ma c'è una differenza fondamentale tra questi strumenti ausiliari e le app di IA generativa come Suno e Udio, che possono creare intere canzoni a partire da poche parole. Tutte le nuove IA musicali funzionano in modo leggermente diverso e continuano ad evolversi, ma in generale operano in modo simile ad altri strumenti di IA generativa: analizzano un enorme set di dati e utilizzano i modelli in esso contenuti per fare previsioni probabilistiche.

Per fare questo con l'audio, gli sviluppatori raccolgono un'enorme collezione di canzoni (attraverso accordi con i titolari delle licenze e/o raccogliendo dati disponibili pubblicamente senza autorizzazione) e i metadati associati (artisti e titoli delle canzoni, generi, anni, descrizioni, annotazioni, qualsiasi cosa rilevante e disponibile). Tutto questo è solitamente reso possibile da lavoratori a basso reddito del Sud del mondo che annotano questi dati su scala gigantesca.

Gli sviluppatori preparano quindi questo insieme di dati per un modello di apprendimento automatico, che è (in breve) una vasta rete di connessioni, a ciascuna delle quali è assegnato un "peso" numerico. Gli esseri umani "addestrano" quindi il modello insegnandogli a osservare i modelli nel set di dati e fornendo un feedback al modello valutando le sue previsioni. Sulla base di questi modelli, il modello può prendere un breve frammento di audio o testo e prevedere cosa dovrebbe succedere dopo, e poi cosa succederà dopo, e così via.

Gli sviluppatori modificano i pesi per generare risultati più ascoltabili e prevedibili dagli stessi input. I generatori di musica basati sull'intelligenza artificiale combinano due filoni tecnologici: gli strumenti musicali che i professionisti utilizzano negli studi da decenni e i grandi modelli linguistici che consentono agli utenti comuni di sfruttarne la potenza. Qualsiasi generatore di musica basato sull'intelligenza artificiale è efficace solo quanto i dati su cui è stato addestrato. Questi sistemi richiedono enormi quantità di dati e un modello addestrato su un set di dati parziale riprodurrà tali parzialità nei suoi risultati. Quali voci sono incluse in questo enorme contenitore di musica e quali sono state escluse? I modelli di IA odierni tendono ad escludere enormi quantità di musica, in particolare quella proveniente da tradizioni musicali antecedenti alla tecnologia di registrazione e di origine non occidentale. Così come sono attualmente progettati, sono più inclini a produrre suoni stereotipati all'interno di un genere o stile piuttosto che qualcosa di insolito, per non parlare di innovativo o interessante. I sistemi di IA generativa sono inclini alla mediocrità, ma la musica trascendentale si trova ai margini.

"Cosa si perderà in termini di creatività e diversità umana se i musicisti inizieranno a fare affidamento su modelli predittivi addestrati su set di dati selettivi che escludono la maggior parte delle culture e delle lingue del mondo?", mi ha detto Lauren M.E. Goodlad, presidente dell'iniziativa Critical AI della Rutgers University.

Da un punto di vista legale, i musicisti che vedono i modelli di IA imparare dal loro lavoro hanno le stesse preoccupazioni del New York Times, Getty e altri editori e creatori che stanno facendo causa alle aziende di IA: la provenienza dei dati. Mentre alcune aziende sono attente ad addestrare i loro modelli solo su dati concessi in licenza, altre utilizzano tutto ciò su cui riescono a mettere le mani, sostenendo che qualsiasi cosa di dominio pubblico rientri nel fair use per questo scopo. La RIAA, l'ente commerciale dominante nel settore musicale negli Stati Uniti, ha citato in giudizio Suno e Udio per "violazione del copyright... su vasta scala". (Divulgazione: Vox Media è uno dei numerosi editori che hanno firmato accordi di partnership con OpenAI. La nostra attività di informazione rimane editorialmente indipendente).

I sondaggi mostrano spesso che la maggior parte delle persone disapprova il fatto che le aziende di IA copino dati pubblici senza autorizzazione. Ma mentre sono in corso una serie di cause legali di alto profilo, non è ancora chiaro come il sistema legale influenzerà le aziende che sfruttano tutta quella creatività umana senza autorizzazione, per non parlare del risarcimento. Se queste pratiche non saranno frenate presto, gli attori meno scrupolosi acquisiranno rapidamente potere e i lobbisti e gli avvocati di lusso che ne derivano. (Insensibilità: non è solo per le macchine!) Queste questioni sono urgenti ora perché diventano più difficili da risolvere con il passare del tempo, e alcuni operatori del settore stanno reagendo. Ed Newton-Rex era vicepresidente del reparto audio di Stability AI quando, lo scorso autunno, l'azienda ha lanciato Stable Audio, un generatore di musica e suoni basato sull'intelligenza artificiale.

Ha lasciato l'azienda solo un paio di mesi dopo a causa della sua posizione sulla raccolta dei dati: il team di Newton-Rex ha addestrato Stable Audio solo su dati concessi in licenza, ma la dirigenza dell'azienda ha presentato un commento pubblico all'Ufficio del Copyright degli Stati Uniti affermando che lo sviluppo dell'intelligenza artificiale era "un uso accettabile, trasformativo e socialmente vantaggioso dei contenuti esistenti protetti dal fair use". Per combattere lo scraping senza licenza, Newton-Rex ha fondato Fairly Trained, che verifica e certifica i set di dati utilizzati dalle aziende di IA. Per ora, l'organizzazione no profit può solo certificare se il contenuto del set di dati di un'azienda è stato correttamente concesso in licenza. Un giorno sarà in grado di prendere in considerazione dettagli più precisi (come se l'artista abbia espressamente acconsentito a tale uso o semplicemente non abbia rinunciato) e altre questioni come la mitigazione dei pregiudizi.

In qualità di musicista e compositore di musica corale e pianistica, Newton-Rex vede questo come un punto di svolta per il settore. "I modelli di IA generativa sono solitamente in competizione con i loro dati di addestramento", ha affermato Newton-Rex. "Onestamente, le persone hanno solo un tempo limitato per ascoltare la musica. Il pool di diritti d'autore è limitato. Quindi, più musica viene creata attraverso questi sistemi, meno ne va ai musicisti umani".

Come ha osservato il mese scorso la presidente della FTC Lina Khan, se una persona crea contenuti o informazioni che un'azienda di IA copia, e poi i contenuti o le informazioni prodotti dal generatore di IA competono con il produttore originale "al fine di estrometterlo dal mercato e dirottare il business... questo potrebbe essere un metodo di concorrenza sleale" che viola le leggi antitrust.
Marc Ribot è uno degli oltre 200 musicisti che all'inizio di quest'anno hanno firmato una dichiarazione dell'Artist Rights Alliance in cui si oppongono a questa pratica, ed è un membro attivo del comitato direttivo sull'intelligenza artificiale della Music Workers Alliance. Chitarrista professionista dagli anni '70, Ribot ha visto come la tecnologia ha plasmato il settore, assistendo al progressivo ridursi dei budget destinati alle registrazioni nel corso dei decenni.

"Non sono affatto contrario alla tecnologia in sé", afferma Ribot. Avendo perso le registrazioni master realizzate negli anni '90, lui stesso ha utilizzato l'AI per isolare le singole tracce dal mix finale. Tuttavia, considera il momento attuale un'opportunità fondamentale per contrastare la tecnologia prima che le aziende che la possiedono diventino troppo grandi per poterla regolamentare
."La vera linea di demarcazione tra utile e disastroso è molto semplice", ha affermato Ribot. "Tutto dipende dal fatto che i produttori della musica o di qualsiasi altra cosa venga inserita [come dati di addestramento] abbiano un diritto di consenso reale e funzionale. [I generatori di musica basati sull'intelligenza artificiale] producono ciò che consumano e spesso creano opere che contengono grandi quantità di materiale protetto da copyright. Questo è il risultato. Ma anche se non lo facessero, anche se il risultato non violasse il copyright, l'input stesso lo violerebbe".

Ribot ha affermato che i musicisti sono stati a lungo indifferenti all'IA, ma negli ultimi anni ha assistito a un "cambiamento radicale nell'atteggiamento nei confronti delle questioni relative allo sfruttamento digitale", alimentato dagli scioperi dello scorso anno della SAG-AFTRA e della Writers Guild of America, dalle cause legali in corso contro le aziende di IA e da una maggiore comprensione del capitalismo di sorveglianza e delle libertà civili.

Mentre solo pochi anni fa i musicisti potevano considerarsi concorrenti tra loro – anche se la torta sta diventando più piccola, ci sono ancora alcuni artisti che possono diventare ricchi – l'IA rappresenta una minaccia per l'intero settore che potrebbe non avvantaggiare nemmeno i più fortunati.

Cosa può e potrebbe fare l'IA

Uno dei primi esempi di musica creata dall'intelligenza artificiale risale al 1956: un brano per quartetto d'archi composto dal computer ILLIAC I e programmato dai professori LeJaren Hiller e Leonard Isaacson dell'Università dell'Illinois a Urbana-Champaign.

Sulla scia dei recenti progressi tecnologici, artisti come Holly Herndon, Arca, YACHT, Taryn Southern e Brian Eno stanno ora utilizzando l'intelligenza artificiale generativa per sperimentare le loro pratiche creative. La tendenza dell'intelligenza artificiale a produrre "allucinazioni" e altri risultati senza senso, sebbene pericolosa in altri contesti, potrebbe essere fonte di ispirazione nella musica. Proprio come altre tecnologie audio sono state definite dalla loro dissonanza - la distorsione dei CD, la compressione a 8 bit, la voce umana incrinata troppo potente per la gola che la emette, "eventi troppo importanti per il mezzo destinato a registrarli", come scrive Brian Eno in The Year with Swollen Appendices - la musica generata dall'IA può essere più preziosa quando è più distintiva. Ivan Paz, musicista con un dottorato in informatica, sta sviluppando sistemi di IA per le sue esibizioni dal vivo.

Partendo da uno schermo vuoto, scrive il codice in tempo reale (visualizzato affinché il pubblico possa leggerlo) e addestra il modello rispondendo ai suoni che produce, che possono essere inaspettati, stridenti o semplicemente catastrofici. Il risultato è un po' come suonare uno strumento, ma anche come improvvisare con un altro musicista. "Se il tuo algoritmo funziona a un livello molto basso, allora ti sembra di suonare uno strumento musicale perché in realtà stai modificando, ad esempio, i parametri della sintesi", ha detto Paz. "Ma se l'algoritmo determina la forma di un brano musicale, allora è come suonare con un agente che determina ciò che accadrà dopo".

Per una mostra al Centro di Cultura Contemporanea di Barcellona all'inizio di quest'anno, Paz ha collaborato con la cantante Maria Arnal per creare un modello di resa timbrica per la sua voce. Hanno chiesto ai visitatori di cantare brevi frammenti di canzoni; il modello ha poi mixato quelle voci con quella di Arnal per creare una nuova voce cantata. In un altro progetto, la collega di Paz, Shelley Knotts, ha addestrato un modello sulle sue composizioni per evitare ripetizioni nel suo lavoro: il modello analizza la sua musica per individuare schemi ricorrenti, ma invece di suggerire la mossa più probabile, suggerisce una continuazione meno probabile.

Il prossimo passo nell'evoluzione musicale dell'IA potrebbe dipendere dalla velocità di elaborazione. Il live coding è possibile con alcuni tipi di modelli, ma altri richiedono troppo tempo per riprodurre la musica e crearla in uno spettacolo dal vivo. Gli strumenti elettronici come i sintetizzatori sono stati originariamente progettati per imitare i suoni acustici e hanno sviluppato nel tempo un loro carattere unico. Paz vede il potenziale ultimo dell'IA generativa nella creazione di nuovi suoni che attualmente non possiamo immaginare, figuriamoci produrre. In questo contesto, in cui l'IA assiste un artista, l'IA non è più in grado di "sostituire" un musicista di quanto non lo sia un accordatore digitale o un pedale di delay.

Tuttavia, altri settori dell'industria musicale stanno adottando l'IA per scopi più dirompenti. Anche se l'IA non può (e non potrà mai) creare musica migliore di quella umana, ora è in grado di creare musica accettabile a una velocità molto maggiore e su scala più ampia, e "accettabile" è spesso l'unico requisito che un brano deve soddisfare.

Il più delle volte, quando si ascolta musica, non si sa chi l'ha creata. Il jingle che si sente in una pubblicità. La colonna sonora di un film o di un programma televisivo, di un podcast o di un videogioco. I loop che un produttore hip-hop campiona in un beat. Questa è la parte dell'industria che più probabilmente sarà stravolta dall'IA generativa. Bloomberg riferisce che gli insegnanti stanno utilizzando Suno per creare supporti didattici musicali. Gizmodo osserva che il pubblico di riferimento di Project Music GenAI Control di Adobe, un altro generatore di musica basato sull'intelligenza artificiale, sono le persone che vogliono creare musica di sottofondo in modo rapido ed economico, come i podcaster e gli YouTuber, con la possibilità di specificare l'atmosfera, il tono e la lunghezza di un brano.
Che vi piaccia o che lo notiate o meno, questi tipi di musica sono stati storicamente creati dagli esseri umani. Ma la generazione automatizzata di musica tramite IA potrebbe costare il posto di lavoro a questi musicisti, molti dei quali utilizzano quel reddito per sostenere le loro attività più soddisfacenti dal punto di vista creativo, ma meno redditizie dal punto di vista finanziario. Forse non vedrete mai un musicista IA sul palco, ma probabilmente vedrete meno musicisti umani a causa di questa tecnologia.

Da parte loro, gli attori influenti dell'industria musicale credono già che l'IA diventerà un pilastro della loro attività e sono preoccupati di chi ne trarrà i benefici. Spotify non limiterà la musica generata dall'IA a meno che non si tratti di imitazioni palesi, che rischiano di portare a contenziosi legali. Universal Music Group (UMG) e YouTube hanno lanciato YouTube Music AI Incubator per sviluppare strumenti di IA con gli artisti UMG. Nel frattempo, UMG è anche una delle oltre 150 organizzazioni, tra cui ASCAP, BMI, RIAA e AFL-CIO, che fanno parte della coalizione Human Artistry Campaign, che cerca di stabilire un quadro etico per l'uso dell'IA nei campi creativi. Non vogliono vietare la tecnologia, ma vogliono avere voce in capitolo sui risultati.

Con oltre 100.000 nuovi brani caricati ogni giorno sui servizi di streaming, le piattaforme di streaming digitale hanno un forte incentivo a ridurre la quota di brani creati dall'uomo e privi di diritti d'autore riprodotti dai propri utenti. Solo Spotify ha pagato 9 miliardi di dollari in diritti d'autore lo scorso anno, la maggior parte dei suoi 14 miliardi di dollari di entrate. La più grande azienda di streaming musicale al mondo ha storicamente aumentato la disponibilità e la visibilità dei brani gratuiti e potrebbe continuare a farlo. I generatori di musica basati sull'intelligenza artificiale sono un modo semplice per creare musica gratuita che potrebbe sostituire gli artisti reali, che guadagnano diritti d'autore, dalle playlist popolari, spostando le entrate dello streaming dagli artisti alla piattaforma stessa.

C'è un nuovo potere - e un nuovo pericolo - per gli artisti affermati. Dopo un ictus, la star del country Randy Travis ha difficoltà a parlare, figuriamoci a cantare, ma con l'aiuto dell'intelligenza artificiale addestrata sul suo catalogo esistente, può riprodurre la sua voce in modo digitale.

Nel frattempo, un produttore anonimo può creare una collaborazione credibile tra Drake e The Weeknd e accumulare milioni di stream. A maggio, il produttore Metro Boomin è stato criticato durante la lite nella vita reale tra Drake e Kendrick Lamar. Metro Boomin ha pubblicato un beat con campioni generati dall'intelligenza artificiale che chiunque poteva utilizzare, che Drake ha poi campionato e su cui ha rappato, pubblicando il nuovo brano sui servizi di streaming. King Willonius, che ha utilizzato Udio per creare il brano originale remixato da Metro Boomin, ha assunto un avvocato per mantenere i diritti sui suoi contributi.
Questi ultimi esempi dimostrano come la musica prodotta rapidamente possa soppiantare quella prodotta bene. Nell'economia dello streaming, il volume e la velocità sono tutto: gli artisti sono incentivati a produrre quantità, non qualità.

"[Un futuro successo generato dall'intelligenza artificiale] non sarà qualcosa che la gente tornerà a studiare come continua a fare con le grandi uscite dell'era discografica", ha detto la musicista Jamie Brooks. Brooks ha pubblicato dischi a suo nome e con le band Elite Gymnastics e Default Genders, e scrive un blog sull'industria musicale nella sua newsletter The Seat of Loss. "Ma genera comunque coinvolgimento, e quindi un mondo in cui ciò che è in cima alle classifiche di Spotify non è destinato a durare, ma solo a intrattenere quel giorno e non essere più ricordato, sarebbe una cosa positiva per tutte queste aziende. Non hanno bisogno che sia arte per fare soldi.

" Gran parte della tecnologia odierna esiste principalmente per imitare o semplificare, il che può favorire il dilettantismo. La condivisione di file ha reso accessibile a chiunque disponga di un hard disk e di un modem la compulsiva raccolta di dischi, le fotocamere dei cellulari hanno permesso a tutti i presenti di documentare lo spettacolo e ora lo streaming audio ci offre playlist dinamiche su misura per i nostri stati d'animo e i nostri gruppi pubblicitari. L'intelligenza artificiale generativa potrebbe rendere la creazione musicale più facile anche per i non esperti. Questo potrebbe cambiare radicalmente non solo la quantità di musica che ascoltiamo, ma anche il nostro rapporto con la forma nel suo complesso. Se creare una canzone di successo non richiede più sforzo che scrivere un tweet virale, gran parte dell'energia creativa attualmente contenuta nei social media potrebbe essere reindirizzata verso la generazione di musica basata su prompt.

Brooks lo vede come un fenomeno regressivo, che enfatizza l'immediatezza piuttosto che la profondità senza tempo, conquistando le classifiche con meme audio e singoli innovativi rivolti agli ascoltatori più sofisticati, proprio come un tempo le onde radio erano dominate da canzoni vuote come "Take Me Out to the Ball Game", scritta da due persone che non erano mai state a una partita di baseball.

"Questa è la direzione in cui questi servizi spingeranno la musica", ha detto Brooks. "Non avrà nulla a che vedere con la creatività. Tra il modo in cui funzionano questi modelli e i feed algoritmici, è tutto solo un grande archivio del passato. Non farà progredire i dischi dal punto di vista sonoro. Accelererà il passaggio dei dischi dal centro della cultura pop americana al cestino della spazzatura".

Una delle questioni più dibattute relative all'IA nell'industria musicale riguarda chi guadagna dai lavori generati dall'IA, soprattutto se l'algoritmo viene addestrato utilizzando materiale esistente protetto da copyright. Nel marzo 2023, l'Ufficio del Copyright degli Stati Uniti ha lanciato un'iniziativa per indagare sulle questioni relative al copyright legate all'IA. Camp è fiducioso che le autorità di regolamentazione interverranno e creeranno una soluzione, ma teme che la questione sia difficile da risolvere a causa del sistema di copyright statunitense in cui operano gli artisti.

"Molte delle leggi e dei precedenti che alla fine hanno portato al nostro moderno sistema di copyright semplicemente non si adattano a ciò che sta accadendo nella musica in questo momento", afferma Camp. "Credo fermamente che i creatori debbano avere la paternità delle opere, debbano essere citati e debbano essere ricompensati. Ma, ripeto, l'intero sistema attraverso il quale lo facciamo è molto obsoleto".

La musica generata dall'intelligenza artificiale è ancora in una zona grigia dal punto di vista legale, sollevando la questione se sia possibile un compromesso in cui gli artisti siano citati, ricompensati e acconsentano all'uso delle loro opere o immagini da parte dell'intelligenza artificiale senza limitare il potenziale di creatività musicale utilizzando la tecnologia AI. In una certa misura, l'arte è derivata da altra arte, e ciò che è ispirazione e ciò che è furto è attualmente confuso. Alcune etichette discografiche stanno iniziando a reagire.

Nel maggio 2023, Universal Music Group ha invitato i servizi di streaming a bloccare l'uso della musica generata dall'intelligenza artificiale, affermando che essa utilizza la musica dei propri artisti per addestrare il proprio algoritmo e che, se necessario, intraprenderà azioni legali. Spotify ha risposto rimuovendo il 7% della musica generata dall'intelligenza artificiale dalla sua piattaforma, pari a decine di migliaia di brani. Nel luglio 2023, UMG ha invitato il Congresso ad adottare una politica nazionale per proteggere i creatori dalla violazione del copyright da parte dell'intelligenza artificiale. L'etichetta discografica è uno dei 40 membri che hanno aderito alla Human Artistry Campaign, un'organizzazione che promuove l'uso responsabile dell'intelligenza artificiale.

Negli Stati Uniti, l'attuale quadro giuridico tende ad applicare le leggi tradizionali sul copyright all'IA, nonostante le sue differenze rispetto al processo creativo umano. Tuttavia, le opere musicali create esclusivamente dall'IA non sono protette dal copyright. Nel Compendio delle pratiche dell'Ufficio del copyright, l'Ufficio del copyright ha dichiarato che non concederà il copyright a "opere che non hanno un autore umano" e che "l'Ufficio non registrerà opere create da una macchina o da un semplice processo meccanico che opera in modo casuale o automatico senza alcun contributo creativo o intervento da parte di un autore umano". Nel febbraio 2022, la Commissione di revisione del diritto d'autore ha respinto una richiesta di copyright per un'opera d'arte generata dall'IA con la motivazione che "mancava la necessaria paternità umana necessaria per sostenere una richiesta di copyright".

La situazione nell'Unione Europea (UE) è simile a quella degli Stati Uniti, poiché anche il suo quadro giuridico sottolinea il ruolo del coinvolgimento umano nelle opere protette da copyright. Secondo l'Ufficio dell'Unione Europea per la proprietà intellettuale e la recente giurisprudenza della Corte di giustizia dell'Unione Europea, il criterio di originalità richiede che un'opera sia una creazione intellettuale propria dell'autore, che rifletta la sua identità, dimostrata dalle scelte creative compiute durante la sua creazione, e che richieda un livello specifico di coinvolgimento umano. Il progetto reCreating Europe, finanziato dal programma di ricerca e innovazione Horizon 2020 dell'Unione Europea, approfondisce le sfide poste dai contenuti generati dall'IA, compresa la musica, offrendo certezza giuridica e una protezione equilibrata che incoraggia l'innovazione nel rispetto delle norme sul diritto d'autore. Il riconoscimento di AIVA segna un significativo allontanamento dalle visioni tradizionali sulla paternità e sul diritto d'autore nel campo della composizione musicale, consentendo agli artisti IA di pubblicare musica e ricevere royalties. Questo riconoscimento rende AIVA un pioniere nel riconoscimento formale dell'IA nella produzione musicale.

I recenti progressi nell'intelligenza artificiale da parte di gruppi come Stability AI, OpenAI e Google hanno portato a un numero enorme di cause legali per violazione del diritto d'autore intentate contro le tecnologie generative, compresa la musica generata dall'IA. Se queste cause avranno esito positivo, i set di dati dei modelli di apprendimento automatico che alimentano queste tecnologie saranno confinati al dominio pubblico.

Drake e The Weeknd

Sebbene non ci siano molti precedenti legali per la clonazione della voce, per le celebrità essa può rientrare nel loro diritto di pubblicità come violazione della loro immagine, del loro nome e della loro voce. Un esempio chiave dello scorso anno è stato quando un TikToker che si fa chiamare Ghostwriter ha utilizzato l'IA per creare un falso duetto tra Drake e The Weeknd chiamato "Heart on My Sleeve". La canzone è stata successivamente rimossa, ma alcune versioni continuano a circolare su Internet.

"Da un lato, si potrebbe sostenere che si tratta di un'opera originale", afferma Wears. "D'altro canto, potrebbe essere vista come una forma di violazione, poiché l'IA ha imparato a scrivere testi nello stile di Drake analizzando il suo catalogo, senza il suo esplicito permesso. Un'altra preoccupazione è l'uso non autorizzato dei nomi e delle immagini degli artisti".

La possibilità di copiare il nome e l'immagine di qualcuno utilizzando l'IA sta preoccupando l'industria musicale, così come l'industria dell'intrattenimento nel suo complesso. Una delle principali richieste dell'attuale sciopero SAG-AFTRA è quella di proteggere i creatori dall'utilizzo delle loro opere per addestrare i generatori di IA e gli attori dalla copia delle loro immagini e voci senza il loro consenso.

Questioni etiche relative all'IA

Il copyright è solo una delle tante questioni etiche che circondano l'IA, ed è importante ricordare che questa tecnologia e il suo sviluppo non sono privi di conseguenze.

Una preoccupazione immediata è il pregiudizio nell'addestramento di un set di dati. Un esempio è il rapper FN Meka, che ha firmato con Capitol Music Group nel 2022, ma in seguito ha rescisso il contratto a causa del perpetuarsi di stereotipi razziali.

"Uno dei grandi problemi è il garbage in, garbage out", afferma Camp. "Se addestriamo questi modelli linguistici, questi generatori di immagini o questi generatori di musica su dati intrinsecamente distorti e intrinsecamente razzisti, allora tutto ciò che chiediamo perpetuerà questi stereotipi. Dobbiamo assicurarci di avere dati validi e di monitorarli".

Anche il monitoraggio di questi dati non è privo di rischi. Un'altra preoccupazione etica è il processo di addestramento, chiamato "apprendimento per rinforzo", che prevede il feedback umano su una serie di contenuti disturbanti. Un recente episodio del podcast del Wall Street Journal The Journal presenta un lavoratore keniano che, insieme a molti altri, ha contribuito ad addestrare ChatGPT a distinguere "il bene dal male" a costo di un grave danno alla salute mentale.

"In sostanza, si tratta di dare un pollice in su o un pollice in giù alle risposte", dice Camp. "È una risposta inappropriata? È troppo violenta, esplicita o inquietante? OpenAI ha affidato questo lavoro a persone in Kenya, pagandole 2 dollari l'ora per leggere quelle risposte. Immaginate quindi di essere pagati 2 dollari l'ora per andare al lavoro e leggere alcuni dei testi più orribili e psicologicamente inquietanti, e di farlo per 10 ore, per poi tornare a casa con tutto questo che vi turba la mente. Quindi ci sono molti difetti nel modo in cui viene prodotto attualmente il salame".

Deepfake musicali

Uno sviluppo più recente dell'IA nella musica è l'uso di deepfake audio per falsificare i testi o lo stile musicale di una canzone esistente in modo che assomigli alla voce o allo stile di un altro artista. Ciò ha sollevato molte preoccupazioni sulla legalità della tecnologia, nonché sull'etica del suo utilizzo, soprattutto nel contesto dell'identità artistica. Inoltre, ha anche sollevato la questione di chi debba essere accreditato per queste opere. Poiché l'IA non può avere una propria paternità, le attuali speculazioni suggeriscono che non ci sarà una risposta chiara fino a quando non saranno prese ulteriori decisioni sulle tecnologie di apprendimento automatico in generale. Le misure preventive più recenti hanno iniziato a essere sviluppate da Google e dalla Universal Music Group, che hanno tenuto conto dei diritti d'autore e dell'attribuzione dei crediti per consentire ai produttori di copiare le voci e gli stili degli artisti.

"Heart on My Sleeve"

Nel 2023, un artista noto come ghostwriter977 ha creato un deepfake musicale chiamato "Heart on My Sleeve" che ha clonato le voci di Drake e The Weeknd inserendo una serie di tracce vocali dei rispettivi artisti in un algoritmo di deep learning, creando un modello artificiale delle voci di ciascun artista che poteva essere abbinato alle voci di riferimento originali con i testi originali. Il brano è stato candidato ai Grammy nella categoria Miglior canzone rap e Canzone dell'anno. È diventato virale e ha guadagnato popolarità su TikTok, ricevendo una risposta positiva dal pubblico, che ha portato alla sua uscita ufficiale su Apple Music, Spotify e YouTube nell'aprile 2023. Molti credevano che il brano fosse stato interamente scritto da un software di intelligenza artificiale, ma il produttore ha affermato che la composizione, la produzione e le voci originali (prima della conversione) erano state comunque realizzate da lui. La canzone è stata successivamente rimossa dalla lista delle nomination ai Grammy perché non soddisfaceva i requisiti per la candidatura. Il brano è stato rimosso da tutte le piattaforme musicali dalla Universal Music Group. La canzone ha rappresentato una svolta per la clonazione vocale tramite l'intelligenza artificiale e, da allora, sono stati creati modelli per centinaia, se non migliaia, di cantanti e rapper famosi.

"Da dove viene"

Nel 2013, il cantante country Randy Travis ha subito un ictus che lo ha reso incapace di cantare. Nel frattempo, il cantante James Dupré ha fatto un tour al suo posto, eseguendo le sue canzoni. Travis e il suo produttore di lunga data Kyle Lehning hanno pubblicato una nuova canzone nel maggio 2024 intitolata "Where That Came From", la prima nuova canzone di Travis dopo l'ictus. La registrazione utilizza la tecnologia dell'intelligenza artificiale per ricreare la voce di Travis, compilata da oltre 40 registrazioni vocali esistenti insieme alle registrazioni di Dupré.

Strumenti musicali basati sull'intelligenza artificiale

Ora che abbiamo spiegato cos'è l'IA e alcuni dei suoi principali svantaggi, possiamo discutere degli strumenti musicali basati sull'IA esistenti. Al Berklee Onsite 2023 , una conferenza musicale annuale che si tiene nel campus del Berklee College of Music di Boston, Wares ha presentato alcuni strumenti musicali basati sull'IA da conoscere; alcuni dei quali potete iniziare a imparare subito, mentre altri potreste semplicemente voler conoscere.

BandLab SongStarter

L'app SongStarter di BandLab è un generatore di canzoni basato sull'intelligenza artificiale che consente di scegliere un genere, inserire il testo della canzone (e le emoji) e generare idee gratuite. È quindi possibile utilizzare queste idee nella funzione studio per personalizzarle. È un ottimo modo per iniziare a comporre una canzone se avete bisogno di un po' di ispirazione iniziale.

Midjourney

Midjourney, uno dei generatori di immagini basati sull'intelligenza artificiale più popolari, può essere utilizzato per creare copertine di album, copertine di canzoni, poster, loop Spotify, immagini di merchandising e altro ancora. Ciò che lo distingue da altri generatori di immagini basati sull'intelligenza artificiale è il suo stile surreale e onirico, che potrebbe essere più adatto ai progetti musicali. Il programma è facile da usare, ma richiede un certo periodo di apprendimento. Come per molti nuovi programmi tecnologici, assicurati di guardare alcuni tutorial prima di immergerti nell'uso.

Mix Monolith

Il plugin Mix Monolith è un sistema di missaggio automatico di AYAIC che uniforma il tuo mix. Nell'articolo Mix Online, lo sviluppatore afferma: "Il suo scopo non è quello di creare automaticamente un mix finito, ma di stabilire relazioni di guadagno fondamentali tra le tracce e garantire una corretta regolazione del guadagno".

LANDR AI Mastering

Lo strumento di masterizzazione AI di LANDR consente di trascinare la traccia nel programma, che la analizza e offre semplici opzioni per lo stile e il volume. Una volta selezionate queste due opzioni, il programma masterizzerà la traccia, offrendo ulteriori opzioni per il tipo di file e il metodo di distribuzione. LANDR vanta oltre 20 milioni di tracce mixate con il suo programma.

AIVA

AIVA è un programma di intelligenza artificiale che è stato addestrato su oltre 30.000 colonne sonore iconiche della storia. È possibile scegliere tra diversi stili musicali preimpostati, dal cinema moderno al cinema del XX secolo, dal tango al jazz. È quindi possibile inserire la tonalità, il tempo, il tempo, la strumentazione, la durata e altro ancora. Se non sai cosa inserire, AIVA lo farà per te. Infine, puoi generare una traccia, personalizzare la strumentazione e caricare una varietà di tipi di file. In qualità di abbonato, hai una licenza completa di copyright per tutto ciò che crei.

ChatGPT per musicisti

Uno degli strumenti di intelligenza artificiale più utilizzati, ChatGPT di OpenAI, ha una varietà di usi per i musicisti. L'azienda è attualmente sotto indagine da parte della Federal Trade Commission, quindi dovresti prendere precauzioni su quali informazioni condividi con ChatGPT, oltre a verificare qualsiasi informazione che ricevi da ChatGPT.

Tenendo presente questo, il programma ha il potenziale per ridurre il tempo che dedichi alle attività che ti allontanano dalla creazione musicale vera e propria. Wares e Camp hanno sperimentato ChatGPT sin dal suo rilascio e hanno alcuni consigli specifici che potrebbero essere utili ai musicisti e ai professionisti della musica.

Strategia sui social media

I social media possono richiedere molto tempo a un musicista dilettante, e ChatGPT può aiutare ad alleggerire il carico. Wares dice che puoi iniziare dicendo a ChatGPT che tipo di artista sei, che genere di musica suoni e quali sono i tuoi hobby e interessi. Poi puoi richiedere 30 contenuti per i prossimi 30 giorni su TikTok, Instagram, Facebook o qualsiasi altra piattaforma social che usi. Non solo puoi chiedere idee per i contenuti social, ma puoi anche chiedere a ChatGPT di creare didascalie e hashtag ottimizzati.

Rider tecnici per i tour

Quando vanno in tour, i musicisti di solito assumono qualcuno per creare un rider tecnico che descriva tutti i dettagli necessari per realizzare il loro spettacolo. Questo potrebbe includere attrezzature, allestimento del palco, ingegneria del suono, illuminazione, ospitalità, contratti per i concerti, itinerari del tour, opzioni per le location, prezzi dei biglietti e altro ancora. Wares dice che ChatGPT potrebbe essere quello giusto per scrivere quel rider tecnico e recentemente ha lavorato con la band per pianificare il loro tour utilizzando questa tecnologia.

"Abbiamo iniziato creando il loro rider tecnico, che includeva i requisiti per il backline, un elenco dettagliato degli input e persino raccomandazioni specifiche sui microfoni, il tutto sulla base di alcuni semplici suggerimenti", dice Wares. "Abbiamo poi chiesto consigli sull'itinerario del tour nel nord-est, su quanto dovremmo far pagare i biglietti e idee per il merchandising basate sugli interessi e sui dati demografici specifici dei fan della band. Ciò che avrebbe richiesto giorni è stato fatto in meno di un'ora".

Scrivere i testi delle canzoni

Se avete bisogno di aiuto per scrivere i testi delle canzoni, avete bisogno di ispirazione o volete utilizzare alcuni suggerimenti di parole, ChatGPT può essere uno strumento utile per la scrittura di canzoni. Camp fa l'esempio della collaborazione con l'ex studentessa del Berklee Julia Perry (che li ha intervistati per un articolo di Berklee Now sull'IA e la musica) per generare idee per canzoni utilizzando ChatGPT.

"Stavamo parlando di come l'universo sia magico e di come lei volesse esprimere questa verità profonda e inconoscibile sull'universo", dice Camp. "E io ho praticamente condensato tutto ciò che ha detto in due o tre paragrafi e ho detto [ChatGPT], dammi 20 righe di apertura per questa canzone".

Alla fine hanno utilizzato una delle 20 opzioni come punto di partenza per una nuova canzone.

Scrittura di contenuti

ChatGPT può aiutare in una varietà di attività di scrittura di contenuti e copywriting, che si tratti di scrivere un comunicato stampa, una biografia con lunghezze di caratteri multiple, una strategia di rilascio di un album, un post sul blog, il testo di un sito web, un'e-mail e altro ancora.

Accordi e contratti

In un mondo ideale, un avvocato dovrebbe redigere e revisionare tutti i vostri accordi e contratti, ma questo non è sempre realistico o economicamente sostenibile. In alcuni casi, potreste preferire che ChatGPT rediga un accordo piuttosto che non avere nulla. Questo può essere utilizzato per accordi di gestione, accordi tra membri di una band, fogli di ripartizione, accordi di esibizione e altro ancora. Ma, ancora una volta, quando possibile è sempre preferibile rivolgersi a un avvocato specializzato in intrattenimento.

Dove sono le persone?

Lo stato attuale della musica generativa con l'IA è più un mix-and-match che una vera e propria generazione. Non si tratta realmente di una tribute band, ma piuttosto di un approccio espansivo al revival. Può produrre solo suoni provenienti dai dati di addestramento e, sebbene sia in grado di combinare, mixare e rifrangere questi elementi in modi nuovi, non può realmente sperimentare oltre questo.

I musicisti vi diranno che il numero di note che possono essere suonate è limitato, o che tutti i suoni sono solo una questione di frequenza e lunghezza d'onda, e quindi c'è solo una quantità limitata di ciò che può essere fatto in termini puramente musicali. Ma la musica è molto più che arrangiare alcuni accordi o ritmi, proprio come creare ricette è molto più che scegliere da un elenco finito di ingredienti e tecniche.

Ribo è un chitarrista noto per la sua sperimentazione e la sua capacità di attingere da influenze disparate e mescolarle in qualcosa di nuovo. A prima vista, questo sembra molto simile alla proposta di valore avanzata dai sostenitori dell'IA generativa, ma lui sostiene che ci sono differenze fondamentali tra un essere umano e una macchina che fanno la stessa cosa.

"Non riesco a suonare un assolo blues di 12 battute senza citare qualcuno", ha detto Ribot. "Dobbiamo concedere il privilegio dei diritti umani per farlo. Sono abbastanza bravo a capire quando sto oltrepassando il limite. So che posso citare questa parte di una canzone di Charlie Parker senza che sia una canzone di Charlie Parker, e so che posso rovinarla così tanto e sarà comunque fantastico".
L'album di Ribot del 1990, Rootless Cosmopolitans, include una cover di "The Wind Cries Mary" di Jimi Hendrix. In omaggio a Hendrix, la versione di Ribot è astratta, con il testo urlato su una chitarra graffiante, che ha poco in comune con la canzone originale se non il tono della chitarra, omettendo la melodia, gli accordi e il ritmo di Hendrix. Tuttavia, Ribot l'ha inserita come cover nell'album e paga una royalty meccanica su ogni vendita o streaming
. "Questo sistema deve essere preservato e vale la pena lottare per esso", ha detto Ribot. "Non veniamo pagati il salario minimo quando siamo seduti su un disco. Non abbiamo garanzie nemmeno quando ci esibiamo. Il [copyright] è letteralmente l'unico diritto economico che abbiamo".

La pratica discorsiva di Ribot fa parte di una lunga tradizione: la musica come mezzo è definita dalla consapevolezza e dal rispetto per ciò che è venuto prima, per ciò che può ancora crescere e cambiare, e non solo essere riciclato. "Ciò che guida il cambiamento nella musica sono i cambiamenti nell'umore delle persone, i loro bisogni e le loro possibilità, ciò che amano e ciò che le infastidisce. Le persone possono imparare a prendere i sentimenti, gli eventi e la pienezza delle loro vite e rappresentarli con la chitarra o il pianoforte. Il campo si espande man mano che l'esperienza si amplia, la storia si allunga e emergono band che hanno bisogno di espressione e idee".

Storicamente, c'è stato un contratto sacro tra musicisti e pubblico che implica autenticità e umanità. Tra i milioni di fan di Taylor Swift che hanno partecipato all'Eras Tour, molti potrebbero fornirti un resoconto dettagliato della sua vita personale. Lo stesso vale per il pubblico di Beyoncé, Harry Styles, Elton John o qualsiasi altro grande artista in tour. Per riempire gli stadi serve una persona reale. Nessuno guarderebbe The Masked Singer se non pensasse di poter riconoscere gli artisti una volta smascherati.

Quando ascoltiamo la musica intenzionalmente, spesso la ascoltiamo in modo ermeneutico, come se la canzone fosse una porta d'accesso a uno spazio più ampio di comprensione delle esperienze e delle prospettive altrui. Prendiamo ad esempio i Nirvana. Poiché la devianza estetica del grunge ha incontrato la moderna tecnologia di studio proprio al momento giusto, Nevermind ha trovato un vasto pubblico non solo per il suo sound, ma anche perché la storia personale di Kurt Cobain – l'ascesa fulminea e la tragica morte prematura di un ragazzo ansioso di periferia che è diventato una superstar del rock sfidando apertamente (alcune) convenzioni delle pop star – ha trovato riscontro nella gente.

Sebbene la band abbia riconosciuto i musicisti che li hanno ispirati – i Pixies, i Gap Band e altri – i dischi dei Nirvana sono in definitiva il prodotto unico delle scelte fatte da Cobain, dai suoi compagni di band e dai loro collaboratori, un'espressione e un riflesso delle loro esperienze e dei loro ideali. L'arte, per definizione, è il prodotto del processo decisionale umano.

Alcuni brani musicali generati dall'intelligenza artificiale, come altre forme di processo musicale, conservano ancora quell'elemento umano: poiché artisti come Ivan Paz e Shelley Knotts si affidano fortemente a modelli automatizzati, creano il sistema, prendono innumerevoli decisioni su come funziona e decidono cosa fare con i suoni che produce.
Ma la musica generata dall'intelligenza artificiale che minaccia i musicisti umani, che richiede poco più di poche parole e produce intere canzoni da esse, è intrinsecamente limitata perché può solo guardare all'interno e indietro nel tempo dai suoi dati, mai all'esterno e quindi mai in avanti. La chitarra è stata inventata secoli fa, ma un modello di intelligenza artificiale addestrato sulla musica prima del periodo di massimo splendore di Sister Rosetta Tharpe negli anni '40 difficilmente produrrà qualcosa che assomigli a una chitarra elettrica. L'hip-hop è uno stile musicale basato sul campionamento e sul repackaging del lavoro di altri artisti (a volte in forme o contesti che non piacciono all'artista originale), ma un modello addestrato sulla musica prima del 1973 non sarà in grado di creare nulla di simile.

Ci sono innumerevoli ragioni per cui le persone ascoltano la musica, ma ci sono altrettante ragioni per cui la producono. Le persone producono suoni per gli altri da migliaia di anni e per la maggior parte di quel tempo sarebbe stato sciocco immaginare di poterci guadagnare da vivere: sarebbe stato impossibile anche solo pensare di amplificarla, figuriamoci registrarla. Le persone hanno continuato comunque a fare musica.

C'è una tensione che precede l'intelligenza artificiale. Da un lato, le etichette discografiche e le piattaforme di streaming digitale credono, in gran parte correttamente, che il mercato musicale voglia soprattutto il riconoscimento, quindi gran parte del denaro proviene dalle vendite dei cataloghi di artisti affermati, con un rapporto che suggerisce che tali vendite rappresentavano il 70% del mercato musicale statunitense nel 2021. I brani in cima alle classifiche sono sempre più simili tra loro. Gli algoritmi delle piattaforme di streaming spesso ripropongono le stesse canzoni più e più volte.

D'altra parte, c'è un bisogno intrinseco dell'essere umano di sorpresa, innovazione, trasgressione. È diverso per ogni persona. Gli obiettivi di una grande azienda, fondamentalmente la sua dimensione e la sua supervisione, sono diversi da quelli dei suoi utenti nel loro insieme e dei singoli individui, e più la sua base di utenti diventa ampia, più tenderà ad automatizzarsi. Né i generatori di musica basati sull'intelligenza artificiale, né le playlist generate dinamicamente, né qualsiasi altro sistema di previsione algoritmica sono intrinsecamente buoni o cattivi: i risultati dipendono interamente da chi li gestisce e per quale scopo.

Ma qualunque cosa accada, nessuna azienda avrà mai il monopolio della musica. Nessuna specie lo ha. Gli uccelli lo fanno. Le api lo fanno. Le balene nel mare lo fanno. Alcuni di questi suoni, all'orecchio umano, sono piuttosto belli. Ma anche con tutta quella melodia naturale, tutta la musica che gli esseri umani hanno già creato e tutta la musica che l'intelligenza artificiale contribuirà a creare o creerà da sola, il desiderio umano di creare ed esprimersi persiste. La musica esiste nel nostro mondo per ragioni diverse dal commercialismo.

Il più delle volte, il motivo è piuttosto semplice: una persona o un gruppo di persone hanno deciso che doveva esistere e poi l'hanno creata. Continuerà ad esistere, indipendentemente dalla quantità di rumore che le macchine produrranno.

Accettare o resistere?

Uno dei temi ricorrenti quando si parla di IA e altre tecnologie emergenti è che in futuro saranno una parte importante dell'industria musicale (e della maggior parte delle industrie) e che ignorarle non aiuterà i futuri leader del settore.

"Penso che l'IA possa aiutare i miei studenti a essere più produttivi e sostenere il loro processo creativo, consentendo loro di concentrarsi su ciò che conta di più per loro, ovvero creare e suonare musica o esplorare nuove idee di business", afferma Wears. "Tuttavia, come educatore responsabile, devo assicurarmi che i miei studenti non diventino troppo dipendenti da questi strumenti e sono costantemente alla ricerca di modi per utilizzare l'IA per aiutarli a sviluppare le loro capacità di pensiero critico".

Camp è d'accordo e incoraggia le persone a fare ciò con cui si sentono a proprio agio mentre l'IA continua ad evolversi.

"Se volete rimanere al passo con i tempi e utilizzare la tecnologia per migliorare ciò per cui siete su questo pianeta, allora sì, vi incoraggio a farlo", afferma Camp. "Ma come ho detto, ho amici che utilizzano i telefoni fissi. Ho amici che preferiscono acquistare dischi in vinile. L'IA è qui. Ha un impatto enorme. Non è necessario utilizzarla, ma molte persone scelgono di farlo".

L'intelligenza artificiale al Berklee Online

Recentemente, Berklee Online ha lanciato un'iniziativa chiamata ARIA: AI-enhanced Realities & Immersive Applications (Realtà potenziate dall'intelligenza artificiale e applicazioni immersive). Il progetto è guidato da Gabriel Raifer Cohen, vicedirettore del supporto e della tecnologia audio presso Berklee Online ed ex studente del Berklee College of Music.

"Come le calcolatrici, i computer, Internet e i motori di ricerca prima di essa, la GenAI è qui per restare", afferma Raifer Cohen. "Ignorare la realtà che tutti questi strumenti sono facilmente disponibili è un disservizio per gli studenti. . . . Insegnare agli studenti come utilizzare al meglio e in modo responsabile queste tecnologie come strumenti di empowerment può essere uno sforzo più utile che cercare di combatterle".

E solo perché l'IA avrà un ruolo importante nel futuro dell'industria musicale non significa che non possiamo criticare questa nuova tecnologia o sostenere misure di sicurezza. "Allo stesso tempo, dobbiamo resistere alla diffusione della mediocrità e dell'insensibilità creativa alimentate dall'uso sconsiderato di GenAI, rimanendo eticamente consapevoli e proattivi", afferma. "Non è affatto facile, ma dobbiamo considerare che gli sviluppi nell'IA aprono anche opportunità per esperienze educative potenzialmente trasformative". Raifer Cohen afferma che, nell'ambito dell'iniziativa ARIA, Berklee Online continuerà a esplorare questi nuovi strumenti e solo dopo che saranno stati testati e studiati a fondo la scuola valuterà la possibilità di implementarli in classe. "In definitiva, non dobbiamo dimenticare che per studenti e insegnanti, spettatori e creatori, tutti questi potenti strumenti sono solo questo: strumenti", afferma Raifer Cohen.


Author Avatar
Author
Antony Tornver
Published
February 25, 2025
Make Music Now.
No Downloads, Just
Your Browser.
Start creating beats and songs in minutes. No experience needed — it's that easy.
Get started