L'IA dans la musique

Author Avatar
Author
Antony Tornver
Published
February 25, 2025
L'IA dans la musique

Les possibilités offertes par la musique générée par l'IA font l'objet de discussions depuis des années dans le milieu de l'industrie musicale, mais ce n'est qu'avec la sortie de ChatGPT en 2022 que le débat autour de l'IA a commencé à se généraliser. Nous en sommes aujourd'hui à un stade où certains musiciens et professionnels de l'industrie musicale sont fascinés par les possibilités offertes par la musique alimentée par l'IA, tandis que d'autres se méfient de l'inconnu, d'autant plus que la réglementation en est encore à ses balbutiements. Une étude menée par la société de distribution musicale Ditto a révélé que près de 60 % des artistes interrogés déclarent utiliser l'IA dans leurs projets musicaux, tandis que 28 % affirment qu'ils n'utiliseraient pas l'IA à des fins musicales.

Christopher Wears, directeur adjoint du département musique/gestion du Berklee College of Music, est un fervent défenseur de la technologie musicale basée sur l'IA. Il a même rédigé en 2016 un mémoire de maîtrise sur les raisons pour lesquelles Warner Music devrait investir dans l'IA (spoiler : ils l'ont fait, comme toutes les autres grandes maisons de disques). Wares a introduit l'IA dans ses cours à Berklee et a constaté des réactions mitigées de la part des étudiants
.« Certains de mes étudiants adorent l'IA et l'utilisent déjà de différentes manières, tandis que d'autres ne veulent rien avoir à faire avec elle », explique Wares. « Les discussions sont très animées, et j'essaie d'encourager mes étudiants à adopter cette technologie et à trouver de nouvelles façons de l'utiliser pour améliorer leurs processus créatifs. »

Ben Camp, professeur associé de composition musicale au Berklee College of Music et auteur de Songs Unmasked: Techniques and Tips for Songwriting Success, est un autre auteur de cours et enseignant qui partage ce point de vue. Il est fasciné par la technologie musicale basée sur l'IA depuis 2016, après avoir entendu « Daddy's Car », l'une des premières chansons pop créées par l'IA, qui avait été entraînée sur la musique des Beatles.

Le camp offre également à ses étudiants la possibilité d'apprendre l'IA en classe, à condition qu'ils vérifient toutes les informations qu'ils apprennent à partir de ChatGPT ou de tout autre modèle linguistique de grande envergure.

« Je pense que chacun doit faire son propre choix », déclare Camp. « J'ai des amis qui utilisent encore des téléphones à clapet parce qu'ils ne se sentent pas à l'aise à l'idée d'avoir toutes leurs informations sur leur téléphone. J'ai des amis qui ont encore des lignes fixes. Je ne dis donc pas : « Hé, tout le monde, vous devez faire ça. » Mais c'est une réalité. Ça ne va pas disparaître. Ça ne va faire que s'améliorer. »

Que vous utilisiez activement l'IA dans votre musique ou que vous ayez des doutes, il est de plus en plus évident que l'IA jouera un rôle majeur dans l'industrie musicale à l'avenir. Forts de l'expertise de Wares et Camp, nous discutons de l'état actuel de l'IA dans l'industrie musicale, y compris des outils disponibles aujourd'hui.

Qu'est-ce que la musique IA ?

Avant de définir ce qu'est la musique IA, définissons d'abord l'intelligence artificielle. Voici la définition de Wares
:« L'intelligence artificielle est comme l'intelligence d'un ordinateur ; c'est une technologie qui permet aux machines d'imiter la pensée ou le comportement humains, comme la résolution de problèmes, l'apprentissage ou la reconnaissance de modèles. »

Dans le contexte musical, la technologie IA a atteint un stade où elle peut générer, composer et améliorer des contenus musicaux qui étaient auparavant interprétés par des humains. La musique IA peut prendre de nombreuses formes et offrir différents types d'assistance, de la création d'une chanson entière du début à la fin à l'écriture d'aspects spécifiques d'une composition, en passant par le mixage et le mastering d'une production, le clonage de voix, etc. Nous énumérerons également certains outils musicaux spécifiques basés sur l'IA qui peuvent effectuer ces tâches, dont les capacités ont ouvert une boîte de Pandore en matière de droits d'auteur.

Histoire

L'intelligence artificielle trouve ses origines dans la musique, avec le problème de la transcription : enregistrer avec précision une performance sous forme de notation musicale au fur et à mesure qu'elle est jouée. Le système de « bande piano » du Père Engramelle, un mode d'enregistrement automatique des temps et des durées des notes afin qu'elles puissent être facilement transcrites à la main en notation musicale appropriée, a été mis en œuvre pour la première fois par les ingénieurs allemands J. F. Unger et J. Holfield en 1752.
En 1957, l'ILLIAC I (Illinois Automatic Computer) a créé l'« Illiac Suite for String Quartet », une œuvre musicale entièrement générée par ordinateur. L'ordinateur a été programmé pour effectuer cette tâche par le compositeur Lejaren Hiller et le mathématicien Leonard Isaacson. : v–vii En 1960, le chercheur russe Rudolf Zaripov a publié le premier article au monde sur la composition musicale algorithmique à l'aide de l'ordinateur Ural-1.
En 1965, l'inventeur Ray Kurzweil a développé un logiciel capable de reconnaître des motifs musicaux et de synthétiser de nouvelles compositions à partir de ceux-ci. L'ordinateur est apparu pour la première fois dans le jeu télévisé I've Got a Secret.

En 1983, le Kansei Music System de Yamaha avait gagné en popularité, et un article sur son développement a été publié en 1989. Le logiciel utilisait des techniques de traitement musical et d'intelligence artificielle pour résoudre essentiellement le problème de la transcription de mélodies plus simples, bien que les mélodies de niveau supérieur et les complexités musicales soient encore considérées aujourd'hui comme des problèmes d'apprentissage profond difficiles, et que la transcription quasi parfaite fasse encore l'objet de recherches.

En 1997, un programme d'intelligence artificielle appelé Experiments in Musical Intelligence (EMI) a surpassé un compositeur humain dans la composition d'un morceau de musique imitant le style de Bach. EMI est ensuite devenu la base d'un algorithme plus sophistiqué appelé Emily Howell, du nom de sa créatrice.

En 2002, un groupe de chercheurs en musique du Sony Computer Science Laboratory à Paris, dirigé par le compositeur et informaticien français François Pachet, a développé Continuator, un algorithme unique capable de redémarrer une composition après qu'un musicien live se soit arrêté.

Emily Howell a continué à améliorer l'IA musicale en sortant son premier album, From Darkness, Light, en 2009. Depuis lors, de nombreuses autres œuvres d'IA ont été publiées par divers groupes.
En 2010, Iamus est devenue la première IA à créer une œuvre originale de musique classique moderne dans son propre style : « Iamus' Opus 1 ». Situé à l'université de Malaga (Université de Malaga) en Espagne, l'ordinateur peut générer une pièce musicale entièrement originale dans une variété de styles musicaux. En août 2019, un vaste ensemble de données comprenant 12 197 chansons MIDI, chacune avec ses propres paroles et mélodies, a été créé afin d'étudier la faisabilité de la génération neuronale de mélodies à partir de paroles de chansons à l'aide d'une méthode LSTM-GAN conditionnelle profonde.

Grâce aux progrès de l'IA générative, des modèles capables de créer des compositions musicales complètes (paroles comprises) à partir de simples descriptions textuelles ont commencé à voir le jour. Deux applications web notables dans ce domaine sont Suno AI, lancée en décembre 2023, et Udio, qui a suivi en avril 2024.

Applications logicielles

ChucK

Développé à l'université de Princeton par Ge Wang et Perry Cook, ChucK est un langage multiplateforme basé sur le texte. En extrayant et en classifiant les techniques théoriques qu'il trouve dans les morceaux de musique, le logiciel est capable de synthétiser des morceaux entièrement nouveaux à partir des techniques qu'il a apprises. Cette technologie est utilisée par SLOrk (Stanford Laptop Orchestra) et PLOrk (Princeton Laptop Orchestra).

Jukebox

Jukedeck était un site web qui permettait aux utilisateurs de créer, à l'aide de l'intelligence artificielle, des morceaux de musique originaux et libres de droits destinés à être utilisés dans des vidéos. L'équipe a commencé à développer cette technologie de génération musicale en 2010, a créé une entreprise autour de celle-ci en 2012 et a lancé le site web en 2015. La technologie utilisée était initialement un système de composition algorithmique basé sur des règles, qui a ensuite été remplacé par des réseaux neuronaux artificiels. Le site web a été utilisé pour générer plus d'un million de morceaux de musique, et parmi les marques qui l'ont utilisé figurent Coca-Cola, Google, UKTV et le Musée d'histoire naturelle de Londres. En 2019, la société a été rachetée par ByteDance.

Morpheus

MorpheuS est un projet de recherche mené par Dorien Herremans et Elaine Chu à l'université Queen Mary de Londres, financé par le projet européen Marie Skłodowska-Curie. Le système utilise une approche d'optimisation basée sur l'algorithme de recherche de voisinage variable pour transformer des fragments de motifs existants en nouveaux fragments avec un niveau donné d'accent tonal qui change de manière dynamique tout au long du fragment. Cette approche d'optimisation intègre des techniques de détection de motifs afin de garantir une structure à long terme et des thèmes récurrents dans la musique générée. Des morceaux composés par MorpheuS ont été interprétés lors de concerts à Stanford et à Londres.

AIVA

Fondé en février 2016 au Luxembourg, AIVA est un programme qui produit des bandes sonores pour tout type de média. Les algorithmes derrière AIVA sont basés sur des architectures d'apprentissage profond. AIVA a également été utilisé pour composer un morceau de rock intitulé On the Edge, ainsi qu'un morceau pop intitulé Love Sick, en collaboration avec la chanteuse Taryn Southern pour son album I am AI sorti en 2018.

Google Purple

L'équipe Magenta de Google a publié plusieurs applications musicales basées sur l'IA et des livres blancs depuis son lancement en 2016. En 2017, elle a publié l'algorithme et l'ensemble de données NSynth, un instrument de musique open source conçu pour faciliter l'utilisation de l'algorithme par les musiciens. Cet instrument a été utilisé par des artistes de renom tels que Grimes et YACHT sur leurs albums. En 2018, elle a lancé une application d'improvisation au piano appelée Piano Genie. Elle a ensuite été suivie par Magenta Studio, un ensemble de 5 plugins MIDI qui permettent aux producteurs de musique de développer la musique existante dans leur DAW. En 2023, son équipe d'apprentissage automatique a publié un article technique sur GitHub décrivant MusicLM, un générateur de texte-musique propriétaire qu'elle avait développé.

Riffusion

Riffusion est un réseau neuronal développé par Seth Forsgren et Ike Martiros qui génère de la musique à partir de motifs sonores plutôt que d'audio. Il a été créé comme une version affinée de Stable Diffusion, un modèle open source existant permettant de générer des images à partir d'indications textuelles dans des spectrogrammes. Il en résulte un modèle qui utilise des indications textuelles pour générer des fichiers image pouvant être transformés par Fourier inverse et convertis en fichiers audio. Bien que ces fichiers ne durent que quelques secondes, le modèle peut également utiliser l'espace latent entre les sorties pour interpoler différents fichiers ensemble. Cela est rendu possible grâce à une fonctionnalité du modèle Stable Diffusion appelée img2img. La musique qui en résulte a été décrite comme « de otro mundo » (d'un autre monde), même s'il est peu probable qu'elle remplace la musique créée par l'homme. Le modèle a été publié le 15 décembre 2022 et le code est également disponible gratuitement sur GitHub. Il s'agit de l'un des nombreux modèles dérivés de Stable Diffusion. Riffusion est classé comme un sous-ensemble des générateurs de texte-musique basés sur l'IA. En décembre 2022, Mubert a également utilisé Stable Diffusion pour transformer du texte descriptif en boucles musicales. En janvier 2023, Google a publié un article sur son propre générateur de musique à partir de texte, appelé MusicLM.

Spike AI

Spike AI est un plugin audio alimenté par l'IA développé par Spike Stent en collaboration avec son fils Joshua Stent et son ami Henry Ramsey. Il analyse les pistes et fait des recommandations pour améliorer la clarté et d'autres aspects lors du mixage. La communication s'effectue via un chatbot formé à partir des données personnelles de Spike Stent. Le plugin s'intègre dans une station de travail audio numérique.

Applications musicales

L'intelligence artificielle a le potentiel d'influencer la façon dont les producteurs créent de la musique en générant des itérations de morceaux basées sur des indications fournies par le créateur. Ces indications permettent à l'IA de suivre un style spécifique que l'artiste cherche à atteindre.

L'IA a également été utilisée dans l'analyse musicale, où elle a servi à l'extraction de caractéristiques, à la reconnaissance de motifs et à la recommandation musicale.

Composition

L'intelligence artificielle a eu un impact majeur sur le secteur de la composition, car elle a influencé les idées des compositeurs/producteurs et pourrait rendre l'industrie plus accessible aux nouveaux venus. Grâce à son développement dans le domaine musical, elle a déjà été utilisée en collaboration avec des producteurs. Les artistes utilisent ce logiciel pour générer des idées et identifier des styles musicaux en demandant à l'IA de suivre des exigences spécifiques qui répondent à leurs besoins. Les impacts futurs de cette technologie sur la composition comprennent l'émulation et la fusion de styles, ainsi que la révision et le raffinement. Le développement de ce type de logiciels peut faciliter l'entrée des nouveaux venus dans l'industrie musicale. Des logiciels tels que ChatGPT ont été utilisés par les producteurs pour effectuer ces tâches, tandis que d'autres logiciels tels que Ozone11 ont été utilisés pour automatiser des tâches longues et complexes telles que le mastering.

Risques et inconvénients

Les musiciens, les producteurs et d'autres professionnels utilisent depuis des années des outils d'IA non génératifs. Cher a popularisé l'auto-tune avec « Believe » il y a plus d'un quart de siècle, et depuis, d'innombrables artistes l'ont utilisé pour « corriger » leur tonalité. Les maisons de disques utilisent l'IA pour scanner les réseaux sociaux à la recherche d'utilisations non autorisées des chansons qu'elles possèdent, et Shazam fonctionne de la même manière lorsqu'il s'agit de reconnaître des fichiers audio. Les ingénieurs l'utilisent pour rationaliser le processus de mixage et de mastering. Plus récemment, le réalisateur de Get Back, Peter Jackson, a utilisé cette technologie pour isoler des pistes individuelles d'un enregistrement mixé afin de reconstituer des conversations en studio et de créer une chanson perdue des Beatles.

Mais il existe une différence fondamentale entre ces outils auxiliaires et les applications d'IA générative telles que Suno et Udio, qui peuvent créer des chansons entières à partir de quelques mots seulement. Toutes les nouvelles IA musicales fonctionnent de manière légèrement différente et continuent d'évoluer, mais elles opèrent généralement de manière similaire aux autres outils d'IA générative : elles analysent un énorme ensemble de données et utilisent les modèles qui y sont trouvés pour faire des prédictions probabilistes.

Pour ce faire, les développeurs collectent une énorme collection de chansons (grâce à des accords avec les détenteurs de licences et/ou en récupérant des données accessibles au public sans autorisation) et leurs métadonnées associées (artistes et titres de chansons, genres, années, descriptions, annotations, tout ce qui est pertinent et disponible). Tout cela est généralement rendu possible par des travailleurs faiblement rémunérés dans les pays du Sud qui annotent ces données à une échelle gigantesque.

Les développeurs préparent ensuite cet ensemble de données pour un modèle d'apprentissage automatique, qui est (en bref) un vaste réseau de connexions, chacune se voyant attribuer un « poids » numérique. Les humains « entraînent » ensuite le modèle en lui apprenant à observer les schémas dans l'ensemble de données et en lui fournissant un retour d'information en notant ses prédictions. Sur la base de ces schémas, le modèle peut prendre un court extrait audio ou textuel et prédire ce qui devrait se passer ensuite, puis ce qui se passera après, et ainsi de suite.

Les développeurs ajustent les poids afin de générer des résultats plus écoutables et plus prévisibles à partir des mêmes entrées. Les générateurs de musique alimentés par l'IA combinent deux technologies : les outils musicaux que les professionnels utilisent dans les studios depuis des décennies et les grands modèles linguistiques qui permettent aux utilisateurs quotidiens d'exploiter leur puissance. La qualité d'un générateur de musique basé sur l'IA dépend de la qualité des données sur lesquelles il a été entraîné. Ces systèmes nécessitent de grandes quantités de données, et un modèle entraîné sur un ensemble de données biaisé reproduira ces biais dans ses résultats. Quelles voix sont incluses dans cette immense boîte à musique, et lesquelles en sont exclues ? Les modèles d'IA actuels ont tendance à exclure de vastes pans de la musique, en particulier ceux issus de traditions musicales antérieures à la technologie d'enregistrement et d'origine non occidentale. Tels qu'ils sont actuellement conçus, ils sont plus susceptibles de produire des sons stéréotypés au sein d'un genre ou d'un style que des sons inhabituels, sans parler d'innovants ou d'intéressants. Les systèmes d'IA générative ont tendance à produire des résultats médiocres, mais la musique transcendantale se trouve en marge.

« Qu'est-ce qui sera perdu en termes de créativité et de diversité humaines si les musiciens commencent à s'appuyer sur des modèles prédictifs entraînés à partir d'ensembles de données sélectifs qui excluent la plupart des cultures et des langues du monde ? », m'a demandé Lauren M.E. Goodlad, présidente de l'initiative Critical AI de l'université Rutgers.

D'un point de vue juridique, les musiciens qui voient les modèles d'IA apprendre à partir de leur travail ont les mêmes préoccupations que le New York Times, Getty et d'autres éditeurs et créateurs qui poursuivent les entreprises d'IA : la provenance des données. Si certaines entreprises prennent soin de former leurs modèles uniquement à partir de données sous licence, d'autres utilisent tout ce qu'elles peuvent trouver, arguant que tout ce qui relève du domaine public relève de l'usage loyal à cette fin. La RIAA, l'organisme professionnel dominant dans le domaine de la musique aux États-Unis, poursuit actuellement Suno et Udio pour « violation massive des droits d'auteur ». (Divulgation : Vox Media fait partie des nombreux éditeurs qui ont signé des accords de partenariat avec OpenAI. Nos reportages restent indépendants sur le plan éditorial.)

Les sondages montrent souvent que la plupart des gens désapprouvent le fait que les entreprises d'IA copient des données publiques sans autorisation. Mais bien qu'il y ait un certain nombre de procès très médiatisés en cours, on ne sait pas encore clairement comment le système juridique affectera les entreprises qui exploitent toute cette créativité humaine sans autorisation, et encore moins comment il les indemnisera. Si ces pratiques ne sont pas rapidement endiguées, les acteurs les moins scrupuleux gagneront rapidement en puissance et s'entoureront de lobbyistes et d'avocats prestigieux. (L'insensibilité : ce n'est pas seulement réservé aux machines !) Ces questions sont désormais urgentes, car elles deviennent plus difficiles à résoudre avec le temps, et certains acteurs du secteur font pression pour qu'elles soient réglées. Ed Newton-Rex était vice-président de l'audio chez Stability AI lorsque la société a lancé Stable Audio, un générateur de musique et de sons alimenté par l'IA, à l'automne dernier.

Il a quitté l'entreprise quelques mois plus tard en raison de sa position sur la collecte de données : l'équipe de Newton-Rex a formé Stable Audio uniquement sur des données sous licence, mais la direction de l'entreprise a déposé un commentaire public auprès du Bureau américain des droits d'auteur, affirmant que le développement de l'IA était « une utilisation acceptable, transformatrice et socialement bénéfique du contenu existant protégé par l'usage loyal ». Pour lutter contre le scraping sans licence, Newton-Rex a fondé Fairly Trained , qui vérifie et certifie les ensembles de données utilisés par les entreprises d'IA. Pour l'instant, cette organisation à but non lucratif ne peut certifier que le contenu de l'ensemble de données d'une entreprise a été correctement licencié. Un jour, elle sera en mesure de prendre en compte des détails plus précis (comme le fait que l'artiste ait explicitement consenti à une telle utilisation ou qu'il ne se soit simplement pas désengagé) et d'autres questions telles que l'atténuation des biais.

En tant que musicien et compositeur de musique chorale et pour piano, il considère cela comme un tournant pour le secteur. « Les modèles d'IA générative sont généralement en concurrence avec leurs données d'entraînement », a déclaré Newton-Rex. « Honnêtement, les gens n'ont qu'un temps limité pour écouter de la musique. Les redevances sont limitées. Ainsi, plus ces systèmes créent de musique, moins les musiciens humains en bénéficient. »

Comme l'a fait remarquer la présidente de la FTC, Lina Khan, le mois dernier, si une personne crée un contenu ou des informations qu'une entreprise d'IA copie, et que le contenu ou les informations produits par le générateur d'IA concurrencent le producteur original « afin de le chasser du marché et de détourner son activité... cela pourrait constituer une méthode de concurrence déloyale » qui enfreint les lois antitrust.
Marc Ribot fait partie des plus de 200 musiciens qui ont signé une déclaration de l'Artist Rights Alliance s'opposant à cette pratique au début de l'année, et il est un membre actif du comité directeur de l'AI de la Music Workers Alliance. Guitariste depuis les années 1970, Ribot a vu comment la technologie a façonné l'industrie, observant la diminution constante des budgets d'enregistrement depuis des décennies.

« Je ne suis en aucun cas opposé à la technologie en soi », déclare Ribot. Ayant perdu les enregistrements originaux qu'il avait réalisés dans les années 90, il a lui-même utilisé l'IA pour isoler des pistes individuelles du mixage final. Mais il considère que le moment actuel est une occasion cruciale de s'opposer à cette technologie avant que les entreprises qui la possèdent ne deviennent trop importantes pour être réglementées. « La véritable ligne de démarcation entre
l'utile et le désastreux est très simple », a déclaré Ribot. « Tout dépend de la question de savoir si les producteurs de musique ou de tout autre contenu utilisé [comme données d'entraînement] ont un droit de consentement réel et fonctionnel. [Les générateurs de musique IA] produisent ce qu'ils consomment, et souvent, ils produisent des contenus qui contiennent de grandes quantités de matériel protégé par le droit d'auteur. C'est le résultat. Mais même si ce n'était pas le cas, même si le résultat ne constituait pas une violation, le contenu lui-même constituerait une violation. »

M. Ribot a déclaré que les musiciens ont longtemps été indifférents à l'IA, mais qu'au cours des dernières années, il a constaté un « changement radical dans les attitudes à l'égard des questions d'exploitation numérique », alimenté par les grèves de la SAG-AFTRA et de la Writers Guild of America l'année dernière, les poursuites judiciaires en cours contre les entreprises d'IA et une meilleure compréhension du capitalisme de surveillance et des libertés civiles.

Alors que les musiciens se considéraient comme des concurrents il y a encore quelques années — même si le gâteau devient plus petit, il y a encore quelques artistes qui peuvent s'enrichir —, l'IA représente une menace pour l'ensemble du secteur qui pourrait ne pas profiter même aux plus chanceux d'entre eux.

Ce que l'IA peut et pourrait faire

L'un des premiers exemples de musique créée par l'intelligence artificielle remonte à 1956 : une pièce pour quatuor à cordes composée par l'ordinateur ILLIAC I et programmée par les professeurs LeJaren Hiller et Leonard Isaacson de l'université de l'Illinois à Urbana-Champaign.

Suite aux progrès technologiques de ces dernières années, des artistes tels que Holly Herndon, Arca, YACHT, Taryn Southern et Brian Eno utilisent désormais l'IA générative pour expérimenter leurs pratiques créatives. La tendance de l'IA à produire des « hallucinations » et d'autres résultats absurdes, bien que dangereuse dans d'autres contextes, pourrait être une source d'inspiration dans le domaine musical. Tout comme d'autres technologies audio ont fini par être définies par leur dissonance (distorsion des CD, compression 8 bits, voix humaine trop puissante pour la gorge qui l'émet, « événements trop importants pour le support destiné à les enregistrer », comme l'écrit Brian Eno dans The Year with Swollen Appendices), la musique générée par l'IA peut être plus précieuse lorsqu'elle est la plus distincte. Ivan Paz, musicien titulaire d'un doctorat en informatique, développe des systèmes d'IA pour ses propres performances live.

Partant d'un écran vierge, il écrit du code en temps réel (affiché pour que le public puisse le lire) et entraîne le modèle en réagissant aux sons qu'il produit, qui peuvent être inattendus, discordants ou tout simplement catastrophiques. Le résultat s'apparente un peu à jouer d'un instrument, mais aussi à improviser avec un autre musicien. « Si votre algorithme fonctionne à un niveau très bas, vous avez l'impression de jouer d'un instrument de musique, car vous modifiez en fait, par exemple, les paramètres de la synthèse », explique Ivan Paz. « Mais si l'algorithme détermine la forme d'un morceau de musique, c'est comme si vous jouiez avec un agent qui détermine ce qui va se passer ensuite. »

Pour une exposition au Centre de culture contemporaine de Barcelone au début de l'année, M. Paz a travaillé avec la chanteuse Maria Arnal afin de créer un modèle de rendu du timbre de sa voix. Ils ont demandé aux visiteurs de chanter de courts extraits de chansons ; le modèle a ensuite mixé ces voix avec celle de Maria Arnal afin de créer une nouvelle voix chantée. Dans le cadre d'un autre projet, Shelley Knotts, collègue de Paz, a entraîné un modèle sur ses propres compositions afin d'éviter les répétitions dans son travail : celui-ci analyse sa musique pour détecter des motifs, mais au lieu de suggérer la suite la plus probable, il suggère une suite moins probable.

La prochaine étape dans l'évolution musicale de l'IA pourrait se résumer à la vitesse de traitement. Le codage en direct est possible avec certains types de modèles, mais d'autres prennent trop de temps pour rendre la musique afin de la créer dans un spectacle en direct. Les instruments électroniques tels que les synthétiseurs ont été initialement conçus pour imiter les sons acoustiques et ont développé leur propre caractère unique au fil du temps. Paz considère que le potentiel ultime de l'IA générative réside dans la création de nouveaux sons que nous ne pouvons actuellement ni imaginer, ni produire. Dans ce contexte, où l'IA assiste un interprète, elle n'est pas plus susceptible de « remplacer » un musicien qu'un accordeur numérique ou une pédale de delay.

Cependant, d'autres secteurs de l'industrie musicale adoptent l'IA à des fins plus disruptives. Si l'IA ne peut pas (et ne pourra jamais) créer de la musique meilleure que celle d'un humain, elle peut désormais créer de la musique acceptable à une vitesse beaucoup plus rapide et à plus grande échelle — et « acceptable » est souvent la seule exigence à laquelle un morceau doit répondre.

La plupart du temps, lorsque vous écoutez de la musique, vous ne savez pas qui l'a créée. Le jingle que vous entendez dans une publicité. La musique d'ambiance d'un film ou d'une émission de télévision, d'un podcast ou d'un jeu vidéo. Les boucles qu'un producteur de hip-hop sample dans un beat. C'est la partie de l'industrie la plus susceptible d'être bouleversée par l'IA générative. Bloomberg rapporte que des enseignants utilisent Suno pour créer des supports pédagogiques musicaux. Gizmodo note que le public cible du projet Music GenAI Control d'Adobe, un autre générateur de musique alimenté par l'IA, est constitué de personnes qui souhaitent créer rapidement et à moindre coût de la musique de fond, comme les podcasteurs et les YouTubers, avec la possibilité de spécifier l'ambiance, le ton et la durée d'un morceau.
Que vous l'aimiez ou même que vous le remarquiez, ce type de musique a toujours été créé par des humains. Mais la génération automatisée de musique par l'IA pourrait coûter leur emploi à ces musiciens, dont beaucoup utilisent ces revenus pour financer des activités plus satisfaisantes sur le plan créatif, mais moins viables financièrement. Vous ne verrez peut-être jamais un musicien IA sur scène, mais vous verrez probablement moins de musiciens humains à cause de cette technologie.

De leur côté, les acteurs influents de l'industrie musicale sont déjà convaincus que l'IA deviendra un pilier de leur activité, mais ils s'inquiètent de savoir qui en récoltera les bénéfices. Spotify ne restreindra pas la musique générée par l'IA, sauf s'il s'agit d'une imitation pure et simple, ce qui risquerait d'entraîner des poursuites judiciaires. Universal Music Group (UMG) et YouTube ont lancé YouTube Music AI Incubator afin de développer des outils d'IA avec les artistes d'UMG. Par ailleurs, UMG fait également partie des plus de 150 organisations, dont l'ASCAP, la BMI, la RIAA et l'AFL-CIO, qui ont rejoint la coalition Human Artistry Campaign, qui cherche à établir un cadre éthique pour l'utilisation de l'IA dans les domaines créatifs. Elles ne veulent pas interdire cette technologie, mais elles veulent avoir leur mot à dire sur les résultats.

Avec plus de 100 000 nouveaux titres téléchargés chaque jour sur les services de streaming, les plateformes de streaming numérique ont tout intérêt à réduire la part des titres créés par des humains et libres de droits que leurs utilisateurs écoutent. À lui seul, Spotify a versé 9 milliards de dollars de redevances l'année dernière, soit la majeure partie de ses 14 milliards de dollars de revenus. La plus grande entreprise de streaming musical au monde a toujours augmenté la disponibilité et la visibilité des morceaux gratuits, et pourrait continuer à le faire. Les générateurs de musique alimentés par l'IA sont un moyen facile de créer de la musique gratuite qui pourrait remplacer les artistes réels, percevant des redevances, dans les playlists populaires, transférant ainsi les revenus du streaming des artistes vers la plateforme elle-même.

Il existe un nouveau pouvoir — et un nouveau danger — pour les artistes établis. Après un accident vasculaire cérébral, la star de la country Randy Travis a du mal à parler, sans parler de chanter, mais grâce à l'IA formée sur son catalogue existant, il peut reproduire sa voix numériquement.

Pendant ce temps, un producteur anonyme peut créer une collaboration crédible entre Drake et The Weeknd et accumuler des millions de streams. En mai, le producteur Metro Boomin a été critiqué lors de la dispute entre Drake et Kendrick Lamar. Metro Boomin a publié un beat avec des samples générés par l'IA que tout le monde pouvait utiliser. Drake l'a ensuite samplé et rappé dessus, puis a publié le nouveau morceau sur les services de streaming. King Willonius, qui a utilisé Udio pour créer le morceau original remixé par Metro Boomin, a engagé un avocat pour conserver les droits sur ses contributions.
Ces derniers exemples montrent comment la musique produite rapidement peut évincer la musique bien faite. Dans l'économie du streaming, le volume et la vitesse sont primordiaux : les artistes sont incités à produire en quantité, et non en qualité.

« [Un futur tube généré par l'IA] ne sera pas quelque chose que les gens écouteront et étudieront comme ils continuent de le faire avec les grands succès de l'ère du disque », a déclaré la musicienne Jamie Brooks. Brooks a sorti des disques sous son propre nom et avec les groupes Elite Gymnastics et Default Genders, et tient un blog sur l'industrie musicale dans sa newsletter The Seat of Loss. « Mais cela génère toujours de l'engagement, et donc un monde où ce qui est en tête des classements Spotify n'est pas destiné à durer, mais simplement à divertir pendant une journée et à être oublié, serait une bonne chose pour toutes ces entreprises. Elles n'ont pas besoin que ce soit de l'art pour gagner de l'argent.

Une grande partie de la technologie actuelle existe principalement pour imiter ou simplifier, ce qui peut favoriser l'amateurisme. Le partage de fichiers a rendu la collection compulsive de disques accessible à toute personne disposant d'un disque dur et d'un modem, les appareils photo des téléphones portables ont permis à tous les spectateurs de documenter le spectacle, et aujourd'hui, le streaming audio nous offre à tous des playlists dynamiques adaptées à nos humeurs et à nos groupes publicitaires. L'IA générative pourrait également faciliter la création musicale pour les non-experts. Cela pourrait changer radicalement non seulement la quantité de musique que nous écoutons, mais aussi notre relation à la musique dans son ensemble. Si la création d'une chanson à succès ne nécessite pas plus d'efforts que la rédaction d'un tweet viral, une grande partie de l'énergie créative actuellement contenue dans les médias sociaux pourrait être redirigée vers la génération de musique à partir de suggestions.

Brooks y voit un phénomène régressif, qui privilégie l'immédiateté au détriment de la profondeur intemporelle, avec des mèmes audio et des singles révolutionnaires destinés aux auditeurs les plus sophistiqués en tête des classements, tout comme les ondes étaient autrefois dominées par des chansons vides de sens comme « Take Me Out to the Ball Game », écrite par deux personnes qui n'avaient jamais assisté à un match de baseball.

« C'est la direction dans laquelle ces services vont pousser la musique », a déclaré Brooks. « Il ne s'agira plus du tout de créativité. Entre le fonctionnement de ces modèles et les flux algorithmiques, tout cela n'est qu'un vaste dépôt du passé. Cela ne fera pas progresser les disques sur le plan sonore. Cela accélérera le passage des disques du centre de la culture pop américaine à la poubelle. »

Droit d'auteur et musique générée par l'IA

L'une des questions les plus débattues concernant l'IA dans l'industrie musicale est de savoir qui tire profit des œuvres générées par l'IA, en particulier si l'algorithme est entraîné à partir de matériel existant protégé par le droit d'auteur. En mars 2023, le Bureau américain du droit d'auteur a lancé une initiative visant à étudier les questions de droit d'auteur liées à l'IA. M. Camp est convaincu que les régulateurs interviendront et trouveront une solution, mais il craint que la question soit difficile à résoudre en raison du système américain de droit d'auteur auquel sont soumis les artistes.

« Un certain nombre de lois et de précédents qui ont finalement conduit à notre système moderne de droits d'auteur ne correspondent tout simplement pas à ce qui se passe actuellement dans le domaine de la musique », explique M. Camp. « Je pense que les créateurs devraient avoir la paternité de leurs œuvres, être crédités et être rémunérés. Mais là encore, l'ensemble du système qui régit cela est très obsolète. »

La musique générée par l'IA se trouve toujours dans une zone grise sur le plan juridique, ce qui soulève la question de savoir s'il est possible de trouver un compromis permettant aux artistes d'être crédités, rémunérés et de consentir à l'utilisation de leur œuvre ou de leur image par l'IA sans limiter le potentiel de créativité musicale offert par cette technologie. Dans une certaine mesure, l'art est dérivé d'autres formes d'art, et la frontière entre inspiration et plagiat est actuellement floue. Certaines maisons de disques commencent à riposter.

En mai 2023, Universal Music Group a appelé les services de streaming à bloquer l'utilisation de la musique générée par l'IA, affirmant qu'ils utilisaient la musique de leurs artistes pour entraîner leur algorithme et qu'ils engageraient des poursuites judiciaires si nécessaire. Spotify a réagi en supprimant 7 % de la musique générée par l'IA sur sa plateforme, soit des dizaines de milliers de chansons. En juillet 2023, UMG a appelé le Congrès à adopter une politique nationale visant à protéger les créateurs contre les violations du droit d'auteur liées à l'IA. La maison de disques est l'un des 40 membres à avoir rejoint la Human Artistry Campaign, une organisation qui milite pour une utilisation responsable de l'IA.

Aux États-Unis, le cadre juridique actuel tend à appliquer les lois traditionnelles sur le droit d'auteur à l'IA, malgré ses différences par rapport au processus créatif humain. Cependant, les œuvres musicales créées uniquement par l'IA ne sont pas protégées par le droit d'auteur. Dans son Compendium of Practice, le Bureau du droit d'auteur a déclaré qu'il n'accorderait pas de droit d'auteur aux « œuvres qui ne sont pas le fruit d'une création humaine » et qu'il « n'enregistrerait pas les œuvres créées par une machine ou par un simple processus mécanique fonctionnant de manière aléatoire ou automatique, sans aucune contribution créative ni intervention d'un auteur humain ». En février 2022, la Commission d'examen du droit d'auteur a rejeté une demande de droit d'auteur pour une œuvre d'art générée par l'IA au motif qu'elle « ne présentait pas la paternité humaine nécessaire pour justifier une revendication de droit d'auteur ».

La situation dans l'Union européenne (UE) est similaire à celle des États-Unis, car son cadre juridique met également l'accent sur le rôle de l'intervention humaine dans les œuvres protégées par le droit d'auteur. Selon l'Office de l'Union européenne pour la propriété intellectuelle et la jurisprudence récente de la Cour de justice de l'Union européenne, le critère d'originalité exige qu'une œuvre soit la création intellectuelle propre de l'auteur, reflétant son identité, comme en témoignent les choix créatifs effectués lors de sa création, ce qui nécessite un niveau spécifique d'intervention humaine. Le projet reCreating Europe, financé par le programme de recherche et d'innovation Horizon 2020 de l'Union européenne, se penche sur les défis posés par les contenus générés par l'IA, y compris la musique, en offrant une sécurité juridique et une protection équilibrée qui encouragent l'innovation tout en respectant les règles du droit d'auteur. La reconnaissance d'AIVA marque une rupture significative avec les conceptions traditionnelles de la paternité et du droit d'auteur dans le domaine de la composition musicale, permettant aux interprètes IA de diffuser de la musique et de percevoir des redevances. Cette reconnaissance fait d'AIVA un pionnier dans la reconnaissance formelle de l'IA dans la production musicale.

Les progrès récents en matière d'intelligence artificielle réalisés par des groupes tels que Stability AI, OpenAI et Google ont donné lieu à un nombre considérable de poursuites judiciaires pour violation du droit d'auteur à l'encontre des technologies génératives, y compris la musique générée par l'IA. Si ces poursuites aboutissent, les ensembles de données des modèles d'apprentissage automatique qui alimentent ces technologies seront confinés au domaine public.

Drake et The Weeknd

Bien qu'il n'existe pas beaucoup de précédents juridiques en matière de clonage vocal, pour les célébrités, cela peut relever de leur droit à l'image en tant que violation de leur image, de leur nom et de leur voix. Un exemple clé de l'année dernière est celui d'un TikToker connu sous le nom de Ghostwriter qui a utilisé l'IA pour créer un faux duo entre Drake et The Weeknd intitulé « Heart on My Sleeve ». La chanson a depuis été retirée, mais des versions circulent toujours sur Internet.

« D'un côté, on pourrait dire qu'il s'agit d'une œuvre originale », explique M. Wears. « D'un autre côté, cela pourrait être considéré comme une forme de contrefaçon, car l'IA a appris à écrire des paroles dans le style de Drake en analysant son catalogue, sans son autorisation expresse. L'utilisation non autorisée des noms et des images des artistes est un autre sujet de préoccupation. »

La possibilité de copier le nom et l'image d'une personne à l'aide de l'IA préoccupe l'industrie musicale, ainsi que l'industrie du divertissement dans son ensemble. L'une des principales revendications de la grève actuelle de la SAG-AFTRA est de protéger les créateurs contre l'utilisation de leurs œuvres pour former des générateurs d'IA, et les acteurs contre la copie de leur image et de leur voix sans leur consentement.

Problèmes éthiques liés à l'IA

Le droit d'auteur n'est qu'une des nombreuses questions éthiques liées à l'IA, et il est important de garder à l'esprit que cette technologie et son développement ne sont pas sans conséquences.

L'une des préoccupations immédiates concerne les biais dans l'entraînement d'un ensemble de données. Citons l'exemple du rappeur FN Meka, qui a signé avec Capitol Music Group en 2022, mais a ensuite rompu son contrat en raison de la perpétuation de stéréotypes raciaux.

« L'un des principaux problèmes est celui du "garbage in, garbage out" (si l'on entre des données erronées, on obtient des résultats erronés) », explique M. Camp. « Si nous formons ces modèles linguistiques, ces générateurs d'images ou ces générateurs de musique à partir de données intrinsèquement biaisées, intrinsèquement racistes, alors tout ce que nous demandons va perpétuer ces stéréotypes. Nous devons nous assurer que nous disposons de données fiables et que nous les surveillons. »

La surveillance de ces données n'est pas sans inconvénients. Une autre préoccupation éthique concerne le processus d'entraînement, appelé « apprentissage par renforcement », qui consiste à fournir des commentaires humains sur une série de contenus perturbants. Un épisode récent du podcast The Journal du Wall Street Journal présente un travailleur kenyan spécialisé dans les données qui, parmi beaucoup d'autres, a contribué à entraîner ChatGPT à distinguer « le bien du mal » au prix d'une santé mentale très fragile.

« En gros, il s'agit de donner son avis positif ou négatif sur les réponses », explique M. Camp. « Cette réponse est-elle inappropriée ? Est-elle trop violente, trop explicite ou trop perturbante ? OpenAI a sous-traité ce travail à des personnes au Kenya, les payant 2 dollars de l'heure pour lire ces réponses. Imaginez donc être payé 2 dollars de l'heure pour venir travailler et lire certains des textes les plus horribles et les plus perturbants sur le plan psychologique, et que vous fassiez cela pendant 10 heures, puis que vous rentriez chez vous et que tout cela vous trotte dans la tête. Il y a donc beaucoup de défauts dans la façon dont les saucisses sont fabriquées actuellement. »

Deepfakes musicaux

Une évolution plus récente de l'IA dans le domaine de la musique est l'utilisation de deepfakes audio pour falsifier les paroles ou le style musical d'une chanson existante afin de la faire ressembler à la voix ou au style d'un autre artiste. Cela a soulevé de nombreuses questions quant à la légalité de cette technologie, ainsi qu'à l'éthique de son utilisation, en particulier dans le contexte de l'identité artistique. En outre, cela a également soulevé la question de savoir à qui attribuer la paternité de ces œuvres. Étant donné que l'IA ne peut pas avoir sa propre paternité, les spéculations actuelles suggèrent qu'il n'y aura pas de réponse claire tant que d'autres décisions n'auront pas été prises concernant les technologies d'apprentissage automatique en général. Les mesures préventives les plus récentes ont commencé à être développées par Google et Universal Music Group, qui ont pris en compte les redevances et l'attribution des crédits pour permettre aux producteurs de copier les voix et les styles des artistes.

« Heart on My Sleeve »

En 2023, un artiste connu sous le nom de ghostwriter977 a créé un deepfake musical intitulé « Heart on My Sleeve » qui clonait les voix de Drake et The Weeknd en alimentant un algorithme d'apprentissage profond avec un ensemble de pistes vocales des artistes respectifs, créant ainsi un modèle artificiel des voix de chaque artiste qui pouvait être comparé aux voix de référence originales avec les paroles originales. Le morceau a été soumis aux Grammy Awards dans les catégories « Meilleure chanson rap » et « Chanson de l'année ». Il est devenu viral et a gagné en popularité sur TikTok, recevant un accueil positif du public, ce qui a conduit à sa sortie officielle sur Apple Music, Spotify et YouTube en avril 2023. Beaucoup pensaient que le morceau avait été entièrement écrit par un logiciel d'IA, mais le producteur a affirmé que l'écriture, la production et les voix originales (avant la conversion) étaient toujours de son fait. La chanson a ensuite été retirée de la liste des nominations aux Grammy Awards car elle ne répondait pas aux critères de sélection. Le morceau a été retiré de toutes les plateformes musicales par Universal Music Group. Cette chanson a marqué un tournant dans le domaine du clonage vocal à l'aide de l'intelligence artificielle, et depuis lors, des modèles ont été créés pour des centaines, voire des milliers de chanteurs et de rappeurs populaires.

« Where That Came From »

En 2013, le chanteur de country Randy Travis a été victime d'un accident vasculaire cérébral qui l'a rendu incapable de chanter. Pendant ce temps, le chanteur James Dupré a fait une tournée à sa place, interprétant ses chansons. Travis et son producteur de longue date, Kyle Lehning, ont sorti en mai 2024 une nouvelle chanson intitulée « Where That Came From », la première nouvelle chanson de Travis depuis son accident vasculaire cérébral. L'enregistrement utilise la technologie de l'intelligence artificielle pour recréer la voix de Travis, compilée à partir de plus de 40 enregistrements vocaux existants ainsi que des enregistrements de Dupré.

Outils musicaux basés sur l'IA

Maintenant que nous avons défini ce qu'est l'IA et présenté certains de ses principaux inconvénients, nous pouvons aborder les outils musicaux basés sur l'IA qui existent. Lors de Berklee Onsite 2023 , une conférence musicale annuelle organisée sur le campus du Berklee College of Music à Boston, Wares a présenté quelques outils musicaux basés sur l'IA à connaître ; certains que vous pouvez commencer à apprendre dès maintenant, et d'autres que vous voudrez peut-être simplement découvrir.

BandLab SongStarter

L'application SongStarter de BandLab est un générateur de chansons alimenté par l'IA qui vous permet de choisir un genre, d'entrer les paroles d'une chanson (et des emojis), et qui génère ensuite des idées gratuites. Vous pouvez ensuite utiliser ces idées dans leur fonctionnalité studio pour les personnaliser. C'est un excellent moyen de commencer à composer une chanson si vous avez besoin d'une inspiration initiale.

Midjourney

Midjourney est l'un des générateurs d'images alimentés par l'IA les plus populaires. Il peut être utilisé pour créer des pochettes d'album, des couvertures de chansons, des affiches, des boucles Spotify, des images de merchandising, etc. Ce qui le distingue des autres générateurs d'images alimentés par l'IA, c'est son style surréaliste et onirique, qui peut être mieux adapté aux projets musicaux. Le programme est facile à utiliser, mais il y a une courbe d'apprentissage certaine. Comme pour beaucoup de nouveaux programmes technologiques, assurez-vous de regarder quelques tutoriels avant de vous lancer.

Mix Monolith

Le plugin Mix Monolith est un système de mixage automatique d'AYAIC qui permet d'uniformiser votre mixage. Dans l'article Mix Online, le développeur explique : « Son objectif n'est pas de créer automatiquement un mixage fini, mais d'établir des relations de gain fondamentales entre les pistes et de garantir des réglages de gain appropriés. »

LANDR AI Mastering

L'outil de mastering IA de LANDR vous permet de glisser-déposer votre piste dans le programme, qui l'analyse ensuite et vous propose des options simples pour le style et le volume. Une fois ces deux options sélectionnées, le programme masterise votre piste et vous propose d'autres options pour le type de fichier et la méthode de distribution. LANDR compte plus de 20 millions de pistes mixées avec son programme.

AIVA

AIVA est un programme d'intelligence artificielle qui a été entraîné sur plus de 30 000 partitions emblématiques de l'histoire. Vous pouvez choisir parmi plusieurs styles de musique prédéfinis, du cinéma moderne au cinéma du XXe siècle, du tango au jazz. Vous avez ensuite la possibilité d'entrer la tonalité, la signature rythmique, le tempo, l'instrumentation, la durée, etc. Si vous ne savez pas quoi entrer, AIVA le fera pour vous. Enfin, vous pouvez générer une piste, personnaliser l'instrumentation et télécharger différents types de fichiers. En tant qu'abonné, vous disposez d'une licence de droits d'auteur complète pour tout ce que vous créez.

ChatGPT pour les musiciens

L'un des outils d'IA les plus utilisés, ChatGPT d'OpenAI, offre de nombreuses possibilités aux musiciens. La société fait actuellement l'objet d'une enquête de la Commission fédérale du commerce, vous devez donc prendre des précautions quant aux informations que vous partagez avec ChatGPT et vérifier les faits que vous recevez de ChatGPT.

Cela dit, le programme a le potentiel de réduire le temps que vous consacrez à des tâches qui vous éloignent de la création musicale proprement dite. Wares et Camp expérimentent ChatGPT depuis sa sortie et ont quelques conseils spécifiques qui pourraient être utiles aux musiciens et aux professionnels de la musique.

Stratégie sur les réseaux sociaux

Les réseaux sociaux peuvent représenter une énorme perte de temps pour un musicien amateur, et ChatGPT peut aider à alléger cette charge. Wares explique que vous pouvez commencer par indiquer à ChatGPT quel type d'artiste vous êtes, quel genre de musique vous jouez et quels sont vos loisirs et vos centres d'intérêt. Vous pouvez ensuite demander 30 contenus pour les 30 prochains jours sur TikTok, Instagram, Facebook ou toute autre plateforme de réseaux sociaux que vous utilisez. Vous pouvez non seulement demander des idées de contenu pour les réseaux sociaux, mais aussi demander à ChatGPT de créer des légendes et des hashtags optimisés.

Fiches techniques pour les tournées

Lorsqu'ils partent en tournée, les musiciens engagent généralement quelqu'un pour créer une fiche technique qui décrit tous les détails nécessaires à la réalisation de leur spectacle. Cela peut inclure le matériel, la configuration de la scène, l'ingénierie du son, l'éclairage, l'accueil, les contrats de concert, les itinéraires de tournée, les options de salles, les prix des billets, etc. Wares explique que ChatGPT pourrait être celui qui rédige cette fiche technique, et a récemment travaillé avec le groupe pour planifier leur tournée à l'aide de cette technologie.

« Nous avons commencé par créer leur fiche technique, qui comprenait les exigences en matière de backline, une liste détaillée des entrées et même des recommandations spécifiques concernant les microphones, le tout sur la base de quelques conseils simples », explique M. Wares. « Nous avons ensuite demandé des recommandations sur l'itinéraire de la tournée dans le nord-est, le prix des billets et des idées de produits dérivés en fonction des intérêts et des caractéristiques démographiques uniques des fans du groupe. Ce qui aurait pris plusieurs jours a été fait en moins d'une heure. »

Écrire des paroles de chansons

Si vous avez besoin d'aide pour écrire des paroles de chansons, si vous cherchez l'inspiration ou si vous souhaitez utiliser des suggestions de mots, ChatGPT peut être un outil utile pour l'écriture de chansons. Camp donne l'exemple de sa collaboration avec Julia Perry, une ancienne étudiante de Berklee (qui les a interviewés pour un article de Berklee Now sur l'IA et la musique), afin de générer des idées de chansons à l'aide de ChatGPT.

« Nous parlions de la magie de l'univers et de son désir d'exprimer cette vérité profonde et insondable sur l'univers », explique Camp. « J'ai essentiellement condensé tout ce qu'elle a dit en deux ou trois paragraphes et j'ai demandé à [ChatGPT] de me donner 20 premières lignes pour cette chanson. »

Ils ont finalement utilisé l'une des 20 options comme point de départ pour une nouvelle chanson.

Rédaction de contenu

ChatGPT peut aider à diverses tâches de rédaction de contenu et de copywriting, qu'il s'agisse de rédiger un communiqué de presse, une biographie de plusieurs lignes, une stratégie de sortie d'album, un article de blog, le contenu d'un site web, un e-mail, etc.

Accords et contrats

Dans un monde idéal, vous feriez appel à un avocat pour rédiger et réviser tous vos accords et contrats, mais cela n'est pas toujours réaliste ou abordable. Dans certains cas, vous préférerez peut-être demander à ChatGPT de rédiger un accord plutôt que de ne rien avoir du tout. Cela peut être utilisé pour les accords de gestion, les accords de groupe, les feuilles de répartition, les accords de performance, etc. Mais là encore, il est toujours préférable de faire appel à un avocat spécialisé dans le divertissement lorsque cela est possible.

Où sont les gens ?

L'état actuel de la musique générative par IA relève davantage du mix-and-match que de la véritable génération. Il ne s'agit pas vraiment d'un groupe hommage, mais plutôt d'une approche expansive de la renaissance. Elle ne peut produire que des sons à partir des données d'entraînement, et bien qu'elle puisse combiner, mixer et réfracter ces éléments de manière innovante, elle ne peut pas vraiment expérimenter au-delà de cela.

Les musiciens vous diront qu'il n'y a qu'un nombre limité de notes qui peuvent être jouées, ou que tous les sons ne sont qu'une question de fréquence et de longueur d'onde, et qu'il n'y a donc qu'un nombre limité de choses qui peuvent être faites en termes purement musicaux. Mais la musique ne se résume pas à l'arrangement de quelques accords ou rythmes, tout comme la création de recettes ne se résume pas au choix parmi une liste finie d'ingrédients et de techniques.

Ribo est un guitariste connu pour ses expérimentations et sa capacité à s'inspirer d'influences disparates et à les mélanger pour créer quelque chose de nouveau. À première vue, cela ressemble beaucoup à la proposition de valeur avancée par les partisans de l'IA générative, mais il affirme qu'il existe des différences fondamentales entre un humain et une machine qui font la même chose.

« Je ne peux pas jouer un solo de blues de 12 mesures sans citer quelqu'un », explique Ribot. « Nous devons accorder le privilège des droits humains pour faire cela. Je sais assez bien quand je dépasse les limites. Je sais que je peux citer cette partie d'une chanson de Charlie Parker sans que ce soit une chanson de Charlie Parker, et je sais que je peux la rater complètement et que ça restera cool. »
L'album Rootless Cosmopolitans de Ribot, sorti en 1990, comprend une reprise de « The Wind Cries Mary » de Jimi Hendrix. En hommage à Hendrix, la version de Ribot est abstraite, les paroles sont hurlées sur une guitare grinçante, et elle ne ressemble guère à la chanson originale, si ce n'est le son de la guitare, omettant la mélodie, les accords et le rythme de Hendrix. Ribot l'a néanmoins répertoriée comme reprise sur l'album et verse des redevances mécaniques sur chaque vente ou écoute
en streaming. « Ce système doit être préservé et il vaut la peine de se battre pour lui », a déclaré Ribot. « Nous ne touchons pas le salaire minimum lorsque nous sommes assis sur un disque. Nous n'avons aucune garantie, même lorsque nous nous produisons sur scène. [Le droit d'auteur] est littéralement le seul droit économique dont nous disposons. »

La pratique discursive de Ribot s'inscrit dans une longue tradition : la musique en tant que médium se définit par la conscience et le respect de ce qui l'a précédée, de ce qui peut encore évoluer et changer, et non pas simplement être recyclé. « Ce qui motive le changement dans la musique, ce sont les changements dans l'humeur des gens, leurs besoins et leurs possibilités, ce qu'ils aiment et ce qui les énerve. Les gens peuvent apprendre à prendre leurs sentiments, leurs événements et la plénitude de leur vie et à les représenter sur leur guitare ou leur piano. Cela élargit le champ à mesure que l'expérience s'étend, que l'histoire s'allonge et que des groupes émergent qui ont besoin d'expression et d'idées. »

Historiquement, il existe un contrat sacré entre les musiciens et leur public, qui implique authenticité et humanité. Parmi les millions de fans de Taylor Swift qui ont assisté à la tournée Eras, beaucoup pourraient vous donner un compte rendu détaillé de sa vie personnelle. Il en va de même pour le public de Beyoncé, Harry Styles, Elton John ou n'importe quel autre grand artiste en tournée. Il faut une personne réelle pour remplir les stades. Personne ne regarderait The Masked Singer si les téléspectateurs ne pensaient pas reconnaître les artistes une fois leur masque retiré.

Lorsque nous écoutons de la musique intentionnellement, nous l'écoutons souvent de manière herméneutique, comme si la chanson était une porte d'entrée vers un espace plus vaste de compréhension des expériences et des perspectives d'autres personnes. Prenons l'exemple de Nirvana. Parce que la déviance esthétique du grunge a rencontré la technologie moderne des studios au bon moment, Nevermind a trouvé un large public non seulement grâce à sa musique, mais aussi parce que le parcours personnel de Kurt Cobain – l'ascension fulgurante et la mort tragique d'un adolescent anxieux de banlieue devenu une superstar du rock en défiant ouvertement (certaines) conventions des pop stars – a trouvé un écho auprès du public.

Si le groupe a rendu hommage aux musiciens qui l'ont inspiré (les Pixies, les Gap Band et d'autres), les albums de Nirvana sont finalement le produit unique des choix faits par Cobain, ses camarades et leurs collaborateurs, une expression et un reflet de leurs expériences et de leurs idéaux. L'art, par définition, est le produit de la prise de décision humaine.

Certaines musiques générées par l'IA, comme d'autres formes de processus musicaux, conservent encore cet élément humain : parce que des artistes comme Ivan Paz et Shelley Knotts s'appuient fortement sur des modèles automatisés, ils créent le système, prennent d'innombrables décisions sur son fonctionnement et décident quoi faire avec les sons qu'il produit.
Mais la musique générée par l'IA qui menace les musiciens humains, qui ne nécessite que quelques mots pour produire des chansons entières, est intrinsèquement limitée car elle ne peut que se tourner vers l'intérieur et vers le passé à partir de ses données, jamais vers l'extérieur et donc jamais vers l'avenir. La guitare a été inventée il y a plusieurs siècles, mais un modèle d'IA entraîné sur la musique antérieure à l'apogée de Sister Rosetta Tharpe dans les années 1940 a peu de chances de produire quoi que ce soit qui ressemble à une guitare électrique. Le hip-hop est un style de musique basé sur l'échantillonnage et le reconditionnement du travail d'autres artistes (parfois sous des formes ou dans des contextes que l'artiste original n'apprécie pas), mais un modèle formé à la musique avant 1973 ne sera pas en mesure de créer quoi que ce soit de ce genre.

Il existe d'innombrables raisons pour lesquelles les gens écoutent de la musique, mais il existe tout autant de raisons pour lesquelles ils en font. Les gens produisent des sons les uns pour les autres depuis des milliers d'années, et pendant la majeure partie de cette période, il aurait été insensé d'imaginer pouvoir en vivre : il aurait été impossible de penser à l'amplifier, sans parler de l'enregistrer. Les gens faisaient quand même de la musique.

Il existe ici une tension qui précède l'IA. D'un côté, les maisons de disques et les plateformes de streaming numérique estiment, à juste titre, que le marché de la musique recherche avant tout la reconnaissance, de sorte qu'une grande partie des revenus provient des ventes des catalogues d'artistes confirmés. Un rapport suggère que ces ventes représentaient 70 % du marché américain de la musique en 2021. Les artistes en tête des classements se ressemblent de plus en plus. Les algorithmes des plateformes de streaming diffusent souvent les mêmes chansons en boucle.

D'autre part, l'être humain a un besoin intrinsèque de surprise, d'innovation et de transgression. Ce besoin est différent pour chaque personne. Les objectifs d'une grande entreprise, à savoir son envergure et sa supervision, sont différents de ceux de ses utilisateurs dans leur ensemble et de ceux de chaque individu. Plus sa base d'utilisateurs s'élargit, plus elle aura tendance à s'automatiser. Ni les générateurs de musique basés sur l'IA, ni les playlists générées de manière dynamique, ni aucun autre système de prédiction algorithmique ne sont intrinsèquement bons ou mauvais : les résultats dépendent entièrement de qui les utilise et dans quel but.

Mais quoi qu'il arrive, aucune entreprise n'aura jamais le monopole de la musique. Aucune espèce ne l'a. Les oiseaux le font. Les abeilles le font. Les baleines dans la mer le font. Certaines de ces mélodies sont très belles à l'oreille humaine. Mais même avec toutes ces mélodies naturelles, toute la musique que les humains ont déjà créée et toute la musique que l'IA aidera à créer ou créera elle-même, le besoin humain de créer et de s'exprimer persiste. La musique existe dans notre monde pour d'autres raisons que le mercantilisme.

Le plus souvent, la raison est assez simple : une personne ou un groupe de personnes a décidé qu'elle devait exister, puis l'a créée. Elle continuera d'exister, quelle que soit la quantité de bouillie sonore que les machines produisent.

Accepter ou résister ?

L'un des thèmes récurrents lorsqu'il est question de l'IA et d'autres technologies émergentes est qu'elles occuperont une place importante dans l'industrie musicale (et dans la plupart des industries) à l'avenir, et que les ignorer n'aidera pas les futurs leaders de l'industrie.

« Je pense que l'IA peut aider mes étudiants à être plus productifs et soutenir leur processus créatif, tout en leur permettant de se concentrer sur ce qui compte le plus pour eux, à savoir créer et jouer de la musique ou explorer de nouvelles idées commerciales », explique M. Wears. « Cependant, en tant qu'éducateur responsable, je dois m'assurer que mes étudiants ne deviennent pas trop dépendants de ces outils, et je cherche constamment des moyens d'utiliser l'IA pour les aider à développer leur esprit critique. »

M. Camp est d'accord et encourage également les gens à faire ce avec quoi ils sont à l'aise alors que l'IA continue d'évoluer.

« Je vous encourage vivement, si vous voulez rester à la page et utiliser la technologie pour faire avancer votre cause, alors oui, lancez-vous », déclare M. Camp. « Mais comme je l'ai dit, j'ai des amis qui utilisent des téléphones fixes. J'ai des amis qui préfèrent acheter des disques vinyles. L'IA est là. Elle a un impact énorme. Vous n'êtes pas obligé de l'utiliser, mais beaucoup de gens choisissent de le faire. »

L'IA à Berklee Online

Récemment, Berklee Online a lancé une initiative appelée ARIA : AI-enhanced Realities & Immersive Applications (Réalités améliorées par l'IA et applications immersives). Le projet est dirigé par Gabriel Raifer Cohen, directeur adjoint du soutien et des technologies audio à Berklee Online et ancien élève du Berklee College of Music.

« Tout comme les calculatrices, les ordinateurs, Internet et les moteurs de recherche avant elle, l'IA générique est là pour rester », déclare Raifer Cohen. « Ignorer la réalité que tous ces outils sont facilement accessibles rend un mauvais service aux étudiants. [...] Enseigner aux étudiants comment utiliser au mieux et de manière responsable ces technologies comme outils d'autonomisation peut être une entreprise plus utile que d'essayer de les combattre. »

Et ce n'est pas parce que l'IA jouera un rôle majeur dans l'avenir de l'industrie musicale que nous ne pouvons pas critiquer cette nouvelle technologie ou préconiser des mesures de sécurité. « Dans le même temps, nous devons résister à la propagation de la médiocrité et de l'insensibilité créative alimentées par l'utilisation irréfléchie de GenAI, tout en restant éthiquement conscients et proactifs », dit-il. « Ce n'est pas facile, mais nous devons considérer que les progrès de l'IA ouvrent également des possibilités d'expériences éducatives potentiellement transformatrices. » Raifer Cohen précise que dans le cadre de l'initiative ARIA, Berklee Online continuera à explorer ces nouveaux outils, et que ce n'est qu'après les avoir testés et étudiés de manière approfondie que l'école envisagera de les mettre en œuvre dans ses salles de classe. « En fin de compte, nous ne devons pas oublier que pour les étudiants et les enseignants, les spectateurs et les créateurs, tous ces outils puissants ne sont que cela : des outils », conclut Raifer Cohen.


Author Avatar
Author
Antony Tornver
Published
February 25, 2025
Make Music Now.
No Downloads, Just
Your Browser.
Start creating beats and songs in minutes. No experience needed — it's that easy.
Get started