STUDIO

    Ai en musique

    Ai en musique

    Les possibilités de la musique propulsée par l'IA sont murmurantes sous la surface de l'industrie musicale depuis des années, mais ce n'est que lors de la sortie de Chatgpt en 2022 que la conversation plus large autour de l'IA a commencé à se propager dans le courant dominant. Nous sommes maintenant à un moment où certains musiciens et professionnels de l'industrie musicale sont fascinés par les possibilités de la musique alimentée par l'IA, tandis que d'autres se méfient de l'inconnu, en particulier lorsque la réglementation en est encore à ses balbutiements. Une étude de la société de distribution de musique Ditto a révélé que près de 60% des artistes interrogés disent qu'ils utilisent l'IA dans leurs projets musicaux, tandis que 28% disent qu'ils n'utiliseraient pas l'IA à des fins musicales.

    Christopher Wears, président associé du département commercial / gestion de la musique du Berklee College of Music, est un partisan de la technologie musicale de l'IA. Il a même écrit une thèse de maîtrise sur les raisons pour lesquelles Warner Music devrait investir dans l'IA, en 2016 (Spoiler Alert: ils l'ont fait, avec tous les autres grands labels). WARS a introduit l'IA dans ses cours à Berklee et a vu des réactions mitigées des étudiants.
    «Certains de mes élèves aiment l'IA et l'utilisent déjà de différentes manières, tandis que d'autres ne veulent rien avoir à faire avec cela», explique Wares. «Il y a beaucoup de débats animés dans les conversations, et j'essaie d'encourager mes élèves à adopter la technologie et à trouver de nouvelles façons de l'utiliser pour améliorer leurs processus créatifs.»

    Un autre auteur et instructeur de cours avec un état d'esprit similaire est Ben Camp, professeur agrégé d'écriture de chansons au Berklee College of Music et l'auteur de Songs Unmasked: Techniques and Tips for Songwriting Success. Ils sont fascinés par la technologie musicale de l'IA depuis 2016, après avoir entendu «Daddy's Car», l'une des premières chansons pop d'IA où l'IA a été formée sur la musique des Beatles.

    Le camp donne également à ses étudiants l'occasion d'apprendre l'IA en classe, tant qu'ils vérifient toutes les informations qu'ils apprennent de Chatgpt ou de tout modèle de langue importante.

    «Je pense que tout le monde doit faire son propre choix», explique Camp. «Je veux dire, j'ai des amis qui utilisent toujours des téléphones flip parce qu'ils ne sont pas à l'aise avec toutes leurs informations sur leur téléphone. J'ai des amis qui ont encore des lignes fixes. Alors je ne dis pas: "Hé, tout le monde, tu dois faire ça." Mais c'est définitivement là. Ça ne disparaît pas. Ça ne fera que s'améliorer.

    Que vous utilisiez activement l'IA dans votre musique ou que vous ayez des doutes, il devient de plus en plus clair que l'IA jouera un rôle majeur dans l'industrie musicale à l'avenir. Avec l'expertise des marchandises et du camp, nous discutons de l'état actuel de l'IA dans l'industrie musicale, y compris les outils disponibles maintenant.

    Qu'est-ce que la musique AI?

    Avant de définir ce que signifie la musique de l'IA, définissons d'abord l'intelligence artificielle. Voici la définition des marchandises:
    «L'intelligence artificielle est comme l'intelligence d'un ordinateur; Il s'agit d'une technologie qui permet aux machines d'imiter la pensée ou le comportement humain, comme la résolution de problèmes, l'apprentissage ou la reconnaissance des modèles. »

    Dans le contexte de la musique, la technologie de l'IA a atteint un point où elle peut générer, composer et améliorer le contenu musical qui avait été interprété auparavant par les humains. La musique AI peut prendre de nombreuses formes et types d'assistance, de la création d'une chanson entière du début à la fin, à l'écriture d'aspects spécifiques d'une composition, de mélange et de maîtrise une production, un clonage vocal, etc. Nous énumérons également certains outils de musique AI spécifiques qui peuvent effectuer ces tâches, dont les capacités ont ouvert la boîte de problèmes de droit d'auteur d'une Pandora.

    Histoire

    L'intelligence artificielle a ses origines dans la musique, avec le problème de la transcription: enregistrer avec précision une performance en notation musicale lorsqu'elle est interprétée. Le schéma «Piano Tape» de Père Engramelle, un mode d'enregistrement automatique des temps et des durées de notes afin qu'ils puissent être facilement transcrits en notation musicale appropriée, a été mise en œuvre pour la première fois par les ingénieurs allemands JF Unger et J. Holfield en 1752.
    En 1957, L'ILIAC I (Illinois Automatic Computer) a créé la «Suite Illiac pour le quatuor de chaîne», un morceau de musique entièrement généré par ordinateur. L'ordinateur a été programmé pour effectuer cette tâche par le compositeur Lejaren Hiller et le mathématicien Leonard Isaacson. : V - VII En 1960, le chercheur russe Rudolf Zaripov a publié le premier article du monde sur la composition musicale algorithmique à l'aide de l'ordinateur d'Oral-1.
    En 1965, l'inventeur Ray Kurzweil a développé un logiciel qui pourrait reconnaître les modèles musicaux et synthétiser de nouvelles compositions. L'ordinateur est apparu pour la première fois dans l'émission de quiz, j'ai un secret.

    En 1983, le système musical Kansei de Yamaha avait gagné du terrain, et un article sur son développement a été publié en 1989. Le logiciel a utilisé le traitement de la musique et les techniques d'intelligence artificielle pour résoudre essentiellement le problème de transcription pour des mélodies plus simples, bien que les mélodies de niveau supérieur et les complexités musicales soient Toujours considéré comme des problèmes d'apprentissage en profondeur difficile aujourd'hui, et la transcription presque parfaite est toujours un sujet de recherche.

    En 1997, un programme d'intelligence artificielle appelée Experiences in Musical Intelligence (EMI) a surpassé un compositeur humain à la tâche de composer un morceau de musique imitant le style de Bach. EMI est devenu plus tard la base d'un algorithme plus sophistiqué appelé Emily Howell, du nom de son créateur.

    En 2002, un groupe de chercheurs en musique du Sony Computer Science Laboratory de Paris, dirigé par le compositeur et informaticien français François Pachet, a développé un continuateur, un algorithme unique capable de redémarrer une composition après l'arrêt d'un musicien en direct.

    Emily Howell a continué d'améliorer Music IA en sortant son premier album, From Darkness, Light, en 2009. Depuis lors, de nombreuses autres œuvres d'IA ont été publiées par divers groupes.
    En 2010, Iamus est devenu la première IA à créer un morceau de musique classique moderne originale dans son propre style: «Iamus 'Opus 1». Situé à l'Université de Malaga (Université de Malaga) en Espagne, l'ordinateur peut générer un morceau de musique complètement original dans une variété de styles musicaux. En août 2019, un grand ensemble de données de 12 197 chansons MIDI, chacun avec ses propres paroles et mélodies, a été créé pour étudier la faisabilité de la génération de mélodies neurally à partir de paroles de chansons en utilisant une méthode LSTM-AG conditionnelle en profondeur.

    Avec les progrès de l'IA générative, les modèles ont commencé à émerger qui peuvent créer des compositions musicales complètes (y compris les paroles) à partir de descriptions de texte simples. Deux applications Web notables dans ce domaine sont Suno AI, qui a été lancée en décembre 2023, et UDIO, qui a suivi en avril 2024.

    Applications logicielles

    Mandrin

    Développé à l'Université de Princeton par Ge Wang et Perry Cook, Chuck est une langue multiplateforme en texte. En extrayant et en classant les techniques théoriques qu'il trouve dans les pièces musicales, le logiciel est capable de synthétiser des pièces entièrement nouvelles basées sur les techniques qu'elle a apprises. La technologie est utilisée par SLOLK (Stanford Orchestra Orchestra) et PLOLL (Princeton ordinateur portable Orchestra).

    Juke-box

    Jukedeck était un site Web qui permettait aux gens d'utiliser l'intelligence artificielle pour créer de la musique originale et libre de droits à utiliser dans des vidéos. L'équipe a commencé à développer la technologie générant de la musique en 2010, a formé une entreprise autour de lui en 2012 et a lancé publiquement le site Web en 2015. La technologie utilisée était initialement un système de composition algorithmique basé sur des règles, qui a ensuite été remplacé par des réseaux neuronaux artificiels. Le site Web a été utilisé pour générer plus d'un million de morceaux de musique, et les marques qui l'ont utilisé comprenaient Coca-Cola, Google, UKTV et le Natural History Museum à Londres. En 2019, la société a été acquise par Bytedance.

    Morphée

    Morpheus est un projet de recherche de Dorien Herremans et Elaine Chu à l'Université Queen Mary de Londres, financée par le projet UE Marie Skłodowska-Curie. Le système utilise une approche d'optimisation basée sur l'algorithme de recherche de quartier variable pour transformer les fragments à motifs existants en nouveaux fragments avec un niveau donné de contrainte tonale qui change dynamiquement tout au long du fragment. Cette approche d'optimisation intègre des techniques de détection de motifs pour garantir la structure à long terme et les thèmes récurrents dans la musique générée. Des pièces composées par Morpheus ont été jouées en concert à Stanford et à Londres.

    Aiva

    Fondée en février 2016 au Luxembourg, AIVA est un programme qui produit des bandes sonores pour tout type de média. Les algorithmes derrière l'AIVA sont basés sur des architectures d'apprentissage en profondeur. Aiva a également été utilisée pour composer un morceau de rock intitulé On the Edge, ainsi qu'un morceau pop intitulé Love Sick, en collaboration avec la chanteuse Taryn Southern pour son album 2018 I Am AI.

    Google Purple

    L'équipe Magenta de Google a publié plusieurs applications musicales AI et livres blancs depuis leur lancement en 2016. En 2017, ils ont publié l'algorithme et un jeu de données NSYNTH, un instrument de musique matériel open source conçu pour faciliter que les musiciens utilisent l'algorithme. L'instrument a été utilisé par des artistes notables comme Grimes et Yacht sur leurs albums. En 2018, ils ont publié une application d'improvisation de piano appelée Piano Genie. Il a été suivi plus tard par Magenta Studio, un ensemble de 5 plugins MIDI qui permettent aux producteurs de musique de développer de la musique existante dans leur DAW. En 2023, leur équipe d'apprentissage automatique a publié un article technique sur GitHub décrivant Musiclm, un générateur de texte à musique propriétaire qu'ils avaient développé.

    Riffusion

    Riffusion est un réseau neuronal développé par Seth Forsgren et Ike Martiros qui génère de la musique en utilisant des modèles sonores plutôt que de l'audio. Il a été créé comme un réglage fin de la diffusion stable, un modèle open source existant pour générer des images à partir de repères de texte dans les spectrogrammes. Il en résulte un modèle qui utilise des repères de texte pour générer des fichiers d'image qui peuvent être transformés en Fourier inverse et convertis en fichiers audio. Bien que ces fichiers ne durent que quelques secondes, le modèle peut également utiliser l'espace latent entre les sorties pour interpoler différents fichiers ensemble. Ceci est réalisé en utilisant une fonctionnalité du modèle de diffusion stable appelé IMG2IMG. La musique qui en résulte a été décrite comme «De Otro Mundo» (un autre monde), bien qu'elle ne remplace probablement pas la musique de fabrication humaine. Le modèle a été publié le 15 décembre 2022 et le code est également disponible gratuitement sur GitHub. C'est l'un des nombreux modèles dérivés d'une diffusion stable. La riffusion est classée comme un sous-ensemble de générateurs de texte à musique basés sur l'IA. En décembre 2022, Mubert a également utilisé la diffusion stable pour transformer le texte descriptif en boucles musicales. En janvier 2023, Google a publié un article sur son propre générateur de texte à musique appelé Musiclm.

    Spike Ai

    Spike AI est un plugin audio propulsé par l'AI développé par Spike Stent en collaboration avec son fils Joshua Stent et son ami Henry Ramsey qui analyse les pistes et fait des recommandations pour la clarté et d'autres aspects pendant le mélange. La communication est effectuée via un chatbot formé sur les données personnelles de Spike Stent. Le plugin s'intègre dans un poste de travail audio numérique.

    Applications musicales

    L'intelligence artificielle a le potentiel d'influencer la façon dont les producteurs créent de la musique en générant des itérations de piste basées sur des indices donnés par le créateur. Ces indices permettent à l'IA de suivre un style spécifique que l'artiste essaie de réaliser.

    L'IA a également été utilisée dans l'analyse musicale où elle a été utilisée pour l'extraction des fonctionnalités, la reconnaissance des modèles et les recommandations musicales.

    Composition

    L'intelligence artificielle a eu un impact majeur sur le secteur de la composition car il a influencé les idées des compositeurs / producteurs et a le potentiel de rendre l'industrie plus accessible aux nouveaux arrivants. Avec son développement en musique, il a déjà été utilisé en collaboration avec les producteurs. Les artistes utilisent ce logiciel pour aider à générer des idées et à identifier les styles musicaux en incitant l'IA à suivre des exigences spécifiques qui répondent à leurs besoins. Les impacts futurs de la technologie sur la composition comprennent l'émulation et la fusion des styles, ainsi que la révision et le raffinement. Le développement de ces types de logiciels peut permettre aux nouveaux arrivants de pénétrer plus facilement dans l'industrie musicale. Des logiciels comme Chatgpt ont été utilisés par les producteurs pour effectuer ces tâches, tandis que d'autres logiciels comme Ozone11 ont été utilisés pour automatiser des tâches longues et complexes comme la maîtrise.

    Risques et préjudices

    Les musiciens, les producteurs et autres utilisent des outils d'IA non génératifs depuis des années. Cher a popularisé l'auto-ou «croire» il y a plus d'un quart de siècle, et d'innombrables artistes l'ont depuis utilisé pour «corriger» leur ton. Les étiquettes de disques utilisent l'IA pour scanner les médias sociaux pour des utilisations sans licence des chansons qu'ils possèdent, et Shazam fonctionne à peu près de la même manière lorsqu'il s'agit de reconnaître l'audio. Les ingénieurs l'utilisent pour rationaliser le processus de mélange et de mastering. Plus récemment, le réalisateur de Get Back, Peter Jackson, a utilisé la technologie pour isoler les pistes individuelles d'un enregistrement mixte pour reconstruire les conversations de studio et créer une chanson des Beatles perdue.

    Mais il y a une différence clé entre ces outils auxiliaires et les applications génératrices d'IA comme Suno et Udio, qui peuvent créer des chansons entières à partir de quelques mots. Toutes les nouvelles IA musicales fonctionnent un peu différemment et continuent d'évoluer, mais elles fonctionnent généralement de la même manière que d'autres outils d'IA génératifs: ils analysent un énorme ensemble de données et utilisent les modèles qui y trouvent pour faire des prédictions probabilistes.

    Pour ce faire pour l'audio, les développeurs collectent une énorme collection de chansons (à travers des accords avec les détenteurs de licences et / ou en grattant les données accessibles au public sans autorisation) et leurs métadonnées associées (artistes et titres de chansons, genres, années, descriptions, annotations, tout ce qui est pertinent et disponible). Tout cela est généralement rendu possible par des travailleurs peu rémunérés dans le Sud mondial qui annotent ces données sur une gigantesque échelle.

    Les développeurs préparent ensuite cet ensemble de données pour un modèle d'apprentissage automatique, qui est (en bref) un vaste réseau de connexions, chacun a attribué un «poids» numérique. Les humains «forment» ensuite le modèle en lui apprenant à observer les modèles dans l'ensemble de données et à fournir des commentaires au modèle en marquant ses prédictions. Sur la base de ces modèles, le modèle peut prendre un court morceau d'audio ou de texte de texte et prédire ce qui devrait arriver ensuite, puis ce qui se passera après cela, etc.

    Les développeurs modifient les poids pour générer des résultats plus écoutables et prévisibles des mêmes entrées. Les générateurs de musique alimentés par l'IA combinent deux volets de technologie: les outils musicaux que les professionnels utilisent dans les studios depuis des décennies et les modèles de langue importants qui permettent aux utilisateurs quotidiens d'exploiter leur pouvoir. Tout générateur de musique AI est aussi bon que les données sur lesquelles elle est formée. Ces systèmes nécessitent de grandes quantités de données, et un modèle formé sur un ensemble de données biaisé reproduira ces biais dans sa sortie. Quelles voix sont incluses dans cette énorme boîte de musique, et qui sont laissées de côté? Les modèles d'IA d'aujourd'hui ont tendance à exclure d'énormes bandes de musique, en particulier à partir de traditions musicales qui antérieurs à la technologie d'enregistrement et sont d'origine non occidentale. Tel que conçu actuellement, ils sont plus susceptibles de produire des sons stéréotypés au sein d'un genre ou d'un style que tout ce qui est inhabituel, sans parler d'innovant ou d'intéressant. Les systèmes d'IA génératifs sont sujets à la médiocrité, mais la musique transcendantale se trouve en marge.

    «Qu'est-ce qui sera perdu dans la créativité et la diversité humaines si les musiciens commencent à s'appuyer sur des modèles prédictifs formés sur des ensembles de données sélectifs qui excluent la plupart des cultures et langues du monde?» Lauren Me Goodlad, présidente de l'initiative critique de l'IA de l'Université Rutgers, m'a dit.

    D'un point de vue juridique, les musiciens qui regardent les modèles d'IA apprennent de leur travail ont les mêmes préoccupations que le New York Times, Getty et d'autres éditeurs et créateurs qui poursuivent les entreprises d'IA: la provenance des données. Bien que certaines entreprises prennent soin de former leurs modèles uniquement sur les données sous licence, d'autres utilisent tout ce qu'elles peuvent mettre la main, faisant valoir que tout dans le domaine public relève de ses fins. La RIAA, le corps du commerce musical dominant aux États-Unis, poursuit maintenant Suno et Udio pour «violation du droit d'auteur… à grande échelle». (Divulgation: Vox Media est l'un des nombreux éditeurs qui ont signé des accords de partenariat avec OpenAI. Nos rapports restent éditorialement indépendants.)

    Les sondages montrent souvent que la plupart des gens désapprouvent les sociétés d'IA copiant des données publiques sans autorisation. Mais bien qu'il y ait un certain nombre de poursuites judiciaires de grande envergure sur la table, il n'est pas encore clair comment le système juridique affectera les entreprises qui exploitent toute cette créativité humaine sans autorisation, et encore moins les compenseront. Si ces pratiques ne sont pas tracées bientôt, les joueurs les moins scrupuleux prendront rapidement du pouvoir et les lobbyistes et avocats de fantaisie qui l'accompagnent. (Callanness: Ce n'est pas seulement pour les machines!) Ces problèmes appuient maintenant parce qu'ils deviennent plus difficiles à résoudre au fil du temps, et certains sur le terrain repoussent. Ed Newton-Rex a été vice-président de l'audio à Stability AI lors de son lancement de STABLE Audio, un générateur de musique et de son propulsé par l'IA, l'automne dernier.

    Il a quitté l'entreprise quelques mois plus tard au cours de sa position sur la collecte de données: l'équipe de Newton-REX a formé un audio stable uniquement sur les données sous licence, mais la direction de la société a déposé un commentaire public auprès du bureau américain du droit d'auteur que le développement de l'IA était «un acceptable , Utilisation transformatrice et socialement bénéfique du contenu existant protégé par une utilisation équitable. » Pour lutter contre le grattage sans licence, Newton-Rex a fondé des formes assez formées, ce qui vérifie et certifie des ensembles de données utilisés par les sociétés d'IA. Pour l'instant, l'organisme à but non lucratif ne peut certifier que si le contenu de l'ensemble de données d'une entreprise a été correctement autorisé. Un jour, il pourra prendre en compte des détails plus fins (comme si l'artiste a explicitement consenti à une telle utilisation ou ne s'est tout simplement pas retiré) et d'autres problèmes comme l'atténuation des biais.

    En tant que musicien et compositeur de la musique chorale et piano, il considère cela comme un tournant pour le terrain. «Les modèles d'IA génératifs sont généralement en concurrence avec leurs données de formation», a déclaré Newton-Rex. «Honnêtement, les gens n'ont qu'un temps limité pour écouter de la musique. Il y a un bassin limité de redevances. Et donc plus il y a de musique créée à travers ces systèmes, moins cela va aux musiciens humains. »

    Comme l'a noté la présidente de la FTC, Lina Khan, le mois dernier, si une personne crée du contenu ou des informations qu'une entreprise d'IA copie, puis le contenu ou les informations produites par le générateur d'IA rivalise avec le producteur d'origine «afin de le chasser du marché et de détourner affaires… cela pourrait être une méthode de concurrence injuste »qui viole les lois antitrust.
    Marc Ribot est l'un des plus de 200 musiciens qui ont signé une déclaration de l'Alliance des droits des artistes s'opposant à la pratique plus tôt cette année, et il est un membre actif du comité directeur de l'IA de la Music Workers Alliance. Guitariste pratiquant depuis les années 1970, Ribot a vu comment la technologie a façonné l'industrie, regardant les budgets d'enregistrement se rétrécir régulièrement pendant des décennies.

    «Je ne suis pas contre la technologie elle-même, de forme ou de forme», explique Ribot. Ayant perdu les enregistrements principaux qu'il a faits dans les années 90, il a lui-même utilisé l'IA pour isoler les pistes individuelles du mélange final. Mais il considère le moment actuel comme une occasion critique de repousser la technologie avant que les entreprises qui le possèdent deviennent trop grandes pour la réglementer.
    "La vraie ligne de division entre utile et désastreuse est très simple", a déclaré Ribot. «Il s'agit de savoir si les producteurs de la musique ou quoi que ce soit d'autre en entrée [en tant que données de formation] ont un droit réel et fonctionnel de consentement. [Les générateurs de musique de l'IA] crachent ce qu'ils consomment, et souvent ils produisent des choses avec de gros morceaux de matériel protégé par le droit d'auteur en eux. C'est la sortie. Mais même s'ils ne l'ont pas fait, même si la sortie ne contrefait pas, l'entrée elle-même s'avance. »

    Ribot a déclaré que les musiciens étaient depuis longtemps indifférents à l'IA, mais au cours des dernières années, il a connu un «changement sismique des attitudes envers les questions d'exploitation numérique», alimentés par SAG-Aftra et Writers Guild of America de l'année dernière, des poursuites en cours contre les sociétés de l'IA et une meilleure compréhension du capitalisme de surveillance et des libertés civiles.

    Bien que les musiciens se soient considérés comme des concurrents il y a quelques années à peine - même si le tarte devient plus petit, il y a encore quelques artistes qui peuvent devenir riches - l'IA constitue une menace pour l'ensemble de l'industrie qui peut ne pas bénéficier même le plus chanceux de eux.

    Ce que l'IA peut et peut faire

    L'un des premiers exemples de musique créés par l'intelligence artificielle remonte à 1956: une pièce pour quatuor à cordes composée par l'ordinateur Illiac I et programmé par l'Université de l'Illinois chez les professeurs d'urbana-champonnier Lejaren Hiller et Leonard Isaacson.

    Après les sauts technologiques des dernières années, des artistes comme Holly Herndon, Arca, Yacht, Taryn Southern et Brian Eno utilisent désormais l'IA génératrice pour expérimenter leurs pratiques créatives. La tendance de l'IA à produire des «hallucinations» et d'autres résultats absurdes, bien que dangereux dans d'autres contextes, pourraient être une source d'inspiration dans la musique. Tout comme les autres technologies audio sont devenues définies par leur dissonance - distorsion CD, compression 8 bits, la voix humaine fissurée trop puissante pour la gorge qui l'émet, «les événements trop importants pour le support destiné à les enregistrer», comme Brian Eno écrit dans l'année avec des annexes gonflées - la musique générée par AI peut être très précieuse lorsqu'elle est la plus distincte. Ivan Paz, un musicien avec un doctorat en informatique, développe des systèmes d'IA pour ses propres performances en direct.

    En commençant par un écran vierge, il écrit du code en temps réel (affiché pour que le public puisse le lire) et forme le modèle en répondant aux sons qu'il fait, qui peuvent être inattendus, choquants ou tout simplement catastrophiques. Le résultat est un peu comme jouer un instrument, mais aussi comme improvisation avec un autre musicien. "Si votre algorithme fonctionne à un niveau très bas, alors vous avez l'impression de jouer un instrument de musique parce que vous modifiez réellement, par exemple, les paramètres de la synthèse", a déclaré Paz. "Mais si l'algorithme détermine la forme d'un morceau de musique, alors c'est comme jouer avec un agent qui détermine ce qui se passe ensuite."

    Pour une exposition au Center for Contemporary Culture à Barcelone plus tôt cette année, Paz a travaillé avec la chanteuse Maria Arnal pour créer un modèle de rendu de timbre pour sa voix. Ils ont demandé aux visiteurs de chanter de courts extraits de chansons; Le modèle a ensuite mélangé ces voix avec Arnal pour créer une nouvelle voix chantante. Dans un autre projet, la collègue de Paz, Shelley Knotts, a formé un modèle sur ses propres compositions pour éviter la répétition dans son travail: il analyse sa musique pour détecter les modèles, mais au lieu de suggérer son prochain mouvement le plus probable, cela suggère une continuation moins probable.

    La prochaine étape de l'évolution musicale de l'IA pourrait se résumer à la vitesse de traitement. Le codage en direct est possible avec certains types de modèles, mais d'autres mettent trop de temps à rendre la musique pour le créer dans un spectacle en direct. Les instruments électroniques comme les synthétiseurs ont été initialement conçus pour imiter les sons acoustiques et ont développé leur propre caractère unique au fil du temps. Paz considère le potentiel ultime de l'IA générative comme créant de nouveaux sons que nous ne pouvons pas imaginer, et encore moins produire. Dans ce contexte - dans lequel l'IA assiste un interprète - l'IA n'est pas plus susceptible de «remplacer» un musicien qu'un accordeur numérique ou une pédale de retard.

    Cependant, d'autres coins de l'industrie musicale adoptent l'IA à des fins plus perturbatrices. Bien que l'IA ne puisse pas (et ne peut jamais) créer de la musique mieux qu'un humain, il peut désormais créer de la musique acceptable à une vitesse beaucoup plus rapide et à plus grande échelle - et «acceptable» est souvent la seule barre qu'un piste doit effacer.

    La plupart du temps, lorsque vous entendez de la musique, vous ne savez pas qui l'a créé. Le jingle que vous entendez dans une annonce. La partition ambiante dans un film ou une émission de télévision, un podcast ou un jeu vidéo. Les boucles d'un producteur hip-hop échantillonnent dans un battement. Ceci fait partie de l'industrie le plus susceptible d'être bouleversé par une IA générative. Bloomberg rapporte que les enseignants utilisent Suno pour créer des aides à l'enseignement de la musique. Gizmodo note que le public cible pour le projet de musique Genai de projet d'Adobe, un autre générateur de musique propulsé par l'IA, est des gens qui veulent faire de la musique de fond rapidement et à moindre coût, comme les podcasteurs et les youtubers, avec la capacité de spécifier l'humeur, le ton et la durée de une piste.
    Que vous l'aimiez ou même que vous le remarquiez, ces types de musique ont historiquement été créés par des humains. Mais la génération automatisée de musique d'IA pourrait coûter à ces musiciens leur travail - et beaucoup d'entre eux utilisent ce revenu pour soutenir leurs activités plus créatives, mais moins viables financièrement,. Vous ne verrez peut-être jamais un musicien AI sur scène, mais vous verrez probablement moins de musiciens humains à cause de la technologie.

    Pour leur part, les acteurs influents de l'industrie musicale croient déjà que l'IA deviendra un pilier de leur entreprise - ils s'inquiètent de savoir qui en profitera. Spotify ne limitera pas la musique générée par l'AI-AI à moins que ce ne soit une imitation pure et simple, ce qui risque le litige. Universal Music Group (UMG) et YouTube ont lancé l'incubateur YouTube Music AI pour développer des outils d'IA avec des artistes UMG. Pendant ce temps, l'UMG est également l'une des plus de 150 organisations - dont ASCAP, BMI, RIAA et AFL-CIO - dans la Human Artisther Campaign Coalition, qui cherche à établir des cadres éthiques pour l'utilisation de l'IA dans des domaines créatifs. Ils ne veulent pas interdire la technologie, mais ils veulent un intérêt dans les résultats.

    Avec plus de 100 000 nouveaux morceaux téléchargés sur les services de streaming chaque jour, les plates-formes de streaming numériques ont une forte incitation à réduire la part des pistes libres de redevances faites humaines à leurs utilisateurs. Spotify à lui seul a versé 9 milliards de dollars en redevances l'année dernière, la majeure partie de ses 14 milliards de dollars de revenus. La plus grande entreprise de streaming de musique au monde a historiquement augmenté la disponibilité et la visibilité des pistes gratuites et pourrait continuer à le faire. Les générateurs de musique propulsés par l'IA sont un moyen facile de créer de la musique libre qui pourrait déplacer de vrais artistes à la redevance des listes de lecture populaires, en éloignant ce revenus de diffusion des artistes et vers la plate-forme elle-même.

    Il y a un nouveau pouvoir - et un nouveau danger - pour les artistes établis. Après un accident vasculaire cérébral, la star du country Randy Travis a du mal à parler, sans parler de chanter, mais avec l'aide de l'IA formée sur son catalogue existant, il peut reproduire sa voix numériquement.

    Pendant ce temps, un producteur anonyme peut créer une collaboration Drake / The Weeknd à consonance crédible et accumuler des millions de flux. En mai, le producteur Metro Boomin a été critiqué lors du bœuf réel de Drake avec Kendrick Lamar. Metro Boomin a publié un battement avec des échantillons générés par AI pour quiconque à utiliser, que Drake a ensuite échantillonné et frappé, libérant la nouvelle piste des services de streaming. Le roi Willonius, qui a utilisé Udio pour créer la piste originale que Metro Boomin a remixé, a embauché un avocat pour conserver les droits de ses contributions.
    Ces derniers exemples montrent comment la musique rendue rapidement peut faire de l'écroule que la musique a bien fait. Dans l'économie en streaming, le volume et la vitesse sont tout: les artistes sont incités à produire la quantité, pas la qualité.

    "[Un futur hit généré par l'AI] ne sera pas quelque chose que les gens reviennent et étudient la façon dont ils continuent de faire avec les grandes sorties de l'ère du disque", a déclaré le musicien Jamie Brooks. Brooks a publié des records sous son propre nom et avec les groupes Elite Gymnastics et les sexes par défaut, et les blogs sur l'industrie musicale dans sa newsletter le siège de la perte. «Mais cela génère toujours de l'engagement, et donc un monde où tout ce qui se trouve en haut des graphiques Spotify n'est pas censé durer, c'est juste pour être divertissant ce jour . Ils n'ont pas besoin que ce soit de l'art pour gagner de l'argent.

    «Une grande partie de la technologie d'aujourd'hui existe principalement pour imiter ou simplifier, ce qui peut favoriser l'amateurisme. Le partage de fichiers a rendu des enregistrements compulsifs collectant accessibles à toute personne disposant d'un disque dur et d'un modem, les caméras de téléphone portable ont permis à tout le monde dans la foule de documenter le spectacle, et maintenant le streaming audio nous donne toutes les listes de lecture dynamiques adaptées à nos humeurs et aux cohortes publicitaires. L'IA générative pourrait également faciliter la création de la musique pour les non-experts. Cela pourrait radicalement changer non seulement la quantité de musique que nous entendons, mais notre relation avec la forme dans son ensemble. Si la création d'une chanson à succès ne nécessite pas plus d'efforts que d'écrire un tweet viral, une grande partie de l'énergie créative actuellement contenue dans les médias sociaux pourrait être redirigea vers la génération de musique basée sur des invites.

    Brooks le considère comme un phénomène régressif, mettant l'accent sur la profondeur immédiate sur une profondeur intemporelle, en tête des graphiques avec des mèmes audio et des singles révolutionnaires visant les auditeurs les plus sophistiqués, tout comme les ondes étaient autrefois dominées par des chansons vides comme "Emmenez-moi au jeu de balle de balle de balle », Écrit par deux personnes qui n'avaient jamais été à un match de baseball.

    "C'est la direction que ces services vont pousser de la musique", a déclaré Brooks. «Ce ne sera pas du tout une question de créativité. Entre le fonctionnement de ces modèles et les flux algorithmiques, ce n'est qu'un grand référentiel du passé. Cela ne va pas faire avancer les enregistrements dans le son. Cela va accélérer les records du centre de la culture pop américaine à la poubelle. »

    Copyright et musique AI

    L'un des problèmes les plus débattus concernant l'IA dans l'industrie musicale concerne qui gagne de l'argent à partir de travaux générés par l'IA, surtout si l'algorithme est formé à l'aide du matériel protégé par le droit d'auteur existant. En mars 2023, le bureau américain du droit d'auteur a lancé une initiative pour enquêter sur les problèmes de droit d'auteur liés à l'IA. Le camp est convaincu que les régulateurs interviendront et créeront un patch, mais il craint que le problème soit difficile à résoudre en raison du système de droit d'auteur américain sous lequel les artistes opèrent.

    «Un certain nombre de lois et de précédents qui ont finalement conduit à notre système de droit d'auteur moderne ne correspondent tout simplement pas à ce qui se passe dans la musique en ce moment», explique Camp. «Je crois que les créateurs devraient avoir une paternité, devraient être crédités et devraient être rémunérés. Mais encore une fois, l'ensemble du système par lequel nous faisons est très dépassé. »

    La musique d'IA est toujours dans une zone grise légale, ce qui soulève la question de savoir si un compromis est possible lorsque les artistes sont crédités, compensés et consentements à l'utilisation de leur travail ou de leur ressemblance par l'IA sans limiter le potentiel de créativité musicale en utilisant la technologie d'IA. Dans une certaine mesure, l'art est dérivé d'autres arts, et ce qui est l'inspiration et ce qui est le vol est actuellement flou. Certaines maisons de disques commencent à riposter.

    En mai 2023, Universal Music Group a appelé les services en streaming pour bloquer l'utilisation de la musique générée par l'IA, disant qu'il utilise la musique de leurs artistes pour former son algorithme et qu'ils prendront des mesures judiciaires si nécessaire. Spotify a répondu en supprimant 7% de la musique générée par l'AI sur sa plate-forme, équivalant à des dizaines de milliers de chansons. En juillet 2023, l'UMG a appelé le Congrès à adopter une politique nationale pour protéger les créateurs contre la violation du droit d'auteur alimenté par l'IA. Le label est l'un des 40 membres à rejoindre la campagne d'art humain, une organisation plaidant pour l'utilisation responsable de l'IA.

    Aux États-Unis, le cadre juridique actuel a tendance à appliquer les lois traditionnelles du droit d'auteur à l'IA, malgré ses différences par rapport au processus créatif humain. Cependant, les œuvres musicales créées uniquement par l'IA ne sont pas protégées par le droit d'auteur. Dans le recueil de pratique du Copyright Office, le Copyright Office a déclaré qu'il n'accordera pas le droit d'auteur à «des œuvres qui manquent de paternité humaine» et «le bureau n'enregistrera pas les œuvres créées par une machine ou par un simple processus mécanique qui fonctionne de manière aléatoire ou automatiquement sans Toute entrée créative ou intervention d'un auteur humain. » En février 2022, le Copyright Review Board a rejeté une demande de droit d'auteur pour une œuvre d'art générée par l'AI-AI au motif qu'il «manquait de la paternité humaine requise nécessaire pour soutenir une réclamation au droit d'auteur».

    La situation dans l'Union européenne (UE) est similaire à celle des États-Unis, car son cadre juridique souligne également le rôle de l'implication humaine dans les œuvres protégées par le droit d'auteur. Selon l'Office de la propriété intellectuelle de l'Union européenne et la jurisprudence récente de la Cour de justice de l'Union européenne, le critère d'originalité exige qu'une œuvre soit la propre création intellectuelle de l'auteur, reflétant l'identité de l'auteur, attirée par les choix créatifs faits lors de sa création , nécessitant un niveau spécifique d'implication humaine. Le projet de recréer en Europe, financé par le programme de recherche et d'innovation de l'Union européenne, se plonge dans les défis posés par le contenu généré par l'IA, y compris la musique, l'offre de certitude juridique et une protection équilibrée qui encourage l'innovation tout en respectant les règles du droit d'auteur. La reconnaissance de l'AIVA marque un écart significatif des opinions traditionnelles sur la paternité et le droit d'auteur dans le domaine de la composition musicale, permettant aux artistes d'IA de publier de la musique et de recevoir des redevances. Cette reconnaissance fait de l'AIVA un pionnier dans la reconnaissance formelle de l'IA dans la production musicale.

    Les progrès récents de l'intelligence artificielle par des groupes comme Stabilité AI, OpenAI et Google ont conduit à un grand nombre de poursuites contre les violations du droit d'auteur contre les technologies génératives, y compris la musique d'IA. Si ces poursuites sont réussies, les ensembles de données des modèles d'apprentissage automatique qui alimentent ces technologies se limiteront au domaine public.

    Drake et The Weeknd

    Bien qu'il n'y ait pas beaucoup de précédent juridique pour le clonage vocal, pour les célébrités, il peut tomber sous leur droit de publicité en tant que violation de leur image, de leur nom et de leur voix. Un exemple clé de l'année dernière a été lorsqu'un tiktoker s'appelant le nom Ghostwriter a utilisé l'IA pour créer un faux duo entre Drake et The Weeknd appelé «Heart on My Sheeve». La chanson a depuis été retirée, mais les versions flottent toujours sur Internet.

    «D'une part, vous pourriez affirmer que c'est une œuvre originale», explique Wears. «D'un autre côté, cela pourrait être considéré comme une forme d'infraction, car l'IA a appris à écrire des paroles dans le style de Drake en analysant son catalogue, sans sa permission expresse. Une autre préoccupation est l'utilisation non autorisée des noms et des ressemblances des artistes. »

    La possibilité de copier le nom et la ressemblance de quelqu'un en utilisant l'IA dérange l'industrie musicale, ainsi que l'industrie du divertissement dans son ensemble. L'une des principales exigences de la grève actuelle de SAG-Aftra est de protéger les créateurs de leur utilisation de travail pour former des générateurs d'IA, et les acteurs de faire copier leurs ressemblances et voix sans consentement.

    Problèmes éthiques avec l'IA

    Le droit d'auteur n'est qu'un des nombreux problèmes éthiques entourant l'IA, et il est important de se rappeler que cette technologie et son développement ne sont pas sans conséquences.

    Une préoccupation immédiate est le biais de la formation d'un ensemble de données. Un exemple est le rappeur FN MEKA, qui a signé avec Capitol Music Group en 2022 mais a ensuite abandonné le contrat en raison des stéréotypes raciaux perpétués.

    «L'un des gros problèmes est les ordures et les ordures», explique Camp. «Si nous formons ces modèles de langue, ou ces générateurs d'images, ou ces générateurs de musique sur des données intrinsèquement biaisées, intrinsèquement racistes, alors tout ce que nous demandons va perpétuer ces stéréotypes. Nous devons nous assurer que nous avons de bonnes données et que nous les surveillons. »

    La surveillance de ces données n'est pas non plus sans préjudice. Une autre préoccupation éthique est le processus de formation, appelé «apprentissage du renforcement», qui consiste à fournir des commentaires humains sur une gamme de contenu troublant. Un récent épisode du podcast du Wall Street Journal The Journal présente un travailleur de données kenyan qui, parmi beaucoup d'autres, a aidé à former le chatppt pour distinguer «bien du mal» au prix de la santé mentale très élevée.

    «Fondamentalement, cela donne un coup de pouce ou un coup de pouce sur les réponses», explique Camp. «Est-ce une réponse inappropriée? Est-ce trop violent ou graphique ou dérangeant? OpenAI a contracté ce travail aux habitants du Kenya, leur payant 2 $ de l'heure pour lire ces réponses. Imaginez donc être payé 2 $ de l'heure pour se présenter au travail et lire certains des texte les plus horribles et les plus dérangeants, et vous le faites pendant 10 heures, puis vous rentrez chez vous et tout tourbillonnait dans votre tête. Il y a donc beaucoup de défauts dans la façon dont la saucisse est faite en ce moment. »

    Musique Deepfakes

    Un développement plus naissant de l'IA dans la musique est l'utilisation d'Audio Deepfakes pour simuler les paroles ou le style musical d'une chanson existante pour ressembler à la voix ou au style d'un autre artiste. Cela a soulevé de nombreuses préoccupations concernant la légalité de la technologie, ainsi que l'éthique de son utilisation, en particulier dans le contexte de l'identité artistique. De plus, il a également soulevé la question de savoir qui est crédité de ces travaux. Étant donné que l'IA ne peut pas avoir sa propre paternité, les spéculations actuelles suggèrent qu'il n'y aura pas de réponse claire jusqu'à ce que d'autres décisions soient prises sur les technologies d'apprentissage automatique en général. Les mesures préventives les plus récentes ont commencé à être développées par Google et le Universal Music Group, qui ont pris en compte les redevances et l'attribution de crédit pour permettre aux producteurs de copier les voix et les styles des artistes.

    "Coeur sur ma manche"

    In 2023, an artist known as ghostwriter977 created a musical deepfake called “Heart on My Sleeve” that cloned the voices of Drake and The Weeknd by feeding a set of vocal tracks from the respective artists into a deep learning algorithm, creating an artificial model of Les voix de chaque artiste qui pourraient être égalées aux voix de référence originales avec les paroles originales. Le morceau a été soumis pour une considération de Grammy pour la meilleure chanson de rap et la chanson de l'année. Il est devenu viral et a gagné en popularité sur Tiktok et a reçu une réponse positive du public, conduisant à sa sortie officielle sur Apple Music, Spotify et YouTube en avril 2023. Beaucoup pensaient que la piste était entièrement écrite par le logiciel AI, mais le producteur a affirmé que L'écriture de chansons, la production et les voix originales (avant la conversion) étaient encore effectuées par lui. La chanson a ensuite été supprimée de la liste des nominations des Grammy car elle ne répondait pas aux exigences en matière de considération des Grammy. Le morceau a été supprimé de toutes les plateformes musicales par Universal Music Group. La chanson a été un tournant pour le clonage vocal utilisant l'intelligence artificielle, et depuis lors, des modèles ont été créés pour des centaines, voire des milliers, de chanteurs et de rappeurs populaires.

    "D'où ça vient"

    En 2013, le chanteur country Randy Travis a subi un accident vasculaire cérébral qui l'a laissé incapable de chanter. Pendant ce temps, le chanteur James Dupré a fait une tournée en son nom, interprétant ses chansons. Travis et le producteur de longue date Kyle Lehning ont sorti une nouvelle chanson en mai 2024 intitulée «Who That's Beging of», la première nouvelle chanson de Travis depuis son accident vasculaire cérébral. L'enregistrement utilise la technologie de l'intelligence artificielle pour recréer la voix vocale de Travis, compilée à partir de plus de 40 enregistrements vocaux existants ainsi que des enregistrements de Dupré.

    Outils musicaux AI

    Maintenant que nous avons couvert ce qu'est l'IA, ainsi que certains de ses principaux inconvénients, nous pouvons discuter des outils musicaux de l'IA qui existent. À Berklee ONSITE 2023, une conférence musicale annuelle qui s'est tenue sur le campus du Berklee College of Music de Boston, les articles ont partagé quelques outils musicaux d'IA à connaître; Certains que vous pouvez commencer à apprendre dès maintenant, et d'autres que vous voudrez peut-être apprendre.

    Bandlab Songstarter

    L'application Songstarter de Bandlab est un générateur de chansons propulsé par l'IA qui vous permet de choisir un genre, d'entrer dans les paroles de chansons (et emoji), et elle générera des idées gratuites. Vous pouvez ensuite emmener ces idées dans leur fonctionnalité de studio pour en faire la vôtre. C'est un excellent moyen de commencer une chanson si vous avez besoin d'une inspiration initiale.

    Média

    En tant que l'un des générateurs d'images les plus populaires alimentés par l'IA, MidJourney peut être utilisé pour créer des albums, des couvertures de chansons, des affiches, des boucles Spotify, des images de merch, etc. Ce qui le distingue de certains autres générateurs d'images alimentés par l'IA, c'est son style surréaliste et de rêve, qui peut être mieux adapté aux projets musicaux. Le programme est facile à utiliser, mais il existe une courbe d'apprentissage définie. Comme de nombreux nouveaux programmes technologiques, assurez-vous de regarder quelques tutoriels avant de plonger.

    Mélanger le monolithe

    Le plugin de mixage monolithe est un système de mélange automatique de l'Ayaic qui sortira même votre mélange. Dans l'article de mix en ligne, le développeur dit: «Son objectif n'est pas de créer automatiquement un mélange fini, mais d'établir des relations de gain fondamentales entre les pistes et d'assurer des ajustements de gain appropriés.»

    Landr Ai Mastering

    L'outil de maîtrise AI de Landr vous permet de faire glisser et déposer votre piste dans le programme, qui l'analyse ensuite et offre des options simples pour le style et le volume. Une fois que vous avez sélectionné ces deux options, le programme maîtrise votre piste, vous offrant plus d'options pour le type de fichier et la méthode de distribution. Landr possède plus de 20 millions de pistes qui ont été mélangées avec leur programme.

    Aiva

    AIVA est un programme d'intelligence artificielle qui a été formé sur plus de 30 000 scores emblématiques de l'histoire. Vous pouvez choisir parmi plusieurs styles de musique prédéfinis différents, du cinéma moderne au cinéma du XXe siècle, du tango au jazz. Vous avez ensuite la possibilité de saisir la signature clé, la signature temporelle, le tempo, l'instrumentation, la durée, etc. Si vous ne savez pas quoi entrer, Aiva le fera pour vous. Enfin, vous pouvez générer une piste, personnaliser l'instrumentation et télécharger une variété de types de fichiers. En tant qu'abonné, vous avez une licence de droit d'auteur complète pour tout ce que vous créez.

    Chatgpt pour les musiciens

    L'un des outils d'IA les plus utilisés, le chatppt d'Openai a une variété d'utilisations pour les musiciens. La société fait actuellement l'objet d'une enquête par la Federal Trade Commission, vous devez donc prendre des précautions sur les informations que vous partagez avec Chatgpt, ainsi que pour vérifier les faits que vous recevez de Chatgpt.

    Dans cet esprit, le programme a le potentiel de réduire le temps que vous passez sur des tâches qui vous éloignent de la musique. Les articles et le camp expérimentent avec Chatgpt depuis sa sortie et ont des conseils spécifiques que les musiciens et les professionnels de la musique pourraient trouver utiles.

    Stratégie des médias sociaux

    Les médias sociaux peuvent être un énorme puits de temps pour un musicien amateur, et Chatgpt peut aider à soulager la charge. Les articles dit que vous pouvez commencer par dire à Chatgpt quel genre d'artiste vous êtes, quel genre de musique vous jouez et quels sont vos passe-temps et vos intérêts. Ensuite, vous pouvez demander 30 éléments de contenu pour les 30 prochains jours entre Tiktok, Instagram, Facebook ou quelle que soit la plate-forme de médias sociaux que vous utilisez. Non seulement vous pouvez demander des idées de contenu sur les réseaux sociaux, mais vous pouvez également demander à Chatgpt de créer des légendes et des hashtags optimisés.

    Riders techniques pour les tournées

    Lors de la tournée, les musiciens embaucheront généralement quelqu'un pour créer un cavalier technique qui décrit tous les détails nécessaires pour retirer leur émission. Cela pourrait inclure l'équipement, la configuration de la scène, l'ingénierie du son, l'éclairage, l'hospitalité, les contrats de concert, les itinéraires de tournée, les options de lieu, les prix des billets, etc. Wares dit que Chatgpt pourrait être celui à écrire ce Rider Tech, et a récemment travaillé avec le groupe pour planifier sa tournée en utilisant la technologie.

    «Nous avons commencé par créer leur cavalier technologique, qui comprenait des exigences en backline, une liste détaillée des entrées et même des recommandations de microphones spécifiques, toutes basées sur quelques conseils simples», explique Wares. «Nous avons ensuite demandé des recommandations sur l'itinéraire Tour dans le Nord-Est, combien nous devons facturer pour les billets et les idées de marchandises basées sur les intérêts et les données démographiques uniques de la base de fans du groupe. Ce qui aurait pris des jours a été fait en moins d'une heure. »

    Écriture de chansons

    Si vous avez besoin d'aide pour écrire des paroles de chansons, avoir besoin d'inspiration ou si vous souhaitez utiliser des suggestions de mots, Chatgpt peut être un outil d'écriture de chansons utile. Camp donne l'exemple de travailler avec l'ancienne étudiante de Berklee, Julia Perry (qui les a interviewées pour un article de Berklee Now sur l'IA et la musique) pour générer des idées de chansons à l'aide de chatppt.

    «Nous parlions de la façon dont l'univers est magique et de la façon dont elle voulait exprimer cette vérité profonde et inconnaissable sur l'univers», explique Camp. "Et j'ai essentiellement condensé tout ce qu'elle a dit dans deux ou trois paragraphes et dit [Chatgpt], donnez-moi 20 lignes d'ouverture pour cette chanson."

    Ils ont fini par utiliser l'une des 20 options comme point de départ pour une nouvelle chanson.

    Rédaction de contenu

    Chatgpt peut aider avec une variété de tâches d'écriture et de rédaction de contenu, qu'il s'agisse d'écrire un communiqué de presse, une biographie avec plusieurs longueurs de personnages, une stratégie de version d'album, un article de blog, une copie de site Web, un e-mail, etc.

    Accords et contrats

    Dans un monde idéal, vous auriez un avocat écrire et examiner tous vos accords et contrats, mais ce n'est pas toujours réaliste ou abordable. Dans certains cas, vous voudrez peut-être que le chat de broute un accord plutôt que de ne rien avoir du tout. Cela peut être utilisé pour les accords de gestion, les accords de bande, les feuilles de partage, les accords de performance, etc. Mais encore une fois, un avocat de divertissement est toujours préférable lorsque cela est possible.

    Où sont les gens?

    L'état actuel de la musique générative IA est plus mix-and-match que la vraie génération. Ce n'est pas vraiment un groupe hommage, mais plutôt une approche étendue du renouveau. Il ne peut produire que des sons à partir de ce qui se trouve dans les données d'entraînement, et bien qu'il puisse combiner, mélanger et réfracter ces éléments de nouvelles façons, il ne peut pas vraiment expérimenter au-delà.

    Les musiciens vous diront qu'il n'y a qu'un nombre limité de notes qui peuvent être jouées, ou que tous les sons ne sont qu'une question de fréquence et de longueur d'onde, et donc il n'y a qu'une quantité limitée de ce qui peut être fait en termes purement musicaux. Mais il y a plus à la musique que de simplement organiser des accords ou des rythmes, tout comme il y a plus à créer des recettes que de simplement choisir parmi une liste finie d'ingrédients et de techniques.

    Ribo est un guitariste connu pour son expérimentation et sa capacité à tirer des influences disparates et à les mélanger en quelque chose de nouveau. À première vue, cela ressemble beaucoup à la proposition de valeur avancée par les partisans de l'IA générative, mais il dit qu'il existe des différences fondamentales entre un humain et une machine faisant la même chose.

    "Je ne peux pas passer à travers un solo de blues de 12 barres sans citer quelqu'un", a déclaré Ribot. «Nous devons donner le privilège des droits de l'homme de le faire. Je suis assez doué pour savoir quand je franchis la ligne. Je sais que je peux citer cette partie d'une chanson de Charlie Parker sans que ce soit une chanson de Charlie Parker, et je sais que je peux le gâcher aussi mal et ce sera cool.
    L'album Rootless Cosmopolitans de Ribot en 1990 comprend une couverture de «The Wind Cris Mary de Jimi Hendrix. Dans un hommage à Hendrix, la version de Ribot est abstraite, les paroles aboyaient sur une guitare gratte, ressemblant peu à la chanson originale autre que le ton de la guitare, omettant la mélodie, les accords et le rythme de Hendrix. Pourtant, Ribot l'a répertorié comme une couverture de l'album et paie une royauté mécanique sur chaque vente ou flux.
    "Ce système doit être préservé et il vaut la peine de se battre", a déclaré Ribot. «Nous ne sommes pas payés au salaire minimum lorsque nous sommes assis sur un record. Nous n'avons aucune garantie même lorsque nous jouons. [Copyright] est littéralement le seul droit économique que nous ayons. »

    La pratique discursive de Ribot fait partie d'une longue tradition: la musique en tant que médium est définie par une conscience et un respect de ce qui a précédé, ce qui peut encore grandir et changer, et pas seulement être recyclé. «Ce qui motive le changement dans la musique, ce sont les changements dans les humeurs des gens, leurs besoins et leurs possibilités, et ce qu'ils aiment et ce qui les fait chier. Les gens peuvent apprendre à prendre des sentiments, des événements et la plénitude de leur vie et les représenter sur leur guitare ou leur piano. Il élargit le domaine à mesure que l'expérience se développe, que l'histoire s'allonge et que les bandes émergent qui ont besoin d'expression et d'idées. »

    Historiquement, il y a eu un contrat sacré entre les musiciens et le public qui implique l'authenticité et l'humanité. Parmi les millions de fans de Taylor Swift qui ont assisté à la tournée ERAS, beaucoup pourraient vous donner un compte rendu détaillé de sa vie personnelle. Il en va de même pour le public de Beyoncé, Harry Styles, Elton John ou l'un des plus grands artistes en tournée. Vous avez besoin d'une vraie personne pour vendre des stades. Personne ne regarderait le chanteur masqué s'ils ne pensaient pas qu'ils reconnaîtraient les interprètes lorsqu'ils étaient démasqués.

    Lorsque nous écoutons la musique intentionnellement, nous écoutons souvent herméneutiquement, comme si la chanson était une porte dans un plus grand espace de compréhension des expériences et des perspectives des autres. Considérez Nirvana. Parce que la déviance esthétique de Grunge a rencontré la technologie de studio moderne au bon moment, Nevermind a trouvé un public énorme non seulement à cause de la façon dont cela sonne, mais parce que l'arc personnel de Kurt Cobain - la montée fulgurante et la mort précoce tragique d'un enfant de banlieue anxieux qui est devenu un Rock Superstar par les conventions ouvertement (certaines) des star de la pop - résonnant avec les gens.

    Alors que le groupe a reconnu les musiciens qui les ont inspirés - les Pixies, le Gap Band et d'autres - les records de Nirvana sont finalement le produit unique des choix faits par Cobain, ses camarades de groupe et leurs collaborateurs, une expression et un reflet de leurs expériences et idéaux . L'art, par définition, est le produit de la prise de décision humaine.

    Certaines musiques générées par l'AI, comme d'autres formes de processus musical, conservent toujours cet élément humain: parce que des artistes comme Ivan Paz et Shelley Knotts comptent fortement sur des modèles automatisés, ils créent le système, prennent d'innombrables décisions sur son fonctionnement et décident quoi à Faire avec tous les sons qu'il produit.
    Mais la musique d'IA qui menace les musiciens humains, qui ne prend guère plus que quelques mots et en produit des chansons entières, est intrinsèquement limitée car elle ne peut que regarder vers l'intérieur et vers l'arrière dans le temps de ses données, jamais vers l'extérieur et donc jamais en avant. La guitare a été inventée il y a des siècles, mais un mannequin d'IA formé sur la musique avant l'âge de la sœur Rosetta Tharpe dans les années 40 est peu susceptible de produire quelque chose qui ressemble à une guitare électrique. Le hip-hop est un style de musique basé sur l'échantillonnage et le reconditionnement du travail des autres artistes (parfois sous des formes ou des contextes que l'artiste original n'aime pas), mais un modèle formé sur la musique avant 1973 ne pourra pas créer quoi que ce soit de tel que.

    Il y a d'innombrables raisons pour lesquelles les gens écoutent de la musique, mais il y a autant de raisons pour lesquelles les gens le font. Les gens se font des sons depuis des milliers d'années, et pendant la majeure partie de ce temps, il aurait été stupide d'imaginer en gagner sa vie - il aurait été impossible de penser à l'amplifier, sans parler de l'enregistrer. Les gens ont fait de la musique de toute façon.

    Il y a une tension ici qui est antérieure à l'IA. D'une part, les étiquettes de disques et les plates-formes de streaming numérique pensent, en grande partie, que le marché de la musique veut la reconnaissance avant tout, une grande partie de l'argent provient des ventes de catalogues d'artistes établis, avec un rapport suggérant que ces ventes représentaient 70 Pourcentage du marché de la musique américaine en 2021. Les graphiques-toppers semblent de plus en plus similaires. Les algorithmes de plate-forme de streaming alimentent souvent les mêmes chansons encore et encore.

    D'un autre côté, il y a un besoin humain intrinsèque de surprise, d'innovation, de transgression. C'est différent pour chaque personne. Les objectifs d'une énorme entreprise - son échelle et sa supervision, en gros - sont différents de ceux de ses utilisateurs dans leur ensemble et pour l'individu, et plus sa base d'utilisateurs est grande, plus elle aura tendance à automatiser. Ni les générateurs de musique IA ni les listes de lecture générées dynamiquement ni aucun autre système prédictif algorithmique ne sont intrinsèquement bons ou mauvais: les résultats dépendent entièrement de qui les exécute et dans quel but.

    Mais quoi qu'il arrive, aucune entreprise n'aura jamais de monopole sur la musique. Aucune espèce ne le fait. Les oiseaux le font. Les abeilles le font. Les baleines de la mer le font. Une partie, à l'oreille humaine, est assez belle. Mais même avec toute cette mélodie naturelle, toute la musique que les humains ont déjà créée, et toute la musique que l'IA aidera soit à créer ou à se créer, l'envie humaine de nous créer et d'exprimer persiste. La musique existe dans notre monde pour des raisons autres que le commercialisme.

    Plus souvent qu'autrement, la raison est assez simple: une personne ou un groupe de personnes a décidé qu'elle devrait exister, puis l'a fait. Il continuera d'exister, peu importe la quantité de boues sonores que les machines pompent.

    Embrasser ou résister?

    L'un des thèmes récurrents en ce qui concerne l'IA et d'autres technologies émergentes est qu'ils seront une grande partie de l'industrie musicale (et de la plupart des industries) à l'avenir, et que les ignorer n'aidera pas les futurs leaders de l'industrie.

    «Je pense que l'IA peut aider mes élèves à être plus productifs et à soutenir leur processus créatif, et leur permettre de se concentrer sur ce qui compte le plus pour eux, qui crée et interpréter de la musique ou d'explorer de nouvelles idées commerciales», explique Wears. "Cependant, en tant qu'éducateur responsable, je dois m'assurer que mes élèves ne deviennent pas trop dépendants de ces outils, et je cherche constamment des moyens d'utiliser l'IA pour aider à développer leurs compétences de pensée critique."

    Camp est d'accord et encourage également les gens à faire ce qu'ils sont à l'aise alors que l'IA continue d'évoluer.

    «Je vous encourage certainement, si vous voulez rester à jour et utiliser la technologie pour faire progresser ce pour quoi vous êtes sur la planète, alors oui, rejoignez», explique Camp. «Mais comme je l'ai dit, j'ai des amis qui utilisent des lignes fixes. J'ai des amis qui préfèrent acheter des disques vinyle. L'IA est là. Cela a un impact énorme. Vous n'avez pas à l'utiliser, mais beaucoup de gens le choisissent. »

    AI à Berklee en ligne

    Récemment, Berklee Online a lancé une initiative appelée Aria: Ai-Realities & Immersive Applications. Le projet est dirigé par Gabriel Raifer Cohen, directeur adjoint de la technologie de soutien et audio chez Berklee Online et un ancien de Berklee College of Music.

    «Comme les calculatrices, les ordinateurs, Internet et les moteurs de recherche avant lui, Genai est là pour rester», explique Raifer Cohen. «Ignorer la réalité que tous ces outils sont facilement disponibles est un mauvais service pour les étudiants. . . . Enseigner aux élèves comment le mieux - et de manière responsable - utilisez ces technologies comme outils d'autonomisation peut être une entreprise plus valable que d'essayer de les combattre. »

    Et ce n'est pas parce que l'IA jouera un rôle majeur dans l'avenir de l'industrie musicale que nous ne pouvons pas critiquer cette nouvelle technologie ou défendre les mesures de sécurité. «En même temps, nous devons résister à la propagation de la médiocrité et de l'insensibilité créative alimentée par l'utilisation insensée du Genai, tout en restant éthiquement conscient et proactif», dit-il. «Il n'y a rien de facile à ce sujet, mais nous devons considérer que les développements de l'IA ouvrent également des opportunités pour des expériences éducatives potentiellement transformatrices.» Raifer Cohen dit que dans le cadre de l'initiative Aria, Berklee Online continuera d'explorer ces nouveaux outils, et ce n'est qu'après avoir été testé et étudié en profondeur, l'école envisagera de les mettre en œuvre en classe. «En fin de compte, nous ne devons pas oublier que pour les étudiants et les enseignants, les téléspectateurs et les créateurs, tous ces outils puissants ne sont que cela: les outils», explique Raifer Cohen.

    Inscription gratuite

    Inscrivez-vous gratuitement et obtenez un projet gratuitement