La IA en la música

Author Avatar
Author
Antony Tornver
Published
February 25, 2025
La IA en la música

Las posibilidades de la música impulsada por la IA han estado susurrando bajo la superficie de la industria musical durante años, pero no fue hasta el lanzamiento de ChatGPT en 2022 cuando el debate más amplio sobre la IA comenzó a extenderse a la corriente principal. Ahora nos encontramos en un punto en el que algunos músicos y profesionales de la industria musical están fascinados por las posibilidades de la música impulsada por la IA, mientras que otros desconfían de lo desconocido, especialmente cuando la regulación aún está en pañales. Un estudio realizado por la empresa de distribución musical Ditto reveló que casi el 60 % de los artistas encuestados afirman utilizar la IA en sus proyectos musicales, mientras que el 28 % afirma que no la utilizaría con fines musicales.

Christopher Wears, vicedirector del departamento de gestión y negocio musical del Berklee College of Music, es un defensor de la tecnología musical basada en la IA. Incluso escribió una tesis de máster sobre por qué Warner Music debería invertir en IA, allá por 2016 (spoiler: lo hicieron, al igual que todas las demás discográficas importantes). Wares ha introducido la IA en sus cursos en Berklee y ha observado reacciones dispares entre los estudiantes
. «A algunos de mis alumnos les encanta la IA y ya la están utilizando de diferentes maneras, mientras que otros no quieren saber nada de ella», afirma Wares. «Hay un acalorado debate en las conversaciones, y yo intento animar a mis alumnos a que acepten la tecnología y encuentren nuevas formas de utilizarla para mejorar sus procesos creativos».

Otro autor e instructor de cursos con una mentalidad similar es Ben Camp, profesor asociado de composición musical en el Berklee College of Music y autor de Songs Unmasked: Techniques and Tips for Songwriting Success . Les fascina la tecnología musical de IA desde 2016, después de escuchar «Daddy's Car», una de las primeras canciones pop de IA en la que se entrenó a la IA con la música de The Beatles.

Camp también ofrece a sus alumnos la oportunidad de aprender sobre la IA en el aula, siempre y cuando comprueben toda la información que obtienen de ChatGPT o de cualquier otro modelo de lenguaje grande.

«Creo que cada uno tiene que tomar su propia decisión», afirma Camp. «Tengo amigos que siguen usando teléfonos plegables porque no se sienten cómodos teniendo toda su información en el móvil. Tengo amigos que siguen teniendo teléfonos fijos. Así que no estoy diciendo: "Oigan, todos, tienen que hacer esto". Pero sin duda está aquí. No va a desaparecer. Solo va a mejorar».

Tanto si utilizas activamente la IA en tu música como si tienes algunas dudas, cada vez está más claro que la IA desempeñará un papel importante en la industria musical en el futuro. Con la experiencia de Wares y Camp, analizamos el estado actual de la IA en la industria musical, incluidas las herramientas que están disponibles en la actualidad.

¿Qué es la música con IA?

Antes de definir qué significa la música con IA, definamos primero la inteligencia artificial. Esta es la definición de Wares:
«La inteligencia artificial es como la inteligencia de un ordenador; es una tecnología que permite a las máquinas imitar el pensamiento o el comportamiento humanos, como la resolución de problemas, el aprendizaje o el reconocimiento de patrones».

En el contexto de la música, la tecnología de IA ha llegado a un punto en el que puede generar, componer y mejorar contenidos musicales que antes interpretaban los seres humanos. La música generada por IA puede adoptar muchas formas y tipos de asistencia, desde crear una canción completa de principio a fin, hasta escribir aspectos específicos de una composición, mezclar y masterizar una producción, clonar voces y mucho más. También enumeraremos algunas herramientas musicales específicas de IA que pueden realizar estas tareas, cuyas capacidades han abierto una caja de Pandora de problemas relacionados con los derechos de autor.

Historia

La inteligencia artificial tiene sus orígenes en la música, con el problema de la transcripción: registrar con precisión una interpretación en notación musical tal y como se interpreta. El esquema de «cinta de piano» de Père Engramelle, un modo de registrar automáticamente los tiempos y duraciones de las notas para que puedan transcribirse fácilmente a mano en la notación musical adecuada, fue implementado por primera vez por los ingenieros alemanes J. F. Unger y J. Holfield en 1752.
En 1957, el ILLIAC I (Illinois Automatic Computer) creó la «Illiac Suite for String Quartet», una pieza musical generada íntegramente por ordenador. El ordenador fue programado para realizar esta tarea por el compositor Lejaren Hiller y el matemático Leonard Isaacson. : v–vii En 1960, el investigador ruso Rudolf Zaripov publicó el primer artículo del mundo sobre composición musical algorítmica utilizando el ordenador Ural-1.
En 1965, el inventor Ray Kurzweil desarrolló un software capaz de reconocer patrones musicales y sintetizar nuevas composiciones a partir de ellos. El ordenador apareció por primera vez en el programa de concursos I've Got a Secret.

En 1983, el Kansei Music System de Yamaha había ganado popularidad, y en 1989 se publicó un artículo sobre su desarrollo. El software utilizaba técnicas de procesamiento musical e inteligencia artificial para resolver esencialmente el problema de la transcripción de melodías más sencillas, aunque las melodías de mayor nivel y las complejidades musicales siguen considerándose hoy en día problemas difíciles de aprendizaje profundo, y la transcripción casi perfecta sigue siendo objeto de investigación.

En 1997, un programa de inteligencia artificial llamado Experiments in Musical Intelligence (EMI) superó a un compositor humano en la tarea de componer una pieza musical imitando el estilo de Bach. EMI se convirtió más tarde en la base de un algoritmo más sofisticado llamado Emily Howell, que lleva el nombre de su creador.

En 2002, un grupo de investigadores musicales del Laboratorio de Ciencias Informáticas de Sony en París, dirigido por el compositor y científico informático francés François Pachet, desarrolló Continuator, un algoritmo único capaz de reiniciar una composición después de que un músico en directo hubiera dejado de tocar.

Emily Howell siguió mejorando la IA musical con el lanzamiento de su primer álbum, From Darkness, Light, en 2009. Desde entonces, varios grupos han publicado muchas más obras de IA.
En 2010, Iamus se convirtió en la primera IA en crear una pieza de música clásica moderna original con su propio estilo: «Iamus’ Opus 1». Ubicado en la Universidad de Málaga (Universidad de Málaga) en España, el ordenador puede generar una pieza musical completamente original en una variedad de estilos musicales. En agosto de 2019, se creó un gran conjunto de datos de 12 197 canciones MIDI, cada una con su propia letra y melodía, para investigar la viabilidad de generar melodías de forma neuronal a partir de las letras de las canciones utilizando un método LSTM-GAN condicional profundo.

Con los avances en la IA generativa, han comenzado a surgir modelos que pueden crear composiciones musicales completas (incluidas las letras) a partir de simples descripciones de texto. Dos aplicaciones web destacadas en este ámbito son Suno AI, que se lanzó en diciembre de 2023, y Udio, que le siguió en abril de 2024.

Aplicaciones de software

ChucK

Desarrollado en la Universidad de Princeton por Ge Wang y Perry Cook, ChucK es un lenguaje multiplataforma basado en texto. Al extraer y clasificar las técnicas teóricas que encuentra en las piezas musicales, el software es capaz de sintetizar piezas completamente nuevas basadas en las técnicas que ha aprendido. La tecnología es utilizada por SLOrk (Stanford Laptop Orchestra) y PLOrk (Princeton Laptop Orchestra).

Jukebox

Jukedeck era un sitio web que permitía a los usuarios utilizar la inteligencia artificial para crear música original y libre de derechos de autor para su uso en vídeos. El equipo comenzó a desarrollar la tecnología de generación de música en 2010, creó una empresa en torno a ella en 2012 y lanzó el sitio web al público en 2015. La tecnología utilizada era inicialmente un sistema de composición algorítmica basado en reglas, que posteriormente fue sustituido por redes neuronales artificiales. El sitio web se ha utilizado para generar más de un millón de piezas musicales, y entre las marcas que lo han utilizado se encuentran Coca-Cola, Google, UKTV y el Museo de Historia Natural de Londres. En 2019, la empresa fue adquirida por ByteDance.

Morpheus

MorpheuS es un proyecto de investigación de Dorien Herremans y Elaine Chu de la Universidad Queen Mary de Londres, financiado por el proyecto Marie Skłodowska-Curie de la UE. El sistema utiliza un enfoque de optimización basado en el algoritmo de búsqueda de vecindad variable para transformar fragmentos con patrones existentes en nuevos fragmentos con un nivel determinado de énfasis tonal que cambia dinámicamente a lo largo del fragmento. Este enfoque de optimización integra técnicas de detección de patrones para garantizar la estructura a largo plazo y los temas recurrentes en la música generada. Las piezas compuestas por MorpheuS se han interpretado en conciertos tanto en Stanford como en Londres.

AIVA

Fundada en febrero de 2016 en Luxemburgo, AIVA es un programa que produce bandas sonoras para cualquier tipo de medio. Los algoritmos que hay detrás de AIVA se basan en arquitecturas de aprendizaje profundo. AIVA también se ha utilizado para componer una canción de rock llamada On the Edge, así como una melodía pop llamada Love Sick, en colaboración con la cantante Taryn Southern para su álbum de 2018 I am AI.

Google Purple

El equipo Magenta de Google ha publicado varias aplicaciones musicales de IA y libros blancos desde su lanzamiento en 2016. En 2017, lanzaron el algoritmo y el conjunto de datos NSynth, un instrumento musical de hardware de código abierto diseñado para facilitar a los músicos el uso del algoritmo. El instrumento ha sido utilizado por artistas notables como Grimes y YACHT en sus álbumes. En 2018, lanzaron una aplicación de improvisación pianística llamada Piano Genie. Más tarde le siguió Magenta Studio, un conjunto de 5 plugins MIDI que permiten a los productores musicales desarrollar música existente en su DAW. En 2023, su equipo de aprendizaje automático publicó un artículo técnico en GitHub en el que describía MusicLM, un generador de texto a música patentado que habían desarrollado.

Riffusion

Riffusion es una red neuronal desarrollada por Seth Forsgren e Ike Martiros que genera música utilizando patrones de sonido en lugar de audio. Se creó como un ajuste de Stable Diffusion, un modelo de código abierto existente para generar imágenes a partir de señales de texto en espectrogramas. El resultado es un modelo que utiliza señales de texto para generar archivos de imagen que pueden transformarse inversamente con Fourier y convertirse en archivos de audio. Aunque estos archivos solo duran unos segundos, el modelo también puede utilizar el espacio latente entre las salidas para interpolar diferentes archivos juntos. Esto se consigue utilizando una funcionalidad del modelo Stable Diffusion conocida como img2img. La música resultante ha sido descrita como «de otro mundo», aunque es poco probable que sustituya a la música creada por humanos. El modelo se lanzó el 15 de diciembre de 2022 y el código también está disponible gratuitamente en GitHub. Es uno de los muchos modelos derivados de Stable Diffusion. Riffusion se clasifica como un subconjunto de generadores de texto a música basados en IA. En diciembre de 2022, Mubert utilizó de forma similar Stable Diffusion para convertir texto descriptivo en bucles musicales. En enero de 2023, Google publicó un artículo sobre su propio generador de texto a música llamado MusicLM.

Spike AI

Spike AI es un complemento de audio basado en IA desarrollado por Spike Stent en colaboración con su hijo Joshua Stent y su amigo Henry Ramsey que analiza las pistas y hace recomendaciones sobre la claridad y otros aspectos durante la mezcla. La comunicación se lleva a cabo a través de un chatbot entrenado con los datos personales de Spike Stent. El complemento se integra en una estación de trabajo de audio digital.

Aplicaciones musicales

La inteligencia artificial tiene el potencial de influir en la forma en que los productores crean música, generando iteraciones de pistas basadas en las indicaciones dadas por el creador. Estas indicaciones permiten a la IA seguir un estilo específico que el artista está tratando de lograr.

La IA también se ha utilizado en el análisis musical, donde se ha empleado para la extracción de características, el reconocimiento de patrones y las recomendaciones musicales.

Composición

La inteligencia artificial ha tenido un gran impacto en el sector de la composición, ya que ha influido en las ideas de los compositores/productores y tiene el potencial de hacer que la industria sea más accesible para los recién llegados. Con su desarrollo en la música, ya se ha utilizado en colaboración con productores. Los artistas utilizan este software para ayudar a generar ideas e identificar estilos musicales, indicando a la IA que siga requisitos específicos que se adapten a sus necesidades. Los impactos futuros de la tecnología en la composición incluyen la emulación y la fusión de estilos, así como la revisión y el perfeccionamiento. El desarrollo de este tipo de software puede facilitar la entrada de nuevos talentos en la industria musical. Los productores utilizaron software como ChatGPT para realizar estas tareas, mientras que otro software como Ozone11 se utilizó para automatizar tareas complejas y que requieren mucho tiempo, como la masterización.

Riesgos y daños

Los músicos, productores y otros profesionales llevan años utilizando herramientas de IA no generativas. Cher popularizó el auto-tune con «Believe» hace más de un cuarto de siglo, y desde entonces innumerables artistas lo han utilizado para «corregir» su tono. Las discográficas utilizan la IA para escanear las redes sociales en busca de usos no autorizados de canciones de su propiedad, y Shazam funciona de manera muy similar cuando se trata de reconocer audio. Los ingenieros lo utilizan para agilizar el proceso de mezcla y masterización. Más recientemente, el director de Get Back, Peter Jackson, utilizó esta tecnología para aislar pistas individuales de una grabación mezclada con el fin de reconstruir conversaciones de estudio y crear una canción perdida de los Beatles.

Pero hay una diferencia clave entre estas herramientas auxiliares y las aplicaciones de IA generativa como Suno y Udio, que pueden crear canciones completas a partir de unas pocas palabras. Todas las nuevas IA musicales funcionan de forma ligeramente diferente y siguen evolucionando, pero en general operan de manera similar a otras herramientas de IA generativa: analizan un enorme conjunto de datos y utilizan los patrones que encuentran en él para hacer predicciones probabilísticas.

Para hacer esto con el audio, los desarrolladores recopilan una enorme colección de canciones (mediante acuerdos con los titulares de las licencias y/o recopilando datos disponibles públicamente sin permiso) y sus metadatos asociados (artistas y títulos de canciones, géneros, años, descripciones, anotaciones, cualquier cosa relevante y disponible). Todo esto suele ser posible gracias a trabajadores mal remunerados del Sur Global que anotan estos datos a una escala gigantesca.

A continuación, los desarrolladores preparan este conjunto de datos para un modelo de aprendizaje automático, que es (en resumen) una vasta red de conexiones, a cada una de las cuales se le asigna un «peso» numérico. A continuación, los seres humanos «entrenan» el modelo enseñándole a observar patrones en el conjunto de datos y proporcionándole información mediante la puntuación de sus predicciones. Basándose en estos patrones, el modelo puede tomar un fragmento corto de audio o texto y predecir lo que debería suceder a continuación, y luego lo que sucederá después, y así sucesivamente.

Los desarrolladores ajustan las ponderaciones para generar resultados más audibles y predecibles a partir de las mismas entradas. Los generadores de música basados en IA combinan dos ramas de la tecnología: las herramientas musicales que los profesionales llevan décadas utilizando en los estudios y los grandes modelos de lenguaje que permiten a los usuarios cotidianos aprovechar su potencia. Cualquier generador de música con IA es tan bueno como los datos con los que se entrena. Estos sistemas requieren grandes cantidades de datos, y un modelo entrenado con un conjunto de datos sesgado reproducirá esos sesgos en su resultado. ¿Qué voces se incluyen en esta enorme caja de música y cuáles se dejan fuera? Los modelos de IA actuales tienden a excluir grandes cantidades de música, especialmente de tradiciones musicales anteriores a la tecnología de grabación y de origen no occidental. Tal y como están diseñados actualmente, son más propensos a producir sonidos estereotipados dentro de un género o estilo que algo inusual, y mucho menos innovador o interesante. Los sistemas de IA generativa son propensos a la mediocridad, pero la música trascendental se encuentra en los márgenes.

«¿Qué se perderá en cuanto a creatividad y diversidad humanas si los músicos empiezan a confiar en modelos predictivos entrenados con conjuntos de datos selectivos que excluyen la mayoría de las culturas y lenguas del mundo?», me dijo Lauren M.E. Goodlad, presidenta de la iniciativa Critical AI de la Universidad de Rutgers.

Desde una perspectiva legal, los músicos que ven cómo los modelos de IA aprenden de su trabajo tienen las mismas preocupaciones que el New York Times, Getty y otros editores y creadores que están demandando a las empresas de IA: la procedencia de los datos. Mientras que algunas empresas tienen cuidado de entrenar sus modelos solo con datos con licencia, otras utilizan todo lo que pueden conseguir, argumentando que cualquier cosa que sea de dominio público entra dentro del uso legítimo para este fin. La RIAA, el organismo comercial dominante en el sector musical de Estados Unidos, ha demandado a Suno y Udio por «infracción de derechos de autor... a gran escala». (Divulgación: Vox Media es uno de los varios editores que han firmado acuerdos de colaboración con OpenAI. Nuestra información sigue siendo editorialmente independiente).

Las encuestas suelen mostrar que la mayoría de la gente desaprueba que las empresas de IA copien datos públicos sin permiso. Pero, aunque hay varios juicios de gran repercusión mediática sobre la mesa, aún no está claro cómo afectará el sistema legal a las empresas que explotan toda esa creatividad humana sin permiso, y mucho menos cómo las compensará. Si estas prácticas no se frenan pronto, los actores menos escrupulosos ganarán rápidamente poder y los sofisticados grupos de presión y abogados que ello conlleva. (Insensibilidad: ¡no es solo cosa de máquinas!) Estas cuestiones son urgentes ahora porque se vuelven más difíciles de resolver con el tiempo, y algunos en el sector están oponiéndose. Ed Newton-Rex era vicepresidente de audio en Stability AI cuando lanzó Stable Audio, un generador de música y sonido impulsado por IA, el otoño pasado.

Abandonó la empresa solo un par de meses después debido a su postura sobre la recopilación de datos: el equipo de Newton-Rex entrenó a Stable Audio solo con datos con licencia, pero la dirección de la empresa presentó un comentario público ante la Oficina de Derechos de Autor de Estados Unidos en el que afirmaba que el desarrollo de la IA era «un uso aceptable, transformador y socialmente beneficioso del contenido existente protegido por el uso legítimo». Para combatir el scraping sin licencia, Newton-Rex fundó Fairly Trained, que verifica y certifica los conjuntos de datos utilizados por las empresas de IA. Por ahora, la organización sin ánimo de lucro solo puede certificar si el contenido del conjunto de datos de una empresa ha sido debidamente licenciado. Algún día, podrá tener en cuenta detalles más precisos (como si el artista consintió explícitamente dicho uso o simplemente no se opuso) y otras cuestiones como la mitigación del sesgo.

Como músico y compositor de música coral y para piano, considera que esto supone un punto de inflexión para el sector. «Los modelos de IA generativa suelen competir con sus datos de entrenamiento», afirma Newton-Rex. «Sinceramente, la gente solo tiene un tiempo limitado para escuchar música. Hay una cantidad limitada de derechos de autor. Por lo tanto, cuanta más música se cree a través de estos sistemas, menos se destinará a los músicos humanos».

Como señaló la presidenta de la FTC, Lina Khan, el mes pasado, si una persona crea contenido o información que una empresa de IA copia, y luego el contenido o la información producida por el generador de IA compite con el productor original «con el fin de expulsarlo del mercado y desviar el negocio... eso podría ser un método de competencia desleal» que viola las leyes antimonopolio.
Marc Ribot es uno de los más de 200 músicos que firmaron una declaración de la Artist Rights Alliance en contra de esta práctica a principios de este año, y es miembro activo del comité directivo de IA de la Music Workers Alliance. Guitarrista en activo desde la década de 1970, Ribot ha sido testigo de cómo la tecnología ha moldeado la industria, viendo cómo los presupuestos de grabación se reducían constantemente durante décadas.

«No estoy en contra de la tecnología en sí misma de ninguna manera», afirma Ribot. Tras perder las grabaciones originales que realizó en los años 90, él mismo utilizó la IA para aislar pistas individuales de la mezcla final. Sin embargo, considera que el momento actual es una oportunidad crucial para rechazar la tecnología antes de que las empresas que la poseen se hagan demasiado grandes para regularla
.«La línea divisoria real entre lo útil y lo desastroso es muy simple», afirma Ribot. «Todo se reduce a si los productores de la música o cualquier otra cosa que se introduzca [como datos de entrenamiento] tienen un derecho real y funcional de consentimiento. [Los generadores de música con IA] escupen lo que consumen y, a menudo, producen cosas con grandes fragmentos de material protegido por derechos de autor. Ese es el resultado. Pero incluso si no lo hicieran, incluso si el resultado no infringiera los derechos, la entrada en sí misma los infringe».

Ribot dijo que los músicos han sido indiferentes a la IA durante mucho tiempo, pero en los últimos años ha visto un «cambio radical en las actitudes hacia las cuestiones de la explotación digital», impulsado por las huelgas del año pasado de SAG-AFTRA y Writers Guild of America, las demandas en curso contra las empresas de IA y una mayor comprensión del capitalismo de vigilancia y las libertades civiles.

Si bien hace solo unos años los músicos se veían como competidores entre sí —aunque el pastel sea cada vez más pequeño, todavía hay algunos artistas que pueden hacerse ricos—, la IA supone una amenaza para toda la industria que puede no beneficiar ni siquiera a los más afortunados.

Lo que la IA puede y podría hacer

Uno de los primeros ejemplos de música creada por inteligencia artificial se remonta a 1956: una pieza para cuarteto de cuerda compuesta por el ordenador ILLIAC I y programada por los profesores LeJaren Hiller y Leonard Isaacson de la Universidad de Illinois en Urbana-Champaign.

Tras los avances tecnológicos de los últimos años, artistas como Holly Herndon, Arca, YACHT, Taryn Southern y Brian Eno utilizan ahora la IA generativa para experimentar con sus prácticas creativas. La tendencia de la IA a producir «alucinaciones» y otros resultados sin sentido, aunque peligrosa en otros contextos, podría ser una fuente de inspiración en la música. Al igual que otras tecnologías de audio han llegado a definirse por su disonancia —la distorsión del CD, la compresión de 8 bits, la voz humana agrietada demasiado potente para la garganta que la emite, «acontecimientos demasiado importantes para el medio destinado a grabarlos», como escribe Brian Eno en The Year with Swollen Appendices—, la música generada por IA puede ser más valiosa cuando es más distintiva. Iván Paz, músico con un doctorado en informática, está desarrollando sistemas de IA para sus propias actuaciones en directo.

Partiendo de una pantalla en blanco, escribe código en tiempo real (que se muestra para que el público lo lea) y entrena el modelo respondiendo a los sonidos que produce, que pueden ser inesperados, discordantes o simplemente catastróficos. El resultado es un poco como tocar un instrumento, pero también como improvisar con otro músico. «Si tu algoritmo funciona a un nivel muy bajo, entonces sientes que estás tocando un instrumento musical porque, en realidad, estás ajustando, por ejemplo, los parámetros de la síntesis», explica Paz. «Pero si el algoritmo determina la forma de una pieza musical, entonces es como tocar con un agente que determina lo que va a pasar a continuación».

Para una exposición en el Centro de Cultura Contemporánea de Barcelona a principios de este año, Paz trabajó con la cantante Maria Arnal para crear un modelo de renderización del timbre de su voz. Pidieron a los visitantes que cantaran fragmentos cortos de canciones; luego, el modelo mezcló esas voces con la de Arnal para crear una nueva voz cantada. En otro proyecto, la colega de Paz, Shelley Knotts, entrenó un modelo con sus propias composiciones para evitar la repetición en su trabajo: analiza su música para detectar patrones, pero en lugar de sugerirle el siguiente paso más probable, le sugiere una continuación menos probable.

El siguiente paso en la evolución musical de la IA puede reducirse a la velocidad de procesamiento. La codificación en directo es posible con algunos tipos de modelos, pero otros tardan demasiado en renderizar la música para crearla en un espectáculo en directo. Los instrumentos electrónicos, como los sintetizadores, se diseñaron originalmente para imitar los sonidos acústicos y han desarrollado su propio carácter único con el tiempo. Paz ve el potencial definitivo de la IA generativa en la creación de nuevos sonidos que actualmente no podemos imaginar, y mucho menos producir. En este contexto, en el que la IA ayuda al intérprete, es tan improbable que la IA «sustituya» a un músico como que lo haga un afinador digital o un pedal de retardo.

Sin embargo, otros sectores de la industria musical están adoptando la IA con fines más disruptivos. Aunque la IA no puede (y nunca podrá) crear música mejor que un humano, ahora puede crear música aceptable a una velocidad mucho mayor y a mayor escala, y «aceptable» es a menudo el único requisito que debe cumplir una pista.

La mayoría de las veces, cuando escuchas música, no sabes quién la ha creado. El jingle que escuchas en un anuncio. La banda sonora ambiental de una película o un programa de televisión, un podcast o un videojuego. Los loops que un productor de hip-hop samplea en un beat. Esta es la parte de la industria que más probabilidades tiene de verse trastocada por la IA generativa. Bloomberg informa de que los profesores están utilizando Suno para crear material didáctico musical. Gizmodo señala que el público objetivo del Project Music GenAI Control de Adobe, otro generador de música basado en IA, son personas que quieren crear música de fondo de forma rápida y económica, como podcasters y youtubers, con la posibilidad de especificar el estado de ánimo, el tono y la duración de una pista.
Te guste o no, o incluso te des cuenta o no, este tipo de música ha sido creada históricamente por seres humanos. Pero la generación automatizada de música mediante IA podría costarles el trabajo a estos músicos, muchos de los cuales utilizan esos ingresos para financiar actividades más satisfactorias desde el punto de vista creativo, pero menos viables desde el punto de vista económico. Puede que nunca veas a un músico de IA en el escenario, pero es probable que veas menos músicos humanos debido a la tecnología.

Por su parte, los actores influyentes de la industria musical ya creen que la IA se convertirá en un pilar de su negocio, y les preocupa quién se beneficiará de ello. Spotify no restringirá la música generada por IA a menos que se trate de una imitación descarada, lo que podría dar lugar a litigios. Universal Music Group (UMG) y YouTube han lanzado YouTube Music AI Incubator para desarrollar herramientas de IA con artistas de UMG. Mientras tanto, UMG es también una de las más de 150 organizaciones —entre las que se incluyen ASCAP, BMI, RIAA y AFL-CIO— que forman parte de la coalición Human Artistry Campaign, que busca establecer marcos éticos para el uso de la IA en los campos creativos. No quieren prohibir la tecnología, pero sí quieren participar en los resultados.

Con más de 100 000 nuevas canciones subidas a los servicios de streaming cada día, las plataformas de streaming digital tienen un fuerte incentivo para reducir la proporción de canciones creadas por humanos y libres de derechos de autor que reproducen sus usuarios. Solo Spotify pagó 9000 millones de dólares en derechos de autor el año pasado, la mayor parte de sus 14 000 millones de dólares de ingresos. La mayor empresa de streaming musical del mundo ha aumentado históricamente la disponibilidad y la visibilidad de las canciones gratuitas, y es posible que siga haciéndolo. Los generadores de música basados en IA son una forma fácil de crear música gratuita que podría desplazar a los artistas reales, que ganan derechos de autor, de las listas de reproducción populares, desviando los ingresos por streaming de los artistas hacia la propia plataforma.

Hay un nuevo poder, y un nuevo peligro, para los artistas consagrados. Tras sufrir un derrame cerebral, la estrella del country Randy Travis tiene dificultades para hablar, y mucho más para cantar, pero con la ayuda de la IA entrenada con su catálogo existente, puede reproducir su voz digitalmente.

Mientras tanto, un productor anónimo puede crear una colaboración entre Drake y The Weeknd que suene creíble y acumular millones de reproducciones. En mayo, el productor Metro Boomin fue objeto de críticas durante la disputa real entre Drake y Kendrick Lamar. Metro Boomin lanzó un ritmo con muestras generadas por IA para que cualquiera pudiera utilizarlo, que Drake luego sampleó y rapeó, lanzando la nueva canción a los servicios de streaming. King Willonius, que utilizó Udio para crear la pista original que Metro Boomin remezcló, contrató a un abogado para conservar los derechos de sus contribuciones.
Estos últimos ejemplos muestran cómo la música creada rápidamente puede desplazar a la música bien hecha. En la economía del streaming, el volumen y la velocidad lo son todo: se incentiva a los artistas a producir cantidad, no calidad.

«[Un futuro éxito generado por IA] no será algo que la gente vuelva a estudiar como sigue haciendo con los grandes lanzamientos de la era discográfica», dijo la música Jamie Brooks. Brooks ha publicado discos bajo su propio nombre y con las bandas Elite Gymnastics y Default Genders, y escribe un blog sobre la industria musical en su boletín The Seat of Loss. «Pero sigue generando compromiso, por lo que un mundo en el que lo que está en lo más alto de las listas de Spotify no está destinado a durar, sino que solo sirve para entretener ese día y nunca más se vuelve a pensar en ello, sería algo bueno para todas estas empresas. No necesitan que sea arte para ganar dinero.

Gran parte de la tecnología actual existe principalmente para imitar o simplificar, lo que puede fomentar el amateurismo. El intercambio de archivos ha hecho que la colección compulsiva de discos sea accesible para cualquiera que tenga un disco duro y un módem, las cámaras de los teléfonos móviles han permitido que todo el mundo pueda documentar el espectáculo, y ahora el streaming de audio nos ofrece a todos listas de reproducción dinámicas adaptadas a nuestro estado de ánimo y a nuestros grupos publicitarios. La IA generativa también podría facilitar la creación musical a los no expertos. Esto podría cambiar radicalmente no solo la cantidad de música que escuchamos, sino también nuestra relación con el género en su conjunto. Si crear una canción de éxito no requiere más esfuerzo que escribir un tuit viral, gran parte de la energía creativa que actualmente se encuentra en las redes sociales podría redirigirse hacia la generación de música basada en indicaciones.

Brooks lo ve como un fenómeno regresivo, que enfatiza lo inmediato por encima de la profundidad atemporal, encabezando las listas de éxitos con memes de audio y sencillos innovadores dirigidos a los oyentes más sofisticados, al igual que las ondas radiofónicas estuvieron dominadas en su día por canciones vacías como «Take Me Out to the Ball Game», escrita por dos personas que nunca habían asistido a un partido de béisbol.

«Esa es la dirección en la que estos servicios van a impulsar la música», dijo Brooks. «No va a tener nada que ver con la creatividad. Entre el funcionamiento de estos modelos y las fuentes algorítmicas, todo es un gran repositorio del pasado. No va a hacer avanzar los discos en cuanto al sonido. Va a acelerar el paso de los discos del centro de la cultura pop estadounidense a la papelera».

Derechos de autor y música generada por IA

Una de las cuestiones más debatidas en torno a la IA en la industria musical es quién gana dinero con las obras generadas por la IA, especialmente si el algoritmo se entrena utilizando material protegido por derechos de autor. En marzo de 2023, la Oficina de Derechos de Autor de Estados Unidos puso en marcha una iniciativa para investigar las cuestiones relacionadas con los derechos de autor y la IA. Camp confía en que los reguladores intervengan y creen un parche, pero le preocupa que la cuestión sea difícil de resolver debido al sistema de derechos de autor estadounidense bajo el que operan los artistas.

«Varias de las leyes y precedentes que finalmente dieron lugar a nuestro sistema moderno de derechos de autor simplemente no se ajustan a lo que está sucediendo en la música en este momento», afirma Camp. «Creo que los creadores deben tener la autoría, deben ser reconocidos y deben ser compensados. Pero, de nuevo, todo el sistema a través del cual lo hacemos está muy desfasado».

La música generada por IA sigue estando en una zona gris legal, lo que plantea la cuestión de si es posible llegar a un compromiso en el que los artistas sean reconocidos, remunerados y den su consentimiento para el uso de su obra o imagen por parte de la IA sin limitar el potencial de creatividad musical que ofrece esta tecnología. En cierta medida, el arte es derivado de otro arte, y actualmente la línea entre lo que es inspiración y lo que es robo es difusa. Algunas discográficas están empezando a contraatacar.

En mayo de 2023, Universal Music Group pidió a los servicios de streaming que bloquearan el uso de música generada por IA, alegando que utiliza la música de sus artistas para entrenar su algoritmo y que tomará medidas legales si es necesario. Spotify respondió eliminando el 7 % de la música generada por IA de su plataforma, lo que equivale a decenas de miles de canciones. En julio de 2023, UMG pidió al Congreso que promulgara una política nacional para proteger a los creadores de las infracciones de derechos de autor impulsadas por la IA. La discográfica es uno de los 40 miembros que se han unido a la Human Artistry Campaign, una organización que aboga por el uso responsable de la IA.

En Estados Unidos, el marco jurídico actual tiende a aplicar las leyes tradicionales de derechos de autor a la IA, a pesar de sus diferencias con el proceso creativo humano. Sin embargo, las obras musicales creadas exclusivamente por IA no están protegidas por los derechos de autor. En el Compendio de Prácticas de la Oficina de Derechos de Autor, esta última declaró que no concederá derechos de autor a «obras que carezcan de autoría humana» y que «la Oficina no registrará obras creadas por una máquina o por un mero proceso mecánico que funcione de forma aleatoria o automática sin ninguna aportación creativa o intervención de un autor humano». En febrero de 2022, la Junta de Revisión de Derechos de Autor rechazó una solicitud de derechos de autor para una obra de arte generada por IA con el argumento de que «carecía de la autoría humana necesaria para sustentar una reclamación de derechos de autor».

La situación en la Unión Europea (UE) es similar a la de los Estados Unidos, ya que su marco jurídico también hace hincapié en el papel de la participación humana en las obras protegidas por derechos de autor. Según la Oficina de Propiedad Intelectual de la Unión Europea y la jurisprudencia reciente del Tribunal de Justicia de la Unión Europea, el criterio de originalidad exige que una obra sea una creación intelectual propia del autor, que refleje su identidad, como lo demuestran las decisiones creativas tomadas durante su creación, lo que requiere un nivel específico de participación humana. El proyecto reCreating Europe, financiado por el programa de investigación e innovación Horizonte 2020 de la Unión Europea, profundiza en los retos que plantea el contenido generado por la IA, incluida la música, ofreciendo seguridad jurídica y una protección equilibrada que fomenta la innovación al tiempo que respeta las normas de derechos de autor. El reconocimiento de AIVA supone un cambio significativo con respecto a las opiniones tradicionales sobre la autoría y los derechos de autor en el ámbito de la composición musical, ya que permite a los intérpretes de IA publicar música y recibir derechos de autor. Este reconocimiento convierte a AIVA en pionera en el reconocimiento formal de la IA en la producción musical.

Los recientes avances en inteligencia artificial de grupos como Stability AI, OpenAI y Google han dado lugar a un gran número de demandas por infracción de derechos de autor contra tecnologías generativas, incluida la música generada por IA. Si estas demandas prosperan, los conjuntos de datos de los modelos de aprendizaje automático que alimentan estas tecnologías quedarán confinados al dominio público.

Drake y The Weeknd

Aunque no hay muchos precedentes legales sobre la clonación de voces, en el caso de las celebridades puede entrar dentro de su derecho de publicidad como violación de su imagen, nombre y voz. Un ejemplo clave del año pasado fue cuando un TikToker conocido como Ghostwriter utilizó la IA para crear un dúo falso entre Drake y The Weeknd llamado «Heart on My Sleeve». La canción ha sido retirada, pero aún circulan versiones por Internet.

«Por un lado, se podría argumentar que se trata de una obra original», dice Wears. «Por otro lado, podría considerarse una forma de infracción, ya que la IA aprendió a escribir letras al estilo de Drake analizando su catálogo, sin su permiso expreso. Otra preocupación es el uso no autorizado de los nombres y las imágenes de los artistas».

La capacidad de copiar el nombre y la imagen de alguien utilizando la IA preocupa a la industria musical, así como a la industria del entretenimiento en su conjunto. Una de las principales reivindicaciones de la actual huelga de SAG-AFTRA es proteger a los creadores para que sus obras no se utilicen para entrenar a los generadores de IA, y a los actores para que no se copien sus imágenes y voces sin su consentimiento.

Cuestiones éticas relacionadas con la IA

Los derechos de autor son solo una de las muchas cuestiones éticas que rodean a la IA, y es importante recordar que esta tecnología y su desarrollo no están exentos de consecuencias.

Una preocupación inmediata es el sesgo en el entrenamiento de un conjunto de datos. Un ejemplo es el rapero FN Meka, que firmó con Capitol Music Group en 2022, pero posteriormente rescindió el contrato debido a la perpetuación de estereotipos raciales.

«Uno de los grandes problemas es la entrada y salida de basura», afirma Camp. «Si entrenamos estos modelos de lenguaje, estos generadores de imágenes o estos generadores de música con datos que son intrínsecamente sesgados, intrínsecamente racistas, entonces todo lo que pedimos va a perpetuar esos estereotipos. Tenemos que asegurarnos de que introducimos buenos datos y de que los supervisamos».

Supervisar esos datos tampoco está exento de inconvenientes. Otra preocupación ética es el proceso de entrenamiento, denominado «aprendizaje por refuerzo», que consiste en proporcionar comentarios humanos sobre una serie de contenidos perturbadores. Un episodio reciente del podcast The Journal del Wall Street Journal presenta a un trabajador de datos keniano que, entre muchos otros, ayudó a entrenar a ChatGPT para distinguir «lo correcto de lo incorrecto» a costa de una salud mental muy deteriorada.

«Básicamente, se trata de dar el visto bueno o rechazar las respuestas», explica Camp. «¿Es una respuesta inapropiada? ¿Es demasiado violenta, gráfica o perturbadora? OpenAI subcontrató ese trabajo a personas de Kenia, pagándoles 2 dólares la hora por leer esas respuestas. Imagínate que te pagan 2 dólares la hora por ir a trabajar y leer algunos de los textos más horribles y perturbadores desde el punto de vista psicológico, y que lo haces durante 10 horas, y luego te vas a casa y todo eso te da vueltas en la cabeza. Así que hay muchos fallos en la forma en que se hace el trabajo actualmente».

Deepfakes musicales

Un desarrollo más incipiente de la IA en la música es el uso de deepfakes de audio para falsificar la letra o el estilo musical de una canción existente para que se parezca a la voz o al estilo de otro artista. Esto ha suscitado muchas preocupaciones sobre la legalidad de la tecnología, así como sobre la ética de su uso, especialmente en el contexto de la identidad artística. Además, también ha planteado la cuestión de a quién se le atribuyen estos trabajos. Dado que la IA no puede tener su propia autoría, las especulaciones actuales sugieren que no habrá una respuesta clara hasta que se tomen más decisiones sobre las tecnologías de aprendizaje automático en general. Las medidas preventivas más recientes han comenzado a ser desarrolladas por Google y Universal Music Group, que han tenido en cuenta los derechos de autor y la atribución de créditos para permitir a los productores copiar las voces y los estilos de los artistas.

«Heart on My Sleeve»

En 2023, un artista conocido como ghostwriter977 creó un deepfake musical llamado «Heart on My Sleeve» que clonaba las voces de Drake y The Weeknd alimentando un conjunto de pistas vocales de los respectivos artistas a un algoritmo de aprendizaje profundo, creando un modelo artificial de las voces de cada artista que podía compararse con las voces de referencia originales con las letras originales. La pista se presentó a los Grammy en las categorías de Mejor Canción de Rap y Canción del Año. Se hizo viral y ganó popularidad en TikTok, y recibió una respuesta positiva del público, lo que llevó a su lanzamiento oficial en Apple Music, Spotify y YouTube en abril de 2023. Muchos creyeron que la pista había sido escrita íntegramente por un software de IA, pero el productor afirmó que la composición, la producción y las voces originales (antes de la conversión) seguían siendo obra suya. Posteriormente, la canción fue retirada de la lista de nominaciones a los Grammy porque no cumplía los requisitos para ser considerada. La canción fue retirada de todas las plataformas musicales por Universal Music Group. La canción supuso un punto de inflexión para la clonación de voces mediante inteligencia artificial y, desde entonces, se han creado modelos para cientos, si no miles, de cantantes y raperos populares.

«De dónde vino eso»

En 2013, el cantante de country Randy Travis sufrió un derrame cerebral que le dejó incapacitado para cantar. Mientras tanto, el vocalista James Dupré realizó una gira en su nombre, interpretando sus canciones. Travis y su productor de toda la vida, Kyle Lehning, lanzaron una nueva canción en mayo de 2024 llamada «Where That Came From», la primera canción nueva de Travis desde su derrame cerebral. La grabación utiliza tecnología de inteligencia artificial para recrear la voz de Travis, compilada a partir de más de 40 grabaciones vocales existentes junto con las grabaciones de Dupré.

Herramientas musicales de IA

Ahora que hemos explicado qué es la IA, así como algunas de sus principales desventajas, podemos hablar de las herramientas musicales de IA que existen. En Berklee Onsite 2023, una conferencia musical anual celebrada en el campus del Berklee College of Music de Boston, Wares compartió algunas herramientas musicales de IA que conviene conocer; algunas de ellas se pueden empezar a aprender ahora mismo, y otras quizá solo te interese conocer.

BandLab SongStarter

La aplicación SongStarter de BandLab es un generador de canciones basado en IA que te permite elegir un género, introducir la letra de la canción (y emojis) y te ofrece ideas gratuitas. A continuación, puedes llevar esas ideas a su función de estudio para hacerlas tuyas. Es una forma estupenda de empezar a componer una canción si necesitas algo de inspiración inicial.

Midjourney

Midjourney, uno de los generadores de imágenes más populares impulsados por IA, se puede utilizar para crear carátulas de álbumes, portadas de canciones, pósters, bucles de Spotify, imágenes de merchandising y mucho más. Lo que lo diferencia de otros generadores de imágenes impulsados por IA es su estilo surrealista y onírico, que puede ser más adecuado para proyectos musicales. El programa es fácil de usar, pero hay una curva de aprendizaje definida. Al igual que muchos programas tecnológicos nuevos, asegúrate de ver algunos tutoriales antes de lanzarte a utilizarlo.

Mix Monolith

El plugin Mix Monolith es un sistema de mezcla automática de AYAIC que igualará tu mezcla. En el artículo de Mix Online, el desarrollador afirma: «Su objetivo no es crear automáticamente una mezcla acabada, sino establecer relaciones de ganancia fundamentales entre las pistas y garantizar unos ajustes de ganancia adecuados».

LANDR AI Mastering

La herramienta de masterización con IA de LANDR te permite arrastrar y soltar tu pista en el programa, que luego la analiza y ofrece opciones sencillas de estilo y volumen. Una vez seleccionadas estas dos opciones, el programa masterizará tu pista y te ofrecerá más opciones de tipo de archivo y método de distribución. LANDR cuenta con más de 20 millones de pistas que han sido mezcladas con su programa.

AIVA

AIVA es un programa de inteligencia artificial que ha sido entrenado con más de 30 000 partituras icónicas de la historia. Puedes elegir entre varios estilos musicales preestablecidos, desde el cine moderno hasta el cine del siglo XX, desde el tango hasta el jazz. A continuación, tienes la opción de introducir la tonalidad, el compás, el tempo, la instrumentación, la duración y mucho más. Si no sabes qué introducir, AIVA lo hará por ti. Por último, puedes generar una pista, personalizar la instrumentación y cargar una variedad de tipos de archivos. Como suscriptor, tienes una licencia de derechos de autor completa para todo lo que crees.

ChatGPT para músicos

Una de las herramientas de IA más utilizadas, ChatGPT de OpenAI, tiene una gran variedad de usos para los músicos. La empresa está siendo investigada actualmente por la Comisión Federal de Comercio, por lo que debes tomar precauciones sobre la información que compartes con ChatGPT, así como verificar cualquier dato que recibas de ChatGPT.

Teniendo esto en cuenta, el programa tiene el potencial de reducir el tiempo que dedicas a tareas que te alejan de la creación musical propiamente dicha. Wares y Camp han estado experimentando con ChatGPT desde su lanzamiento y tienen algunos consejos específicos que pueden resultar útiles para músicos y profesionales de la música.

Estrategia en redes sociales

Las redes sociales pueden suponer una gran pérdida de tiempo para un músico aficionado, y ChatGPT puede ayudar a aliviar la carga. Wares dice que puedes empezar por decirle a ChatGPT qué tipo de artista eres, qué género musical tocas y cuáles son tus aficiones e intereses. A continuación, puedes solicitar 30 contenidos para los próximos 30 días en TikTok, Instagram, Facebook o cualquier otra red social que utilices. No solo puedes solicitar ideas de contenido para redes sociales, sino que también puedes pedir a ChatGPT que cree pies de foto y hashtags optimizados.

Requisitos técnicos para giras

Cuando se van de gira, los músicos suelen contratar a alguien para que cree una ficha técnica que describa todos los detalles necesarios para llevar a cabo su espectáculo. Esto puede incluir el equipo, la configuración del escenario, la ingeniería de sonido, la iluminación, la hospitalidad, los contratos de los conciertos, los itinerarios de la gira, las opciones de locales, los precios de las entradas y mucho más. Wares afirma que ChatGPT podría ser el encargado de redactar esa ficha técnica, y recientemente ha trabajado con la banda para planificar su gira utilizando esta tecnología.

«Empezamos creando su ficha técnica, que incluía los requisitos de backline, una lista detallada de entradas e incluso recomendaciones específicas de micrófonos, todo ello basado en unos sencillos consejos», explica Wares. «A continuación, pedimos recomendaciones sobre el itinerario de la gira por el noreste, cuánto debíamos cobrar por las entradas e ideas de merchandising basadas en los intereses y la demografía únicos de los fans de la banda. Lo que habría llevado días se hizo en menos de una hora».

Escribir letras de canciones

Si necesitas ayuda para escribir letras de canciones, necesitas inspiración o quieres utilizar algunas sugerencias de palabras, ChatGPT puede ser una herramienta útil para componer canciones. Camp pone como ejemplo su colaboración con la antigua alumna de Berklee Julia Perry (que les entrevistó para un artículo de Berklee Now sobre la IA y la música) para generar ideas para canciones utilizando ChatGPT.

«Estábamos hablando de cómo el universo es mágico y de cómo ella quería expresar esta verdad profunda e incognoscible sobre el universo», dice Camp. «Y básicamente condensé todo lo que dijo en dos o tres párrafos y le dije [a ChatGPT]: dame 20 versos iniciales para esta canción».

Al final, utilizaron una de las 20 opciones como punto de partida para una nueva canción.

Redacción de contenidos

ChatGPT puede ayudar con una variedad de tareas de redacción de contenidos y copywriting, ya sea escribir un comunicado de prensa, una biografía con múltiples longitudes de caracteres, una estrategia de lanzamiento de un álbum, una entrada de blog, el contenido de un sitio web, un correo electrónico y mucho más.

Acuerdos y contratos

En un mundo ideal, un abogado redactaría y revisaría todos tus acuerdos y contratos, pero eso no siempre es realista ni asequible. En algunos casos, es posible que prefieras que ChatGPT redacte un acuerdo en lugar de no tener nada. Esto se puede utilizar para acuerdos de gestión, acuerdos de bandas, hojas de reparto, acuerdos de actuación y mucho más. Pero, de nuevo, siempre es preferible contar con un abogado especializado en entretenimiento cuando sea posible.

¿Dónde está la gente?

El estado actual de la música generativa por IA es más una mezcla que una verdadera generación. No se trata realmente de una banda tributo, sino más bien de un enfoque expansivo del renacimiento. Solo puede producir sonidos a partir de lo que hay en los datos de entrenamiento y, aunque puede combinar, mezclar y refractar esos elementos de nuevas formas, no puede experimentar más allá de eso.

Los músicos te dirán que solo hay un número limitado de notas que se pueden tocar, o que todos los sonidos son solo una cuestión de frecuencia y longitud de onda, y que, por lo tanto, solo hay una cantidad limitada de lo que se puede hacer en términos puramente musicales. Pero la música es más que simplemente arreglar algunos acordes o ritmos, al igual que crear recetas es más que simplemente elegir entre una lista finita de ingredientes y técnicas.

Ribo es un guitarrista conocido por su experimentación y su capacidad para inspirarse en influencias dispares y mezclarlas para crear algo nuevo. A primera vista, esto se parece mucho a la propuesta de valor que defienden los partidarios de la IA generativa, pero él afirma que hay diferencias fundamentales entre un humano y una máquina que hacen lo mismo.

«No puedo tocar un solo de blues de 12 compases sin citar a alguien», afirma Ribot. «Tenemos que conceder el privilegio de los derechos humanos para hacer eso. Soy bastante bueno sabiendo cuándo estoy cruzando la línea. Sé que puedo citar esta parte de una canción de Charlie Parker sin que sea una canción de Charlie Parker, y sé que puedo estropearla tanto como quiera y seguirá siendo genial».
El álbum de Ribot de 1990, Rootless Cosmopolitans, incluye una versión de «The Wind Cries Mary» de Jimi Hendrix. En homenaje a Hendrix, la versión de Ribot es abstracta, con la letra gritada sobre una guitarra chirriante, y poco parecido con la canción original, salvo el tono de la guitarra, omitiendo la melodía, los acordes y el ritmo de Hendrix. Aun así, Ribot la incluyó como versión en el álbum y paga derechos mecánicos por cada venta o reproducción
. «Este sistema debe preservarse y vale la pena luchar por él», afirma Ribot. «No nos pagan el salario mínimo cuando estamos sentados en un disco. No tenemos garantías ni siquiera cuando actuamos. [Los derechos de autor] son, literalmente, el único derecho económico que tenemos».

La práctica discursiva de Ribot forma parte de una larga tradición: la música como medio se define por la conciencia y el respeto por lo que vino antes, lo que aún puede crecer y cambiar, y no solo ser reciclado. «Lo que impulsa el cambio en la música son los cambios en el estado de ánimo de las personas, sus necesidades y posibilidades, y lo que les gusta y lo que les molesta. Las personas pueden aprender a tomar sus sentimientos, acontecimientos y la plenitud de sus vidas y representarlos en su guitarra o piano. El campo se amplía a medida que la experiencia se expande, la historia se alarga y surgen bandas que necesitan expresión e ideas».

Históricamente, ha existido un contrato sagrado entre los músicos y el público que implica autenticidad y humanidad. De los millones de fans de Taylor Swift que asistieron a la gira Eras Tour, muchos podrían darte un relato detallado de su vida personal. Lo mismo ocurre con el público de Beyoncé, Harry Styles, Elton John o cualquiera de los artistas más importantes en gira. Se necesita una persona real para llenar los estadios. Nadie vería The Masked Singer si no pensara que reconocerá a los artistas cuando se quiten la máscara.

Cuando escuchamos música de forma intencionada, a menudo lo hacemos de forma hermenéutica, como si la canción fuera una puerta de entrada a un espacio más amplio de comprensión de las experiencias y perspectivas de otras personas. Pensemos en Nirvana. Debido a que la desviación estética del grunge se encontró con la tecnología moderna de los estudios en el momento justo, Nevermind encontró un gran público no solo por su sonido, sino porque la trayectoria personal de Kurt Cobain —el ascenso meteórico y la trágica muerte prematura de un chico ansioso de los suburbios que se convirtió en una superestrella del rock al desafiar abiertamente (algunas) convenciones de las estrellas del pop— resonó en la gente.

Aunque la banda reconoció a los músicos que les inspiraron —Pixies, Gap Band y otros—, los discos de Nirvana son, en última instancia, el producto único de las decisiones tomadas por Cobain, sus compañeros de banda y sus colaboradores, una expresión y un reflejo de sus experiencias e ideales. El arte, por definición, es el producto de la toma de decisiones humanas.

Parte de la música generada por IA, al igual que otras formas de proceso musical, sigue conservando ese elemento humano: dado que artistas como Ivan Paz y Shelley Knotts dependen en gran medida de modelos automatizados, crean el sistema, toman innumerables decisiones sobre su funcionamiento y deciden qué hacer con los sonidos que produce.
Pero la música generada por IA que amenaza a los músicos humanos, que toma poco más que unas pocas palabras y produce canciones completas a partir de ellas, es intrínsecamente limitada porque solo puede mirar hacia adentro y hacia atrás en el tiempo a partir de sus datos, nunca hacia afuera y, por lo tanto, nunca hacia adelante. La guitarra se inventó hace siglos, pero es poco probable que un modelo de IA entrenado con música anterior al apogeo de Sister Rosetta Tharpe en la década de 1940 produzca algo parecido a una guitarra eléctrica. El hip-hop es un estilo musical basado en el sampling y la reelaboración del trabajo de otros artistas (a veces en formas o contextos que no gustan al artista original), pero un modelo entrenado con música anterior a 1973 no será capaz de crear nada parecido.

Hay innumerables razones por las que la gente escucha música, pero hay otras tantas por las que la gente la crea. Las personas llevan miles de años creando sonidos para otras personas y, durante la mayor parte de ese tiempo, habría sido una locura imaginar que se podía vivir de ello: era imposible siquiera pensar en amplificarlo, y mucho menos en grabarlo. Aun así, la gente hacía música.

Aquí hay una tensión que es anterior a la IA. Por un lado, las discográficas y las plataformas de streaming digital creen, en gran medida con razón, que el mercado musical quiere reconocimiento por encima de todo, por lo que gran parte del dinero proviene de las ventas de los catálogos de artistas consagrados, y un informe sugiere que esas ventas representaron el 70 % del mercado musical estadounidense en 2021. Los éxitos de las listas de ventas suenan cada vez más parecidos. Los algoritmos de las plataformas de streaming suelen reproducir las mismas canciones una y otra vez.

Por otro lado, existe una necesidad humana intrínseca de sorpresa, innovación y transgresión. Es diferente para cada persona. Los objetivos de una gran empresa —básicamente, su escala y supervisión— son diferentes de los de sus usuarios en su conjunto y de los de cada individuo, y cuanto mayor sea su base de usuarios, más tenderá a automatizarse. Ni los generadores de música con IA, ni las listas de reproducción generadas dinámicamente, ni ningún otro sistema de predicción algorítmica son intrínsecamente buenos o malos: los resultados dependen totalmente de quién los utilice y con qué fin.

Pero pase lo que pase, ninguna empresa tendrá nunca el monopolio de la música. Ninguna especie lo tiene. Las aves lo hacen. Las abejas lo hacen. Las ballenas en el mar lo hacen. Parte de ello, para el oído humano, es muy hermoso. Pero incluso con toda esa melodía natural, toda la música que los humanos ya han creado y toda la música que la IA ayudará a crear o creará por sí misma, el impulso humano de crear y expresarnos persiste. La música existe en nuestro mundo por razones que van más allá del comercialismo.

En la mayoría de los casos, la razón es muy simple: una persona o un grupo de personas decidieron que debía existir y lo hicieron realidad. Seguirá existiendo, sin importar la cantidad de basura sonora que produzcan las máquinas.

¿Aceptar o resistir?

Uno de los temas recurrentes en lo que respecta a la IA y otras tecnologías emergentes es que serán una parte importante de la industria musical (y de la mayoría de las industrias) en el futuro, y que ignorarlas no ayudará a los futuros líderes de la industria.

«Creo que la IA puede ayudar a mis alumnos a ser más productivos y apoyar su proceso creativo, además de permitirles centrarse en lo que más les importa, que es crear y tocar música o explorar nuevas ideas de negocio», afirma Wears. «Sin embargo, como educador responsable, tengo que asegurarme de que mis alumnos no dependan demasiado de estas herramientas, y busco constantemente formas de utilizar la IA para ayudarles a desarrollar su capacidad de pensamiento crítico».

Camp está de acuerdo y también anima a las personas a hacer lo que les resulte más cómodo a medida que la IA sigue evolucionando.

«Sin duda, os animo a que, si queréis estar al día y utilizar la tecnología para avanzar en lo que os ha traído a este planeta, os suméis a ella», afirma Camp. «Pero, como he dicho, tengo amigos que utilizan teléfonos fijos. Tengo amigos que prefieren comprar discos de vinilo. La IA está aquí. Tiene un impacto enorme. No es necesario utilizarla, pero mucha gente decide hacerlo».

La IA en Berklee Online

Recientemente, Berklee Online ha lanzado una iniciativa llamada ARIA: Realidades mejoradas por IA y aplicaciones inmersivas. El proyecto está dirigido por Gabriel Raifer Cohen, director asociado de soporte y tecnología de audio en Berklee Online y antiguo alumno del Berklee College of Music.

«Al igual que las calculadoras, los ordenadores, Internet y los motores de búsqueda antes que ella, la GenAI ha llegado para quedarse», afirma Raifer Cohen. «Ignorar la realidad de que todas estas herramientas están fácilmente disponibles es un flaco favor para los estudiantes. Enseñar a los estudiantes cómo utilizar estas tecnologías de la mejor manera posible —y de forma responsable— como herramientas de empoderamiento puede ser una tarea más valiosa que intentar combatirlas».

Y el hecho de que la IA vaya a desempeñar un papel importante en el futuro de la industria musical no significa que no podamos criticar esta nueva tecnología o abogar por medidas de seguridad. «Al mismo tiempo, debemos resistirnos a la propagación de la mediocridad y la insensibilidad creativa alimentadas por el uso irreflexivo de GenAI, sin dejar de ser éticos y proactivos», afirma. «No es nada fácil, pero debemos tener en cuenta que los avances en IA también abren oportunidades para experiencias educativas potencialmente transformadoras». Raifer Cohen afirma que, como parte de la iniciativa ARIA, Berklee Online seguirá explorando estas nuevas herramientas y solo después de que hayan sido probadas y estudiadas a fondo, la escuela considerará su implementación en el aula. «En última instancia, no debemos olvidar que, para los estudiantes y profesores, espectadores y creadores, todas estas potentes herramientas son solo eso: herramientas», afirma Raifer Cohen.


Author Avatar
Author
Antony Tornver
Published
February 25, 2025
Make Music Now.
No Downloads, Just
Your Browser.
Start creating beats and songs in minutes. No experience needed — it's that easy.
Get started