ESTUDIO

    Ai en la música

    Ai en la música

    Las posibilidades de la música con IA han sido murmurando debajo de la superficie de la industria de la música durante años, pero no fue hasta el lanzamiento de ChatGPT en 2022 que la conversación más amplia sobre IA comenzó a extenderse a la corriente principal. Ahora estamos en un punto en el que algunos músicos y profesionales de la industria de la música están fascinados por las posibilidades de la música con IA, mientras que otros desconfían de lo desconocido, especialmente cuando la regulación aún está en su infancia. Un estudio realizado por la compañía de distribución de música Ditto descubrió que casi el 60 por ciento de los artistas encuestados dicen que usan IA en sus proyectos de música, mientras que el 28 por ciento dice que no usarían IA para fines de música.

    Christopher Wears, presidente asociado del departamento de gestión de negocios/negocios de música en Berklee College of Music, es un defensor de la tecnología de música de IA. Incluso escribió una tesis de maestría sobre por qué Warner Music debería invertir en IA, en 2016 (alerta de spoiler: lo hicieron, junto con cualquier otra etiqueta importante). Wares ha introducido AI en sus cursos en Berklee y ha visto reacciones mixtas de los estudiantes.
    "Algunos de mis alumnos aman la IA y ya la están usando de diferentes maneras, mientras que otros no quieren tener nada que ver con eso", dice Wares. "Hay mucho debate acalorado en las conversaciones, y trato de alentar a mis alumnos a adoptar la tecnología y encontrar nuevas formas de usarla para mejorar sus procesos creativos".

    Otro autor e instructor de curso con una mentalidad similar es Ben Camp, profesor asociado de composición de canciones en Berklee College of Music y autor de Songs Unmasked: Techniques and Tips para el éxito de la composición de canciones. Han sido fascinados por AI Music Technology desde 2016, después de escuchar "Daddy's Car", una de las primeras canciones pop de IA donde la IA fue entrenada en la música de los Beatles.

    El campamento también brinda a sus estudiantes la oportunidad de aprender IA en el aula, siempre que verifiquen toda la información que aprenden de ChatGPT o cualquier modelo de idioma grande.

    "Creo que todos tienen que tomar su propia decisión", dice Camp. “Quiero decir, tengo amigos que todavía usan teléfonos Flip porque no se sienten cómodos con tener toda su información en su teléfono. Tengo amigos que todavía tienen teléfonos fijos. Así que no digo: 'Oye, todos, necesitan hacer esto'. Pero definitivamente está aquí. No va a desaparecer. Solo va a mejorar ".

    Ya sea que esté utilizando activamente IA en su música o tenga algunas dudas, está cada vez más claro que AI desempeñará un papel importante en la industria de la música en el futuro. Con la experiencia de las mercancías y el campamento, discutimos el estado actual de la IA en la industria de la música, incluidas las herramientas que están disponibles ahora.

    ¿Qué es la música AI?

    Antes de definir lo que significa la música AI, definamos primero la inteligencia artificial. Aquí está la definición de Wares:
    “La inteligencia artificial es como la inteligencia de una computadora; Es una tecnología que permite a las máquinas imitar el pensamiento o el comportamiento humano, como la resolución de problemas, el aprendizaje o el reconocimiento de patrones ".

    En el contexto de la música, la tecnología de IA ha alcanzado un punto en el que puede generar, componer y mejorar el contenido musical que anteriormente fue realizado por humanos. AI Music puede tomar muchas formas y tipos de asistencia, desde la creación de una canción completa de principio a fin, hasta escribir aspectos específicos de una composición, mezclar y dominar una producción, clonación de voz y más. También enumeramos algunas herramientas de música de IA específicas que pueden realizar estas tareas, cuyas capacidades han abierto una caja de problemas de derechos de autor de Pandora.

    Historia

    La inteligencia artificial tiene sus orígenes en la música, con el problema de la transcripción: grabar con precisión una actuación en la notación musical a medida que se realiza. El esquema de "cinta de piano" de Père Engramelle, un modo de grabación automáticamente de horarios y duraciones para que puedan transcribirse fácilmente a la notación musical adecuada a mano, fue implementado por primera vez por los ingenieros alemanes JF Unger y J. Holfield en 1752.
    En 1957, El Iliac I (informática automática de Illinois) creó la "Suite Illiac para el cuarteto de cuerdas", una pieza musical completamente generada por computadora. La computadora fue programada para realizar esta tarea por el compositor Lejaren Hiller y el matemático Leonard Isaacson. : V-VII En 1960, el investigador ruso Rudolf Zaripov publicó el primer artículo del mundo sobre la composición de la música algorítmica utilizando la computadora URAL-1.
    En 1965, el inventor Ray Kurzweil desarrolló un software que podría reconocer los patrones musicales y sintetizar nuevas composiciones de ellos. La computadora apareció por primera vez en el programa de preguntas que tengo un secreto.

    En 1983, el sistema musical Kansei de Yamaha había ganado tracción, y se publicó un artículo sobre su desarrollo en 1989. El software utilizó el procesamiento musical y las técnicas de inteligencia artificial para resolver esencialmente el problema de la transcripción para melodías más simples, aunque las melodías de nivel superior y las complejidades musicales Todavía se considera problemas difíciles de aprendizaje profundo hoy, y la transcripción casi perfecta sigue siendo un tema de investigación.

    En 1997, un programa de inteligencia artificial llamado Experiments in Musical Intelligence (EMI) superó a un compositor humano en la tarea de componer una pieza musical que imita el estilo de Bach. EMI luego se convirtió en la base de un algoritmo más sofisticado llamado Emily Howell, llamado así por su creador.

    En 2002, un grupo de investigadores de la música en el Laboratorio de Ciencias de la Computación de Sony en París, dirigido por el compositor y científico informático francés François Pachet, desarrolló un continuador, un algoritmo único capaz de reiniciar una composición después de que un músico en vivo se detuvo.

    Emily Howell continuó mejorando la IA de la música lanzando su primer álbum, de Darkness, Light, en 2009. Desde entonces, varios grupos han publicado muchas más trabajos de IA.
    En 2010, Iamus se convirtió en la primera IA en crear una pieza de música clásica moderna original en su propio estilo: "Iamus 'Opus 1". Ubicada en la Universidad de Málaga (Universidad de Malaga) en España, la computadora puede generar una pieza musical completamente original en una variedad de estilos musicales. En agosto de 2019, se creó un gran conjunto de datos de 12,197 canciones MIDI, cada una con sus propias letras y melodías, para investigar la viabilidad de generar melodías neuralmente a partir de letras de canciones utilizando un método LSTM-Gan condicional profundo.

    Con los avances en la IA generativa, los modelos han comenzado a surgir que pueden crear composiciones musicales completas (incluidas las letras) a partir de descripciones de texto simples. Dos aplicaciones web notables en esta área son Suno AI, que se lanzó en diciembre de 2023, y Udio, que siguió en abril de 2024.

    Aplicaciones de software

    Arrojar

    Desarrollado en la Universidad de Princeton por GE Wang y Perry Cook, Chuck es un lenguaje multiplataforma basado en texto. Al extraer y clasificar las técnicas teóricas que encuentra en piezas musicales, el software puede sintetizar piezas completamente nuevas basadas en las técnicas que ha aprendido. La tecnología es utilizada por Slork (Stanford Laptop Orchestra) y PLork (Princeton Laptop Orchestra).

    Tocadiscos tragamonedas

    Jukedeck era un sitio web que permitía a las personas usar inteligencia artificial para crear música original sin regalías para usar en videos. El equipo comenzó a desarrollar la tecnología generadora de música en 2010, formó una compañía a su alrededor en 2012 y lanzó el sitio web públicamente en 2015. La tecnología utilizada fue inicialmente un sistema de composición algorítmica basado en reglas, que luego fue reemplazada por redes neuronales artificiales. El sitio web se ha utilizado para generar más de 1 millón de piezas de música, y las marcas que lo han utilizado han incluido Coca-Cola, Google, UKTV y el Museo de Historia Natural de Londres. En 2019, la compañía fue adquirida por Bytedance.

    Morfeo

    Morpheus es un proyecto de investigación de Dorien Herremans y Elaine Chu en la Universidad Queen Mary de Londres, financiado por el proyecto UE Marie Skłodowska-Curie. El sistema utiliza un enfoque de optimización basado en el algoritmo de búsqueda de vecindad variable para transformar los fragmentos estampados existentes en nuevos fragmentos con un nivel dado de estrés tonal que cambia dinámicamente a lo largo del fragmento. Este enfoque de optimización integra técnicas de detección de patrones para garantizar la estructura a largo plazo y los temas recurrentes en la música generada. Las piezas compuestas por Morpheus se han realizado en conciertos tanto en Stanford como en Londres.

    Aiva

    Fundada en febrero de 2016 en Luxemburgo, AIVA es un programa que produce bandas sonoras para cualquier tipo de medios. Los algoritmos detrás de AIVA se basan en arquitecturas de aprendizaje profundo. AIVA también se ha utilizado para componer una canción de rock llamada On The Edge, así como una melodía pop llamada Love Sick, en colaboración con la cantante Taryn Southern para su álbum I Am Ai de 2018.

    Google Purple

    El equipo Magenta de Google ha publicado varias aplicaciones de música AI y documentos blancos desde su lanzamiento en 2016. En 2017, lanzaron el algoritmo y el conjunto de datos Nsynth, un instrumento musical de hardware de código abierto diseñado para facilitar que los músicos usen el algoritmo. El instrumento ha sido utilizado por artistas notables como Grimes y Yacht en sus álbumes. En 2018, lanzaron una aplicación de improvisación de piano llamada Piano Genie. Más tarde fue seguido por Magenta Studio, un conjunto de 5 complementos MIDI que permiten a los productores musicales desarrollar música existente en su DAW. En 2023, su equipo de aprendizaje automático publicó un artículo técnico sobre GitHub que describe MusicLM, un generador de texto a música que habían desarrollado.

    Riffusion

    Riffusion es una red neuronal desarrollada por Seth Forsgren e Ike Martiros que genera música utilizando patrones de sonido en lugar de audio. Fue creado como un ajuste de difusión estable, un modelo de código abierto existente para generar imágenes a partir de señales de texto en espectrogramas. Esto da como resultado un modelo que utiliza señales de texto para generar archivos de imagen que pueden transformarse y convertirse en archivos de audio inverso de Fourier. Aunque estos archivos tienen solo unos segundos, el modelo también puede usar el espacio latente entre las salidas para interpolar diferentes archivos juntos. Esto se logra utilizando una funcionalidad del modelo de difusión estable conocido como IMG2IMG. La música resultante se ha descrito como "De Otro Mundo" (de otro mundo), aunque es poco probable que reemplace la música de fabricación humana. El modelo se lanzó el 15 de diciembre de 2022, y el código también está disponible gratuitamente en GitHub. Es uno de los muchos modelos derivados de la difusión estable. Riffusion se clasifica como un subconjunto de generadores de texto a música basados ​​en IA. En diciembre de 2022, Mumbert utilizó de manera similar la difusión estable para convertir el texto descriptivo en bucles musicales. En enero de 2023, Google publicó un artículo sobre su propio generador de texto a música llamado MusicLM.

    Spike AI

    Spike AI es un complemento de audio con IA desarrollado por Spike Stent en colaboración con su hijo Joshua Stent y su amigo Henry Ramsey que analiza las pistas y hace recomendaciones para mayor claridad y otros aspectos durante la mezcla. La comunicación se lleva a cabo a través de un chatbot entrenado en los datos personales de Spike Stent. El complemento se integra en una estación de trabajo de audio digital.

    Aplicaciones musicales

    La inteligencia artificial tiene el potencial de influir en la forma en que los productores crean música generando iteraciones de pista basadas en señales dadas por el Creador. Estas señales permiten que la IA siga un estilo específico que el artista está tratando de lograr.

    La IA también se ha utilizado en el análisis musical donde se ha utilizado para la extracción de funciones, el reconocimiento de patrones y las recomendaciones de música.

    Composición

    La inteligencia artificial ha tenido un gran impacto en el sector de la composición, ya que ha influido en las ideas de los compositores/productores y tiene el potencial de hacer que la industria sea más accesible para los recién llegados. Con su desarrollo en la música, ya se ha utilizado en colaboración con los productores. Los artistas usan este software para ayudar a generar ideas e identificar estilos musicales al incitar a la IA a seguir requisitos específicos que se adapten a sus necesidades. Los impactos futuros de la tecnología en la composición incluyen la emulación y la fusión de estilos, así como la revisión y el refinamiento. El desarrollo de este tipo de software puede facilitar que los recién llegados ingresen a la industria de la música. Los productores utilizaron un software como ChatGPT para realizar estas tareas, mientras que otro software como Ozone11 se usó para automatizar tareas lentas y complejas como Mastering.

    Riesgos y daños

    Los músicos, los productores y otros han estado utilizando herramientas de IA no generativas durante años. Cher popularizó Auto-Tune con "Believe" hace más de un cuarto de siglo, e innumerables artistas lo han usado para "corregir" su tono. Los sellos discográficos usan IA para escanear las redes sociales para usos sin licencia de las canciones que poseen, y Shazam funciona de la misma manera cuando se trata de reconocer el audio. Los ingenieros lo usan para racionalizar el proceso de mezcla y maestría. Más recientemente, el director de Get Back, Peter Jackson, usó la tecnología para aislar pistas individuales de una grabación mixta para reconstruir conversaciones de estudio y crear una canción de Lost Beatles.

    Pero hay una diferencia clave entre estas herramientas auxiliares y aplicaciones generativas de IA como Suno y Udio, que pueden crear canciones enteras de solo unas pocas palabras. Todas las nuevas música funcionan de manera un poco diferente y continúan evolucionando, pero generalmente operan de manera similar a otras herramientas de IA generativas: analizan un gran conjunto de datos y usan los patrones que se encuentran en él para hacer predicciones probabilísticas.

    Para hacer esto para el audio, los desarrolladores recopilan una gran colección de canciones (a través de acuerdos con titulares de licencias y/o raspando datos disponibles públicamente sin permiso) y sus metadatos asociados (artistas y títulos de canciones, géneros, años, descripciones, anotaciones, cualquier cosa relevante y disponible). Todo esto generalmente es posible por los trabajadores mal pagados en el Sur global que anotan estos datos a escala gigantesca.

    Luego, los desarrolladores preparan este conjunto de datos para un modelo de aprendizaje automático, que es (en resumen) una vasta red de conexiones, cada una asignó un "peso" numérico. Luego, los humanos "entrenan" el modelo enseñándolo para observar patrones en el conjunto de datos y proporcionar retroalimentación al modelo al calificar sus predicciones. Según estos patrones, el modelo puede tomar una breve pieza de audio o señal de texto y predecir lo que debería suceder después, y luego lo que sucederá después de eso, y así sucesivamente.

    Los desarrolladores ajustan los pesos para generar más resultados escuchables y predecibles de las mismas entradas. Los generadores de música con AI combinan dos hilos de tecnología: las herramientas musicales que los profesionales han estado utilizando en los estudios durante décadas y los grandes modelos de idiomas que permiten a los usuarios cotidianos aprovechar su poder. Cualquier generador de música AI es tan bueno como los datos en los que está entrenado. Estos sistemas requieren grandes cantidades de datos, y un modelo capacitado en un conjunto de datos sesgado reproducirá esos sesgos en su salida. ¿De quién se incluyen las voces en esta enorme caja de música, y cuyos quedan fuera? Los modelos de IA de hoy en día tienden a excluir enormes franjas de música, especialmente de las tradiciones musicales que son anteriores a la tecnología de grabación y son de origen no occidental. Como se diseña actualmente, es más probable que produzcan sonidos estereotípicos dentro de un género o estilo que cualquier cosa inusual, y mucho menos innovador o interesante. Los sistemas generativos de IA son propensos a la mediocridad, pero la música trascendental se encuentra en los franjas.

    "¿Qué se perderá en la creatividad y la diversidad humana si los músicos comienzan a confiar en modelos predictivos entrenados en conjuntos de datos selectivos que excluyen la mayoría de las culturas e idiomas del mundo?" Lauren Me Goodlad, presidenta de la iniciativa crítica de IA de la Universidad de Rutgers, me dijo.

    Desde una perspectiva legal, los músicos que miran modelos de IA aprenden de su trabajo tienen las mismas preocupaciones que el New York Times, Getty y otros editores y creadores que están demandando a las compañías de IA: la procedencia de los datos. Si bien algunas compañías tienen cuidado de capacitar a sus modelos solo en datos con licencia, otras usan lo que puedan tener, argumentando que cualquier cosa en el dominio público cae bajo un uso justo para este propósito. El RIAA, el cuerpo de comercio de música dominante en los Estados Unidos, ahora está demandando a Suno y Udio por "infracción de derechos de autor ... a gran escala". (Divulgación: Vox Media es uno de los varios editores que ha firmado acuerdos de asociación con OpenAI. Nuestros informes siguen siendo editorialmente independientes).

    Las encuestas a menudo muestran que la mayoría de las personas desaprueban las empresas de IA que copian datos públicos sin permiso. Pero si bien hay una serie de demandas de alto perfil en la mesa, aún no está claro cómo el sistema legal afectará a las empresas que extraen toda esa creatividad humana sin permiso, y mucho menos compensarlas. Si estas prácticas no se frenan pronto, los jugadores menos escrupulosos ganarán rápidamente el poder y los elegantes cabilderos y abogados que vienen con él. (Corbreusness: ¡no es solo para máquinas!) Estos problemas están presionando ahora porque se vuelven más difíciles de resolver con el tiempo, y algunos en el campo están retrocediendo. Ed Newton-Rex fue Vicepresidente de Audio en Stability AI cuando lanzó Audio Stable, un generador de música y sonido con IA, el otoño pasado.

    Dejó a la compañía solo un par de meses después sobre su postura sobre la recopilación de datos: el equipo de Newton-Rex capacitó a audio estable solo en datos con licencia, pero el liderazgo de la compañía presentó un comentario público ante la Oficina de Derechos de Autor de los Estados Unidos de que el desarrollo de la IA era "un aceptable" una aceptable. , el uso transformador y socialmente beneficioso del contenido existente protegido por uso justo ". Para combatir el raspado sin licencia, Newton-Rex fundó bastante capacitado, lo que verifica y certifica conjuntos de datos utilizados por las compañías de IA. Por ahora, la organización sin fines de lucro solo puede certificar si el contenido en el conjunto de datos de una empresa ha sido con licencia adecuada. Algún día, podrá tener en cuenta los detalles más finos (como si el artista consintió explícitamente en dicho uso o simplemente no optó) y otros problemas como el sesgo mitigante.

    Como músico y compositor de música coral y de piano, ve esto como un punto de inflexión para el campo. "Los modelos de IA generativos generalmente compiten con sus datos de capacitación", dijo Newton-Rex. “Honestamente, las personas solo tienen una cantidad limitada de tiempo para escuchar música. Hay un grupo limitado de regalías. Y así, cuanta más música se cree a través de estos sistemas, menos va a los músicos humanos ".

    Como señaló la presidenta de la FTC, Lina Khan, el mes pasado, si una persona crea contenido o información que una compañía de IA copia, y luego el contenido o información producida por el generador de IA compite con el productor original "para sacarlo del mercado y desviarlo Negocios ... ese podría ser un método injusto de competencia "que viola las leyes antimonopolio.
    Marc Ribot es uno de los más de 200 músicos que firmaron una declaración de la Alianza de Derechos de los Artistas que se opone a la práctica a principios de este año, y es un miembro activo del Comité Directivo de AI de la Alianza de Trabajadores de la Música. Ribot, un guitarrista en ejercicio desde la década de 1970, ha visto cómo la tecnología ha dado forma a la industria, viendo la grabación de presupuestos reducirse constantemente durante décadas.

    "No estoy en contra de la tecnología en sí misma de ninguna manera", dice Ribot. Habiendo perdido las grabaciones maestras que realizó en los años 90, él mismo usó AI para aislar pistas individuales de la mezcla final. Pero ve el momento actual como una oportunidad crítica para retroceder contra la tecnología antes de que las empresas que posean se vuelven demasiado grandes para regularla.
    "La verdadera línea divisoria entre útil y desastrosa es muy simple", dijo Ribot. “Se trata de si los productores de la música o cualquier otra cosa que se ingrese [como datos de entrenamiento] tienen un derecho de consentimiento real y funcional. [Generadores de música AI] escupe lo que consumen, y a menudo producen cosas con grandes trozos de material con derechos de autor en ellos. Esa es la salida. Pero incluso si no lo hicieron, incluso si la salida no infringe, la entrada en sí misma está infringiendo ".

    Ribot dijo que los músicos han sido indiferentes durante mucho tiempo a la IA, pero en los últimos años ha visto un "cambio sísmico en las actitudes hacia los problemas de explotación digital", impulsado por el SAG-AFTRA del año pasado y las huelgas del Gremio de Escritores de América, las demandas en curso contra las compañías de IA y una mayor comprensión del capitalismo de vigilancia y las libertades civiles.

    Si bien los músicos pueden haberse visto como competidores hace solo unos años, incluso si el pastel se hace más pequeño, todavía hay algunos artistas que pueden enriquecerse, la IA representa una amenaza para toda la industria que puede no beneficiar incluso al más afortunado de a ellos.

    Lo que la IA puede y puede hacer

    Uno de los primeros ejemplos de música creado por la inteligencia artificial se remonta a 1956: una pieza para el cuarteto de cuerdas compuesto por la computadora Iliac I y programada por la Universidad de Illinois en los profesores de Urbana-Champaign Lejaren Hiller y Leonard Isaacson.

    Después de los saltos tecnológicos de los últimos años, artistas como Holly Herndon, ARCA, Yacht, Taryn Southern y Brian Eno ahora están utilizando IA generativa para experimentar con sus prácticas creativas. La tendencia de AI a producir "alucinaciones" y otros resultados sin sentido, aunque peligrosos en otros contextos, podría ser una fuente de inspiración en la música. Así como otras tecnologías de audio se han definido por su disonancia: distorsión de CD, compresión de 8 bits, la voz humana agrietada demasiado poderosa para la garganta que la emite, "eventos demasiado importantes para el medio destinado a grabarlos", como Brian ENO escribe en el año con apéndices hinchados: la música generada por AI puede ser más valiosa cuando es más distinta. Ivan Paz, un músico con un doctorado en informática, está desarrollando sistemas de inteligencia artificial para sus propias actuaciones en vivo.

    Comenzando con una pantalla en blanco, escribe código en tiempo real (que se muestra para que la audiencia lea) y entrena el modelo respondiendo a los sonidos que hace, lo que puede ser inesperado, discordante o simplemente catastrófico. El resultado es un poco como tocar un instrumento, pero también como improvisar con otro músico. "Si su algoritmo está funcionando a un nivel muy bajo, entonces siente que está tocando un instrumento musical porque en realidad está ajustando, por ejemplo, los parámetros de la síntesis", dijo Paz. "Pero si el algoritmo está determinando la forma de una pieza musical, entonces es como tocar con un agente que determina lo que sucede después".

    Para una exposición en el Centro de Cultura Contemporánea en Barcelona a principios de este año, Paz trabajó con la cantante Maria Arnal para crear un modelo de renderizado de timbre para su voz. Pidieron a los visitantes que cantaran fragmentos cortos de canciones; Luego, el modelo mezcló esas voces con Arnal para crear una nueva voz de canto. En otro proyecto, la colega de Paz, Shelley Knotts, entrenó a una modelo en sus propias composiciones para evitar la repetición en su trabajo: analiza su música para detectar patrones, pero en lugar de sugerir su próximo movimiento, sugiere una continuación menos probable.

    El siguiente paso en la evolución musical de la IA puede llegar a la velocidad de procesamiento. La codificación en vivo es posible con algunos tipos de modelos, pero otros tardan demasiado en renderizar la música para crearla en un show en vivo. Los instrumentos electrónicos como los sintetizadores fueron diseñados originalmente para imitar los sonidos acústicos y han desarrollado su propio personaje único con el tiempo. Paz ve el máximo potencial de la IA generativa como la creación de nuevos sonidos que actualmente no podemos imaginar, y mucho menos producir. En este contexto, en el que AI ayuda a un intérprete, no es más probable que AI "reemplace" a un músico que un sintonizador digital o un pedal de retraso.

    Sin embargo, otros rincones de la industria de la música están adoptando IA para fines más disruptivos. Si bien la IA puede (y nunca puede) crear música mejor que un humano, ahora puede crear música aceptable a una velocidad mucho más rápida y a mayor escala, y "aceptable" es a menudo la única barra que una pista tiene que aclarar.

    La mayoría de las veces, cuando escuchas música, no sabes quién la creó. El jingle que escuchas en un anuncio. La partitura ambiental en una película o programa de televisión, podcast o videojuego. El bucle de un productor de hip-hop muestra un ritmo. Esta es la parte de la industria con mayor probabilidad de ser volcado por la IA generativa. Bloomberg informa que los maestros están usando Suno para crear ayudas de enseñanza de música. Gizmodo señala que el público objetivo para el Proyecto Music Genai Control de Adobe, otro generador de música con IA, son personas que desean hacer música de fondo de forma rápida y económica, como podcasters y youtubers, con la capacidad de especificar el estado de ánimo, el tono y la longitud de una pista.
    Te guste o incluso lo note, este tipo de música ha sido creado históricamente por humanos. Pero la generación de música de IA automatizada podría costarle a estos músicos sus trabajos, y muchos de ellos usan esos ingresos para apoyar sus actividades más creativas, pero menos financieramente viables. Es posible que nunca vea a un músico de IA en el escenario, pero probablemente aún verá menos músicos humanos debido a la tecnología.

    Por su parte, los jugadores influyentes en la industria de la música ya creen que la IA se convertirá en un pilar de su negocio: están preocupados por quién obtendrá los beneficios. Spotify no restringirá la música generada por la IA a menos que sea una imitación directa, lo que corre el riesgo de litigios. Universal Music Group (UMG) y YouTube han lanzado la incubadora de AI de YouTube Music para desarrollar herramientas de IA con artistas UMG. Mientras tanto, UMG también es una de las más de 150 organizaciones, incluidas ASCAP, BMI, RIAA y AFL-CIO, en la Coalición de Campaña de Arte Humano, que busca establecer marcos éticos para el uso de IA en campos creativos. No quieren prohibir la tecnología, pero quieren una participación en los resultados.

    Con más de 100,000 pistas nuevas cargadas a los servicios de transmisión todos los días, las plataformas de transmisión digital tienen un fuerte incentivo para reducir la participación de las pistas de regalías hechas por humanos que juegan sus usuarios. Spotify solo pagó $ 9 mil millones en regalías el año pasado, la mayor parte de sus $ 14 mil millones en ingresos. La compañía de transmisión de música más grande del mundo ha aumentado históricamente la disponibilidad y la visibilidad de las pistas gratuitas, y puede continuar haciéndolo. Los generadores musicales propulsados ​​por la IA son una manera fácil de crear música gratuita que podría desplazar a los artistas reales y que ganan regalías de listas de reproducción populares, cambiando esa transmisión de ingresos de los artistas y hacia la plataforma misma.

    Hay un nuevo poder, y un nuevo peligro, para los artistas establecidos. Después de un derrame cerebral, la estrella de country Randy Travis tiene problemas para hablar, y mucho menos cantar, pero con la ayuda de AI entrenada en su catálogo existente, puede reproducir su voz digitalmente.

    Mientras tanto, un productor anónimo puede crear una colaboración Drake/The Weeknd de suena creíble y acumular millones de corrientes. En mayo, el productor Metro Boomin fue criticado durante la carne real de Drake con Kendrick Lamar. Metro Boomin lanzó un ritmo con muestras generadas por IA para que cualquiera lo use, que Drake luego probó y rapeó, liberando la nueva pista a los servicios de transmisión. El rey Willonio, quien usó Udio para crear la pista original que Metro Boomin remezcló, contrató a un abogado para retener los derechos de sus contribuciones.
    Estos últimos ejemplos muestran cómo la música hecha rápidamente puede desplazar la música bien. En la economía de la transmisión, el volumen y la velocidad lo son todo: los artistas están incentivados para producir cantidad, no calidad.

    "[Un futuro éxito generado por la IA] no será algo que la gente regrese y estudie la forma en que continúan haciendo con los grandes lanzamientos de la época discográfica", dijo el músico Jamie Brooks. Brooks ha lanzado discos bajo su propio nombre y con las bandas de gimnasia y géneros predeterminados, y bloguea sobre la industria de la música en su boletín el asiento de la pérdida. "Pero aún genera un compromiso, por lo que un mundo en el que lo que esté en la parte superior de las listas de Spotify no pretende durar, eso está destinado a ser entretenido ese día y nunca volver a pensar, sería algo bueno para todas estas compañías . No necesitan que sea arte para ganar dinero.

    "Gran parte de la tecnología actual existe principalmente para imitar o simplificar, lo que puede fomentar el amateurismo. El intercambio de archivos ha hecho que la colección de registros compulsivos sea accesible para cualquier persona con un disco duro y un módem, las cámaras de teléfonos celulares han permitido que todos en la multitud documenten el programa, y ​​ahora la transmisión de audio nos ofrece todas las listas de reproducción dinámicas adaptadas a nuestros estados de ánimo y cohortes publicitarias. La IA generativa también podría facilitar la creación de música para los no expertos. Esto podría cambiar radicalmente no solo cuánta música escuchamos, sino nuestra relación con la forma en su conjunto. Si la creación de una canción exitosa no requiere más esfuerzo que escribir un tweet viral, gran parte de la energía creativa actualmente contenida en las redes sociales podría redirigirse a generar música basada en indicaciones.

    Brooks lo ve como un fenómeno regresivo, enfatizando la profundidad inmediata sobre atemporal, encabezando las listas con memes de audio y singles innovadores dirigidos a los oyentes más sofisticados, al igual que las ondas alguna vez estuvieron dominadas por canciones vacías como "Take Me to the Ball Game Game "Escrito por dos personas que nunca habían estado en un juego de béisbol.

    "Esa es la dirección que estos servicios van a impulsar la música", dijo Brooks. “No se trata de creatividad en absoluto. Entre la forma en que funcionan estos modelos y los alimentos algorítmicos, todo es solo un gran repositorio del pasado. No va a avanzar en el sonido. Acelerará los registros del centro de la cultura pop estadounidense al bote de basura ".

    Copyright y música de IA

    Uno de los problemas más debatidos que rodean la IA en las preocupaciones de la industria de la música que gana dinero con el trabajo generado por IA, especialmente si el algoritmo está capacitado utilizando material con derechos de autor existente. En marzo de 2023, la Oficina de Derechos de Autor de EE. UU. Lanzó una iniciativa para investigar los problemas de derechos de autor relacionados con la IA. Camp confía en que los reguladores intervenirán y crearán un parche, pero le preocupa que el problema sea difícil de resolver debido al sistema de derechos de autor de los Estados Unidos en el que operan los artistas.

    "Varias de las leyes y precedentes que finalmente llevaron a nuestro moderno sistema de derechos de autor simplemente no encajan con lo que está sucediendo en la música en este momento", dice Camp. “Creo que los creadores deberían tener autoría, deben acreditarse y ser compensados. Pero nuevamente, todo el sistema a través del cual lo hacemos está muy desactualizado ”.

    La música de IA todavía se encuentra en un área gris legal, planteando la cuestión de si un compromiso es posible cuando los artistas son acreditados, compensados ​​y consentimiento para el uso de su trabajo o semejanza por IA sin limitar el potencial de creatividad musical utilizando tecnología de IA. Hasta cierto punto, el arte es derivado de otro arte, y lo que es inspiración y lo que es robo está actualmente borrosa. Algunas sellos discográficos están comenzando a defenderse.

    En mayo de 2023, Universal Music Group pidió a los servicios de transmisión para bloquear el uso de música generada por IA, diciendo que usa la música de sus artistas para capacitar su algoritmo y que tomarán acciones legales si es necesario. Spotify respondió eliminando el 7 por ciento de la música generada por IA en su plataforma, equiparando a decenas de miles de canciones. En julio de 2023, UMG pidió al Congreso que promulgue una política nacional para proteger a los creadores de la infracción de derechos de autor con IA. El sello discográfico es uno de los 40 miembros en unirse a la Campaña de Arte Humano, una organización que aboga por el uso responsable de la IA.

    En los Estados Unidos, el marco legal actual tiende a aplicar las leyes tradicionales de derechos de autor a la IA, a pesar de sus diferencias con el proceso creativo humano. Sin embargo, las obras musicales creadas únicamente por AI no están protegidas por los derechos de autor. En el Compendio de práctica de la oficina de derechos de autor, la oficina de derechos de autor declaró que no otorgará derechos de autor a "trabajos que carecen de autoría humana" y "la oficina no registrará trabajos creados por una máquina o por un mero proceso mecánico que funciona aleatoria o automáticamente sin Cualquier aportación o intervención creativa de un autor humano ". En febrero de 2022, la Junta de Revisión de Copyright rechazó una solicitud de derechos de autor para una obra de arte generada por IA debido a que "carecía de la autoría humana necesaria para mantener un reclamo de derechos de autor".

    La situación en la Unión Europea (UE) es similar a la de los Estados Unidos, ya que su marco legal también enfatiza el papel de la participación humana en las obras con derechos de autor. Según la Oficina de Propiedad Intelectual de la Unión Europea y la reciente jurisprudencia del Tribunal de Justicia de la Unión Europea, el criterio de originalidad requiere que un trabajo sea la propia creación intelectual del autor, que refleja la identidad del autor, evidencia por las elecciones creativas durante su creación , requiriendo un nivel específico de participación humana. El Proyecto Recreating Europe, financiado por el Programa de Investigación e Innovación del Horizon 2020 de la Unión Europea, profundiza en los desafíos planteados por el contenido generado por IA, incluida la música, que ofrece certeza legal y protección equilibrada que fomenta la innovación al tiempo que respeta las reglas de derechos de autor. El reconocimiento de AIVA marca una desviación significativa de las opiniones tradicionales sobre la autoría y los derechos de autor en el campo de la composición musical, lo que permite a los artistas de IA lanzar música y recibir regalías. Este reconocimiento hace que Aiva sea pionera en el reconocimiento formal de la IA en la producción musical.

    Los recientes avances en inteligencia artificial por grupos como Stability Ai, OpenAI y Google han llevado a una gran cantidad de demandas por infracción de derechos de autor que se presentan contra tecnologías generativas, incluida la música de IA. Si estas demandas tienen éxito, los conjuntos de datos de los modelos de aprendizaje automático que alimentan estas tecnologías se limitarán al dominio público.

    Drake y The Weeknd

    Si bien no hay mucho precedente legal para la clonación de voz, para las celebridades puede caer bajo su derecho de publicidad como una violación de su imagen, nombre y voz. Un ejemplo clave del año pasado fue cuando un tiktoker con el nombre de Ghostwriter usó AI para crear un dueto falso entre Drake y The Weeknd llamado "Heart on My Manga". Desde entonces, la canción ha sido eliminada, pero las versiones todavía están flotando en Internet.

    "Por un lado, se podría argumentar que es un trabajo original", dice Wears. “Por otro lado, podría verse como una forma de infracción, ya que la IA aprendió a escribir letras en el estilo de Drake analizando su catálogo, sin su permiso expreso. Otra preocupación es el uso no autorizado de los nombres y semejanzas de los artistas ".

    La capacidad de copiar el nombre y la imagen de alguien usando AI está preocupando a la industria de la música, así como a la industria del entretenimiento en general. Una de las principales demandas de la huelga actual SAG-AFTRA es proteger a los creadores de que su trabajo use para capacitar a los generadores de IA, y los actores de tener sus semejanzas y voces copiadas sin consentimiento.

    Problemas éticos con IA

    Los derechos de autor son solo uno de los muchos problemas éticos que rodean la IA, y es importante recordar que esta tecnología y su desarrollo no están exentos de consecuencias.

    Una preocupación inmediata es el sesgo en la capacitación de un conjunto de datos. Un ejemplo es el rapero FN Meka, quien firmó con Capitol Music Group en 2022, pero luego retiró el contrato debido a los estereotipos raciales perpetuos.

    "Uno de los grandes problemas es la basura y la basura", dice Camp. “Si estamos entrenando estos modelos de idiomas, o estos generadores de imágenes, o estos generadores musicales en datos inherentemente sesgados, inherentemente racistas, entonces todo lo que estamos pidiendo perpetuará esos estereotipos. Necesitamos asegurarnos de tener buenos datos y que los estamos monitoreando ”.

    Monitorear esos datos tampoco es sin sus daños. Otra preocupación ética es el proceso de capacitación, llamado "aprendizaje de refuerzo", que implica proporcionar comentarios humanos sobre una variedad de contenido inquietante. Un episodio reciente del podcast de Wall Street Journal The Journal presenta a un trabajador de datos de Kenia que, entre muchos otros, ayudó a capacitar a ChatGPT para distinguir "lo correcto de lo incorrecto" a costa de una salud mental muy alta.

    "Básicamente, está dando un pulgar hacia arriba o un pulgar en las respuestas", dice Camp. “¿Es esta una respuesta inapropiada? ¿Es demasiado violento, gráfico o inquietante? Operai contrató ese trabajo para personas en Kenia, pagándoles $ 2 por hora para leer esas respuestas. Así que imagine que le pagan $ 2 por hora para presentarse al trabajo y leer algunos de los texto más horribles y psicológicamente inquietantes, y lo haces durante 10 horas, y luego te vas a casa y todo está girando en tu cabeza. Por lo tanto, hay muchos defectos en la forma en que se hace salchicha en este momento ”.

    Music Deepfakes

    Un desarrollo más naciente de IA en la música es el uso de Audio Deepfakes para fingir la letra o el estilo musical de una canción existente para parecerse a la voz o al estilo de otro artista. Esto ha planteado muchas preocupaciones sobre la legalidad de la tecnología, así como la ética de su uso, especialmente en el contexto de la identidad artística. Además, también ha planteado la cuestión de quién se le atribuye a estos trabajos. Dado que la IA no puede tener su propia autoría, la especulación actual sugiere que no habrá una respuesta clara hasta que se tomen más decisiones sobre las tecnologías de aprendizaje automático en general. Las medidas preventivas más recientes han comenzado a ser desarrolladas por Google y Universal Music Group, que han tenido en cuenta las regalías y la atribución de crédito para permitir a los productores copiar voces y estilos de los artistas.

    "Corazón en mi manga"

    En 2023, un artista conocido como GhostWriter977 creó un Deepfake musical llamado "Heart on My Sleve" que clonó las voces de Drake y el Weeknd al alimentar un conjunto de pistas vocales de los artistas respectivos en un algoritmo de aprendizaje profundo, creando un modelo artificial de Las voces de cada artista que podrían coincidir con las voces de referencia originales con las letras originales. La canción fue presentada para la consideración del Grammy por la mejor canción de rap y canción del año. Se volvió viral y ganó popularidad en Tiktok y recibió una respuesta positiva del público, lo que llevó a su lanzamiento oficial sobre Apple Music, Spotify y YouTube en abril de 2023. Muchos creían que la pista estaba completamente escrita por AI Software, pero el productor afirmó eso La composición de canciones, la producción y las voces originales (antes de la conversión) todavía fueron realizadas por él. La canción fue eliminada más tarde de la lista de nominación del Grammy porque no cumplió con los requisitos para la consideración del Grammy. La pista fue eliminada de todas las plataformas de música por Universal Music Group. La canción fue un punto de inflexión para la clonación de voz utilizando inteligencia artificial, y desde entonces, se han creado modelos para cientos, si no miles, de cantantes y raperos populares.

    "De donde vino eso"

    En 2013, el cantante de country Randy Travis sufrió un derrame cerebral que lo dejó incapaz de cantar. Mientras tanto, el vocalista James Dupré recorrió su nombre, interpretando sus canciones. Travis y el productor desde hace mucho tiempo Kyle Lehning lanzaron una nueva canción en mayo de 2024 llamada "Where That Come From", la primera nueva canción de Travis desde su golpe. La grabación utiliza tecnología de inteligencia artificial para recrear la voz vocal de Travis, compilada de más de 40 grabaciones vocales existentes junto con las grabaciones de Dupré.

    Herramientas musicales de IA

    Ahora que hemos cubierto lo que es la IA, así como algunas de sus principales inconvenientes, podemos discutir las herramientas musicales de IA que existen. En Berklee Onsite 2023, una conferencia de música anual celebrada en el campus de Berklee College of Music en Boston, Wares compartió algunas herramientas musicales de IA para conocer; Algunos pueden comenzar a aprender en este momento, y otros quizás quieran aprender.

    Songstarter de Bandlab

    La aplicación SongStarter de Bandlab es un generador de canciones con AI que te permite elegir un género, entrar en letras de canciones (y emoji), y generará ideas gratuitas. Luego puede llevar esas ideas a su función de estudio para hacerlas suyas. Es una excelente manera de comenzar una canción si necesitas una inspiración inicial.

    Intermediario

    Como uno de los generadores de imágenes con AI más populares, MidJourney se puede utilizar para crear la arte del álbum, las portadas de las canciones, los carteles, los bucles de Spotify, las imágenes de merchandising y más. Lo que lo distingue de otros generadores de imágenes con IA es su estilo surrealista y de ensueño, que puede ser más adecuado para proyectos musicales. El programa es fácil de usar, pero hay una curva de aprendizaje definitiva. Al igual que muchos nuevos programas tecnológicos, asegúrese de ver algunos tutoriales antes de sumergirse.

    Mezclar monolito

    El complemento Mix Monolith es un sistema de mezcla automático de Ayaic que igualará su mezcla. En el artículo de mezcla en línea, el desarrollador dice: "Su propósito no es crear automáticamente una mezcla terminada, sino establecer relaciones fundamentales de ganancia entre pistas y garantizar los ajustes de ganancia adecuados".

    Landr Ai Mastering

    La herramienta de masterización de IA de Landr le permite arrastrar y soltar su pista en el programa, lo que luego la analiza y ofrece opciones simples para estilo y volumen. Una vez que seleccione estas dos opciones, el programa dominará su pista, brindándole más opciones para el tipo de archivo y el método de distribución. Landr cuenta con más de 20 millones de pistas que se han mezclado con su programa.

    Aiva

    AIVA es un programa de inteligencia artificial que ha sido entrenado en más de 30,000 puntajes icónicos de la historia. Puede elegir entre varios estilos de música preestablecidos diferentes, desde el cine moderno hasta el cine del siglo XX, desde el tango hasta el jazz. Luego tiene la opción de ingresar la firma clave, la firma de tiempo, el tempo, la instrumentación, la duración y más. Si no sabe qué ingresar, Aiva lo hará por usted. Finalmente, puede generar una pista, personalizar la instrumentación y cargar una variedad de tipos de archivos. Como suscriptor, tiene una licencia completa de derechos de autor para todo lo que crea.

    Chatgpt para músicos

    Una de las herramientas de IA más utilizadas, el chatgpt de OpenAI tiene una variedad de usos para los músicos. Actualmente, la compañía está bajo investigación por la Comisión Federal de Comercio, por lo que debe tomar precauciones sobre la información que comparte con CHATGPT, así como verificar cualquier hecho que reciba de ChatGPT.

    Con eso en mente, el programa tiene el potencial de reducir el tiempo que pasa en tareas que lo alejan de hacer música. Las mercancías y el campamento han estado experimentando con ChatGPT desde su lanzamiento y tienen algunos consejos específicos que los músicos y los profesionales de la música pueden encontrar útiles.

    Estrategia de redes sociales

    Las redes sociales pueden ser un gran fregadero para un músico aficionado, y ChatGPT puede ayudar a aliviar la carga. Wares dice que puedes comenzar diciéndole a Chatgpt qué tipo de artista eres, qué género de música tocas y cuáles son tus pasatiempos e intereses. Luego puede solicitar 30 piezas de contenido durante los próximos 30 días en Tiktok, Instagram, Facebook o cualquier plataforma de redes sociales que use. No solo puede solicitar ideas de contenido de redes sociales, sino que también puede pedirle a ChatGPT que cree subtítulos y hashtags optimizados.

    Jinetes técnicos para giras

    Al ir de gira, los músicos generalmente contratarán a alguien para que cree un piloto técnico que describe todos los detalles necesarios para lograr su programa. Esto podría incluir equipos, configuración de escenario, ingeniería de sonido, iluminación, hospitalidad, contratos de conciertos, itinerarios de tour, opciones de lugares, precios de entradas y más. Wares dice que ChatGPT podría ser el que escriba ese piloto de tecnología, y recientemente trabajó con la banda para planificar su gira utilizando la tecnología.

    "Comenzamos creando su jinete tecnológico, que incluía requisitos de línea de fondo, una lista detallada de entradas e incluso recomendaciones de micrófono específicas, todas basadas en algunos consejos simples", dice Wares. “Luego pedimos recomendaciones sobre el itinerario del tour en el noreste, cuánto debemos cobrar por boletos e ideas de merchado basadas en los intereses y la demografía únicas de la base de fanáticos de la banda. Lo que habría tomado días se hizo en menos de una hora ".

    Escribiendo letras de canciones

    Si necesita ayuda para escribir letras de canciones, necesitas inspiración o quieres usar algunas sugerencias de palabras, ChatGPT puede ser una herramienta útil de composición de canciones. Camp da el ejemplo de trabajar con la ex estudiante de Berklee Julia Perry (quien los entrevistó para un artículo de Berklee Now sobre IA y música) para generar ideas de canciones usando ChatGPT.

    "Estábamos hablando de cómo el universo es mágico y cómo quería expresar esta verdad profunda e incognoscible sobre el universo", dice Camp. "Y básicamente condensé todo lo que dijo en dos o tres párrafos y dije [chatgpt], dame 20 líneas de apertura para esta canción".

    Terminaron usando una de las 20 opciones como punto de partida para una nueva canción.

    Redacción de contenido

    ChatGPT puede ayudar con una variedad de tareas de escritura y redacción de contenido, ya sea escribiendo un comunicado de prensa, una biografía con múltiples longitudes de personajes, una estrategia de lanzamiento de álbumes, una publicación de blog, copia del sitio web, correo electrónico y más.

    Acuerdos y contratos

    En un mundo ideal, haría que un abogado escriba y revise todos sus acuerdos y contratos, pero eso no siempre es realista o asequible. En algunos casos, es posible que desee que ChatGPT redacte un acuerdo en lugar de no tener nada en absoluto. Esto se puede utilizar para acuerdos de gestión, acuerdos de banda, hojas divididas, acuerdos de rendimiento y más. Pero nuevamente, un abogado de entretenimiento siempre es preferible cuando sea posible.

    ¿Dónde está la gente?

    El estado actual de la música generativa de IA es más mezcla y combinación que la verdadera generación. Realmente no es una banda tributo, sino más bien un enfoque expansivo para el avivamiento. Solo puede producir sonidos de lo que hay en los datos de entrenamiento, y aunque puede combinar, mezclar y refractar esos elementos de nuevas maneras, realmente no puede experimentar más allá de eso.

    Los músicos le dirán que solo hay un número limitado de notas que se pueden reproducir, o que todos los sonidos son solo una cuestión de frecuencia y longitud de onda, y por lo tanto solo hay una cantidad limitada de lo que se puede hacer en términos puramente musicales. Pero hay más en la música que solo organizar algunos acordes o ritmos, al igual que la creación más de recetas que solo elegir entre una lista finita de ingredientes y técnicas.

    Ribo es un guitarrista conocido por su experimentación y capacidad para extraer influencias dispares y mezclarlas en algo nuevo. A primera vista, esto se parece mucho a la propuesta de valor presentada por los defensores de la IA generativa, pero dice que hay diferencias fundamentales entre un humano y una máquina que hace lo mismo.

    "No puedo pasar por un solo de blues de 12 barras sin citar a alguien", dijo Ribot. “Tenemos que dar el privilegio de los derechos humanos para hacer eso. Soy bastante bueno para saber cuándo estoy cruzando la línea. Sé que puedo citar esta parte de una canción de Charlie Parker sin que sea una canción de Charlie Parker, y sé que puedo arruinarlo tan mal y será genial ".
    El álbum de Ribot en 1990 Rootless Cosmopolitans incluye una versión de "The Wind Cries Mary" de Jimi Hendrix. En un homenaje a Hendrix, la versión de Ribot es abstracta, la letra ladró sobre una guitarra rastreada, con poco parecido con la canción original que no sea el tono de la guitarra, omitiendo la melodía, los acordes y el ritmo de Hendrix. Aún así, Ribot lo enumeró como una portada en el álbum y paga una regalía mecánica en cada venta o transmisión.
    "Este sistema necesita ser preservado y vale la pena luchar", dijo Ribot. “No nos pagan un salario mínimo cuando estamos sentados en un disco. No tenemos garantías incluso cuando estamos actuando. [Copyright] es literalmente el único derecho económico que tenemos ".

    La práctica discursiva de Ribot es parte de una larga tradición: la música como medio se define por una conciencia y respeto por lo que vino antes, lo que aún puede crecer y cambiar, y no solo ser reciclado. “Lo que impulsa el cambio en la música son los cambios en los estados de ánimo de las personas, sus necesidades y posibilidades, y lo que aman y lo que los molesta. Las personas pueden aprender a tomar sentimientos, eventos y la plenitud de sus vidas y representarlos en su guitarra o piano. Expande el campo a medida que la experiencia se expande, la historia se alarga y emergen bandas que necesitan expresión e ideas ".

    Históricamente, ha habido un contrato sagrado entre músicos y audiencias que implica autenticidad y humanidad. De los millones de fanáticos de Taylor Swift que asistieron a la gira Eras, muchos podrían darle un relato detallado de su vida personal. Lo mismo ocurre con el público de Beyoncé, Harry Styles, Elton John, o cualquiera de los artistas de gira más grandes. Necesitas una persona real para vender estadios. Nadie vería al cantante enmascarado si no pensara que reconocerían a los artistas cuando fueron desenmascarados.

    Cuando escuchamos música intencionalmente, a menudo escuchamos hermenéuticamente, como si la canción fuera una puerta a un espacio más grande para comprender las experiencias y perspectivas de otras personas. Considere el nirvana. Debido a que la desviación estética del grunge se encontró con la tecnología de estudio moderna en el momento justo, Nevermind encontró una gran audiencia no solo por la forma en que suena, sino porque el arco personal de Kurt Cobain, el ascenso meteórico y la trágica muerte temprana de un niño suburbano ansioso que se convirtió en Superstar de rock por convenciones de estrellas pop abiertamente desafiantes (algunas), resonadas con personas.

    Mientras que la banda reconoció a los músicos que los inspiraron, los Pixies, The Gap Band y otros, los discos de Nirvana son, en última instancia, el producto único de las elecciones hechas por Cobain, sus compañeros de banda y sus colaboradores, una expresión y reflexión de sus experiencias e ideales . El arte, por definición, es el producto de la toma de decisiones humanas.

    Algunas música generada por IA, como otras formas de proceso musical, aún conservan ese elemento humano: Debido a que artistas como Ivan Paz y Shelley Knotts dependen en gran medida de los modelos automatizados, crean el sistema, toman innumerables decisiones sobre cómo funciona y deciden qué hacer con cualquier sonido que produce.
    Pero la música de IA que amenaza a los músicos humanos, que toma poco más de unas pocas palabras y produce canciones enteras de ellos, es inherentemente limitada porque solo puede mirar hacia adentro y hacia atrás en el tiempo desde sus datos, nunca hacia afuera y, por lo tanto, nunca avanzar. La guitarra fue inventada hace siglos, pero es poco probable que una modelo de IA entrenada en música antes del apogeo de la hermana Rosetta Tharpe en la década de 1940 produzca algo parecido a una guitarra eléctrica. Hip-hop es un estilo de música basado en el muestreo y el reempaquetado del trabajo de otros artistas (a veces en formas o contextos que el artista original no le gusta), pero un modelo entrenado en la música antes de 1973 no podrá crear algo como eso.

    Hay innumerables razones por las cuales las personas escuchan música, pero hay tantas razones por las cuales la gente lo hace. Las personas se han estado haciendo sonidos el uno para el otro durante miles de años, y durante la mayor parte de ese tiempo habría sido una tontería imaginarse ganando la vida; hubiera sido imposible incluso pensar en amplificarlo, y mucho menos grabarlo. La gente hizo música de todos modos.

    Aquí hay una tensión que es anterior a AI. Por un lado, los sellos discográficos y las plataformas de transmisión digital creen, en gran medida correctamente, que el mercado musical quiere reconocimiento por encima de todo, por lo que gran parte del dinero proviene de las ventas de catálogos de artistas establecidos, y un informe sugiere que esas ventas representaron 700 Porcentaje del mercado de la música de EE. UU. En 2021. Los toppers de gráficos suenan cada vez más similares. Los algoritmos de la plataforma de transmisión a menudo alimentan las mismas canciones una y otra vez.

    Por otro lado, existe una necesidad humana intrínseca de sorpresa, innovación, transgresión. Es diferente para cada persona. Los objetivos de una gran corporación, su escala y supervisión, básicamente, son diferentes de los de sus usuarios en su conjunto y para el individuo, y cuanto más grande sea su base de usuarios, más se volverá a automatizar. Ni los generadores de música de IA ni las listas de reproducción generadas dinámicamente ni ningún otro sistema predictivo algorítmicamente son inherentemente buenos o malos: los resultados dependen completamente de quién las ejecuta y para qué propósito.

    Pero pase lo que pase, ninguna compañía tendrá el monopolio de la música. Ninguna especie lo hace. Los pájaros lo hacen. Las abejas lo hagan. Las ballenas en el mar lo hagan. Algo de eso, para el oído humano, es bastante hermoso. Pero incluso con toda esa melodía natural, toda la música que los humanos ya han creado, y toda la música que la IA ayudará a crear o crear, la necesidad humana de crear y expresarnos persiste. La música existe en nuestro mundo por razones distintas al comercialismo.

    La mayoría de las veces, la razón es bastante simple: una persona o grupo de personas decidió que debería existir, y luego lo hizo así. Continuará existiendo, sin importar cuánto lodos sonoros bombeen las máquinas.

    Abrazar o resistir?

    Uno de los temas recurrentes cuando se trata de IA y otras tecnologías emergentes es que serán una gran parte de la industria de la música (y la mayoría de las industrias) en el futuro, y que ignorarlas no ayudará a los futuros líderes de la industria.

    "Creo que la IA puede ayudar a mis alumnos a ser más productivos y apoyar su proceso creativo, y permitirles concentrarse en lo que más les importa, lo que es crear e interpretar música o explorar nuevas ideas de negocios", dice Wears. "Sin embargo, como educador responsable, tengo que asegurarme de que mis alumnos no dependan demasiado de estas herramientas, y estoy constantemente buscando formas de usar IA para ayudar a desarrollar sus habilidades de pensamiento crítico".

    El campamento está de acuerdo y también alienta a las personas a hacer lo que se sienten cómodos a medida que AI continúa evolucionando.

    "Ciertamente te animo, si quieres mantenerte actualizado y usar la tecnología para avanzar en lo que estás en el planeta, entonces sí, únete", dice Camp. “Pero como dije, tengo amigos que usan teléfonos fijos. Tengo amigos que prefieren comprar discos de vinilo. Ai está aquí. Tiene un gran impacto. No tienes que usarlo, pero mucha gente elige hacerlo ".

    Ai en Berklee Online

    Recientemente, Berklee Online lanzó una iniciativa llamada ARIA: realidades mejoradas y aplicaciones inmersivas. El proyecto está dirigido por Gabriel Raifer Cohen, director asociado de apoyo y tecnología de audio en Berklee Online y alumno de Berklee College of Music.

    "Al igual que las calculadoras, las computadoras, Internet y los motores de búsqueda antes, Genai está aquí para quedarse", dice Raifer Cohen. “Ignorar la realidad de que todas estas herramientas están fácilmente disponibles es un mal servicio para los estudiantes. . . . Enseñar a los estudiantes cómo mejor, y responsablemente, utilizar estas tecnologías como herramientas de empoderamiento puede ser un esfuerzo más valioso que tratar de luchar contra ellas ".

    Y el hecho de que la IA desempeñe un papel importante en el futuro de la industria de la música no significa que no podamos criticar esta nueva tecnología o abogar por las medidas de seguridad. "Al mismo tiempo, debemos resistir la propagación de la mediocridad y la insensibilidad creativa alimentada por el uso sin sentido de Genai, mientras que permanecemos éticamente conscientes y proactivos", dice. "No hay nada fácil en esto, pero debemos considerar que los desarrollos en IA también abren oportunidades para experiencias educativas potencialmente transformadoras". Raifer Cohen dice que, como parte de la iniciativa ARIA, Berklee Online continuará explorando estas nuevas herramientas, y solo después de haber sido probadas y estudiadas a fondo, la escuela considerará implementarlas en el aula. "En última instancia, no debemos olvidar que para los estudiantes y maestros, espectadores y creadores, todas estas herramientas poderosas son solo eso: herramientas", dice Raifer Cohen.

    Registro gratis

    Regístrese gratis y obtenga un proyecto gratis