En la distopía de la novela 1984 de George Orwell, el Gran Hermano adormece a las masas con la ayuda de un «versificador», una máquina diseñada para generar automáticamente las letras de melodías populares, eliminando así la creatividad humana de la sociedad. Hoy en día, algo similar parece estar ocurriendo, con algoritmos, tecnología y mucho dinero reemplazando el verdadero talento creativo musical.
Crédito: MysteryPlanet.com.ar.
Desde principios de este siglo, aproximadamente, la música interpretada puramente por humanos y bandas icónicas ha venido perdiendo terreno. Muchos apuntan a esto como una decadencia cultural que se refleja en otros aspectos de nuestra civilización. Ya no importa qué tanta virtud o pericia tenga un músico, sino los «Me gusta» y visualizaciones que pueda conseguir rápidamente en diversas plataformas digitales —una práctica a menudo inflada artificialmente con mucho dinero invertido por parte de codiciosos sellos discográficos—.
Ahora, con el auge de la inteligencia artificial (IA) a la vuelta de la esquina, existe la posibilidad de que los humanos sean eliminados completamente de la ecuación musical, engendrando un mundo inundado de melodías genéricas y emocionalmente vacías.
Música generativa
Pero no todos son tan agoreros. Por el contrario, hay quien señala que los numerosos modelos de IA para producir música —algunos de forma gratuita— podrían impulsar la creatividad hacia nuevos horizontes, con usuarios capaces de musicalizar sus proyectos de manera rápida y profesional sin depender de una librería de audios libres de regalías o ser silenciados por usar música «registrada».
La demostración más clara de que los tiempos han cambiado ocurrió en agosto de 2023. Fue entonces cuando la compañía de Mark Zuckerberg, Meta, lanzó el código fuente de AudioCraft, un conjunto de grandes modelos de música «generativa» construidos utilizando aprendizaje automático. Empresas de inteligencia artificial de todo el mundo se apresuraron a utilizar este software para entrenar nuevos generadores de música, muchos de ellos con código adicional incorporado.
Uno de los modelos de AudioCraft, MusicGen, analizó patrones en unas 400.000 grabaciones con una duración colectiva de casi 28 meses para obtener 3.300 millones de «parámetros» o variables, que permiten que el algoritmo genere patrones de sonidos en respuesta a estímulos. El espacio que esto crea para composiciones de IA genuinamente nuevas es sin precedentes.
Estos modelos también están volviéndose más fáciles de usar. En septiembre, Stability AI, una empresa con sede en Londres donde trabajó recientemente el compositor Ed Newton-Rex, lanzó un modelo llamado Stable Audio, entrenado con alrededor de 800.000 pistas. Los usuarios lo guían ingresando texto y clips de audio. Esto facilita la carga, por ejemplo, de un solo de guitarra y su recomposición en piano de jazz, quizás con un toque de reproducción de vinilo.
I joined @StabilityAI to build this product, so it’s amazing and slightly unbelievable to see Stable Audio named one of @TIME’s Best Inventions of 2023.
Incredibly proud of the Stable Audio team, and hugely grateful for @EMostaque’s unwavering support.https://t.co/Prc0WN6kJm pic.twitter.com/AZiskQ0uhk
— Ed Newton-Rex (@ednewtonrex) October 24, 2023
Los estímulos de audio son importantes por dos razones, según Oliver Bown de la Universidad de Nueva Gales del Sur, en Australia. Primero, incluso los músicos experimentados tienen dificultades para expresar la música con palabras. Segundo, debido a que la mayoría de los datos de entrenamiento musical solo tienen etiquetas superficiales, incluso un modelo grande puede no entender una solicitud, por ejemplo, de un puente de cuatro compases en progresión ragtime (el estilo familiar de The Entertainer de Scott Joplin).
Sin corazón
El potencial, claramente, es enorme. Pero muchos en la industria siguen siendo escépticos. Un sentimiento generalizado es que la IA nunca producirá canciones verdaderas. Eso se debe a que, como un amigo músico le dijo recientemente a Yossef Adi, un ingeniero del laboratorio de IA de Meta en Tel Aviv, a una máquina «nadie le rompió el corazón».
Este «descorazonamiento», cabe agregar, no solo se aplica al ámbito de la música. Las series y películas pronto podrían también prescindir de actores reales o cineastas virtuosos para hacer sus escenas más arriesgadas y memorables —ambientadas con música de fondo que solo costó un par de clics producir—.
Y así, mientras la IA avanza inexorablemente hacia la simulación de la creatividad humana, ¿qué perdemos en el camino? ¿Acaso no es la vulnerabilidad, la pasión y la imperfección humana lo que da vida a la música, al cine, a todas nuestras expresiones artísticas? Nos enfrentamos a un futuro en el que la emoción se convierte en una mera simulación, donde las obras maestras son creadas por algoritmos fríos y calculadores. Quizás, en ese mundo, la música será perfecta, pero ¿a qué costo? La belleza del arte radica en su humanidad, y si la entregamos al altar de la eficiencia y la perfección técnica, ¿qué nos quedará de nosotros mismos?
Referencias:
A new generation of music-making algorithms is here – The Economist.
Por MysteryPlanet.com.ar.
¿Podría la inteligencia artificial terminar con la música hecha por humanos?