spot_imgspot_img

La delgada línea entre música y máquina

Gabriel Levy

Spotify quiere que se sepa cuándo una canción nació de un algoritmo.

La compañía sueca anunció esta semana un conjunto de medidas destinadas a identificar y etiquetar la música creada con inteligencia artificial (IA), en un intento por poner orden en un terreno que avanza más rápido que su propia legislación.

No es solo una decisión técnica, sino política, estética y comercial.

La música ya no es solo humana. Pero ¿quién debe decirlo, y cómo?

En la historia de la música, los soportes siempre modelaron el arte: desde la partitura hasta el vinilo, del casete al algoritmo.

Sin embargo, pocas veces como hoy esa mediación se volvió tan radical.

La llegada de la inteligencia artificial generativa, capaz de crear voces, melodías y letras de forma autónoma o semidirigida, trastocó las reglas del juego.

Hasta hace apenas un par de años, el uso de IA en la música era un experimento de laboratorio.

Compositores como David Cope, que en los años 90 desarrolló EMI (Experiments in Musical Intelligence), ya planteaban la inquietante posibilidad de que una máquina pudiera imitar el estilo de Bach o Mozart con precisión quirúrgica.

Pero era un ejercicio de nicho, casi filosófico.

La disrupción llegó cuando plataformas de streaming como Spotify comenzaron a albergar miles de pistas creadas por IA sin un etiquetado claro. Y, más importante aún, sin que el oyente pudiera distinguir fácilmente si lo que escuchaba venía de una mente humana o de una red neuronal.

En ese contexto se inscribe el anuncio de Spotify.

La implementación del estándar DDEX (Digital Data Exchange), una iniciativa colaborativa de la industria para estandarizar los metadatos de las obras musicales permitirá a los sellos y distribuidores informar si hubo uso de IA en el proceso creativo.

Una medida que, aunque técnica, tiene profundas implicancias simbólicas: ya no se trata solo de qué se escucha, sino de quién (o qué) lo compuso.

Una herramienta, no un artista

Para Spotify, el desafío no es menor.

En su búsqueda constante por ofrecer más contenido, retener suscriptores y reducir costos de licencias, la IA se volvió una aliada tentadora.

Según un informe de MIDiA Research publicado en 2024, aproximadamente el 12% de las nuevas canciones subidas a plataformas digitales ese año incluyó algún componente generado con IA.

Pero esta automatización también generó distorsiones: millones de pistas diseñadas para optimizar algoritmos de recomendación, canciones de 30 segundos para inflar números, y lo más polémico, imitaciones vocales de artistas reales sin su consentimiento.

Frente a este panorama, Spotify propuso un triple frente de regulación. Primero, prohibir la suplantación de identidad vocal mediante deepfakes, salvo autorización expresa del artista original.

Una medida clave, sobre todo tras casos como el de FakeDrake, donde una canción viral imitó la voz del rapero sin ningún tipo de autorización.

Segundo, combatir el “spam musical”: subidas masivas, duplicaciones, contenidos irrelevantes que saturan la plataforma.

En los últimos doce meses, la empresa eliminó más de 75 millones de pistas bajo esta categoría.

Y tercero, establecer un sistema transparente de etiquetado, comenzando por aquellos sellos y distribuidores que ya adoptaron DDEX como estándar de reporte.

Lo que está en juego no es solo la integridad de la plataforma, sino también la relación entre oyente y música.

Porque si todo suena “bien” pero nada dice nada, ¿dónde queda el arte?

El algoritmo también quiere cantar

Uno de los casos que marcó un antes y un después fue el de The Velvet Sundown. En junio pasado, esta banda completamente generada por IA alcanzó más de tres millones de reproducciones en Spotify.

Solo después se supo que ninguna de las voces, instrumentos o letras provenía de humanos. Ni siquiera los nombres eran reales.

El impacto fue inmediato.

El público se sintió, en parte, engañado. ¿Era música, performance, experimento o una campaña de marketing encubierta?

El fenómeno expuso el dilema central: ¿es válido que una canción generada por IA compita en igualdad de condiciones con una hecha por humanos? ¿Es suficiente con etiquetarla? ¿Y si el público prefiere el sonido hiperproducido de una red neuronal a la imperfección de una voz humana?

Según la académica Anahid Kassabian, autora de Ubiquitous Listening: Affect, Attention, and Distributed Subjectivity, la música ya no es solo una forma de expresión, sino una presencia ubicua moldeada por contextos tecnológicos.

En este nuevo ecosistema, la autoría se diluye, la experiencia se fragmenta y el oyente deviene usuario.

Para el filósofo Bernard Stiegler, la automatización de la cultura conlleva el riesgo de perder la individuación simbólica, es decir, aquello que permite a las personas reconocerse en una obra.

Si todo se vuelve generable, replicable, predecible, lo que se erosiona no es la calidad técnica, sino la capacidad de significación.

Spotify intenta, con estas nuevas reglas, evitar esa deriva.

Pero el riesgo sigue latente: la música generada por IA no solo imita estilos, también simula emociones. Y en una era donde las emociones son capital, ese simulacro puede convertirse en hegemonía.

¿Quién compuso esta canción?

Más allá del caso de The Velvet Sundown, otros episodios recientes refuerzan la urgencia de un marco regulatorio. En 2023, la canción Heart on My Sleeve, que usaba imitaciones de las voces de Drake y The Weeknd, se volvió viral en TikTok antes de ser eliminada por cuestiones de copyright.

Su autor, un usuario anónimo llamado Ghostwriter, argumentó que lo hizo como una “crítica al estado de la música comercial”.

Pero el impacto fue tal que incluso se discutió si debía ser nominada a los Grammy.

En paralelo, plataformas como Deezer comenzaron a etiquetar sistemáticamente las canciones generadas por IA. Y YouTube, con su herramienta Dream Track, permite a algunos creadores usar voces de artistas con licencia. Cada actor del ecosistema toma una postura, lo que revela la ausencia de una política global clara sobre el tema.

Incluso artistas reconocidos comienzan a reaccionar.

La cantante Grimes ofreció su voz como código abierto para que cualquiera la use con IA, siempre que reciba una parte de los ingresos.

Un modelo que mezcla ética, economía y experimentación, y que podría inspirar nuevas formas de creación colaborativa humano-máquina.

Pero el camino aún es incierto.

Como advierte el musicólogo Eduardo Viñuela, “el verdadero problema no es la existencia de la música generada por IA, sino la falta de un marco que permita entender su estatus estético, legal y emocional dentro del ecosistema musical”. Y eso requiere algo más que etiquetas.

En conclusión, la decisión de Spotify marca un punto de inflexión en la relación entre tecnología, arte y plataformas. La música creada por inteligencia artificial ya es una realidad, pero aún carece de un marco ético, legal y simbólico que la sitúe con claridad. Etiquetar no es suficiente, pero es un primer paso. Porque en un mundo donde hasta la emoción puede ser codificada, el desafío no es que las máquinas compongan, sino que no olvidemos por qué, para qué y para quién se compone.

spot_img
spot_imgspot_img

Lo + Nuevo

spot_imgspot_img