Suno permite crear versiones de canciones protegidas por derechos de autor saltándose sus propios filtros con herramientas gratuitas.
Veo publicaciones y comentarios todo el día en las redes sociales. Parece que el gran público general siente bastante rechazo por el contenido generado con IA. Tal vez sea algo pasajero y acabemos abrazando lo que ya muchos han denominado «AI slop».
Sin embargo, cada vez de forma más habitual nos dan gato por liebre. Las redes sociales se están convirtiendo en verdaderos vertederos de contenido basura. En lo musical, la cosa va por otro lado. Hemos visto proyectos totalmente generados con IA generar mucho éxito repentino. De echo, ya te hablamos de los artistas virtuales, que llevan más tiempo entre nosotros de lo que pensamos.
Pero lo realmente preocupante es cómo se está usando la música generada con un prompt para robar a las plataformas de streaming. Y una de las principales plataformas señaladas es Suno. Una web que permite crear música finalizada con un prompt de texto y con una referencia sonora. Además cuenta con un DAW propio, en el que puedes matizar y cambiar la producción sin salir de la propia plataforma.
Suno asegura que cuentan con filtros impiden usar material protegido. Pero una investigación publicada por The Verge demuestra que esos filtros se saltan con un par de clics y software gratuito. El resultado: versiones generadas por IA de canciones de Beyoncé, Black Sabbath o Aqua que suenan inquietantemente parecidas a los originales, y que cualquiera puede subir a Spotify para monetizar.
Con cuatro trucos y el filtro desaparece
Suno prohíbe en sus condiciones de uso el material con copyright. No puedes usar canciones de otros ni sus letras. La plataforma está supuestamente diseñada para detectarlo y bloquearlo. Según la investigación de Terrence O’Brien en The Verge, eso es, en la práctica, bastante fácil de ignorar.
Usando Suno Studio —disponible en el plan Premier, a 24 dólares al mes— y Audacity, un programa de edición de audio completamente gratuito, O’Brien hizo varias pruebas y logró colar canciones protegidas en la plataforma sin problemas.
El método es tan sencillo como reducir la velocidad de una canción a la mitad o duplicarla. Añadir un poco de ruido blanco al principio y al final prácticamente garantiza que el detector no reconozca el tema. Una vez dentro de Suno Studio, se restaura la velocidad original, se elimina el ruido, y la canción protegida se convierte en la base de una nueva creación de IA.
AYÚDANOS
A SEGUIR
PUBLICANDO
ZETA LIFE es un blog completamente independiente, sobre música electrónica, tecnología y tendencias.Invitándonos a un café nos ayudas a mejorar el contenido y costear el mantenimiento de la web, que cada vez es más caro. Aporta lo que desees en un solo pago, solo si tu situación económica te lo permite. También puedes suscribirte para hacer una aportación mensual o anual. Gracias ?✨.
Con las letras ocurre algo similar. Pegar directamente los textos de Genius activa el filtro. Cambiar la ortografía de unas pocas palabras —en el experimento, «rain» por «reign» en «Freedom» de Beyoncé— es suficiente para desactivarlo. Y a partir del primer estribillo, ni eso hace falta.
El modelo v4.5 de Suno reproduce el arreglo instrumental con cambios mínimos. El v5 toma algo más de libertades, pero los originales siguen siendo completamente reconocibles: el riff de «Paranoid» de Black Sabbath, el redoble marcial que abre «Freedom». La voz imita con una precisión perturbadora la de los artistas originales.
O’Brien lo describe como un «valle inquietante»: sabes que no es real, pero en una escucha casual podría pasar por una toma alternativa o una cara B. Y eso es exactamente el problema.
Los artistas independientes, los más expuestos
Hay algo que O’Brien descubrió durante sus pruebas y que cuenta en este artículo original publicado en The Verge. Una canción suya propia pasó el filtro de Suno sin ninguna modificación. Lo mismo ocurrió con temas de artistas como Matt Wilson, Charles Bissell o Claire Rousay, distribuidos por Bandcamp o DistroKid.
Tiene lógica. La plataforma conoce los grandes catálogos. Los artistas pequeños, los que publican de forma independiente, simplemente no están en su radar. El sistema parece tan simple como un clip.
Suno, además, solo escanea el material en el momento de la subida. No revisa el resultado antes de exportarlo. Por lo que, si nuestra creación es extremadamente similar a algo pre-existente, el sistema no va a avisarnos. El camino desde la creación hasta la monetización en streaming no tiene más obstáculos.
El caso de Murphy Campbell
Murphy Campbell es cantautora folk de Carolina del Norte. Trabaja con instrumentos tradicionales —banjo, dulcémele— e interpreta música popular americana, gran parte de ella de dominio público. No es exactamente el perfil que uno imagina como objetivo de fraude con IA.
En enero de 2026 descubrió varias canciones en su perfil de Spotify que ella nunca había subido. Los temas eran suyos, pero las voces sonaban ligeramente diferentes. Alguien había descargado sus actuaciones de YouTube, las había pasado por herramientas de clonación de voz, y las había subido a plataformas de streaming bajo su nombre.
Lo que vino después fue aún más kafkiano. El mismo día que Rolling Stone publicó un artículo sobre su caso, alguien subió vídeos a YouTube a través del distribuidor Vydia y reclamó la propiedad sobre varios de sus vídeos originales. YouTube le notificó que estaba «compartiendo ingresos con los propietarios de los derechos de la música detectada» en sus propios vídeos. Las canciones reclamadas eran, en su mayoría, temas de dominio público con más de cien años de antigüedad.
Spotify retiró las versiones falsas. Vydia rescindió las reclamaciones. Pero solo después de que Campbell organizara una campaña en redes sociales. Sin eso, no habría pasado nada.
Un sistema con demasiados puntos de fallo
Este no es solo un problema de Suno. Es un problema de toda la cadena: plataformas de distribución que no verifican la identidad de quien sube contenido, sistemas automatizados de Content ID que procesan reclamaciones sin supervisión real, y servicios de streaming que dependen de denuncias externas para actuar.
Artistas como William Basinski o King Gizzard and The Lizard Wizard también han visto imitaciones generadas por IA colarse en Spotify. A veces esas versiones aparecen directamente vinculadas a su perfil oficial, robando escuchas.
Spotify requiere un mínimo de 1.000 reproducciones para generar cualquier pago. Para un artista pequeño, cada escucha cuenta. Que un bot o una cuenta falsa desvíe tráfico hacia una versión de IA de su música puede ser debastador.
Ya te hemos contado en ZETA cómo Deezer ha optado por desmonetizar el 85% de los streams de música generada con IA, o cómo Apple Music ha puesto en marcha un sistema de etiquetado para el contenido generado con IA. Son pasos en la dirección correcta. Pero mientras las herramientas para crear «slop music» sean tan accesibles y los filtros tan fáciles de engañar, el problema seguirá escalando.
No es un fenómeno nuevo. Ya escribimos sobre cómo los streams falsos con bots afectan a los pagos de Apple Music. La IA simplemente ha añadido una capa más de automatización a algo que ya existía. Un problema que ya ocurre desde hace unos años, se ha multiplicado tan rápido que las plataformas no son capaces de ponerle freno.
Suno, las demandas y el pacto con las grandes
En junio de 2024, la RIAA presentó demandas contra Suno y su competidor Udio en nombre de Sony Music, Universal Music Group y Warner Music Group. La acusación: haber entrenado sus modelos con grabaciones protegidas sin permiso, llegando incluso a extraer audio de YouTube eludiendo sus sistemas de cifrado. Las sanciones solicitadas alcanzaban los 150.000 dólares por obra infringida.
Suno respondió argumentando «fair use». Año y medio después, Warner Music Group cerró un acuerdo con la plataforma. Suno adquirió Songkick —la plataforma de descubrimiento de conciertos de WMG— y se comprometió a lanzar modelos entrenados con material licenciado en 2026. A cambio, los usuarios de pago tendrán límites de descarga y los usuarios gratuitos no podrán exportar lo que creen.
Universal Music Group sigue litigando contra Suno. Sony tampoco ha llegado a ningún acuerdo. Pero el movimiento de Warner es significativo: deja claro que, para al menos una de las grandes, es preferible repartirse parte del pastel que plantar cara.
La decisión de Bandcamp ha sido mucho más contundente. Como ya contamos, la plataforma vetó directamente la música generada por IA y reforzó su posicionamiento como espacio para la creación humana. Son dos modelos de respuesta completamente distintos ante el mismo problema.
Deadmau5 lo vivió en carne propia desde otro ángulo: un DJ usó un clon de IA de su voz para promocionarse, algo que el productor canadiense calificó de aterrador. No hace falta ser Beyoncé para convertirte en objetivo.
Mientras, la industria musical cerró 2024 superando por primera vez los 30.000 millones de dólares en ingresos por música grabada. El sector nunca había facturado tanto. La pregunta es cuánto de ese dinero seguirá llegando a quienes realmente hacen la música.





