Industria musical pide a Spotify y Apple Music no permitir que la IA clone a estrellas del pop
Jay-Z en el escenario. Su agente logró que se eliminara de YouTube una canción falsa. Foto: Johnny Louis/Getty

La industria musical instó a las plataformas de streaming a no permitir que la inteligencia artificial utilice canciones protegidas por derechos de autor para entrenarse, en lo que constituye la última de una serie de discusiones sobre la propiedad intelectual que amenazan con entorpecer el explosivo crecimiento del sector de la inteligencia artificial generativa.

En una carta enviada a los servicios de streaming, entre ellos Spotify y Apple Music, la compañía discográfica Universal Music Group expresó su temor a que los laboratorios de inteligencia artificial puedan extraer millones de pistas para utilizarlas como datos de entrenamiento para sus modelos y para copiar versiones de estrellas del pop.

UMG ordenó a las plataformas que bloquearan dichas descargas, señalando que “no dudaría en tomar medidas para proteger nuestros derechos y los de nuestros artistas”.

La carta, de la que informó primero el periódico Financial Times, llega después de que la Recording Industry Association of America (RIAA), el organismo que agrupa a la industria discográfica, adoptara una medida similar el pasado mes de octubre.

En su carta dirigida al representante comercial de Estados Unidos, la RIAA señaló que la tecnología basada en la inteligencia artificial era capaz de “ser muy similar o casi tan buena como las pistas de referencia de artistas seleccionados y bien conocidos en el ámbito de las grabaciones sonoras”.

El grupo añadió: “En la medida en que estos servicios, o sus socios, están entrenando a sus modelos de inteligencia artificial utilizando la música de nuestros miembros, ese uso no está autorizado e infringe los derechos de nuestros miembros al crear copias no autorizadas de los trabajos de nuestros miembros”.

Aunque los “grandes modelos de lenguaje” (LLM), como ChatGPT y Bard de Google, han acaparado gran parte de la atención de la industria de la inteligencia artificial, otros tipos de inteligencia artificial generativa han experimentado avances similares en los últimos meses.

Los generadores de imágenes, como Midjourney y Stable Diffusion, se han vuelto lo suficientemente precisos como para generar falsificaciones convincentes que engañan a un gran número de espectadores haciéndoles creer, por ejemplo, que el papa salió a la calle con una chaqueta acolchada personalizada estilo Balenciaga.

Los generadores de música no están al mismo nivel de acceso generalizado, no obstante, son capaces de crear falsificaciones convincentes de artistas como Kanye West interpretando nuevas versiones de canciones enteras como Don’t Stop Me Now de Queen y TikTok de Kesha.

Jukebox de OpenAI ha sido utilizado para generar canciones al estilo de Katy Perry, Elvis y Frank Sinatra, mientras que una canción de Jay-Z generada por inteligencia artificial fue tan buena que provocó una de las primeras huelgas exitosas relacionadas con los derechos de autor, después de que el agente del artista, Roc Nation, lograra que la canción fuera eliminada de YouTube.

Otros sistemas, como el presentado en un trabajo de investigación de Google, son capaces de generar composiciones completamente nuevas a partir de mensajes de texto como: “Ritmo lento, canción reggae con bajo y batería. Guitarra eléctrica sostenida. Bongós agudos con timbres. Las voces son relajadas, con un aire despreocupado, muy expresivas”.

Estos sistemas se entrenan a partir de cientos de miles de horas de material grabado, normalmente recopilado sin el consentimiento explícito de sus fuentes. En cambio, los laboratorios de investigación de inteligencia artificial operan con la expectativa de que sus acciones queden amparadas por las exenciones de “uso legítimo” de la legislación estadounidense, porque el producto final, un modelo de inteligencia artificial, es una “obra transformadora” que no compite con el material original.

Sin embargo, en ocasiones estos sistemas generan copias casi exactas del material con el que fueron entrenados. En enero, por ejemplo, investigadores de Google lograron que el sistema Stable Diffusion recreara casi a la perfección una de las imágenes sin licencia con las que fue entrenado, un retrato de la evangelista estadounidense Anne Graham Lotz.

En el Reino Unido existen otras excepciones que permiten que los laboratorios de inteligencia artificial entrenen modelos con materiales obtenidos sin consentimiento. Una reciente actualización de la ley sobre propiedad intelectual, por ejemplo, permitía el uso no comercial de cualquier material adquirido legalmente y protegido por derechos de autor para la investigación de la inteligencia artificial.

En lo que se denomina “lavado de datos”, dicha investigación puede ser utilizada legalmente más adelante para entrenar modelos comerciales, beneficiándose al mismo tiempo de las excepciones en materia de derechos de autor.

Síguenos en

Google News
Flipboard
La-Lista Síguenos en nuestras redes sociales