Pornografía falsa de Taylor Swift provoca peticiones de nuevas leyes en EU
Taylor Swift fotografiada a principios de este mes. Foto: Ed Zurga/AP

Millones de veces se han visto imágenes de pornografía, falsas pero convincentes, de la cantante Taylor Swift en X y Telegram, lo que ha provocado protestas de políticos estadounidenses.

La rápida difusión en internet de imágenes pornográficas falsas de Taylor Swift ha renovado las demandas, incluidos las de políticos estadounidenses, para que se penalice esta práctica, en la que se utiliza inteligencia artificial para sintetizar deepfakes (imágenes explícitas falsas) pero convincentes.

Las imágenes de la estrella del pop estadounidense se han distribuido por las redes sociales y han sido vistas por millones de personas esta semana. Anteriormente distribuida en la aplicación Telegram, una de las imágenes de Taylor Swift publicada en X fue vista 47 millones de veces antes de ser eliminada.

X declaró en un comunicado: “Nuestros equipos están eliminando activamente todas las imágenes identificadas y tomando las medidas oportunas contra las cuentas responsables de publicarlas”.

Yvette D. Clarke, congresista demócrata por Nueva York, escribió en X: “Lo que le ha ocurrido a Taylor Swift no es nada nuevo. Durante años, las mujeres han sido objeto de deepfakes (sin) su consentimiento. Y (con) los avances en IA, crear deepfakes es más fácil y barato. Este es un problema que ambos lados de la moneda, y hasta los Swifties deberían ser capaces de resolver juntos”.

Algunos estados en Estados Unidos tienen su propia legislación contra las falsificaciones, pero hay una creciente presión para cambiar la ley federal.

En mayo de 2023, el congresista demócrata Joseph Morelle presentó la propuesta Preventing Deepfakes of Intimate Images Act, que ilegalizaría compartir pornografía deepfake sin consentimiento. Morelle dijo que las imágenes y videos “pueden causar irrevocables daños emocionales, financieros y de reputación y, por desgracia, las mujeres se ven afectadas de manera desproporcionada.”

En un tuit en el que condenaba las imágenes de Swift, las calificaba de “explotación sexual”. Su propuesta legislativa aún no se ha convertido en ley.

El congresista republicano Tom Kean Jr. dijo: “Está claro que la tecnología de la IA avanza más rápido que los sistemas de protección necesarios. Tanto si la víctima es Taylor Swift como cualquier joven de nuestro país, necesitamos establecer garantías para combatir esta alarmante tendencia.” Ha copatrocinado el proyecto de ley de Morelle y ha presentado su propia Ley de Etiquetado de la IA, que exigiría que todos los contenidos generados por IA (incluidos los chatbots más inofensivos utilizados en entornos de atención al cliente, por ejemplo) fueran etiquetados como tales.

Taylor Swift no se ha pronunciado públicamente sobre las imágenes pornográficas. Su publicista estadounidense no había respondido a una solicitud de comentarios al cierre de esta edición.

Se han utilizado videos o audios deepfake convincentes para imitar a algunos hombres de alto perfil, en particular políticos como Donald Trump y Joe Biden, y artistas como Drake y The Weeknd. En octubre de 2023, Tom Hanks pidió a sus seguidores de Instagram que no se dejaran engañar por un falso anuncio de dentífrico con su imagen.

Pero la tecnología está dirigida abrumadoramente a las mujeres, y de una manera sexualmente explotadora: un estudio de 2019 de DeepTrace Labs, citado en la legislación estadounidense propuesta, encontró que el 96% del contenido de video deepfake era material pornográfico no consentido.

El asunto ha empeorado considerablemente desde 2019. La pornografía falsa, en la que se utiliza un software de edición fotográfica para colocar el rostro de una persona que no ha dado su consentimiento en una imagen pornográfica existente, es un problema de largo tiempo. Pero se ha abierto una nueva frontera gracias a la sofisticación de la inteligencia artificial, que puede utilizarse para generar imágenes totalmente nuevas y muy convincentes, incluso utilizando simples comandos de texto.

Las mujeres de alto perfil, como Taylor Swift, están particularmente en riesgo. En 2018, Scarlett Johansson habló sobre la pornografía falsa generalizada con su imagen: “Tristemente he pasado por este camino muchas, muchas veces. El hecho es que tratar de protegerte de internet y su depravación es básicamente una causa perdida, en su mayor parte”.

En diciembre de 2022, el gobierno británico declaró ilegal la pornografía deepfake no consentida, en una enmienda al proyecto de ley de seguridad en línea que también ilegalizaba cualquier imagen explícita tomada sin el consentimiento de alguien, incluidas las llamadas fotos “en ropa interior”.

Dominic Raab, entonces viceprimer ministro, dijo: “Debemos hacer más para proteger a las mujeres y las niñas de las personas que toman o manipulan fotos íntimas para acosarlas o humillarlas. Nuestros cambios darán a la policía y a los fiscales los poderes que necesitan para llevar a estos cobardes ante la justicia y salvaguardar a mujeres y niñas de tan vil abuso”.

Traducción: Ligia M. Oliver

No te pierdas: Hace 40 años Apple presentó una computadora que cambió al mundo, para bien o para mal

Síguenos en

Google News
Flipboard