‘Deepfakes’, un arma para callar la voz de mujeres activistas
Greta Thunberg, blanco de deepfakes. Foto: EFE

Un lugar sombrío en internet esconde miles de videos pornográficos donde las protagonistas son famosas como Taylor Swift o Mila Kunis. A pesar de que en las imágenes aparezcan sus rostros, el cuerpo no es el suyo. Como muñecas, fueron creadas con inteligencia artificial, con un software que reemplazó la cara de una actriz porno por la de las artistas.

Se tratan de deepfakes, creaciones digitales hechas con algoritmos que aprenden a base de la repetición y que después de codificar decenas de imágenes de rostros desde diferentes ángulos pueden sustituir la cara y la voz de una persona por la de otra.

No tienen por qué ser perniciosos, se usan también en la industria del cine o en la publicidad, pero la compañía Sensity AI estima que entre el 90% y el 95% de todos los deepfakes en línea son pornografía no consensual y alrededor del 90 % incluye a mujeres.

Silenciar a mujeres líderes

En ese sombrío espacio del internet, la gran mayoría de usuarios anónimos utiliza las caras de actrices o cantantes famosas, pero también la de políticas o activistas.

La agencia internacional de noticias Efe recibió en noviembre un deepfake de la activista Greta Thunberg que mostraba a la joven de 18 años gesticulando y bailando desnuda. El video estaba circulando en Brasil por WhatsApp e iba acompañado de un mensaje que la acusaba de “estar probando nuevas tácticas en contra del cambio climático”.

Con una búsqueda en internet, Efe encontró el video de la actriz original a quien habían reemplazado la cara por la de Thunberg. Catalina Moreno, de Fundación Karisma, organización colombiana que trabaja en la promoción de los derechos humanos en el mundo digital, señala que este tipo de deepfakes buscan “silenciar, evitar que haya mujeres visibles y en debates públicos”.

La experta añade que en el caso de Thunberg el deepfake quiere “cuestionar si su activismo en medioambiente es creíble teniendo en cuenta que hay un video circulando de ella desnuda” y “dejar su discurso en un segundo plano, quitarle interés a la lucha que está adelantando”.

La periodista de investigación india Rana Ayyub explica en un artículo cómo, tras criticar a la India por una violación en Cachemira de una niña de 8 años, empezó a circular un deepfake pornográfico en el que aparecía su rostro y por el que sufrió ciberacoso en las redes. Las consecuencias a la larga, añade, fueron problemas mentales y autocensura.

La ONU se pronunció sobre el caso pidiéndole al gobierno indio que la protegiera del ciberacoso, pero no hubo ninguna repercusión para los autores. Estos videos falsos ponen en riesgo la vida de hombres en países donde la homosexualidad está criminalizada, en algunos con pena de muerte.

Chile y Colombia vigilantes

El experto en ciberseguridad Juan David Cardona confirmó a Efe la presencia de deepfakes en América Latina y reveló que los gobiernos de Chile y Colombia, ambos con elecciones el pasado diciembre y mayo de 2022, respectivamente, monitorean las redes en busca de ataques en contra de políticas.

Sobre todo, al ser una tecnología que en los últimos años ha avanzado y que ahora es posible crearla con una aplicación en el móvil. Pese a que los deepfakes generados con programas gratuitos no son perfectos basta con que sean verosímiles para desprestigiar a una mujer.

Utilizar como arma la sexualidad de las mujeres no es nuevo. Un informe de la violencia política en redes sociales en Ecuador recoge el testimonio de una política a la que anunciaron como prostituta en una página web y adjuntaron su teléfono. En el anuncio habían utilizado su foto de campaña.

Al alcance de cualquiera

Para generar deepfakes se necesitan grandes cantidades de imágenes y videos desde diferentes ángulos, por eso hasta ahora era difícil utilizarlas en contra de mujeres anónimas. Pero ya existen aplicaciones que analizan fotografías de mujeres y con inteligencia artificial las desnudan en pocos minutos.

Sensity AI encontró en 2020 un chatbot de Telegram que había desnudado al menos a 100,000 mujeres. Por su parte, un estudio impulsado por el parlamento europeo para abordar los deepfakes en la política europea señala que las aplicaciones están diseñadas con sesgos de género.

La investigación apunta que no hay regulación en la mayoría de países del mundo y recoge los ejemplos de los estados de Estados Unidos de Virginia, Texas y California, los primeros en ese país en impulsar leyes sobre deepfakes.

Cardona insiste en la importancia de que las grandes empresas tecnológicas tomen cartas sobre el asunto y detengan el flujo de estos videos en sus plataformas. A pesar de que tanto la web pornográfica PornHub y Twitter prohibieran los deepfakes porno, EFE Verifica comprobó que cada día se cuelgan en esas plataformas centenares.

Algunas empresas han desarrollado programas para identificar deepfakes, pero no están al alcance del usuario. Es importante conocer algunos consejos para determinar si se encuentra delante de un deepfake:

  • Fijarse en si las gesticulaciones o la voz sufren retrasos
  • Si el color de la piel entre la cara y el cuerpo coinciden
  • Si la fuente de la que provienen las imágenes es confiable y pública

Con información de EFE.

Síguenos en

Google News
Flipboard