Meta aprobó en India anuncios políticos que incitaban a la violencia
El primer ministro de la India, Narendra Modi, con el jefe de Facebook, Mark Zuckerberg. Foto: Bloomberg/Getty Images

Meta, propietaria de Facebook e Instagram, aprobó una serie de anuncios políticos manipulados por inteligencia artificial durante las elecciones en India que difundían desinformación e incitaban a la violencia religiosa, según un informe compartido en exclusiva con The Guardian.

Facebook aprobó anuncios políticos que contenían insultos ya conocidos contra los musulmanes de India, como “quememos a estas alimañas” y “la sangre hindú se derrama, hay que quemar a estos invasores”, así como lenguaje supremacista hindú y desinformación sobre líderes políticos.

Otro anuncio aprobado pedía la ejecución de un líder de la oposición del que afirmaban falsamente que quería “borrar a los hindúes de India”, junto a la imagen de una bandera de Pakistán.

Los anuncios políticos fueron creados y enviados a la biblioteca de anuncios de Meta, la base de datos de todos los anuncios en Facebook e Instagram, por India Civil Watch International (ICWI) y Ekō, una organización de responsabilidad corporativa, para poner a prueba los mecanismos de Meta para detectar y bloquear contenidos políticos que pudieran resultar incendiarios o perjudiciales durante las seis semanas de elecciones en India.

Según el informe, todos los anuncios políticos “se crearon sobre la base de discursos de odio y desinformación reales que prevalecen en India, lo que subraya la capacidad de las plataformas de medios sociales para amplificar las nocivas narrativas existentes”.

Los anuncios políticos se presentaron a mitad de la votación, que comenzó en abril y continuará por fases hasta el 1 de junio. Las elecciones decidirán si el primer ministro, Narendra Modi, y su gobierno del partido nacionalista hindú Bharatiya Janata (BJP) vuelven al poder para un tercer mandato.

Durante su década en el poder, el gobierno de Modi ha impulsado una agenda hinduista que, según grupos de derechos humanos, activistas y opositores, ha provocado un aumento de la persecución y la opresión de la minoría musulmana de India.

En estas elecciones, se ha acusado al BJP de utilizar una retórica antimusulmana y avivar el miedo a los ataques contra los hindúes, que constituyen el 80% de la población, para conseguir votos.

Durante un mitin en Rajastán, Modi se refirió a los musulmanes como “infiltrados” que “tienen más hijos”, aunque más tarde negó que fuera dirigido a los musulmanes y dijo que tenía “muchos amigos musulmanes”.

Recientemente se ordenó a la red social X que retirara un video de campaña del BJP acusado de demonizar a los musulmanes.

Los investigadores del informe presentaron a Meta 22 anuncios en inglés, hindi, bengalí, gujarati y kannada, de los cuales 14 fueron aprobados. Otros tres se aprobaron tras introducir pequeños retoques que no alteraban el mensaje provocador general. Una vez aprobados, los investigadores los eliminaron inmediatamente antes de su publicación.

Los sistemas de Meta no detectaron que todos los anuncios aprobados contuvieran imágenes manipuladas por inteligencia artificial, a pesar de que la empresa se había comprometido públicamente a evitar la difusión de contenidos generados o manipulados por inteligencia artificial en sus plataformas durante las elecciones indias.

Cinco de los anuncios fueron rechazados por infringir la política de normas comunitarias de Meta sobre incitación al odio y la violencia, incluido uno que contenía información errónea sobre Modi. Pero los 14 aprobados, dirigidos en su mayoría a musulmanes, también “incumplían las propias políticas de Meta sobre incitación al odio, intimidación y acoso, desinformación, violencia e incitación”, según el informe.

Maen Hammad, activista de Ekō, acusó a Meta de beneficiarse con la proliferación del discurso del odio. “Los supremacistas, racistas y autócratas saben que pueden utilizar anuncios políticos hiperdirigidos para difundir un vil discurso del odio, compartir imágenes de mezquitas ardiendo y promover violentas teorías conspirativas, y Meta aceptará encantada su dinero, sin hacer preguntas”, afirmó.

Meta tampoco reconoció que los 14 anuncios aprobados fueran políticos o estuvieran relacionados con las elecciones, a pesar de que muchos apuntaban a partidos políticos y candidatos contrarios al BJP. Según la política de Meta, los anuncios políticos deben someterse a un proceso de autorización específico antes de ser aprobados, pero sólo tres de las propuestas fueron rechazadas por este motivo.

Esto significaba que estos anuncios podían violar libremente las normas electorales indias, que estipulan que toda publicidad y promoción política está prohibida en las 48 horas previas al inicio de los comicios y durante la votación. Todos estos anuncios se subieron coincidiendo con dos fases de la votación electoral.

En respuesta, un portavoz de Meta declaró que quienes deseen publicar anuncios sobre elecciones o política “deben pasar por el proceso de autorización requerido en nuestras plataformas y son responsables de cumplir todas las leyes aplicables”.

La empresa añadió: “Cuando encontramos contenido, incluidos anuncios, que viola nuestras normas o directrices comunitarias, lo eliminamos, independientemente de su mecanismo de creación”. Los contenidos generados por IA también pueden ser revisados y calificados por nuestra red de verificadores de hechos independientes; una vez que un contenido es calificado como “alterado”, reducimos su distribución. También exigimos a los anunciantes de todo el mundo que informen cuando utilicen IA o métodos digitales para crear o alterar un anuncio sobre temas políticos o sociales en determinados casos.”

Un informe anterior de ICWI y Ekō descubrió que “anunciantes en la sombra” alineados con partidos políticos, en particular el BJP, han estado pagando grandes sumas para difundir anuncios políticos no autorizados en plataformas durante las elecciones en India. Se descubrió que muchos de estos anuncios reales respaldaban ideas islamofóbicas y narrativas supremacistas hindúes. Meta negó que la mayoría de estos anuncios violaran sus políticas.

Meta ha sido acusada anteriormente de no detener la difusión de discursos de odio islamofóbicos, llamados a la violencia y teorías conspirativas antimusulmanas en sus plataformas en India. En algunos casos, las publicaciones han dado lugar a casos reales de disturbios y linchamientos.

Nick Clegg, presidente de asuntos globales de Meta, describió recientemente las elecciones de India como “una enorme, enorme prueba para nosotros” y afirmó que la empresa había realizado “meses y meses y meses de preparación en India”.

Meta afirmó que había ampliado su red de verificadores de hechos locales y de terceros en todas las plataformas, y que estaba trabajando en 20 idiomas indios.

Hammad afirmó que las conclusiones del informe habían puesto de manifiesto las deficiencias de estos mecanismos. “Estas elecciones han demostrado una vez más que Meta no tiene un plan para hacer frente a la avalancha de discursos de odio y desinformación en su plataforma durante estas elecciones críticas”, afirmó.

“Ni siquiera puede detectar un puñado de imágenes violentas generadas por IA. ¿Cómo podemos confiar en ellos en otras docenas de elecciones en todo el mundo?”

Traducción: Ligia M. Oliver

Síguenos en

Google News
Flipboard