Cómo las interacciones falsas en Facebook distorsionan la política global Cómo las interacciones falsas en Facebook distorsionan la política global
Sophie Zhang detectó redes de cuentas falsas que apoyan a líderes políticos de todo el mundo. Fotografía: Jason Henry / The Guardian

Poco antes de perder el acceso a los sistemas de Facebook, Sophie Zang publicó un mensaje final en el foro interno de la compañía, una tradición de despedida de Facebook que recibe el nombre del “badge post” o publicación insignia.

“Oficialmente, soy un una científica de datos de bajo nivel que es despedida debido al mal desempeño”, comenzaba el post. “En la práctica, en los 2.5 años que pasé en Facebook, me he topado con múltiples intentos evidentes de gobiernos extranjeros de abusar de nuestra plataforma a gran escala para engañar a sus ciudadanos, y los casos llegaron a las noticias en múltiples ocasiones”.

En un tono mordaz y a lo largo de 7,800 palabras, Zhang describió el fracaso de Facebook para combatir las campañas de manipulación política similares a la que Rusia llevó a cabo durante las elecciones de EU en 2016. “Sencillamente no nos importaba lo suficiente como para detenerlos”, escribió. “Ahora sé que tengo sangre en las manos”.

Zhang sabía que esta no era la historia que Facebook quería que contara, así es que publicó y compartío con los empleados de Facebook un link y un password para entrar a un sitio en donde se encontraba una copia del memo. Facebook borró temporal e internamente la publicación, también contactó al servicio que había utilizado Zhang para sacar al sitio de las redes.

Ahora, ya que pasaron las elecciones en EU y un nuevo presidente tomó posesión, Zhang salió a contar la historia on the record. En septiembre BuzzFeed News publicó fragmentos de su memo. Este artículo se basa en la documentación interna y extensa a la que tuvo acceso The Guardian.

Lee: Facebook te dirá cuándo y dónde podrás acudir por la vacuna Covid

“Lo que vimos es que muchos presidentes nacionales creen que esta actividad es lo suficientemente valiosa para sus ambiciones autocráticas y sienten tal necesidad de hacerlo que ni siquiera se molestan en esconderse”, Zhang dijo a The Guardian.

“Traté de arreglar este problema desde adentro de Facebook… hablé con mi gerente, con el gerente de mi gerente, con diferentes equipos y con todos en la compañía, hasta con un vicepresidente, con lujo de detalles. En repetidas ocasiones traté de que la gente arreglara las cosas… Ofrecí quedarme a trabajar gratis cuando me corrieron, y dijeron que no. Esperaba que con mi publicación de despedida la gente se convencería de cambiar las cosas, pero no fue así”.

Ella considera que Facebook permite que sus propios intereses interfieran con la responsabilidad de proteger la democracia, y que el público y los reguladores tienen que saber lo que está pasando para ayudar a supervisar.

“La idea de la actividad no auténtica es no ser descubierta”, dice. “No puedes arreglar algo si no sabes que existe”.

Un vocera de Facebook, Liz Bourgeois, dijo: “No estamos de acuerdo con Zhang en su caracterización de nuestras prioridades y de nuestros esfuerzos por erradicar el abuso de nuestra plataforma.

“Perseguimos de manera agresiva los abusos en todo el mundo y nos hemos especializado en equipos enfocados en este trabajo. Como resultado hemos logrado bajar más de 100 redes de comportamiento coordinado no auténtico. Cerca de la mitad de estas eran cadenas domésticas que operan en países de todo el mundo, incluyendo aquellas en América Latina, el Medio Oriente y el norte de África, y en la región del Pacífico de Asia. Combatir los comportamientos coordinados no auténticos es nuestra prioridad. También estamos atendiendo el problema del spam y de las interacciones falsas. Investigamos cada caso antes de tomar medidas o hacer declaraciones públicas al respecto”.

Facebook no disputó lo que Zhang dijo sobre el tiempo que trabajó en la compañía.

Detrás de los ‘likes falsos’

Zhang llevaba trabajando alrededor de seis meses en Facebook cuando se dio cuenta de que Juan Orlando Hernández, el presidente de Honduras, estaba juntando cantidades impresionantes de likes falsos en un contenido que publicó para sus 500 mil seguidores en Facebook. Durante un periodo de junio a julio de 2018, las publicaciones en Facebook de Hernández recibieron likes de 59,100 usuarios, y más del 78% no eran de gente real.

Las interacciones falsas de Hernández destacaron no sólo por el volumen, sino por una nueva forma de conseguirlas. La mayoría de los likes falsos de Facebook venían de cuentas falsas o comprometidas, pero Hernández estaba recibiendo miles de likes de Facebook Pages, perfiles de Facebook para empresas, organizaciones o figuras públicas, que se habían arreglado para parecer cuentas de usuarios, con nombres, fotos de perfil y títulos de trabajo. Un individuo era administrador de cientos de esas Pages falsas,  y del Pages oficial de Hernández y de su difunta hermana, que había sido la ministra de comunicación.

Detrás de una pantalla en la computadora, el administrador podía publicar un post de lo bien que estaba realizando su trabajo Hernández en la Facebook Page del presidente. Después usaba sus cientos de Pages falsas para hacer creer que la publicación era popular, el equivalente digital de los acarreados en los mítines.

Zhang fue contratada en enero para trabajar en un nuevo equipo  dedicado a combatir “interacciones falsas”, likes, comentarios, número de compartidas y reacciones que pudieran hacer cuentas falsas o comprometidas. Además de distorsionar la percepción pública de qué tan popular es un contenido, las interacciones falsas pueden influir en el desempeño de cierto contenido en el algoritmo de las noticias importantes generales. Se trata de una especie de moneda falsa en el mercado de atención de Facebook.

La gran mayoría de las interacciones falsas de Facebook aparecen en publicaciones o en Pages de individuos, empresas o marcas, y parecen tener motivos de comercialización. Pero Zhang descubrió que también se estaba utilizando en lo que Facebook llama objetivos “cívicos”, es decir, políticos. El ejemplo más evidente fue Hernández, que tenía el 90% de todas las interacciones cívicas falsas en Honduras para agosto de 2018.

Te puede interesar: Facebook convierte parte de su sede en un centro de vacunación Covid

Un nacionalista de derecha que apoyó el golpe militar en Honduras en 2009, Hernández fue electo presidente en 2013. Su reelección en 2017 se cuestionó ampliamente por fraudulenta y en su segundo periodo en el poder ha recibido varias acusaciones de abusos a los derechos humanos y de corrupción rampante. Los fiscales federales de EU lo han mencionado en varios casos como conspirador en el  tráfico de drogas. No se le ha acusado de ningún crimen y él niega cualquier acusación.

Hernández no respondió a las preguntas que se enviaron a su oficina de prensa, a su abogado y al ministerio de transparencia.

Las tácticas que se usaron para crear el apoyo a Hernández en línea son similares a las que la Agencia de Investigación de Internet de Rusia usó durante las elecciones de EU de 2016, cuando creó cuentas de Facebook que pasaban por estadounidenses y la usó para manipular a las personas y a influir en los debates políticos en Facebook. Facebook creó el término ‘comportamiento coordinado no auténtico’ CIB por sus siglas en inglés, y lo prohibió.

Pero en un principio Facebook se resistió a llamar a la actividad hondureña CIB, en parte porque el uso de las Pages para crear personas e interacciones falsas cayó en una laguna dentro de las reglas de la compañía. Las políticas de Facebook para garantizar la autenticidad en las cuentas señalan que  los usuarios sólo pueden tener una cuenta y esta debe emplear su nombre “real”. Pero Facebook no tiene esas reglas para Pages, que pueden realizar muchas de las mismas interacciones que las cuentas incluyendo, dar likes, compartir y comentar.

Zhang asumió que cuando avisara de su descubrimiento a la gente correcta, la red de Honduras se investigaría y la laguna en las cuentas falsas de Pages se cerraría. Pero pronto se dio cuenta de que nadie estaba dispuesto a tomar la responsabilidad de vigilar los abusos de un presidente de un país pobre con sólo 4.5 millones de usuarios de Facebook. El mensaje que recibió de todas las esquinas, incluyendo de parte de amenazas de inteligencia, el pequeño equipo de élite de investigadores responsables de descubrir las campañas de CIB, era que los abusos son malos, pero que los recursos eran pocos, y que ante la ausencia de cualquier presión externa, Honduras no era prioridad sencillamente.

“No es para el equipo de amenazas de inteligencia investigar las interacciones falsas”, dijo a Zhang un investigador de ese equipo. Hatie Harbath, entonces directora de políticas públicas de elecciones globales e Facebook, expresó interés como “una forma en escala de buscar esto y actuar en otras Pages de políticos” pero aclaró que era poco probable que el caso recibiera mucha atención fuera de Honduras y que no se “sentía super segura” al respecto. Otros ejecutivos y gerentes con los que Zhang habló incluyen a Samidh Chakrabarti, entonces director de integridad cívica, David Agranovich, jefe de amenazas de disrupción global, y Rosen, vicepresidente de integridad.

“No creo que la gente le preste mucha atención a Honduras”, dijo un gerente del equipo de integridad cívica en un chat.

Frustrada y desesperada después de meses sin acción, Zhang sacó a relucir en forma semipública sus preocupaciones, dentro de los confines de la plataformas de comunicación interna de la compañía. A finales de marzo de 2019, publicó un memo para el “equipo de integridad electoral” de la compañía manifestando que Hernández era “el único presidente nacional que abusaba directa, activa y consistentemente de Facebook para explotar las interacciones falsas en su beneficios” y que la compañía sabía del problema desde meses antes y no había hecho nada.

La publicación logró llamar la atención de un investigador del equipo de amenazas de inteligencia, pero hubo una demora cuando en abril la gerencia suspendió temporalmente las investigaciones de los casos CIB que no involucraran interferencia de un gobierno extranjero. En junio, el investigador comenzó a trabajar en el caso y rápidamente confirmó los hallazgos de Zhang: había una gran red de CIB en Honduras que trabajaba para promover a Hernández y que estaba relacionada con el presidente mismo.

Esta campaña dio fuerza persistentemente a un presidente probablemente ilegítimo en un país en riesgo”, escribió el investigador en un reporte que destaca el impacto “en la vida real”.  Las cuentas y las Pages involucradas se habían establecido en 2016 y 2017, antes de la disputada elección de Hernández, señaló el investigador.

El 25 de julio de 2019, casi un año después de que Zhang reportara la red a Facebook, la compañía anunció que iba a retirar 181 cuentas y 1,488 páginas involucradas en “Actividad coordinada no auténtica enfocada en el país en Honduras”. La campaña estaba “relacionada con individuos que manejaban las redes sociales del gobierno de Honduras” y que habían gastado más de 23 mil dólares en anuncios de Facebook, dijo Facebook.

Agranovich, el jefe de amenazas de disrupción globales, elogió a Zhang por su papel en esta acción y escribió en un canal oficial de retroalimentación. “Estas disrupciones retiraron redes en Facebook que utilizaban nuestros servicios para suprimir la expresión democrática, y se dirigen a usuarios inocentes de nuestra plataforma, y permitían un conflicto clandestino geopolítico. Este es uno de los trabajos más importantes de Facebook, y no hubiéramos logrado esto sin tu contribución”.

No te pierdas: Cambios en política de privacidad de Apple la enfrentarán con Facebook

En privado agregó; “El caso de Honduras nunca se habría dado sin tu persistencia… Significa que hemos creado un precedente de que el arquetipo de Pages como perfil es un comportamiento no auténtico”.

Nadie se pone de acuerdo en que hacer

Zhang recuperó fuerza con su éxito en el caso de Honduras y creía que el “precedente” del que hablaba Agranovich quería decir que los siguientes casos se resolverían más rápido.

Al día siguiente, solicitó una investigación más profunda dentro del sistema de administración de labores de Facebook para alertar al equipo de amenazas de inteligencia de una red de cuentas falsas que apoyaban a un líder político en Albania. En agosto descubrió y solicitó investigaciones de redes sospechosas en Azerbaiyán, México, Argentina e Italia. Durante el otoño y en invierno agregó redes de Filipinas, Afganistán, Corea del Sur, Bolivia, Ecuador, Iraq, Túnez, Turquía, Taiwán, Paraguay, El Salvador, India, República Dominicana, Indonesia, Ucrania, Polonia y Mongolia.

“A veces sentía que quería vaciar el océano con un gotero”, dijo Zhang a The Guardian.

Cómo las interacciones falsas en Facebook distorsionan la política global - zhang
Zhang: ‘La mayor parte del tiempo se sentía como intentar vaciar el océano con un gotero’. Fotografía: Jason Henry / The Guardian

En ocasiones las redes no cumplían con los criterios cambiantes de Facebook para que les dieran la clasificación de CIB, que investiga amenazas de inteligencia y se anuncian públicamente, aunque como quiera violaban las políticas de Facebook. Las redes de cuentas falsas se trataban con “puntos de revisión”, un proceso mediante el cual un usuario tiene que presentar pruebas de su identidad o se cierra su cuenta. La táctica es efectiva para deshacerse de cuentas no auténticas, pero no sirve para resolver el abuso de Pages que realiza una cuenta auténtica. También la podía realizar el personal de “operaciones comunitarias” de Facebook, que sobrepasan por mucho el número de investigadores de amenazas de inteligencia.

Fue mediante el seguimiento de estos casos que Zhang estuvo en contacto en repetidas ocasiones con las políticas de la burocracia de Facebook. Algunos miembros del personal de políticas funcionan como una parte suave de la rama legislativa en la aproximación de Facebook hacia un gobierno global y crean las reglas  y asesoran al personal de operaciones de la comunidad que las realizan. Otros son en realidad una especie de cuerpo diplomático privado y piden a las oficinas del mundo que establezcan relaciones con las empresas locales, con los grupos de la sociedad civil, los reguladores del gobierno y los políticos. El personal de políticas comparte su experiencia en torno a un país o idioma, historia o contexto político para informar a la gente de los cuarteles generales de Facebook en el Valle del Silicio para la toma de decisiones.

Las respuestas del equipo de políticas frente a los casos que presentaba Zhang variaban de muchas formas. El personal de políticas presionó por las cuentas falsas en Corea del Sur, Taiwán, Ucrania e Italia, para que se investigaran rápidamente, pero permitían que otras permanecieran sin investigación durante varios meses.

“Se sentía como la reacción después de un tiroteo masivo”, dijo Zhang. “La gente está de acuerdo en que es malo, pero nadie sabe qué hacer con eso… así es que todo queda en reflexiones y oraciones”.

En ocasiones, Facebook permitía que sus intereses formaran parte de la discusión sobre el cumplimiento de la ley.

En 2019, el personal de Facebook consideró hacer público el hecho de que un político de la oposición en Filipinas estaba recibiendo interacciones de baja calidad y falsas sin saber si el político estaba involucrado en la adquisición de likes falsos. La compañía tenía “incentivos estratégicos para publicar”, dijo un investigador, ya que el político había sido muy crítico de Facebook. “Vamos a quitar algo de calor a los seguidores de Duterte bajando páginas, y anunciando que retiraremos otras páginas que involucran a otros candidatos, esto podría sernos útil”, agregó un gerente de políticas públicas.

No se realizó ninguna acción después de que Zhang señaló que era posible que Duterte o sus seguidores estuvieran tratando de “tender una trampa” al político de oposición o a sus seguidores comprando likes falsos para hacerlos ver corruptos. Pero las discusiones como estas están entre las razones por las que Zhang dice ahora que Facebook necesita separar al personal que se encarga de las reglas de Facebook y los que son responsables de mantener buenas relaciones con los funcionarios de gobierno.

Sospecha que los conflictos de interés inherentes al departamento de políticas explican que se tomara la decisión de mantener la laguna en las reglas de Facebook sobre el uso de Pages falsas. En 2019, el equipo aceptó la propuesta de prohibir el uso de Pages falsas para crear interacciones falsas. Sin embargo, una propuesta adicional de Zhang de castigar a los abusadores más prolíficos mediante la prohibición de cuentas personales fue rechazado, ya que el personal de políticas manifestó sentirse incómodo al tomar medidas en contra de gente relacionada con cuentas del alto nivel, como el administrador de Pages del presidente de Honduras.

Te recomendamos: Las redes sociales y La economía digital

“Si la gente empieza a darse cuenta de que hacemos excepciones para los administradores de Page de los presidentes o de los partidos políticos, estos operadores podrían darse cuenta y sacar su CIB de canales más oficiales”, dijo un investigador de equipo de integridad cívica para consolar a Zhang cuando rechazaron su propuesta.

Encontrar la prioridad correcta

Aunque Zhang descubrió nuevas operaciones de influencia, regresó una vieja. En octubre de 2019, descubrió que la red de Honduras se estaba volviendo a formar y que no había mucho interés por parte de los de inteligencia para combatirla otra vez. Facebook dice que monitorea a las redes de CIB buscando esfuerzos para regresar utilizando métodos manuales y automatizados, y de que eso remueve “continuamente” nuevas Pages y cuentas conectadas con las redes.

Cuando Zhang se quejó por la falta de acción en otra publicación interna en diciembre, recibió una respuesta de Rosen que es un ejemplo de cómo Facebook justifica su falta de atención a los abusos en los países pequeños o pobres que no generan suficiente atención de la prensa: Esto lo lleva a uno a los miles de esquemas de priorización de la empresa.

Facebook se “movió más despacio de lo que queríamos por la priorización” en el caso de Honduras, escribió Rosen. “Es una lata que regrese y quiero aprender de esto y entender mejor lo que tenemos que hacer de manera sistemática”, agregó. Pero también la censuró por hacer una denuncia pública, diciendo: “mi preocupación es que hilos como este pueden afectar a las personas que se levantan todas las mañanas y hacen todo lo posible para ver cómo usar el limitado tiempo y la energía que tenemos y poner todo el corazón y el alma para lograrlo”.

Rosen se unió a Facebook en 2013, cuando la compañía adquirió su startup, Onavo, una compañía de análisis de redes móviles que Facebook utilizó para  rastrear el uso de aplicaciones rivales. En Facebook, Rosen compitió por el proyecto Internet.org y fue vicepresidente de crecimiento antes de ser nombrado vicepresidente de integridad, para supervisar la seguridad de la compañía, la integridad y los esfuerzos de seguridad.

Después del despido de Zhang y la publicación de su despedida en BuzzFeed News, Rosen restó importancia a los abusos que ella descubrió, y publicó en Twitter: “Con todo respeto, lo que ella describe son likes falsos que retiramos de rutina utilizando detección automática. Al igual que cualquier equipo en la industria o el gobierno, damos prioridad a detener las amenazas más urgentes y dañinas globales. Los likes falsos no lo son”.

También lee: Facebook ofrece más de 40 pasantías en EU y Reino Unido para estudiantes latinos

Pero Zhang había hablado de su trabajo, que no se limitaba a likes falsos, con Rosen en varias ocasiones. En abril de 2019, cuando le explicó en privado la situación de Honduras, le pidió que se quedara con las prioridades que señalaba la gerencia, diciendo. “Tenemos cientos de miles de tipos de abuso, seguridad del trabajo en la integridad… Es por eso que tenemos que empezar desde el final, los principales países, las principales áreas de prioridad, las cosas que prevalecen, etc, y tratar de encontrar alguna forma de llegar abajo”.

En diciembre de 2019, en una conversación privada después de la reincidencia de Honduras, Zhang dijo a Rosen que ella tenía la información de que amenazas de inteligencia sólo podía dar prioridad a campañas en  “EU, Europa occidental y adversarios extranjeros como Rusia, Irán, etc”, un plan que Rosen respaldó diciendo: “Creo que así es la priorización correcta”.

Zhang respondió: “Considero que EU, Europa occidental, etc, son importantes, pero para una compañía con recursos limitados. No entiendo por qué esto no puede llegar al mapa de todos. Un gerente de respuestas estratégicas me dijo que el mundo fuera de EU y Europa era, básicamente, como el viejo oeste, y yo el dictador de medio tiempo en mi tiempo libre. Consideraba que eso era un avance porque hasta donde él sabía, nadie lo estaba cubriendo hasta que empecé a hacerlo”.

Rosen replicó: “Me gustaría que nuestros recursos no tuvieran límites”. En ese momento, la compañía iba a reportar una ganancia  anual de 23.9 mil millones de dólares sobre un ingreso de 70.7 mil millones. Tenía 54.86 mil millones de dólares en efectivo en la mano.

‘Limiten el meme no podemos controlar facebook’

En Facebook, la priorización de las métricas se salió por la ventana en el momento en que la prensa y el público en general se dio cuenta de algo.

En septiembre de 2018, por ejemplo, Zhang alertó al equipo de políticas que Alejandro Murat Hinojosa, el gobernador de Oaxaca, estaba recibiendo una gran cantidad de interacciones falsas. No se hizo nada sino hasta el 7 de enero de 2019, cuando el equipo de amenazas de inteligencia recibió una copia de un artículo del Atlantic Council DFRLab que hablaba de likes sospechosos desde cuentas de Facebook del sur de Asia en el Pages de Murat. De repente los likes falsos se convirtieron en prioridad, y se llamó a Zhang para retirarlos.

No se hizo ningún esfuerzo para investigar el origen de la interacción falsa, ni para considerar el gran problema de la interacción falsa en la política de México. En agosto de 2019, Zhang presentó información sobre el aumento en la actividad  en redes sospechosas en cuentas que apoyaban a políticos mexicanos en siete estados, incluyendo una que de nuevo apoyaba a Murat. Las redes no se priorizaron y se dejaron como estaban hasta agosto de 2020, cuando, 360 días después del reporte de Zhang, más de 5 mil cuentas falsas se revisaron.

El que la actividad atraiga o no la atención de la prensa o del público es un pobre indicador de su gravedad, considera Zhang.

Cómo las interacciones falsas en Facebook distorsionan la política global - sede-de-facebook-1024x576
Sede de Facebook. Zhang fue despedido el año pasado en agosto. Fotografía: Jason Henry / The Guardian

Durante las elecciones generales de Reino Unido en 2019, el público se alarmó por la cantidad de comentarios idénticos, de apoyo, que aparecieron en la página de Facebook de Boris Johnson. Zhang trabajó en aumentos múltiples de “alta prioridad” para investigar los comentarios, que no salieron de los “bots rusos” que ellos sospechaban sino de los que apoyaban el Brexit y pretendían ser bots rusos para engañar a los votantes laboristas.

El mismo Rosen en una ocasión alteró una política de Facebook para evitar un escándalo de relaciones públicas. En septiembre de 2018, dos días antes de la elección general de Suecia, Facebook recibió la noticia de un artículo de Atlantic Council DFRLab que cuestionaba los niveles desproporcionados de interacciones con el partido de extrema derecha Alternativa para Suecia. Un grupo sin asientos en el parlamento, Alternativa para Suecia estaba recibiendo tantos likes en su contenido como el partido más grande de Suecia.

Se pidió a Zhang que investigara y descubrió que aunque la actividad del partido Alternativa para Suecia estaba coordinado, era auténtico y no violaba las políticas de la empresa. Sin embargo, Rosen presionó para actuar en contra de las cuentas de activistas y argumentó en un email para lo ejecutivos Joel Kaplan, Monika Bickert, Nathaniel Gleicher y Rachel Whetstone: “Aunque llegamos tarde parece mejor hacer algo y hablar al respecto que no hacer nada. Si creemos que es lo correcto”.

Varios ejecutivos respondieron negativamente, señalando que estaba proponiendo una nueva política en contra del comportamiento de los usuarios de Facebook y que eso había hecho que los usuarios compartieran posts en los grupos de Facebook y los usaran horas antes de que comenzara la elección. Rosen no los escuchó e implementó la nueva política. Whetstone realizó un plan de comunicación  en caso de que la prensa hiciera preguntas. Los “objetivos” del plan incluían “Limiten el meme porque nos tardamos en demorar un mal uso, y no podemos controlar Facebook” y “Limiten el meme que no podemos controlar nuestros sistemas, o somos demasiado lentos para detectar este tipo de abusos”.

Qué tanto afecta el abuso extendido

De todos los casos de comportamiento no auténtico que descubrió Zhang, el que más le preocupaba, y más se tardó en bajar, era en Azerbaiyán. Era uno de los más grandes que había visto, y claramente se estaba usando para impulsar a un régimen autoritario con un horrible récord en derechos humanos.

Lee: Facebook, Google y Twitter testificarán ante el Congreso de EU

La red de Azerbaiyán utilizaba las mismas tácticas que se usaban en Honduras, miles de Pages de Facebook disfrazadas para parecer cuentas de usuarios pero que en realidad creaban likes falsos, la Pages se usaban para acosar. Durante un periodo de 90 días en 2019, produjo aproximadamente 2.1 millón de comentarios negativos en las páginas de Facebook de los líderes de oposición y de los medios independientes y los acusó de ser traidores y de apoyar a un líder autocrático, el presidente Ilhan Aliyev, y su partido gobiernate, YAP.

Facebook no empleaba a alguien dedicado a Azerbaiyán, ni en Europa del Este ni los equipos de política de Medio Oriente se ocuparon. Zhang se dio cuenta de que el equipo de política de Turquía tenía que cubrir la antigua república soviética pero ninguno de ellos hablaba azeri ni tenía experiencia en el país. Hasta agosto de 2020, Facebook no tenía empleados de tiempo completo ni contratos de operaciones con gente que hablara azeri, por lo que la gente tenía que recurrir al Google Translate para tratar de entender la naturaleza del abuso.

Fue hasta diciembre de 2019 que Facebook asignó a alguien a revisar la campaña de acoso y la investigación empezó hasta enero de 2020. Para principios de febrero, el investigador había establecido que la campaña estaba “claramente relacionada con el partido en el poder YAP”. Pero un mes después, sin ninguna explicación, el investigador cambió la prioridad en la escala de “alto” a “bajo”. Una vez más Zhang había descubierto una operación de influencia de un gobierno no democrático en contra de su propia gente, y una vez más, Facebook arrastraba los pies. (YAP no respondió a las solicitudes de entrevista de The Guardian).

Cómo las interacciones falsas en Facebook distorsionan la política global - zhang-1024x576
“Muchas veces se sentía como intentar vaciar el océano con un cuentagotas”, dijo Zhang sobre cómo abordar el abuso en la plataforma. Fotografía: Jason Henry / The Guardian

Zhang volvió a realizar su labor al interior de la compañía para que se diera prioridad al caso de Azerbaiyán. “Los jefes me han dicho directamente que tengo que ignorar estos casos porque no tienen impacto, pero eventualmente recibiremos reproches de relaciones públicas por eso y entonces se dará un cambio”, dijo durante una presentación en una reunión cumbre interna en 2020 enfocada en temas de integridad cívica, según sus notas. “Se asume que si un caso no recibe la atención de los medios, no presenta un riesgo social.  ¿Cuál es nuestra responsabilidad cuando los riesgos sociales no coinciden con los riesgos de relaciones públicas?”

En agosto de 2020, tras las noticias de que Aliyev estaba atacando a los líderes de la oposición y a los periodistas, Zhang nuevamente llevó su caso al grupo interno de “discusiones de integridad en elecciones”.

Desafortunadamente, Facebook se convirtió en cómplice de este ataque autoritario por su falta de acción”, escribió. “A pesar de que llegamos a conclusiones que relacionaban a esta red con elementos del gobierno a principios de febrero, y reunimos evidencia muy amplia sobre su naturaleza de violación, la decisión efectiva fue la de no darle prioridad, de hecho, se ignoró”.

La publicación interna ayudó a realizar una respuesta real y un investigador de integridad cívica declaró que la campaña de acoso era “una de las peores que he visto” y prometió “dedicar algo de capital político” para ver que se tomen medidas. Inteligencia de amenazas retiró la escalada y un investigador le explicó a Zhang que “tal vez sólo se había colado por las rendijas”.

Para finales de agosto, inteligencia de amenazas encontró “evidencia sólida” de la participación de YAP y que se estaba preparando para establecer el alcance total de la red. Zhang ya no se encontraba en Facebook cuando se hizo el anuncio de CIB y la suspensión de 589 cuentas de Facebook, 7,665 Pages y 437 cuentas de Instagram relacionadas con la Unión de Jóvenes de YAP el 8 de octubre.

La despidieron por mal desempeño a mediados de agosto de 2020 como resultado de tiempo que dedicó a descubrir interacciones cívicas falsas y no a las prioridades de la gerencia. Su salud mental y su desempeño en el trabajo habían sufrido bastante por la presión de tener que hacer ambas cosas y por el estrés de la pandemia del coronavirus.

Te puede interesar: Zuckerberg defiende a Facebook y culpa a Trump del asalto al Capitolio

No tenía que haber sido mi trabajo, pero al final del día, yo era la única que estaba tomando decisiones con relación a estos casos”, dijo a The Guardian. “Ya sea que una red se derribe o no, dependía efectivamente de la presión que yo hiciera, de cuánto le gritaba a la gente para que lo hiciera.

“Todavía tengo problemas para dormir en la noche, a veces”, agregó. “Era demasiado abrumador y frustrante porque francamente, nunca debí haber tenido tanta responsabilidad y poder”.

En su último día revisó la lista de trabajos sobresalientes que había investigado de redes todavía activas de cuentas falsas. Realizó consultas, dejó notas para la gente que ella esperaba continuara su labor tras su partida. Había 200 cuentas de apoyo para un político en Bolivia, registró. Cien en Ecuador, 500 en Brasil, 700 en Ucrania, 1700 en Irak, 4000  en la India y más de 10 mil en México.

Todavía hizo una actualización para el caso de Honduras: “Como dejo la compañía hoy, hice una revisión final en Honduras y encontré lo que parece ser la reincidencia de 130 usuarios todavía activos del Presidente (Juan Orlando Hernández)… me doy cuenta de que esto no es prioridad ni se va a resolver, pero quería hacer una actualización a pesar de todo.

Síguenos en

Google News
Flipboard