La laguna legal de Facebook que permite a líderes mundiales acosar y engañar
Ilustración: Erre Gálvez / The Guardian

Facebook ha permitido en repetidas ocasiones que los líderes mundiales y los políticos utilicen su plataforma para engañar al público o para acosar a sus oponentes, a pesar de haber recibido alertas de la evidencia de las irregularidades.

The Guardian revisó documentos internos extensivos que muestran cómo Facebook manejó más de 30 casos en 25 países de conductas políticamente manipuladoras que fueron detectadas proactivamente por los empleados de la compañía.

La investigación muestra cómo Facebook ha permitido los grandes abusos de su plataforma en países pobres, pequeños y no occidentales para priorizar el combate a los abusos que atraen la atención de los medios o afectan a Estados Unidos y otros países ricos. La compañía actuó rápidamente para combatir la manipulación política que afecta a países como Estados Unidos, Taiwán, Corea del Sur y Polonia, mientras que no se apresuró o ni siquiera actuó en los casos de Afganistán, Irak, Mongolia, México, y muchas partes de Latinoamérica.

Hay muchos daños que se ocasionan mediante Facebook y no han recibido una respuesta porque no se les considera un gran riesgo de relaciones públicas para la plataforma”, dijo Sophie Zhang, una antigua científica de datos en Facebook, que trabajó dentro la organización de “integridad” de la compañía para combatir conductas inauténticas. “El costo no recae sobre Facebook. Recae sobre el mundo entero, en general”.

Facebook se comprometió a combatir las manipulaciones respaldadas por los gobiernos en su plataforma después del fiasco histórico de las elecciones de 2016 en Estados Unidos, cuando agentes rusos utilizaron cuentas de Facebook falsas para engañar y dividir a los votantes estadounidenses.

Lee: Facebook te dirá cuándo y dónde podrás acudir por la vacuna Covid

Pero la compañía ha fracasado repetidamente en tomar las acciones pertinentes cuando se les presentó evidencia de manipulación rampante y abusos de sus herramientas por parte de líderes políticos en todo el mundo.

Facebook despidió a Zhang por mal desempeño en septiembre de 2020. Durante su último día, publicó un memo de despedida de 7,800 palabras donde describe cómo encontró “múltiples intentos descarados de gobiernos extranjeros para abusar de nuestra plataforma a grandes escalas con el objetivo de engañar a sus propios ciudadanos”, y arremete contra la compañía por su fracaso para combatir estos abusos. “Sé que ahora tengo sangre en las manos”, escribió. Buzzfeed News fue el primer medio en reportar las noticias del memo en septiembre.

Ahora Zhang hablará con la esperanza de que sus revelaciones obliguen a Facebook a reconocer su impacto en el resto del mundo.

“Facebook no tiene un incentivo fuerte para lidiar con esto, a parte del miedo de que alguien lo filtre y haga un gran escándalo, y eso es justo lo que estoy haciendo”, dijo a The Guardian. “El punto de las actividades inauténticas es que no las descubran. No puedes arreglar algo a menos que sepas que existe”.

Liz Bourgeois, portavoz de Facebook, dijo: “Estamos en desacuerdo fundamental con la caracterización de la señorita Zhang de nuestras prioridades y esfuerzos para eliminar los abusos de nuestra plataforma.

“Perseguimos agresivamente el abuso en todo el mundo y tenemos equipos especializados enfocados en este trabajo. Como resultado, hemos desarticulado más de 100 redes de conductas inauténticas coordinadas. Alrededor de la mitad de ellas eran redes domésticas que operaban en todo el mundo, incluyendo a Latinoamérica, Oriente Medio y el norte de África, y la región del Pacífico asiático. Combatir conductas inauténticas coordinadas es nuestra prioridad. También intentamos resolver los problemas del spam y de las interacciones falsas. Investigamos cada problema antes de actuar o hacer declaraciones públicas al respecto”.

Facebook no negó las aseveraciones fácticas de Zhang sobre su trabajo en la compañía.

Con 2.8 mil millones de usuarios, Facebook tiene un papel dominante en el discurso político de casi todos los países del mundo. Pero los algoritmos y las características de la plataforma pueden manipularse para distorsionar los debates políticos.

Una forma de hacerlo es con la creación de “interacciones” falsas (likes, comentarios, número de compartidas y reacciones) utilizando cuentas de Facebook inauténticas o comprometidas. Además de dar forma a la percepción pública de la popularidad de un líder político, las interacciones falsas pueden afectar el algoritmo del feed de noticias importantes de Facebook. Engañar con éxito al algoritmo puede marcar la diferencia entre alcanzar a una audiencia de millones, o gritar al viento sin respuesta.

Te puede interesar: Facebook ofrece más de 40 pasantías en EU y Reino Unido para estudiantes latinos

Zhang fue contratada por Facebook en enero de 2018 para trabajar en el equipo dedicado a combatir las interacciones falsas. Ella contó que la mayoría de las interacciones falsas aparecen en publicaciones de individuos, negocios o marcas, pero también que las usan en lo que Facebook denomina objetivos “cívicos” (es decir, políticos).

El ejemplo más descarado fue Juan Orlando Hernández, presidente de Honduras, quien en 2018 recibió el 90% de las interacciones falsas cívicas conocidas en el pequeño país de Centroamérica. En agosto de 2018, Zhang descubrió evidencias de que el equipo de Hernández estaba directamente involucrado en la campaña para impulsar el contenido en su página con cientos de miles de “likes” falsos.

Uno de los administradores de la página oficial de Facebook de Hernández también administraba cientos de otras páginas maquilladas para parecer perfiles de usuarios reales. El empleado utilizó páginas falsas para dar “me gusta” a las publicaciones de Hernández, esto es el equivalente digital de llevar acarreados a un mitin.

Este método de adquirir interacciones falsas, que Zhang llama “abuso de la página”, fue hecho posible gracias a una laguna en las políticas de Facebook. La compañía requiere que las cuentas de los usuarios sean auténticas y prohíbe que tengan más de una, pero no hay una regla similar para las páginas, que pueden realizar muchas de las interacciones que se hacen con las cuentas normales, incluyendo dar “me gusta”, compartir y comentar.

La laguna se mantiene abierta debido a la falta de aplicación de las políticas, y parece que actualmente la aprovecha el partido que ocupa el poder en Azerbaiyán para publicar millones de comentarios de acoso contra las páginas de Facebook de noticieros independientes y políticos de oposición azerbaiyanos.

¿Cómo funcionan las interacciones falsas?

  • 1/10 Esta es una publicación de la página de Facebook del sitio web de noticias de Azerbaiyán Azad Son. Habla sobre activistas sentenciados a ocho años de prisión por escribir críticamente sobre los políticos azerbaiyanos.
  • 2/10 Más de mil personas comentaron en la publicación, la mayoría apoyaba al gobierno azerbaiyano.
  • 3/10 Pero si escarbamos un poco, sucede algo sospechoso. El comentario más popular es de alguien llamada Zeyneb Babyeva.
  • 4/10 Si hacemos click en su perfil, vemos que no es una cuenta de usuario. Es la página de Facebook de una cafetería.
  • 5/10 Y fue creada menos de dos semanas antes de comentar en la publicación.
  • 6/10 Según las reglas de Facebook, cada persona sólo puede tener una cuenta. Pero esta página explota una laguna.
  • 7/10 Un sólo usuario puede crear con facilidad muchas páginas como esta, y actuar como diferentes personas. Y esta página puede hacer lo mismo que una cuenta normal: comentar, compartir y reaccionar.
  • 8/10 Aquí están los 301 comentarios más populares en esta publicación. ¿Cuántos de ellos provienen de páginas construidas para asemejarse a las cuentas de usuario?
  • 9/10 Casi todas son páginas actuando como personas, en total 294 de 301. La mitad de las páginas tenían menos de un mes de antigüedad cuando comentaron aquí; todas las páginas tenían menos de un año.
  • 10/10 Facebook puede deformar nuestra percepción sobre la opinión pública, y sobre la realidad. Pero lo que vemos en esta publicación, y en muchas otras, es un espejismo.

El abuso de las páginas se relaciona con lo que la Agencia de Investigación del Internet de Rusia hizo durante las elecciones de 2016 en EU, cuando crearon cuentas de Facebook haciéndose pasar por estadounidenses y las utilizaron para manipular a individuos e influenciar los debates políticos. Facebook llamó a esto “conducta inauténtica coordinada” (CIB) y le encargaron a un equipo de investigadores de élite, conocido como inteligencia de amenazas, descubrir y remover las CIB. Ahora, Facebook publica en sus reportajes mensuales las campañas de CIB que descubren, y eliminan las cuentas y páginas falsas.

Pero inteligencia de amenazas, y muchos directores y ejecutivos de Facebook, se resistió a investigar los casos de abuso en Honduras y Azerbaiyán, a pesar de la evidencia en ambos casos que vincula los abusos con el gobierno nacional. Entre los líderes de la compañía a quienes Zhang informaba sobre sus descubrimientos, estaban Guy Rosen, vicepresidente de integridad; Katie Harbath, exdirectora de políticas públicas para elecciones globales; Sami Chakrabarti, el exdirector de integridad cívica; y David Agranovich, el líder de amenazas de disrupción global.

Los casos son particularmente preocupantes por la naturaleza de los líderes políticos involucrados. Hernández fue reelegido en 2017 en una competencia que muchos consideran fraudulenta. Su administración ha sido acusada de corrupción rampante y violaciones a los derechos humanos. Azerbaiyán es un país autoritario sin libertad de prensa ni elecciones libres.

No te pierdas: Así se engaña en abril: desde criptomonedas a redes sociales para vacas y ‘fake news’

Hernández no respondió a los cuestionamientos enviados a su jefe de prensa, a su abogado y a su ministro de transparencia. El partido gobernante de Azerbaiyán no respondió a las solicitudes de comentarios.

A Facebook le tomó casi un año eliminar la red hondureña, y 14 meses la eliminación de la campaña azerbaiyana. En ambos casos, Facebook permitió subsecuentemente el retorno de los abusos. Facebook dice que utilizan métodos de detección automática y manual para monitorear la aplicación de las políticas en casos previos de CIB, y que “continuamente” eliminan cuentas y páginas relacionadas con redes previamente desmanteladas.

Los largos retrasos en gran parte fueron el resultado del sistema de prioridades de Facebook para proteger el discurso político y las elecciones.

“Literalmente tenemos cientos o miles de tipos de abuso (¡los de seguridad tienen empleo asegurado, eh!)”, le dijo Rosen a Zhang en abril de 2019 después de que se quejó por la falta de acción sobre Honduras. “Por eso debemos empezar desde el final (países importantes, áreas de prioridad, la prevalencia, etc) e intentar de cierta manera movernos hacia abajo”.

Zhang le dijo a Rosen en diciembre de 2019 que le informaron que inteligencia de amenazas priorizaría las investigaciones en presuntas redes de CIB en “Estados Unidos/Europa occidental y adversarios extranjeros como Rusia/Irán/etc”.

Rosen respaldó el enfoque al decir: “Creo que son las prioridades adecuadas”.

Zhang reportó decenas de escaladas dentro del sistema de administración de tareas de Facebook para alertar al equipo de inteligencia de amenazas sobre las redes de cuentas y páginas falsas que distorsionan los discursos políticos en Albania, México, Argentina, Italia, Filipinas, Afganistán, Corea del Sur, Bolivia, Ecuador, Irak, Túnez, Turquía, Taiwán, Paraguay, El Salvador, India, República Dominicana, Indonesia, Ucrania, Polonia y Mongolia.

Las redes no solían cumplir con los cambiantes criterios de Facebook para ser prioridad del combate de CIBs, pero aún así violaban las políticas de la compañía y debían eliminarse.

En algunos casos que Zhang descubrió, incluyendo a Corea del Sur, Taiwán, Ucrania, Italia y Polonia, Facebook actuó con velocidad, resultando en investigaciones del equipo de inteligencia de amenazas, y, en la mayoría de los casos, el desmantelamiento de las cuentas inauténticas.

En otros casos, Facebook retrasó las acciones por varios meses. Cuando Zhang descubrió una red de cuentas falsas que creaba interacciones de baja calidad para políticos de las Filipinas en octubre de 2019, Facebook no actuó de inmediato. Pero cuando un pequeño conjunto de esa red comenzó a crear una cantidad insignificante de interacciones para la página de Donald Trump en febrero de 2020, la compañía se movió a toda velocidad para desarticularla.

En varios casos, Facebook no actuó de ninguna manera.

Un investigador de inteligencia de amenazas encontró evidencia de que la red albana, que producía comentarios inauténticos en masa, estaba conectada con individuos del gobierno, y después abandonaron el caso.

Una red boliviana de cuentas falsas que apoyaban a un candidato presidencial en la segunda vuelta de las elecciones nacionales, organizada por las impugnaciones contra la elección general de octubre de 2019 fue completamente ignorada; desde el último día de trabajo de Zhang en septiembre de 2020, cientos de cuentas inauténticas que apoyan al político continúan operando.

Te recomendamos: Cambios en política de privacidad de Apple la enfrentarán con Facebook

Redes en Túnez y Mongolia fueron ignoradas del mismo modo, a pesar de las elecciones de Túnez y la crisis constitucional de Mongolia.

Entre las protestas masivas y la crisis políticas de Irak en 2019, los especialistas de mercado de Facebook para Irak solicitaron prioridad para dos redes que Zhang descubrió. Un investigador se mostró de acuerdo con la remoción de las cuentas, pero nadie aplicó la decisión, y en el último día de Zhang, encontró aproximadamente 1,700 cuentas falsas que actuaban en apoyo a una figura política del país.

A fin de cuentas, Zhang argumenta que Facebook se rehúsa a castigar a los políticos poderosos, y que cuando sí actúan, las consecuencias son demasiado leves.

“Supongamos que el castigo que recibes cuando robas un banco con éxito es que te confisquen las herramientas para robar bancos y que haya un anuncio público en el periódico que diga, ‘Encontramos a esta persona robando un banco. No deben hacer eso’ “, dice Zhang. “Eso es esencialmente lo que sucede en Facebook. Y entonces lo que ha sucedido es que muchos representantes nacionales han tomado la decisión de que los riesgos valen la pena y actúan así.

“En esta analogía, el dinero ya se gastó. No puede recuperarse”.