Facebook reforzó su ‘junta de supervisión’, pero cualquier nuevo poder es ilusorio
El gigante de las redes sociales todavía está tratando de navegar por contenido controvertido, pero el problema sigue siendo la plataforma en sí.
El gigante de las redes sociales todavía está tratando de navegar por contenido controvertido, pero el problema sigue siendo la plataforma en sí.
Cualquier día de estos, la Junta de Supervisión de Facebook, el mecanismo de revisión de la compañía para las decisiones sobre la eliminación de contenido y usuarios le dirá al mundo si Donald Trump debe permanecer vetado en Facebook por tiempo indefinido. Antes de eso, Facebook anunció la expansión del mandato de la Junta de Supervisión: inicialmente, los usuarios solo podían apelar para que se restaurara el contenido después de que los moderadores lo eliminaran; ahora la junta también examinará las apelaciones sobre el contenido que se ha dejado en Facebook o Instagram después de una revisión por parte de moderadores.
Con la Junta de Supervisión, las decisiones incómodas sobre qué material controvertido dejar y cuál bajar se eliminan en parte de las manos de los responsables de las políticas de Facebook, el liderazgo ejecutivo y el mal pagado personal de moderación, y se entregan a un panel de expertos respetados. Ellos son así los encargados de fijar el tono en los medios globales. Ahora Facebook tomará decisiones sobre lo que conserva y lo que elimina de acuerdo con las decisiones de una junta de élite, pagada y protegida por la empresa pero que opera “de forma independiente”.
También lee: Cómo las interacciones falsas en Facebook distorsionan la política global
La expansión del poder de la junta llega en un momento en el que apenas ha metido los pies en la tina de las cuestiones operativas; así, ha tomado siete decisiones, con una importante pendiente. Difícilmente un récord ganador. Sin embargo, el cambio no es inesperado: la académica en cuestiones legales Kate Klonick escribió en el New Yorker que una expansión de este tipo ocurriría a “mediados de 2021”, pero el momento parece más que una coincidencia con la decisión sobre Trump.
La Junta de Supervisión de Facebook se creó como una “corte suprema”, pero su función para refinar lo que se puede y no se puede dejar en el sitio se parece mucho más a la junta editorial de un periódico. Se encuentra separado de la actividad principal de la organización: la publicidad. Cambia el enfoque y la responsabilidad de todas las decisiones clave de moderación a los “expertos”. Actúa como un panel de creación de gustos para el resto de la empresa y cubre problemas más detallados que seguirán persiguiendo a cualquier plataforma social. No hay mucha transparencia en torno a las maquinaciones internas entre los ejecutivos de Facebook y la Junta de Supervisión.
Las decisiones de contenido de Facebook son cada vez más su impronta. En la Junta de Supervisión hay un respaldo para el tipo de decisiones que la empresa no puede escalar y promulgar sin problemas en todo el mundo: qué cuentas de los políticos eliminar y cuáles dejar; cómo lidiar con ciertos acosadores persistentes a los que se les dicta que no infrinjan la política; si eliminar material ofensivo en un país y dejarlo en otro. Y, lo que es más importante, es un mecanismo a través del cual responde al tipo de presión pública que consume el tiempo de gestión, provoca audiencias en el Congreso y molesta a los empleados. Hasta la fecha, los intentos de Facebook de producir una estrategia de moderación de contenido “escalable” para el discurso global han sido un miserable fracaso, como siempre estuvo condenado a ser, porque el discurso es culturalmente sensible y específico al contexto.
También lee: La laguna legal de Facebook que permite a líderes mundiales acosar y engañar
Después de una década de negar que Facebook fuera responsable, o incluso capaz de tomar decisiones de contenido más allá de la más amplia gama de reglas generalizadas, Mark Zuckerberg ha llevado a la compañía más al territorio de todos los poderes mediáticos históricos: tomando decisiones arbitrarias sobre temas candentes con las fuerzas políticas y culturales imperantes en la época. En última instancia, no hay otra forma en que Facebook pueda operar, pero aceptar esta postura significa abandonar algunas creencias fundamentales.
Facebook no es una empresa de noticias, no emplea a reporteros, pero es una empresa impulsada por las noticias. Hace dos años le pregunté a un ejecutivo de Facebook quién era realmente responsable de venir todas las mañanas y preocuparse por el ciclo global de noticias, las presiones electorales, las tendencias, las sensibilidades regionales. Obtuve una respuesta larga que básicamente se reducía a: partes de muchos departamentos, dirigidos por políticas. Sin embargo, Facebook tenía alguna alarma preventiva para situaciones delicadas era inusual, hasta que la pandemia y las elecciones estadounidenses cambiaron las actitudes.
El caso de Sophie Zhang, una excientífica de datos en Facebook, se lee como las historias de muchos de los denunciantes que han abandonado la industria tecnológica. Zhang había sido contratada en enero de 2018 para trabajar en un nuevo equipo que luchaba contra el “compromiso falso”, pero a menudo se encontraba “vaciando el océano con un gotero”. Su preocupación de que la empresa no actuara con la suficiente rapidez o coherencia para evitar que los políticos abusaran de la plataforma de Facebook para parecer más populares de lo que realmente eran, provocó frustración, enfrentamientos con sus superiores y luego el despido de Zhang. Sus preocupaciones, descritas en una publicación de despedida, fueron aclaradas en su primera entrevista con Julia Carrie Wong de The Guardian.
El testimonio de Zhang no es tan importante necesariamente en lo que Facebook disputa: que no ha dedicado suficientes recursos al problema de erradicar el comportamiento inauténtico coordinado, sino en los detalles indiscutibles de cómo Facebook crea prioridades. Los casos de cambios en las políticas en respuesta o en anticipación a la reacción del público, o dificultades regulatorias, apuntan al hecho de que Facebook, alguna vez resistente a la noción de ser una empresa de medios, tiene que tomar muchas más decisiones ahora basadas en la óptica y las relaciones públicas.
Al dirigirse a una conferencia de Facebook sobre integridad cívica en 2020, Zhang les dijo a sus colegas sobre su malestar por la lenta respuesta de la compañía a la evidencia de comportamiento prohibido de cuentas azerbaiyanas que atacan a políticos de la oposición y periodistas independientes. “Los jefes me han dicho directamente que debo ignorar estos casos porque si tienen un impacto, eventualmente recibiremos críticas de relaciones públicas y motivaremos un cambio”, señaló Zhang en ese momento. “La suposición es que, si un caso no recibe la atención de los medios, no representa ningún riesgo social… ¿Cuál es nuestra responsabilidad cuando el riesgo social difiere del riesgo de relaciones públicas?”
También lee: Google supera demanda de Oracle y evita multa multimillonaria
Dentro de estas oraciones se encuentra una explicación de cómo Facebook se está rediseñando lenta y algo dolorosamente a sí mismo y al hacerlo está forjando una plantilla para el control de los nuevos medios que no está tan alejado del antiguo control de los medios. Facebook se encuentra respondiendo repetidamente a un ciclo de prensa que domina mucho más de lo que le gustaría.
Al menos parte de este cambio puede atribuirse al ex viceprimer ministro británico Nick Clegg, quien ahora es el jefe de comunicaciones globales de Facebook. Esto implica una estrategia de mitigación que parece muy familiar para cualquier persona con experiencia en periodismo británico: una aparentemente enfocada en la creación de un círculo de periodistas confiables (y no periodistas) que tienen acceso por goteo, con fuentes favoritas provenientes de -Registros informativos; mientras tanto, se ejerce presión y se restringe el acceso a los editores y periodistas que defraudan. Y si no puedes vencer a los medios, ahora al menos puedes ser un medio. En marzo, Clegg escribió un artículo enormemente largo preludiando los puntos relevantes de relaciones públicas de Facebook: es decir, que es el comportamiento humano, no el diseño de la plataforma, lo que causa la división política. Para demostrarlo, cita numerosos estudios sin mencionar que algunos provienen de académicos e instituciones que han recibido fondos de Facebook o acceso privilegiado a los datos de Facebook en el pasado.
El ensayo no se publicó en el blog de noticias de Facebook, ni en una publicación de Facebook, sino en una plataforma completamente separada, Medium. Pero a pesar de tales esfuerzos, la separación de Clegg de la plataforma, al igual que la independencia de la Junta de Supervisión, es ilusoria. Sin embargo, demuestra una nueva verdad para Facebook: la compañía está abordando el problema del impacto primero, porque su problema de diseño no tiene solución.
*Emily Bell es directora del Tow Center for Digital Journalism en la Escuela de Graduados de Periodismo de la Universidad de Columbia y columnista de The Guardian.