‘Facebook tiene un punto ciego’: se desborda la desinformación en español
Fotografía: Olivier Douliery / AFP / Getty Images

El año pasado, Facebook ajustó algunas de las reglas más importantes sobre lo que se publica en su plataforma, detuvo las recomendaciones por algoritmo de los grupos políticos, prohibió las mentiras sobre vacunas y retiró a una serie de personajes de alto perfil por compartir información equivocada y de odio como en el caso de Donald Trump.

Los investigadores dicen que la plataforma de redes sociales no está cuidando el cumplimiento de las reglas tan efectivamente en la información equivocada que se publica en español, un punto ciego que podría ser mortal si se esparcen mentiras entre las poblaciones más vulnerables durante la campaña de vacunación de todo el mundo.

“Antes de las elecciones, Facebook estaba realizando acciones de supervisión y actualizaciones de políticas todas las semanas”, dijo Carmen Scurato, consejera de política del grupo de derechos civiles Free Press que estudia informaciones equivocadas en español. “Pero lo que estamos viendo es que esas acciones para el cumplimiento de reglas no se replican en español”.  Un vocero de Facebook dijo que sus políticas se aplican por igual en los contenidos en inglés y español.

“Aunque antes de las elecciones vimos que Facebook se esforzaba para retirar información falsa, no vimos que hiciera lo mismo en los contenidos en español”,  coincidió Jacobo Licona, encargado de investigación de información falsa para Equis Labs, una firma de encuestas enfocada en voto latinos. “Me decepciona, y podría tener un impacto negativo en las comunidades que hablan español”.

Lee: Facebook pagará 650 mdd por violación a la privacidad

Hay más de 59 millones de hablantes de español en EU, y la demografía crece en Facebook. Según los investigadores de mercado de Facebook, más de 70% de los latinos que usan las redes sociales prefieren Facebook que cualquier otra plataforma social.

Pero los contenidos en español no se moderan ni con la misma frecuencia ni con la misma velocidad que los contenidos en inglés, indican algunas investigaciones. Mientras que el 70% de la desinformación en inglés en Facebook termina con etiquetas de advertencia, sólo el 30% de la misma desinformación en español se etiqueta, según un estudio de derechos humanos de la organización sin fines de lucro Avaaz.

“Facebook va a dejar fuera a millones de personas que hablan español en casa porque no aplica los mismos estándares “ dijo Scurato. “Si dices que te estás esforzando en tu plataforma para la salud y la seguridad de todos, eso también incluye a la comunidad latina”.

El impacto de la desinformación

La mayoría de la desinformación en Facebook cae dentro de dos categorías: la política, por una lado, y por el otro la de salud y vacunas. Algunos estudios indican que la mala información política en español en las plataformas de Facebook corrió rampante durante las elecciones presidenciales de 2020, estuvo en línea más tiempo y se distribuyó más ampliamente que publicaciones similares en inglés.

En septiembre, dos meses antes de las elecciones, los representantes de EU, Debbie Mucarsel-Powell de Florida y Joaquín Castro de Texas pidieron al FBI que investigara la desinformación destinada a los latinos en Florida, y citaron un aumento en las publicaciones de las redes sociales con “información falsa o engañosa”. Otro estudio de Avaaz, publicado en octubre de 2020, indica que más de la mitad de los hablantes de español en Florida vieron información equivocada en Facebook en los días previos a las elecciones. Es difícil cuantificar el impacto de la desinformación sobre las elecciones en el voto latino, pero en algunos bastiones latinos, el apoyo para Biden fue menor de lo que se esperaba.

En estos momentos, el tema en el que prevalece la desinformación en español en Facebook es en salud y en vacunas. A principios de febrero, Facebook renovó sus esfuerzos para acabar con la desinformación sobre vacunas y prohibió publicaciones con información falsa sobre vacunas en la plataforma, ya fuera sobre la vacuna de Covid-19 o de las vacunas en general.

Antes de eso, un tercer estudio de Avaaz publicado en agosto de 2020 indicaba que en general la desinformación sobre salud en Facebook tuvo 3.8 mil millones de vistas el año anterior, incluyendo decenas de publicaciones en español con millones de vistas y se compartió desinformación sobre asuntos como el de que las vacunas tienen un microchip para rastrear a los vacunados, que altera el ADN o que la desarrolló Bill Gates.

Estas teorías son las que han hecho que  varios trabajadores de primera línea de salud en Chicago que son candidatos a vacunarse digan que no quieren recibirla, dice Geraldine Luna, directora médica del departamento de la ciudad de salud pública. Algunos funcionarios expresaron su preocupación porque sólo el 18% de los residentes candidatos latinos o negros aceptaron recibir la vacuna al principio de la campaña, dijo. Agregó que los funcionarios de salud están logrando que el número se eleve después de campañas de salud pública para contrarrestar esta información.

Te puede interesar: La movida de Australia para controlar a Google y Facebook da inicio a una batalla legal

Luna indica que históricamente, muchos de los más afectados por estas teorías de la conspiración son tratados mal en los establecimientos médicos y de salud pública y crean un vacío en el que prevalece la desinformación. “Se ha tenido que hacer mucho trabajo para transmitir la información correcta a la gente correcta y resolver esa historia tan traumática”, dice Luna.

Aunque los latinos que viven en EU han sido afectados de manera desproporcionada por el Covid-19, una encuesta reciente de la Kaiser Family Foundation encontró que sólo 26% de los latinos dijeron que buscarían vacunarse lo más pronto posible, en comparación con el 40% de los blancos. “Lo que estamos viendo es que muchos trabajadores esenciales no quieren vacunarse porque tienen miedo de que los rastreen o los deporten con base en la información o en teorías de la conspiración que han visto en línea”, dijo Óscar Soria, un investigador de desinformación en Avaaz.

¿Por qué se está distribuyendo la desinformación en español?

Existen varias razones por las que la desinformación en español se sigue distribuyendo en Facebook con mayor alcance que la desinformación en inglés, dicen los investigadores. La compañía, dicen, no dedica suficientes recursos a la moderación en español, que empieza porque no se contrata a suficientes trabajadores de habla hispana. Las herramientas de moderación no humana de contenido como la inteligencia artificial a veces no pesca los detalles en español.

Al parecer Facebook está dedicando menos recursos a moderar el contenido en español en sus plataformas que la desinformación en inglés, dice Jessica J González, cofundadora de Change the Terms y codirectora ejecutiva de Free Press, y agrega que la compañía en repetidas ocasiones no se ha mostrado dispuesta o capaz de contestar a sus preguntas con relación al tamaño y al alcance de los equipos de moderación en español.

“Este es el cuarto idioma que más se habla en el mundo y el segundo en EU. Tienen la obligación de dedicarle recursos”, dice González.

González subraya la importancia de una fuerza de moderación robusta y diversa en español. El español se habla en más de 20 países del mundo, y cada uno tiene sus propios modismos e interpretaciones de palabras y frases. Recuerda una anécdota de  cuando su organización estaba preparando una queja ante la Comisión Federal de Comunicaciones en un asunto no relacionado con Facebook con colegas de México, El Salvador, Nicaragua y Puerto Rico.

“Estuvimos discutiendo casi todo un día lo que significaba una oración en español, con base en nuestro diferente conocimiento de un par de palabras y frases en esta oración que se podía traducir de diferentes formas dependiendo del país de origen”, contó.

Los esfuerzos de moderación se enfrentan a otros retos. Soria dice que con frecuencia la desinformación se da en mayor volumen por video que en texto, lo que hace más difícil que la inteligencia artificial la detecte. En un ejemplo, citado por Avaaz en el estudio de octubre de 2020, Facebook se tardó 22 días en etiquetar un video en español que aseguraba que el Covid-19 se había creado deliberadamente en China. Para entonces el video ya llevaba 33 millones de vistas. Les tomó nueve días que un socio de Facebook verificara la información y otros 13 que Facebook etiquetara el video como desinformación.

No te pierdas: Facebook promete invertir 1,000 mdd en medios de comunicación en tres años

Las fallas de Facebook para moderar en español también reflejan un problema de diversidad en el trabajo que muchas empresas de tecnología enfrentan en todos los niveles, dice González. Para 2019, sólo 5% de la fuerza de trabajo de Facebook era latina, según el reporte de diversidad de la empresa.

Facebook acusada de apoyarse en organizaciones sin fines de lucro

Cuando se les pidió un comentario, Facebook no dijo qué porcentaje de su presupuesto dedica a la moderación de contenido o qué porción se dedica a la moderación de los contenidos en español en particular. Un vocero dijo que Facebook, en los últimos años, ha triplicado el número de personas que trabajan para la plataforma en seguridad. Ahora tiene un equipo de 35 mil personas de las cuales 15 son revisores de contenido que revisan contenido en más de 20 sitios globales. Agregó que Facebook tiene 13 socios en su red de verificación de información que revisan el contenido en español. Los socios de inglés incluyen publicaciones como USA Today:

“Estamos tomando medidas agresivas para combatir la desinformación del Covid-19 en nuestras plataformas en decenas de idiomas, incluyendo español”, dijo. “Hemos retirado millones de publicaciones que podrían causar daño, de acuerdo a nuestras políticas”.

Scurato dijo que Facebook le pidió a ella y a otras organizaciones sin fines de lucro que sigan marcando la desinformación que encuentran en sus estudios. Como respuesta, decenas de grupos de derechos humanos y de grupos latinos escribieron a Facebook pidiéndole que resuelva sus propios problemas: “No sólo se desvían recursos que deberían estar dedicados a promover directamente o a proveer servicios a nuestra comunidad, también es un ejercicio exhaustivo en los puntos de dolor de la microagresión de nuestra posición y poder en la industria de la tecnología de EU que es sistemáticamente no equitativa”, escribieron en noviembre. 

Los grupos dicen que Facebook todavía no ha retirado varias publicaciones en español que se mencionan en la carta que violan las políticas de Facebook sobre lenguaje de odio y desinformación, incluyendo llamadas para construir milicias y desinformación de salud.

El problema tiene solución, dice Soria, de Avaaz. Su organización y otras pidieron a Facebook no sólo que destine más recursos a resolver el problema, sino que también resuelva el problema de desinformación corrigiendo las falsedades que se publicaron en esta aplicación, y que notifique a los usuarios que estuvieron expuestos a la falsa información. Algunos estudios indican que estas correcciones funcionan, y que se reduce la credibilidad de la desinformación en casi 50%.

Te recomendamos: El desastre noticioso de Facebook en Australia es un ejemplo de malas relaciones públicas

“El problema de fondo es que Facebook tiene un punto ciego en lo que se refiere a la desinformación en español”, dice Soria. “Pero se puede y tiene que arreglarse. Facebook tiene que decir ‘basta’ a la distribución de desinformación en la plataforma”.

Síguenos en

Google News
Flipboard