¿Espectáculo de la violencia con transmisiones en vivo? Así se traduce la falta de regulación de las redes sociales

Lunes 30 de junio de 2025

¿Espectáculo de la violencia con transmisiones en vivo? Así se traduce la falta de regulación de las redes sociales

Las redes sociales rechazan ser responsables de las imágenes violentas que transmiten en vivo, pero entonces a quién le atañe esta regulación. Te contamos

espectaculo-de-la-violencia-con-transmisiones-en-vivo-asi-se-benefician-las-redes-sociales-de-la-falta-regulacion.png

¿Las redes sociales son responsables de la violencia de sus contenidos en vivo? Hoy no lo son, pero es debido a su falta de regulación.

/

La-Lista

¿Las redes sociales son responsables de la violencia de sus contenidos en vivo? Hoy no lo son, pero es debido a su falta de regulación.
La-Lista

Una mujer graba su rutina de cuidado de la piel y tiene miles de vistas, lo mismo ocurre con otra que comparte su entrenamiento matutino o con quien se graba cocinando o remodelando un espacio de la casa. Todos estos videos no dejan de reproducirse y compartirse en las redes sociales, pero ¿qué pasa cuando –por error– alguien transmite su asesinato en vivo?, ¿por qué el video perdura en el internet?, ¿qué significa que sea compartido en otras plataformas y recuperado miles de veces? Y ¿a quién le corresponde borrarlo?

Esas escenas –que al final del día circulan por la web sin censura–, nos recuerdan que la violencia en realidad está un clic de distancia y que las audiencias de todas las edades y características están expuestas a esta clase de contenidos, porque la barrera que impide su circulación es endeble o limitada.

TE RECOMENDAMOS: Inteligencia artificial como herramienta para combatir la violencia digital contra las mujeres

Los casos de la influencer Valeria Márquez y del activista venezolano Gabriel Sarmiento, ambos asesinados en vivo y en directo, son ejemplo de este fenómeno, que ya existía pero que ha tenido un auge a causa del streaming.

En La-Lista exploramos este fenómeno que se engloba dentro del “espectáculo de la violencia” con Danielle Cruz, experta en contenido digital y crítica de medios. Ella afirma que las redes sociales ya no solo son intermediarias, sino que han tomado el rol de moderadoras de contenido, y por lo tanto deben hacerse cargo de los videos violentos que circulan por la web.

Entonces, ¿por qué siguen al alcance de una búsqueda?, ¿quién se beneficia de este contenido? y ¿cómo impacta a las audiencias? Te contamos:

¿Quién tiene la responsabilidad del contenido en redes sociales?

redes sociales
La violencia que se transmite por las redes sociales técnicamente no es responsabilidad de las plataformas. / La-Lista

Danielle Cruz explica que las redes sociales afirman no tener responsabilidad del contenido violento que se transmite en sus plataformas, bajo el argumento de que solo funcionan como una base que interconecta personas, que no puede hacerse cargo de lo que tales personas comparten.

“La idea que deslinda responsabilidad es muy sencilla: si tú subes algo al internet, tú eres responsable directo de ese material, incluida cualquier carga legal o penal que conlleve. Esta idea funciona para las compañías de teléfonos celulares y otras comunicaciones multimedia. Es decir, si alguien te marca con una amenaza de muerte, tú no vas a demandar a Telcel y esa misma lógica rige a las redes sociales”, detalla.

La ley que las protege contra demandas es conocida como la Sección 230, incluida en la Ley de Decencia en las Comunicaciones (CDA, por sus siglas en inglés) que data de 1996 y que ofrece amplia protección a las empresas tecnológicas, porque les da el derecho de eliminar o restringir contenido, pero no les obliga a supervisarlo.

Danielle reconoce que dicha ley básicamente rige todo el internet, pero acota que ahora las cosas se han transformado y que el debate público plantea una nueva pregunta: ¿cuál es la responsabilidad legal que tiene las redes sociales ahora que funcionan con recomendación algorítimica de contenido? Es decir, ahora que filtran el contenido a sus usuarios, según sus intereses.

SIGUE LEYENDO: ¿Desinfluenciar? El objetivo de los influencers que combaten el consumismo

Danielle Cruz apunta que las redes sociales “ya no son solo una plataforma que interconecta a una persona con otra”, y subraya que al ubicarse como moderadoras de contenido “deberían tener una responsabilidad legal cuando fallan al proteger a las audiencias de la violencia más extrema”.

El debate no es nuevo, nació desde la década de los 90, pero permaneció muchos años inalterable. No obstante, ha resurgido porque las plataformas digitales se transformaron para mostrar a los usuarios “lo que genera la mayor cantidad de interacciones”.

Los nuevos modelos, dice Danielle “voltearon a ver los contenidos impactantes: un choque, una agresión, un hombre racista humillando a una familia, un tornado destruyendo un poblado entero y al contenido polarizante de alta sensibilidad social”, que les beneficia con clics e impresiones de publicidad.

Las plataformas tomaron roles activos a la hora de sugerir y filtrar material, “pero decidieron anteponer en la moderación el marketing a la protección de las audiencias”, dice Danielle Cruz.

¿Pueden las redes sociales detener el contenido violento?

gabriel-sarmiento-fue-asesinado-durante-transmision-en-vivo-por-tiktok.png
Antes de ser asesinado, el influencer venezolano Gabriel Sarmiento usó sus redes sociales para exponer corrupción institucional en el Estado de Aragua. / TikTok/Gabriel Sarmiento

Facebook, ahora Meta, es la plataforma que tras una masacre se vio obligada a ajustar sus políticas de protección de las audiencias. En 2019, un atentado terrorista contra dos mezquitas de Christchurch, Nueva Zelanda, se transmitió en vivo a lo largo de 17 minutos, sin que nada ni nadie interrumpiera la publicación.

El tirador, Brenton Tarrant, planeó el atentado buscando máxima difusión, y usó internet y redes sociales para amplificar su mensaje. La transmisión original fue vista por menos de 200 personas en vivo y alrededor de 4  mil antes de ser eliminada. No obstante, en las 24 horas siguientes se subieron al menos 1.5 millones copias sobre el hecho: 1.2 millones fueron bloqueadas, pero cerca de 300 mil lograron ser publicadas.

El Consejo Francés del Culto Musulmán (CFCM) presentó una demanda contra Facebook y YouTube por violaciones al honor humano, violencia y publicidad del terrorismo; de igual manera la primera ministra Jacinda Ardern responsabilizó a la plataforma de promover el odio y Australia reformó su legislación para obligarla a operar con nuevos parámetros.

Facebook invirtió 7.5 millones de dólares en investigación con universidades para mejorar inteligencia artificial en la detección de contenidos violentos, manipulados o terroristas. E innovó al contratar a miles de moderadores alrededor del mundo que detuvieran esta clase de contenidos; sin embargo, durante la pandemia Facebook dejó de priorizar la moderación humana y pasó a depender de la IA en temas críticos.

PODRÍA INTERESARTE: Tráfico ilegal de felinos en México: garras, colmillos y pieles se venden en Facebook y Mercado Libre, revela estudio

La tecnología logró manejar cierto contenido, pero falló en áreas sensibles e ignoró el contexto de miles de videos, lo que ocasionó omisiones graves. Para 2025, la tendencia siguió porque Facebook eliminó a los fact‑checkers para dar paso a una mayor automatización,y como resultado hubo un aumento en la exposición de usuarios, especialmente menores, a violencia, acoso y desinformación.

Sobre este tema, Danielle reconoce la incapacidad de la IA para detectar la violencia que no es explícita y advierte que “el robot no logra entender el contexto, no sabe cuando una vida peligra y solo registra figuras humanas interactuando”.

En casos recientes, “la transmisión no muestra la muerte en cámara, sino el camino hacia la muerte y lamentablemente eso hace la diferencia para que las normas de comunidad se activen y se censure el contenido”, aclara.

Las redes sociales pueden tomar medidas claras y oportunas para moderar el contenido de mejor manera, pero eso va a depender de los lugares en los que operan y las legislaciones que las obligan a actuar.

México y la regulación de redes sociales

matan-en-vivo-a-influencer-venezolano-que-denuncio-al-tren-de-aragua.png
Luego de que sonó una ráfaga de disparos en el live de Gabriel Sarmiento, su transmisión en vivo se pausó con este mensaje. / TikTok/Gabriel Sarmiento

En México no existe una legislación que obligue a las plataformas digitales a tomar responsabilidad de la violencia que se transmite y mucho menos una ley que ayude a entender las redes sociales en el contexto de violencia masiva.

Pero el problema, según Danielle, es que legislar el discurso o las imágenes abriría la puerta a la discusión sobre lo que se puede prohibir y lo que no, lo que implica mucho cuidado para que no se preste la medida a censura o autoritarismo.

“En un mundo ideal, con un cuerpo legislativo de avanzada, coherente y preocupado por los derechos humanos, creería que lo ideal es un proceso legislativo que regule y genere exigencias específicas para las plataformas digitales”, comparte la experta; sin embargo, también alerta que las personas legisladoras en México no tienen este perfil.

Así que básicamente se convierte en un arma de doble filo, porque al ejecutarse tendría que tener mucho cuidado con no violar otros derechos, como la libertad de expresión o el derecho a la información.

El impacto de la violencia en la redes sociales

redes_sociales_son_especialmente_perjudiciales_para_la_salud_mental_de_la_generación_z
Las redes sociales y sus contenidos pueden ser perjudiciales para la salud mental. / Especial

Si vemos una hazaña en el celular nos deslumbra, si vemos una muestra de amor nos enternece, si vemos una sátira nos hace reír, pero lo mismo pasa con otra clase de contenidos: una injusticia nos indigna; una humillación nos enoja y un crimen nos asusta. Ese es uno de los efectos del contenido violento en las redes.

Para la analista Danielle Cruz, es importante entender que lo que ocurre en el mundo digital también es real, porque en ocasiones parece que la pantalla nos hace creer que lo que vemos desaparece cuando se bloquea el teléfono o se descarga el celular.

Ese es un efecto común del mundo digital, que en ocasiones logra confundirse de tal manera que no parece tangible, pero sus efectos –visibles o no– se propagan.

SI TE LO PERDISTE: Ley de telecomunicaciones: soberanía digital o poder sin límites

La espectacularización de la violencia, que se caracteriza por representar o exhibir actos violentos de modo que se convierten en una atracción para el público tiene el efecto de la banalización e insensibilización según han documentado antropólogos y psicólogos.

Pero también puede producir el efecto contrario; es decir, una sensación presente y sistematizada de miedo e inseguridad, que a largo plazo incluso se traduce en angustia, ansiedad y hasta paranoia para las audiencias.

Las redes sociales se consideran intermediarios técnicos y eluden la responsabilidad sobre los contenidos en vivo y virales, pero ¿es del todo cierto? Aparentemente, no.

PUBLICIDAD

PUBLICIDAD - Estas notas son patrocinadas -