Ley de Servicios Digitales: cómo es la ambiciosa apuesta de la UE para depurar las redes sociales
La Ley de Servicios Digitales hará especial hincapié en la protección de los menores. Foto: David Bagnall/Alamy

Casi dos décadas después de que la aparición de Facebook diera paso a la era de las redes sociales, la Unión Europea presenta una ambiciosa ley diseñada para depurar los mayores foros en línea del mundo.

La Ley de Servicios Digitales (DSA), cuyo objetivo es combatir la misoginia, proteger a los menores, acabar con el fraude al consumidor, frenar la desinformación y proteger las elecciones democráticas, tiene un amplio alcance. El Reino Unido presenta su propia ley, el proyecto de ley de seguridad en internet, pero es probable que las normas de la Unión Europea tengan mayor repercusión porque abarcan un mercado más grande y la Unión Europea es más influyente como potencia reguladora.

La Ley de Servicios Digitales es una legislación innovadora que establecerá una norma mundial para la regulación de contenidos y la protección de los usuarios frente a los perjuicios en internet”, comentó Peter Church, abogado especializado en tecnología de la firma Linklaters.

Y la DSA ya tiene a las empresas tecnológicas en el punto de mira. El nuevo propietario de Twitter, Elon Musk, recibió la advertencia de que su plataforma no está preparada para las nuevas normas, las cuales podrían entrar en vigor para las principales plataformas el próximo verano. Thierry Breton, comisario de la Unión Europea encargado de supervisar la legislación, comunicó a Musk que tiene “mucho trabajo por delante” para asegurar que Twitter cumple con la ley.

El viernes, a raíz de la suspensión de las cuentas de Twitter de un grupo de periodistas estadounidenses especializados en tecnología, la vicepresidenta de Valores y Transparencia de la Comisión, Věra Jourová, intervino. Le recordó a Musk que la DSA “exige respeto a la libertad de los medios de comunicación”.

A continuación, presentamos una guía sobre la DSA y lo que significa para las plataformas tecnológicas y sus usuarios.

¿Qué es la DSA?

La DSA es aplicable en la Unión Europea y regula, en la típica jerga legislativa, los servicios digitales que actúan como “intermediarios” en su función de conectar a los consumidores con contenidos, bienes y servicios. Esto significa que no solo Facebook y Google están incluidos en el ámbito de aplicación de la ley, sino también Amazon y las tiendas de aplicaciones.

Entre sus disposiciones figuran las siguientes: proteger a los menores de ser perfilados con fines publicitarios por las redes sociales; dar a los usuarios un medio para apelar contra la eliminación de contenidos; garantizar que los productos vendidos en mercados en línea como Amazon no sean falsos; y tomar medidas contra riesgos como la desinformación y la “ciberviolencia” ejercida contra las mujeres.

Las infracciones conllevan la amenaza de una multa del 6% de la facturación global y, en los casos más graves, la suspensión temporal del servicio. La Unión Europea también puede exigir que los sitios tomen medidas inmediatas para solucionar cualquier problema. Los usuarios podrán reclamar una indemnización por los perjuicios que les cause cualquier infracción de la ley.

¿Cuándo entra en vigor?

La ley divide a las empresas tecnológicas en distintos niveles. El nivel de mayor regulación abarca las Plataformas en Línea de Gran Tamaño (VLOP) y los Motores de Búsqueda en Línea de Gran Tamaño (VLSE) que tengan más de 45 millones de usuarios activos al mes. La Unión Europea determinará qué plataformas entran en esta categoría a principios del próximo año. Para este nivel –que podría incluir a Facebook, Instagram, Google, TikTok y Amazon– existen requisitos más estrictos. Para las VLOP y VLSE la ley podría entrar en vigor en verano y a principios del próximo año para el resto.

Los grandes operadores deben llevar a cabo una evaluación anual de los riesgos que suponen los contenidos nocivos, como la desinformación, la misoginia, los daños a menores y la manipulación electoral. También deben implementar medidas para mitigar esos riesgos, aunque las principales plataformas de redes sociales y motores de búsqueda ya cuentan con equipos de moderación de contenidos. No obstante, estos sistemas serán examinados ahora por la Unión Europea.

Las grandes plataformas también tendrán que publicar una auditoría independiente sobre su cumplimiento de la ley, así como sobre el número de personas que emplean en la moderación de los contenidos. También deben facilitar a los reguladores información detallada sobre el funcionamiento de sus algoritmos, los cuales seleccionan lo que se ve en internet mediante la recomendación de contenidos. También se permitirá que investigadores independientes supervisen el cumplimiento de la ley.

Las grandes plataformas de mercado, como Amazon, que no producen contenidos de redes sociales, aún tendrán que realizar evaluaciones de riesgos y publicar auditorías independientes.

La divulgación del funcionamiento de los algoritmos constituye un gran paso para las empresas tecnológicas. Los algoritmos de recomendación son una “caja negra” en la que los criterios de prioridad de los contenidos pueden ser poco transparentes. Una de las razones por las que las empresas protegen los detalles es para protegerse de hackers, spammers y agentes hostiles.

¿Cómo protegerá a los menores?

Las plataformas de redes sociales tendrán prohibido crear perfiles de usuarios infantiles a fin de que las empresas se dirijan a ellos con anuncios. Aquellas plataformas a las que puedan acceder menores –en efecto, la mayoría de las plataformas de redes sociales– deberán implementar medidas para proteger la privacidad de los menores y mantenerlos a salvo. Las principales plataformas también deben realizar evaluaciones de riesgo de los contenidos que perjudican a los menores y adoptar medidas para evitar que esos contenidos lleguen a los menores de 18 años. La propuesta legislativa de la Unión Europea pretende abarcar la retirada de material en internet que contenga abusos sexuales infantiles.

¿Y qué pasa en el caso de las plataformas pequeñas?

Las plataformas más pequeñas –al igual que las grandes, por supuesto– deben ofrecer a los usuarios el derecho a reclamar la eliminación de sus contenidos, además de la opción adicional de un proceso de apelación extrajudicial en caso de que no les satisfaga cómo se gestionó la queja. Sin embargo, los usuarios reincidentes que publiquen constantemente contenidos ilegales deben ser suspendidos.

Las plataformas también deben ser transparentes respecto a sus anuncios y algoritmos. En virtud de la DSA, las plataformas deben proporcionar a los usuarios información sobre por qué se les mostró un anuncio. También deben ofrecer detalles sobre los algoritmos que se utilizan para guiar la experiencia en internet del usuario.

Todos los mercados en línea tendrán que supervisar a los comerciantes que utilicen sus plataformas, asegurándose de que son localizables a fin de repeler a los vendedores deshonestos. Tendrán que implementar procedimientos para retirar productos inseguros o falsos. Esto incluye la verificación aleatoria de si los productos han sido considerados ilegales. Las autoridades públicas también podrán ordenar la retirada de productos inseguros.

Las empresas de servicios de alojamiento en la nube, que almacenan contenidos ajenos, tendrán que disponer de un mecanismo para que los usuarios y terceros señalen contenidos potencialmente ilegales y, posteriormente, notificar al denunciante la medida adoptada. También deberán informar a las autoridades pertinentes si detectan contenidos que puedan ser delictivos o indicar que se ha cometido un delito, aunque esto hace referencia únicamente a una amenaza para la vida o la seguridad.

Church explica: “Las principales obligaciones en materia de regulación de contenidos recaen en las plataformas en línea más grandes. Los operadores más pequeños estarán sujetos a una regulación mucho más laxa, aunque tendrán que publicar y hacer cumplir las condiciones de uso, y tendrán que aplicar un procedimiento de notificación y eliminación de contenidos ilegales”.

¿En qué se diferencia del proyecto de ley de seguridad en internet del Reino Unido?

La DSA no define los contenidos ilegales, que son definidos por los Estados miembros de la Unión Europea o por otras leyes sobre contenidos terroristas.

El proyecto de ley británico, que aún se encuentra en trámite parlamentario, tipifica nuevos delitos, como el cyberflashing y la incitación a la autolesión, e incluye una lista de contenidos ilegales que los usuarios no deben encontrar. También exige que las páginas web de pornografía realicen verificaciones de edad, un nivel de detalle que no queda reflejado en la DSA.

No obstante, ambas exigen que las principales plataformas lleven a cabo evaluaciones de riesgo de los contenidos nocivos que aparezcan en su plataforma y expliquen el modo en que mitigarán dichos riesgos. Ambas legislaciones pretenden garantizar que las plataformas en internet disponen de las estructuras adecuadas para prevenir y detectar los perjuicios. El proyecto de ley de seguridad en internet también conlleva sanciones similares, aunque la proporción de la facturación global que puede ser objeto de multa es mayor en la legislación británica, alcanzando el 10%.

La Unión Europea también va a promulgar una normativa conexa, la Ley de Mercados Digitales, con el fin de evitar comportamientos anticompetitivos por parte de las grandes empresas tecnológicas.

Ley de Servicios Digitales: cómo es la ambiciosa apuesta de la UE para depurar las redes sociales - 6048
La Comisión Europea comunicó a Elon Musk que Twitter debe esforzarse mucho más para ‘pasar la prueba’ de la DSA. Foto: Jim Watson/AFP/Getty Images

¿Podría Twitter quedar prohibido en virtud de la DSA?

El mes pasado, Breton lanzó una advertencia a Twitter y a sus preparativos para la DSA. Señaló que Twitter tendría que aumentar considerablemente sus esfuerzos para “pasar la prueba”, insinuando que la plataforma corría el riesgo de incumplir la ley. Ello podría implicar multas y, en última instancia, el bloqueo de la plataforma en la Unión Europea.

La amenaza surgió en un contexto de agitación en Twitter desde que fue adquirida por Elon Musk, incluyendo el despido de miles de empleados y el restablecimiento de cuentas previamente bloqueadas.

Según un vocero de la Comisión Europea, la ley también contiene disposiciones que abordan las suspensiones de las cuentas de periodistas del viernes, incluido el requisito de que cuando se sancione a los usuarios y el contenido debe ser de manera “diligente y proporcional, con el debido respeto a los derechos fundamentales”.

Sin embargo, la cuestión también depende de si Twitter está clasificado como VLOP. Estar clasificado como VLOP conlleva el mayor riesgo de ser considerado infractor de la ley debido a las exigencias normativas que impone a las plataformas que cumplen los requisitos. En cualquier caso, es posible que la Unión Europea afecte a Twitter y a otras grandes plataformas tecnológicas con investigaciones preliminares o solicitudes de información una vez que la ley entre en vigor.

Síguenos en

Google News
Flipboard