Esta es la segunda entrega de una serie de cuatro blogs que documentan el trabajo de la EFF en Europa. Puedes leer más entradas aquí:

La misión de la EFF es garantizar que la tecnología apoye la libertad, la justicia y la innovación para todos los pueblos del mundo. Aunque nuestro trabajo nos ha llevado a rincones remotos del planeta, en los últimos años hemos trabajado para ampliar nuestros esfuerzos en Europa, creando un equipo político con experiencia clave en la región, y aportando nuestra experiencia en defensa y tecnología a la lucha europea por los derechos digitales.

En esta serie de entradas de blog, te presentaremos a los distintos actores implicados en esa lucha, compartiremos cómo trabajamos en Europa y cómo lo que ocurre en Europa puede afectar a los derechos digitales en todo el mundo.

El enfoque de la EFF sobre la libertad de expresión

La difusión mundial del acceso a Internet y de los servicios digitales prometía una nueva era de libertad de expresión, en la que todo el mundo podría compartir y acceder a la información, expresarse y encontrar un público sin depender de guardianes, y hacer, manipular y compartir obras creativas.  

Todo el mundo debería tener derecho a expresarse y compartir ideas libremente. Varios países europeos han sufrido regímenes totalitarios y una amplia censura en el siglo pasado, por lo que muchos europeos siguen haciendo especial hincapié en la privacidad y la libertad de expresión. Estos valores están consagrados en el Convenio Europeo de Derechos Humanos y en la Carta de los Derechos Fundamentales de la Unión Europea, marcos jurídicos esenciales para la protección de los derechos fundamentales.  

Hoy en día, dado que gran parte de nuestra libertad de expresión se ve facilitada por las plataformas en línea, existe la expectativa de que éstas también respeten los derechos fundamentales. A través de sus condiciones de servicio, directrices comunitarias o normas internas, las plataformas llegan a definir unilateralmente qué discurso está permitido en sus servicios. La aplicación de estas normas puede ser arbitraria, poco transparente y selectiva, lo que da lugar a la supresión de ideas polémicas y voces minoritarias.  

Por eso la EFF ha estado luchando tanto contra las amenazas gubernamentales a la libertad de expresión como para que las empresas tecnológicas se responsabilicen de fundamentar sus prácticas de moderación de contenidos en sólidos marcos de derechos humanos. Esto implica establecer reglas y normas claras para los procesos internos, como las notificaciones y explicaciones a los usuarios cuando se aplican o modifican las condiciones de los servicios. En la Unión Europea, llevamos décadas trabajando para garantizar que las leyes que rigen las plataformas en línea respeten los derechos fundamentales, abogando contra la censura y defendiendo a los defensores de los derechos humanos.

¿Qué es la Ley de Servicios Digitales y por qué seguimos hablando de ella

En los últimos años, hemos estado especialmente ocupados abordando los problemas de derechos humanos con la redacción y aplicación de la DSA la Ley de Servicios Digitales (DSA), la nueva ley que establece las normas para los servicios en línea en la Unión Europea. La DSA abarca la mayoría de los servicios en línea, desde mercados en línea como Amazon, motores de búsqueda como Google, redes sociales como Meta y tiendas de aplicaciones. Sin embargo, no todas sus normas se aplican a todos los servicios, sino que la DSA sigue un enfoque basado en el riesgo que impone más obligaciones a los servicios más grandes y con mayor impacto en los usuarios. Todos los proveedores de servicios deben garantizar que sus condiciones de servicio respetan los derechos fundamentales, que los usuarios pueden ponerse en contacto con ellos fácilmente y que informan sobre sus actividades de moderación de contenidos. Se aplican normas adicionales a las plataformas en línea: deben facilitar a los usuarios información detallada sobre las decisiones de moderación de contenidos y el derecho a recurrir, así como obligaciones adicionales de transparencia. También tienen que proporcionar cierta transparencia básica sobre el funcionamiento de sus sistemas de recomendación y no se les permite dirigirse a usuarios menores de edad con anuncios personalizados. Las obligaciones más estrictas se aplican a las mayores plataformas en línea y motores de búsqueda, que tienen más de 45 millones de usuarios en la UE. Estas empresas, entre las que se encuentran X, TikTok, Amazon, Google Search y Play, YouTube y varias plataformas pornográficas, deben evaluar y mitigar proactivamente los riesgos sistémicos relacionados con el diseño, funcionamiento y uso de sus servicios. Entre ellos se incluyen los riesgos para el ejercicio de los derechos fundamentales, las elecciones, la seguridad pública, el discurso cívico, la protección de los menores y la salud pública. Este enfoque novedoso puede tener mérito, pero también es motivo de preocupación: Los riesgos sistémicos apenas están definidos y podrían dar lugar a restricciones del discurso lícito, y las medidas para hacer frente a estos riesgos, por ejemplo la verificación de la edad, tienen en sí mismas consecuencias negativas, como socavar la intimidad de los usuarios y su acceso a la información.  

La DSA es un instrumento legislativo importante para promover los derechos de los usuarios y responsabilizar a las empresas, pero también conlleva riesgos significativos. Nos preocupa el requisito de la DSA de que los proveedores de servicios compartan proactivamente los datos de los usuarios con las autoridades policiales y los poderes que otorga a los organismos gubernamentales para solicitar dichos datos. Advertimos contra el uso indebido del mecanismo de emergencia de la DSA y la ampliación del enfoque de gobernanza de los riesgos sistémicos de la DSA como herramienta universal para reprimir la expresión no deseada pero lícita. Del mismo modo, el nombramiento de señaladores de confianza podría llevar a presionar a las plataformas para que eliminen contenidos en exceso, sobre todo porque la DSA no limita a las autoridades gubernamentales la posibilidad de convertirse en señaladores de confianza.  

La EFF ha abogado por que los legisladores adopten un enfoque comedido que no socave la libertad de expresión. Aunque hemos logrado evitar algunas de las ideas más perjudiciales, sigue habiendo preocupación, especialmente en lo que se refiere a la politización de la aplicación de la LSD y a una posible aplicación excesiva. Por eso vigilaremos de cerca la aplicación del ASD, dispuestos a utilizar todos los medios a nuestro alcance para oponernos a la aplicación excesiva y defender los derechos de los usuarios.  

Las leyes europeas implican a menudo a usuarios de todo el mundo. Para dar voz a los usuarios no europeos en Bruselas, hemos estado facilitando la Alianza de Derechos Humanos de la DSA. La Alianza de Derechos Humanos de la ASD se forma en torno a la convicción de que la ASD debe adoptar un enfoque de la gobernanza de la plataforma basado en los derechos humanos y tener en cuenta su impacto global. Seguiremos desarrollando y ampliando la Alianza para garantizar que la aplicación de la DSA no tenga consecuencias negativas no deseadas y respete los derechos de los usuarios en todo el mundo.

Sobre la regulación de plataformas en el Reino Unido

Paralelamente a la Ley de Servicios Digitales, el Reino Unido ha aprobado su propia normativa sobre plataformas, la Ley de Seguridad Online (OSA). Con el objetivo de hacer del Reino Unido "el lugar más seguro del mundo para estar en línea", la OSA conducirá a una Internet más censurada y bloqueada para los usuarios británicos. La Ley faculta al gobierno británico para socavar no sólo la privacidad y la seguridad de los residentes en el Reino Unido, sino de los usuarios de Internet de todo el mundo.

Las plataformas en línea deberán eliminar los contenidos que el gobierno británico considere inapropiados para los niños. Si no lo hacen, se enfrentarán a fuertes sanciones. El problema es que, tanto en el Reino Unido como en Estados Unidos y otros países, la gente discrepa profundamente sobre qué tipo de contenido es perjudicial para los niños. Poner esa decisión en manos de los reguladores gubernamentales conducirá a decisiones de censura politizadas.  

La OSE también dará lugar a sistemas perjudiciales de verificación de la edad. No deberías tener que mostrar tu DNI para conectarte. Los sistemas de verificación de la edad destinados a mantener alejados a los niños conducen invariablemente a que los adultos pierdan su derecho a la expresión privada, y anónima, que a veces es necesaria.  

Como Ofcom está empezando a publicar sus reglamentos y directrices, estamos atentos a cómo planea el regulador evitar estos escollos en materia de derechos humanos, y seguiremos luchando contra cualquier esfuerzo insuficiente para proteger la expresión y la privacidad en línea.  

Libertad de prensa y pluralidad para

Otra cuestión que hemos defendido es la libertad de los medios de comunicación. Al igual que la DSA, la UE ha revisado recientemente sus normas para los servicios de medios de comunicación: la Ley Europea de Libertad de los Medios de Comunicación (EMFA). En este contexto, nos opusimos a las normas que habrían obligado a plataformas en línea como YouTube, X o Instagram a difundir cualquier contenido de los medios de comunicación. Con la intención de reforzar el pluralismo de los medios de comunicación, obligar a las plataformas a albergar contenidos por la fuerza tiene graves consecuencias: Millones de usuarios de la UE ya no pueden confiar en que las plataformas online se ocuparán de los contenidos que violen las normas de la comunidad. Además, no hay forma fácil de diferenciar entre los proveedores de medios legítimos y los que son conocidos por difundir desinformación, como los sitios de Rusia afiliados al gobierno y activos en la UE. Quitar a las plataformas la posibilidad de restringir o eliminar tales contenidos podría socavar el discurso público, en lugar de fomentarlo.  

La versión final del EMFA introduce una serie de salvaguardias importantes, pero sigue siendo un mal negocio para los usuarios: Seguiremos de cerca su aplicación para garantizar que las nuevas normas fomentan realmente la libertad y la pluralidad de los medios de comunicación, inspiran confianza en ellos y limitan el uso de programas espía contra los periodistas.  

Desenmascarar la censura y defender a quienes  defienden

Cubrir la regulación es sólo una pequeña parte de lo que hacemos. En los últimos años, hemos revelado una y otra vez cómo las prácticas de moderación de contenidos de amplio espectro de las empresas censuran a los usuarios en nombre de la lucha contra el terrorismo, y restringen las voces de las personas LGBTQ, los profesionales del sexo y los grupos infrarrepresentados.  

De cara a 2025, seguiremos arrojando luz sobre estas restricciones de expresión y prestaremos especial atención a la censura de las voces palestinas, que ha sido rampante. Seguiremos colaborando con nuestros aliados de la Coalición por la Intimidad digital para compartir cómo las políticas restrictivas de la libertad de expresión suelen afectar desproporcionadamente a los trabajadores del sexo. También seguiremos analizando de cerca el impacto del creciente y cambiante uso de la inteligencia artificial en la moderación de contenidos.  

Por último, una parte crucial de nuestro trabajo en Europa ha sido hablar en nombre de quienes no pueden hacerlo: los defensores de los derechos humanos que se enfrentan a la cárcel y a la censura.  

Queda mucho trabajo por hacer. Hemos presentado recomendaciones políticas exhaustivas a los legisladores europeos y seguiremos luchando por una Internet en la que todos puedan hacer oír su voz. En las próximas entradas de esta serie, sabrás más sobre cómo trabajamos en Europa para garantizar que los mercados digitales sean justos, ofrezcan opciones a los usuarios y respeten los derechos fundamentales.