Como la Unión Europea se está preparando para una importante reforma de la normativa fundamental de Internet, estamos introduciendo los principios que guiarán nuestro trabajo político en torno a la Ley de Servicios Digitales. En este artículo, exponemos nuestra visión de las normas que deben regir la forma en que las plataformas de Internet se comprometen con el contenido de los usuarios. Nuestro objetivo es facultar a los usuarios para que se expresen y hagan valer sus derechos cuando se enfrenten a los sistemas de moderación de contenidos rotos de las plataformas.
Nuevas reglas para las plataformas en línea
En una medida muy esperada, la Comisión Europea ha anunciado recientemente su intención de actualizar el marco europeo de reglamentación de las plataformas en línea, por primera vez en dos decenios. Una nueva iniciativa jurídica -la Ley de Servicios Digitales- establecerá nuevas responsabilidades y normas para las plataformas en línea y probablemente configurará las realidades de millones de usuarios en toda la UE en los próximos años.
Esta es una importante oportunidad para actualizar las responsabilidades legales de las plataformas y consagrar los derechos de los usuarios frente a las poderosas plataformas de control de acceso que controlan gran parte de nuestro entorno en línea. Pero también existe el riesgo de que la Ley de Servicios Digitales siga los pasos de los recientes avances normativos de Alemania en Francia. El NetzDG alemán y el proyecto de ley francés Avia (que ayudamos a llevar a los tribunales) muestran una tendencia preocupante en la UE de obligar a las plataformas a vigilar el contenido de los usuarios sin tener en cuenta lo que más importa: dar voz a los usuarios afectados por la retirada de contenidos.
Mientras Europa se prepara para esta importante reforma, la EFF colaborará con las instituciones de la UE para luchar por los derechos de los usuarios, las salvaguardias de procedimiento, la transparencia y la interoperabilidad, preservando al mismo tiempo los elementos que han hecho de la reglamentación de Internet en Europa un éxito hasta ahora: la responsabilidad limitada de las plataformas en línea para el contenido generado por los usuarios y una clara prohibición de las obligaciones de filtrado y vigilancia.
Procedimientos de notificación y acción justos y equitativos
Según la columna vertebral actual de la reglamentación de Internet en la UE, la Directiva sobre el comercio electrónico, las plataformas no son legalmente responsables de lo que los usuarios publican y comparten con una condición: las plataformas deben eliminar o desactivar el contenido (o las actividades) ilegal cuando tienen conocimiento de dicho contenido. Las normas también subrayan que cuando las plataformas deciden eliminar o desactivar el acceso a la información, deben observar el principio de la libre expresión. Pero la Directiva sobre el comercio electrónico no dice nada sobre la forma en que las plataformas deben asegurarse de que respetan y protegen la libertad de expresión de los usuarios cuando moderan su contenido.
La UE debe adoptar fuertes salvaguardias para proteger los derechos de los usuarios cuando su contenido es retirado o se hace inaccesible. La EFF ha abogado durante mucho tiempo por una mayor transparencia y responsabilidad en la moderación de los contenidos. Junto con una coalición internacional de investigadores y organizaciones de derechos digitales, hemos formulado los Principios de Santa Clara para alentar a las empresas a que proporcionen un debido proceso significativo en el contexto de sus sistemas de moderación de contenidos.
La Ley de Servicios Digitales es una oportunidad crucial para convertir en ley algunas de las ideas que guían los Principios de Santa Clara. Es esencial que la UE no deje esta importante cuestión en manos de los Estados miembros; los usuarios de toda la UE deberían poder confiar en un conjunto de normas coherentes y justas, tanto en las plataformas como en las fronteras.
Principio 1: Mecanismos de información
Los intermediarios no deben ser considerados responsables por elegir no eliminar el contenido simplemente porque recibieron una notificación privada de un usuario. Salvo excepciones, la UE debería adoptar el principio de que el conocimiento efectivo de la ilegalidad sólo lo obtienen los intermediarios si se les presenta una orden judicial.
Sin embargo, la UE debería adoptar normas armonizadas sobre los mecanismos de notificación que ayuden a los usuarios a notificar a las plataformas sobre contenidos y comportamientos potencialmente ilegales. Denunciar el contenido potencialmente ilegal en línea suena sencillo, pero en la práctica puede resultar desalentador. Las distintas plataformas utilizan diferentes sistemas para notificar contenidos o actividades, y las categorías utilizadas para diferenciar los distintos tipos de contenido pueden diferir ampliamente, pero también pueden ser confusas y difíciles de comprender. Algunas plataformas no ofrecen opciones de notificación significativas en absoluto. La notificación de contenido potencialmente ilegal debe ser fácil, y las medidas de seguimiento de la plataforma deben ser transparentes para sus usuarios.
Principio 2: Una norma de transparencia y justicia en la notificación y la acción
La moderación del contenido suele ser opaca: las empresas no suelen dar a los usuarios suficiente información sobre qué discurso es permisible o por qué se han retirado ciertos contenidos. Para que la moderación de contenidos sea más transparente, las plataformas deberían avisar a los usuarios cuando se haya retirado el contenido (o se haya suspendido su cuenta). En ese aviso se debe identificar el contenido eliminado, la norma específica que se ha considerado que viola y la forma en que se ha detectado el contenido. También debería ofrecer una explicación fácilmente accesible del proceso mediante el cual el usuario puede apelar la decisión.
Las plataformas deberían ofrecer un proceso de apelación fácil de usar, visible y rápido para permitir la resolución significativa de las controversias sobre la moderación del contenido. Los mecanismos de apelación también deben ser accesibles, fáciles de utilizar y seguir un calendario claramente comunicado. Deben permitir a los usuarios presentar información adicional, y deben incluir el examen humano. Al final del proceso de apelación, se debe notificar a los usuarios y se les debe proporcionar una declaración en la que se expliquen los motivos de la decisión adoptada en un idioma que el usuario pueda comprender. También es fundamental que se informe a los usuarios de que, incluso si deciden participar en un proceso de solución de controversias, no pierden su derecho a pedir justicia ante autoridades judiciales independientes, como un tribunal de su jurisdicción de origen.
Principio 3: Abrir la caja negra que es la toma de decisiones automatizada
La mayoría de las plataformas principales utilizan algoritmos para automatizar parte de sus prácticas de moderación de contenidos. La moderación de contenidos es un trabajo precario y arriesgado, y muchos esperan que las herramientas automatizadas de moderación de contenidos puedan ser la bala de plata que resuelva los muchos problemas de la moderación de contenidos. Desafortunadamente, la moderación de contenidos es un trabajo desordenado, altamente dependiente del contexto e increíblemente difícil de hacer bien, y las herramientas de moderación automatizada cometen muchos, muchos errores. Estos desafíos se han hecho especialmente evidentes durante la pandemia COVID-19, ya que muchas plataformas reemplazaron a los moderadores humanos por herramientas de moderación de contenido automatizadas.
A la luz de los defectos fundamentales de la moderación de contenido automatizada, las plataformas deberían proporcionar la mayor transparencia posible sobre la forma en que utilizan las herramientas algorítmicas. Si las plataformas utilizan la toma de decisiones automatizada para restringir el contenido, deberían indicar en qué etapa del proceso se utilizaron las herramientas algorítmicas, explicar la lógica que subyace a las decisiones automatizadas tomadas y también explicar cómo los usuarios pueden impugnar la decisión.
Principio 4: Reinserción de contenidos erróneamente eliminados
Los sistemas de moderación de contenidos cometen errores todo el tiempo - sin importar si son humanos o automatizados - que pueden causar un daño real. Los esfuerzos para moderar el contenido considerado ofensivo o ilegal tienen constantemente impactos desproporcionados en grupos ya marginados. La moderación de contenidos a menudo interfiere con los discursos, los intentos de reclamar términos específicos o de apelar al racismo compartiendo las declaraciones racistas que se hacen.
Dado que las decisiones erróneas de moderación del contenido son tan comunes y tienen efectos tan negativos, es fundamental que las plataformas restablezcan el contenido de los usuarios cuando la decisión de eliminación no pueda justificarse mediante una interpretación sensata de las normas de las plataformas o la eliminación haya sido simplemente un error. La Ley de Servicios Digitales debería promover el restablecimiento rápido y fácil de los contenidos eliminados por error o de las cuentas desactivadas por error.
Principio 5: Supervisión regulatoria coordinada y efectiva
Las buenas leyes son cruciales, pero su aplicación es igual de importante. Por lo tanto, los legisladores europeos deberían asegurarse de que las autoridades independientes puedan exigir responsabilidades a las plataformas. Debe reforzarse la coordinación entre las autoridades nacionales independientes para permitir la aplicación de la ley en toda la Unión Europea, y debe incentivarse a las plataformas para que cumplan con sus deberes de diligencia debida mediante, por ejemplo, la armonización de sanciones significativas en toda la Unión Europea.