Todas las principales plataformas de medios sociales -desde Facebook a Reddit, Instagram y YouTube- moderan y regulan el contenido compartido por los usuarios. Las plataformas lo hacen por interés propio, comercial o de otro tipo. Pero las plataformas también moderan el contenido de los usuarios en respuesta a la presión de diversos grupos de interés y/o gobiernos.
Como consecuencia, las plataformas de medios sociales se han convertido en los árbitros del discurso en línea, definiendo lo que se puede o no decir y compartir al retirar el contenido como tales. A medida que el público ha ido tomando conciencia y criticando cada vez más el papel primordial que desempeñan las empresas privadas en la definición de la libertad de expresión de millones de usuarios en línea, las empresas de medios de comunicación social han tenido que hacer frente a una presión cada vez mayor para que se responsabilicen de sus prácticas de moderación de contenidos. En respuesta a tales demandas, y en parte para cumplir con los requisitos legales estipulados por regulaciones como la alemana NetzDG, Facebook y otras compañías de medios sociales publican "informes de transparencia" detallados con el fin de dar alguna idea de sus prácticas de moderación.
La transparencia no siempre es igual a la transparencia
El más reciente "informe sobre la aplicación de las normas comunitarias" de Facebook, que se publicó en agosto y que también abarca a su filial Instagram, es emblemático de algunos de los déficits de las empresas que informan sobre sus propias prácticas de moderación de contenidos. El informe ofrece un panorama general del número de publicaciones eliminadas, desglosadas según las 10 áreas de política que Facebook utiliza para categorizar el habla (no está claro si Facebook utiliza internamente categorías más granulares o no). Estas categorías pueden diferir entre Facebook e Instagram. Por categoría, Facebook también informa sobre la prevalencia de un determinado tipo de contenido en sus plataformas, el porcentaje de contenido supuestamente infractor que fue eliminado antes de que fuera denunciado por los usuarios y cuántas piezas de contenido supuestamente problemático fueron restauradas posteriormente.
Pero la moderación del contenido, y su impacto, es siempre contextual. Mientras que el informe estéril de Facebook de números y porcentajes puede dar una estimación aproximada de cuántas piezas de contenido de qué categorías se eliminan, no nos dice por qué o cómo se toman estas decisiones. Por lo tanto, el enfoque de Facebook en cuanto a la transparencia no da en el clavo, ya que la transparencia real debería permitir a los de afuera ver y entender qué acciones se realizan y por qué. La transparencia significativa inherentemente implica apertura y responsabilidad, y no puede ser satisfecha simplemente contando los retiros. Es decir, hay una diferencia entre la "transparencia" sancionada por las empresas, que es inherentemente limitada, y la transparencia significativa que permite a los usuarios entender las acciones de Facebook y hacer que la empresa rinda cuentas.
Esto es especialmente relevante a la luz del cambio fundamental en el enfoque de Facebook sobre la moderación de contenidos durante la pandemia de COVID-19. Como las empresas no podían confiar en sus moderadores de contenido humano, Facebook, Twitter y YouTube comenzaron a depender mucho más de las herramientas de moderación automatizada, a pesar de las deficiencias documentadas de las herramientas de IA para juzgar correctamente el contexto social, cultural y político del discurso. A medida que las plataformas de medios sociales aumentan su uso de herramientas de moderación de contenidos automatizados, es especialmente crucial proporcionar explicaciones reales sobre cómo estas tecnologías configuran (y limitan) las experiencias en línea de las personas.
La verdadera transparencia debe proporcionar un contexto
Entonces, ¿cómo sería un informe de transparencia significativo? En primer lugar, debería aclarar lo básico: ¿cuántos moderadores humanos hay y cuántos cubren cada idioma? ¿Hay idiomas para los que no hay un hablante nativo para juzgar el contexto del discurso? ¿Cuál es la proporción de moderadores por idioma? Esa información es importante para ayudar a comprender (¡y evitar!) crisis como la que se produjo cuando la incapacidad de Facebook para detectar los discursos de odio dirigidos contra los Rohingya contribuyó a la violencia generalizada en Myanmar.
La verdadera transparencia tampoco debe limitarse a dar luz sobre las cajas negras que los sistemas de moderación de contenido algorítmico parecen ser desde fuera. A fin de dar a los usuarios agencia frente a las herramientas automatizadas, las empresas deberían explicar qué tipo de tecnología e insumos se utilizan y en qué punto o puntos de los procesos de moderación de contenidos. ¿Se utiliza esa tecnología para señalar automáticamente el contenido sospechoso? ¿O se utiliza también para juzgar y categorizar el contenido marcado? Cuando los usuarios informan de la eliminación de contenidos, ¿hasta qué punto están tratando con robots de chat automatizados y cuándo se revisan las quejas por parte de los humanos? Los usuarios también deberían ser capaces de entender la relación entre los humanos y la revisión automatizada: ¿los humanos están simplemente "en el bucle", o ejercen una verdadera supervisión y control sobre los sistemas automatizados?
Otro pilar importante de la transparencia significativa son las políticas que constituyen la base para la eliminación de contenidos. Las compañías de medios sociales a menudo desarrollan estas políticas sin mucha aportación externa, y las ajustan constantemente. Los términos de servicio de las plataformas o las directrices de la comunidad tampoco suelen entrar en grandes detalles o proporcionar ejemplos para delinear claramente el discurso aceptable. Los informes de transparencia podrían, por ejemplo, incluir información sobre la forma en que se elaboran las políticas de moderación, si han contribuido expertos o interesados externos y cuáles, con qué frecuencia se modifican y en qué medida.
Estrechamente relacionado: los informes de transparencia deben describir y explicar cómo se capacita a los moderadores humanos y automatizados para reconocer el contenido infractor. En muchos casos, la diferencia es entre, por ejemplo, la incitación al terrorismo y la lucha contra el extremismo. Para los moderadores -que trabajen con rapidez- la línea divisoria entre ambos puede ser difícil de juzgar y depende del contexto de la declaración en cuestión. Por eso es crucial entender cómo las plataformas están preparando a sus moderadores para entender y juzgar correctamente tales matices.
La verdadera transparencia es empoderadora, no impersonal
Una transparencia significativa debería permitir a las personas comprender cómo se gobierna una plataforma de medios de comunicación social, conocer sus derechos según ese modelo de gobernanza y hacer que las empresas rindan cuentas cada vez que transgredan dicho modelo. Acogemos con agrado los esfuerzos de las empresas para, al menos, ofrecer un vistazo a su sala de máquinas de moderación de contenidos. Pero todavía tienen un largo camino por recorrer.
Por ello, hemos emprendido un proceso de revisión de los Principios de Santa Clara sobre la responsabilidad y la transparencia en la moderación de los contenidos, proceso que está actualmente en curso. Esperamos compartir las conclusiones de nuestra investigación y contribuir al futuro de la transparencia corporativa.