Este es el primer post de una serie sobre la responsabilidad de los intermediarios en Brasil. Nuestro segundo post contiene más información sobre decisiones recientes y análisis sobre la sentencia del Tribunal Supremo, proporcionando una visión más amplia del contexto brasileño subyacente al análisis del tribunal. Nuestro tercer post detalla los elementos relevantes de los votos de los jueces, subrayando los riesgos, las medidas de mitigación y los puntos ciegos de su posible decisión.
Actualización: El análisis del Tribunal Supremo de Brasil sobre el régimen de responsabilidad de los intermediarios en el país concluyó el 26 de junio de 2025. Con tres votos en contra a favor de la constitucionalidad del artículo 19, la mayoría del tribunal lo consideró parcialmente inconstitucional. Lamentablemente, muchos de los peligros que señalamos se han hecho realidad. La sentencia incluye algunas (aunque no todas) de las garantías mínimas que habíamos recomendado. El contenido completo de la tesis final aprobada está disponible aquí. Algunos aspectos destacados: es importante señalar que el tribunal mantuvo el régimen del artículo 19 para los delitos contra el honor (como la difamación). Sin embargo, el régimen de notificación y eliminación establecido en el artículo 21 se convirtió en la norma general para la responsabilidad de las plataformas por el contenido de los usuarios. Las plataformas son responsables, independientemente de la notificación, del contenido de pago que distribuyen (incluidos los anuncios) y de las publicaciones compartidas a través de «redes de distribución artificial» (es decir, redes de bots). El tribunal estableció un deber de diligencia en relación con la distribución de contenidos ilícitos graves específicos. Este enfoque del deber de vigilancia es bastante controvertido, especialmente si se tiene en cuenta la naturaleza y el tamaño tan variados de las plataformas. Afortunadamente, la sentencia subraya que las plataformas solo pueden ser consideradas responsables de estos contenidos específicos sin previo aviso si no los abordan de manera sistémica (en lugar de hacerlo con publicaciones individuales). El régimen de responsabilidad del artículo 19 sigue siendo la norma general para aplicaciones como los servicios de correo electrónico, las plataformas de conferencias virtuales y las aplicaciones de mensajería (en lo que respecta a los mensajes interpersonales). El texto completo de la sentencia, incluido el contenido íntegro de los votos de los jueces, se publicará en las próximas semanas.
El Tribunal Supremo de Brasil está a punto de decidir si las plataformas digitales pueden ser consideradas responsables de contenidos de terceros incluso sin una orden judicial que exija su retirada. Un grupo de once jueces está examinando dos casos conjuntamente, y uno de ellos cuestiona directamente si el régimen brasileño de responsabilidad de los intermediarios de Internet por contenidos generados por los usuarios se ajusta a la Constitución Federal del país o no cumple las normas constitucionales. El resultado de estos casos puede socavar gravemente importantes salvaguardias de la libertad de expresión y la privacidad si conducen a obligaciones generales de supervisión de contenidos o amplían ampliamente los mandatos de notificación y retirada.
El examen del tribunal gira en torno al artículo 19 del deMarco Civil de Internet de Brasil ("Marco Civil da Internet", Ley n. 12.965/2014 ). La disposición establece que un proveedor de aplicaciones de Internet sólo puede ser considerado responsable del contenido de terceros si no cumple una orden judicial de retirar el contenido. Se aplica una excepción de notificación y retirada a la disposición en casos de infracción de derechos de autor, divulgación no autorizada de imágenes privadas que contengan desnudez o actividad sexual, y contenido que implique abuso sexual infantil. Las dos primeras excepciones están en el Marco Civil, mientras que la tercera procede de una norma anterior incluida en la ley brasileña de protección de menores.
La decisión que adopte el tribunal sentará un precedente para los tribunales inferiores en relación con dos temas principales: si el régimen de responsabilidad de los intermediarios de Internet de Marco Civil está en consonancia con la Constitución de Brasil y si los proveedores de aplicaciones de Internet tienen la obligación de supervisar el contenido en línea que alojan y retirarlo cuando lo consideren ofensivo, sin intervención judicial. Además, puede tener un impacto regional y transregional, ya que los legisladores y los tribunales observan a través de las fronteras las tendencias de regulación de las plataformas en medio de las iniciativas de coordinación mundial.
Tras una audiencia pública celebrada el año pasado, las sesiones del Tribunal sobre los casos comenzaron a finales de noviembre y, hasta ahora, sólo el juez Dias Toffoli, encargado del caso de constitucionalidad de Marco Civil, ha concluido la presentación de su voto. El juez declaró inconstitucional el artículo 19 y estableció el régimen de notificación y retirada establecido en el artículo 21 de Marco Civil, relativo a la divulgación no autorizada de imágenes privadas, como norma general para la responsabilidad de los intermediarios. Según su voto, la determinación de la responsabilidad debe tener en cuenta las actividades que el proveedor de la aplicación de Internet ha realizado realmente y el grado de interferencia de estas actividades.
Sin embargo, las plataformas podrían ser consideradas responsables de determinados contenidos independientemente de la notificación, lo que daría lugar a un deber de vigilancia. Los ejemplos incluyen contenidos considerados delitos penales, como crímenes contra el Estado democrático, trata de seres humanos, terrorismo, racismo y violencia contra niños y mujeres. También incluye la publicación de hechos notoriamente falsos o gravemente descontextualizados que conduzcan a la violencia o tengan potencial para perturbar el proceso electoral. En caso de duda razonable, la norma de notificación y retirada del artículo 21 del Marco Civil sería el régimen aplicable.
La sesión del tribunal se reanuda hoy, pero aún no se sabe si los once jueces llegarán a una sentencia a finales de año.
Algunos antecedentes sobre el régimen de responsabilidad de intermediarios de Marco Civil
La intención legislativa de 2014 de establecer el artículo 19 como norma general para la responsabilidad de los proveedores de aplicaciones de Internet por los contenidos generados por los usuarios reflejaba la preocupación de la sociedad civil por la censura de las plataformas. Ante el riesgo de ser consideradas responsables de los contenidos de los usuarios, las plataformas de Internet generalmente priorizan sus intereses económicos y su seguridad sobre la preservación de la expresión protegida de los usuarios y eliminan contenidos en exceso para evitar batallas legales y el escrutinio normativo. La aplicación extralimitada de las normas sobre derechos de autor en línea ya era un problema cuando tuvo lugar el debate legislativo del Marco Civil. Los legisladores optaron por confiar en los tribunales para equilibrar los distintos derechos en juego a la hora de retirar o mantener en línea los contenidos de los usuarios. La aprobación del Marco Civil contó con un amplio apoyo social y se consideró una victoria para el avance de los derechos de los usuarios en Internet.
La disposición estaba en consonancia con las Relatorías Especiales para la Libertad de Expresión de Naciones Unidas y de la Comisión Interamericana de Derechos Humanos (CIDH). En este sentido, el entonces Relator Especial de la CIDH había señalado claramente que un régimen de responsabilidad objetiva crea fuertes incentivos para la censura privada, y sería contrario al deber del Estado de favorecer un marco institucional que proteja y garantice la libre expresión según la Convención Americana sobre Derechos Humanos. Los regímenes de notificación y retirada, como norma general, también suscitaban la preocupación de un exceso de retirada y la militarización de los mecanismos de notificación para censurar la expresión protegida.
Han ocurrido muchas cosas desde 2014. Las plataformas de Big Tech han consolidado su dominio, el ecosistema de Internet está más centralizado y la mediación algorítmica de la distribución de contenidos en línea se ha intensificado, apoyándose cada vez más en una estructura de vigilancia corporativa. No obstante, las preocupaciones que refleja Marco Civil siguen siendo relevantes, del mismo modo que el equilibrio que ha alcanzado su norma sobre responsabilidad de los intermediarios persiste como forma adecuada de abordar estas preocupaciones. En cuanto a los retos actuales, es probable que los cambios en el régimen de responsabilidad sugeridos en el voto de Dias Toffoli refuercen, en lugar de reducir, la vigilancia corporativa, el predominio de las grandes empresas tecnológicas y el poder de las plataformas digitales sobre la expresión en línea.
Los casos enjuiciados y el alcance de la decisión del Tribunal Supremo
Los dos casos individuales que analiza el Tribunal Supremo tienen más de una década. Ambos se refieren al derecho al honor. En el primero, la demandante, una profesora de secundaria, demandó a Google Brasil Internet Ltda para que retirara una comunidad online creada por unos alumnos para ofenderla en la ya desaparecida plataforma Orkut. Pidió la eliminación de la comunidad y una indemnización por daños morales, ya que la plataforma no eliminó la comunidad tras una notificación extrajudicial. Google eliminó la comunidad tras la decisión del tribunal inferior, pero la disputa judicial sobre la indemnización continuó.
En el segundo caso, la demandante demandó a Facebook después de que la empresa no eliminara una cuenta falsa ofensiva que se hacía pasar por ella. La demanda pretendía el cierre de la cuenta falsa, la identificación de la dirección IP de la cuenta y una indemnización por daños morales. Como Marco Civil ya había pasado, el juez denegó la petición de indemnización moral. Sin embargo, el tribunal de apelación consideró que Facebook podía ser responsable por no eliminar la cuenta falsa tras una notificación extrajudicial, al considerar inconstitucional el régimen de responsabilidad del intermediario de Marco Civil frente a la protección constitucional de los consumidores en Brasil.
Ambos casos llegaron hasta el Tribunal Supremo en dos recursos extraordinarios distintos, que ahora se examinan conjuntamente. Para que el Tribunal Supremo analice los recursos extraordinarios, debe identificar y aprobar una cuestión de "repercusión general" que se desarrolle a partir del caso individual. Como tal, los temas objeto de análisis del Tribunal Supremo brasileño en estos recursos no son sólo los casos individuales, sino también la comprensión del tribunal sobre las cuestiones de repercusión general implicadas. Lo que el tribunal estipule a este respecto orientará las decisiones de los tribunales inferiores en casos similares.
Las dos cuestiones de repercusión general sometidas a examen son, pues, la constitucionalidad del régimen de responsabilidad de los intermediarios de Internet del Marco Civil y si los proveedores de aplicaciones de Internet tienen la obligación de controlar los contenidos publicados y retirarlos cuando los consideren ofensivos, sin intervención judicial.
Hay mucho en juego para los derechos de los usuarios en Internet en los resultados de estos casos.
Los muchos peligros y trampas del camino
En Brasil, el debate sobre la regulación de las plataformas se ha acalorado en los últimos años. La preocupación por el gigantesco poder de las plataformas de Big Tech, los efectos negativos de su modelo de negocio basado en la atención, y las revelaciones de planes y acciones de la anterior administración presidencial para mantenerse en el poder de forma arbitraria inflamaron las discusiones sobre la regulación de Big Tech. Como su principal vector, el proyecto de ley 2630 (PL 2630), no avanzó en el Congreso brasileño, los casos pendientes del Tribunal Supremo ganaron tracción como alternativa disponible para introducir cambios.
Hemos escrito sobre las tendencias de la responsabilidad de los intermediarios en todo el mundo, sobre cómo avanzar, y los riesgos de que los cambios en los regímenes de puertos seguros acaben remodelando el comportamiento de los intermediarios de forma que, en última instancia, perjudiquen la libertad de expresión y otros derechos de los usuarios de Internet.
Uno de estos riesgos es confiar en los regímenes de responsabilidad objetiva para moderar la expresión de los usuarios en línea. Responsabilizar a los proveedores de aplicaciones de Internet por los contenidos generados por los usuarios, independientemente de una notificación, significa exigirles que pongan en marcha sistemas de supervisión y filtrado de contenidos con retiradas automáticas de posibles contenidos infractores.
Aunque plataformas como Facebook, Instagram, X (ex Twitter), Tik Tok y YouTube ya utilizan herramientas de IA para moderar y curar el enorme volumen de contenidos que reciben por minuto, los recursos de que disponen para hacerlo no están disponibles para otros proveedores de aplicaciones de Internet más pequeños que alojan la expresión de los usuarios. Hacer de la supervisión automatizada de contenidos una obligación general probablemente intensificará la concentración del ecosistema en línea en sólo un puñado de grandes plataformas. Los regímenes de responsabilidad estrictos también inhiben o incluso ponen en peligro la existencia de modelos de moderación de contenidos menos centralizados, contribuyendo una vez más a afianzar el dominio y el modelo de negocio de las Grandes Tecnologías.
Pero el hecho de que las plataformas de Big Tech ya utilicen herramientas de IA para moderar y restringir contenidos no significa que lo hagan bien. La supervisión automatizada de contenidos es difícil a escala y las plataformas fracasan constantemente a la hora de purgar los contenidos que infringen sus normas sin barrer los contenidos protegidos. Además de problemas históricos con la detección basada en IA de infracciones de derechos de autor que han socavado profundamente las normas de uso justo , los sistemas automatizados a menudo marcan y censuran información crucial que debería permanecer en línea.
Por poner algunos ejemplos, durante la ola de protestas en Chile, las plataformas de Internet restringieron injustamente los contenidos que informaban sobre la dura represión policial de las manifestaciones, por considerarlos contenidos violentos. En Brasil, vimos preocupaciones similares cuando Instagram censuró imágenes de la masacre de la comunidad de Jacarezinho en 2021, que fue la operación policial más letal de la historia de Río de Janeiro. En otras geografías, el afán por restringir el contenido extremista ha eliminado vídeos que documentan violaciones de derechos humanos en conflictos en países como Siria y Ucrania.
Todos estos son ejemplos de contenidos similares a los que podrían encajar en la lista del juez Toffoli de discursos sujetos a un régimen de responsabilidad objetiva. Y aunque este régimen no debería aplicarse en casos de duda razonable, es probable que las empresas de plataformas no se arriesguen a mantener dicho contenido por temor a que un juez decida más tarde que no se trataba de una situación de duda razonable y les ordene pagar daños y perjuicios. Las plataformas digitales tienen, por tanto, un fuerte incentivo para calibrar sus sistemas de IA para errar por el lado de la censura. Y dependiendo de cómo funcionen estos sistemas, significa un fuerte incentivo para que lleve a cabo la censura previa afectando potencialmente a la expresión protegida, lo que desafía el Artículo 13 de la Convención Americana.
Establecer el régimen de notificación y retirada como norma general para la responsabilidad de un intermediario también plantea riesgos. Aunque la empresa tiene la oportunidad de analizar y decidir si mantiene el contenido en línea, de nuevo el incentivo es errar por el lado de retirarlo para evitar costes legales.
La propia experiencia de Brasil en los tribunales demuestra lo delicada que puede ser la cuestión. La investigación de InternetLab basada en sentencias relacionadas con la libertad de expresión en línea indicó que los tribunales de apelación brasileños denegaron las solicitudes de retirada de contenidos en más del 60% de los casos. La Asociación Brasileña de Periodismo de Investigación (ABRAJI) también ha destacado en datos que muestran que, en algún momento de los procedimientos judiciales, los jueces estuvieron de acuerdo con las solicitudes de retirada de contenidos en aproximadamente la mitad de los casos, y algunos fueron revocados posteriormente. Esto es especialmente preocupante en los casos relacionados con el honor. Cuanto más influyente o poderosa es la persona implicada, mayores son las posibilidades de que se produzca una retirada arbitraria de contenidos, dando la vuelta a la lógica del interés público de preservar el acceso a la información. No debemos olvidar a las empresas que prosperaron ofreciendo servicios de gestión de la reputación basados en el uso de mecanismos de retirada para hacer desaparecer contenidos críticos en Internet.
Es importante subrayar que esta sentencia se produce en ausencia de garantías de justicia procesal digital. Aunque el voto del juez Toffoli afirma el deber de las plataformas de proporcionar canales de notificación específicos, preferiblemente electrónicos, para recibir denuncias sobre contenidos infractores, no hay más especificaciones para evitar el uso indebido de los sistemas de notificación. El artículo 21 del Marco Civil establece que las notificaciones deben permitir la identificación específica del contenido impugnado (generalmente entendido como la URL) y elementos para verificar que el denunciante es la persona ofendida. Salvo eso, no hay más orientaciones sobre qué detalles y justificaciones debe contener la notificación, y si el autor del contenido tendría la oportunidad, y el mecanismo adecuado, para responder o apelar a la solicitud de retirada.
Como ya dijimos, no debemos mezclar la responsabilidad de las plataformas con el refuerzo de las plataformas digitales como puntos de control sobre la expresión y las acciones en línea de las personas. Éste es un camino peligroso teniendo en cuenta el poder que ya tienen las grandes plataformas y la creciente intermediación de las tecnologías digitales en todo lo que hacemos. Por desgracia, el Tribunal Supremo parece estar tomando una dirección que acentuará dicho papel y posición dominante, creando además obstáculos adicionales para que las plataformas más pequeñas y los modelos descentralizados puedan competir con los actuales gigantes digitales.
Lee nuestros segundo y tercer posts de esta serie para un análisis actualizado de la evolución de la sentencia en 2025.