C'est le premier volet d'une série de blogs en quatre parties sur les lois mondiales sur la responsabilité des intermédiaires. Vous pouvez lire des articles supplémentaires ici :
- Tendances de la responsabilité des plateformes dans le monde : taxonomie et outils de la responsabilité des intermédiaires
- Tendances de la responsabilité des plateformes dans le monde : développements récents notables
- Platform Liability Trends Around the Globe: Moving Forward
La grande majorité des internautes du monde entier interagissent régulièrement avec des intermédiaires en ligne, notamment des fournisseurs de services Internet (FAI), des moteurs de recherche et des plateformes de médias sociaux. Ces entreprises jouent un rôle essentiel en permettant l'accès à l'information et en connectant les gens à travers le monde, et sont des moteurs majeurs de la croissance économique et de l'innovation.
Par conséquent, les politiques adoptées par les intermédiaires pour régir les places de marché et les plateformes en ligne façonnent considérablement la vie sociale, économique et politique des utilisateurs. Ces politiques ont d'importante conséquences pour les droits fondamentaux des utilisateurs, notamment la liberté d'expression, la liberté d'association et le droit à la vie privée.
Le rôle de plus en plus puissant des intermédiaires dans la société moderne a suscité une foule de préoccupations politiques. L'un des principaux défis politiques consiste à définir la responsabilité légale des intermédiaires en ligne pour les dommages causés par le contenu généré ou partagé par -ou les activités menées par- leurs utilisateurs ou d'autres tiers.
Nous sommes préoccupés par le nombre croissant de gouvernements dans le monde qui adoptent des approches autoritaires en matière de réglementation des intermédiaires. Aujourd'hui, les décideurs politiques s'attendent non seulement à ce que les plateformes détectent et suppriment les contenus illégaux, mais font de plus en plus appel aux plateformes pour supprimer également les contenus légaux mais indésirables ou « préjudiciables ».
Les récentes propositions du gouvernement visant à lutter contre les contenus « préjudiciables » sont dangereusement erronées et entraîneront inévitablement la censure de toutes sortes d'expressions licites et valables. Des lois plus strictes sur la responsabilité des intermédiaires en ligne encouragent les plateformes à surveiller de manière positive le comportement des utilisateurs ; filtrer et vérifier le contenu des utilisateurs ; et supprimer ou filtrer localement tout ce qui est controversé, répréhensible ou potentiellement illégal pour éviter toute responsabilité légale. Des exemples de telles propositions seront discutés dans la troisième partie de cette série de blogs.
Confrontées à des obligations de modération étendues et vagues, à peu de temps pour l'analyse et à des conséquences juridiques majeures si elles se trompent, les entreprises surcensurent inévitablement. Une réglementation et une modération plus strictes des plateformes entraînent également une autocensure, les utilisateurs essayant d'éviter des répercussions négatives sur leur expression artistique et politique. Et, sans protection juridique, les fournisseurs de services deviennent facilement des cibles pour les gouvernements, les entreprises et les acteurs malveillants qui veulent cibler et faire taire les utilisateurs.
Les prochaines années seront décisives pour les règles essentielles qui régissent une grande partie de l'internet d'aujourd'hui. Dans cette optique, nous proposons cette série de blogs en quatre parties, intitulée Tendances de la responsabilité des plateformes dans le monde, pour vous aider à naviguer dans la jungle qu'est la réglementation mondiale de la responsabilité des intermédiaires.
Nous commençons par fournir des informations générales et par explorer les changements mondiaux dans les approches des lois sur la responsabilité des intermédiaires. Dans la deuxième partie, nous déballerons différentes approches de la responsabilité des intermédiaires, et explorerons certains « cadrans et boutons » réglementaires qui sont à la disposition des décideurs. La troisième partie examinera certains nouveaux développements qui se déroulent dans le monde. Enfin, dans la quatrième partie, nous approfondirons le point de vue de l'EFF et formulerons quelques recommandations alors que nous envisageons l'avenir de la politique mondiale de responsabilité des intermédiaires.
Bref historique des règles de responsabilité des intermédiaires
Commençons par un bref aperçu des lois sur la responsabilité des intermédiaires, du contexte politique qui les a engendrées, ainsi que des discours politiques changeants qui les entourent aujourd'hui.
En règle générale, les lois sur la responsabilité des intermédiaires traitent de la responsabilité légale des fournisseurs de services en ligne pour les dommages causés par le contenu créé ou partagé par les utilisateurs ou d'autres tiers.
La plupart des réglementations sur la responsabilité des intermédiaires partagent une fonction principale : protéger les intermédiaires de la responsabilité légale découlant du contenu publié par les utilisateurs (la portée exacte de cette immunité ou de cette sphère de sécurité varie selon les juridictions, comme nous le verrons plus loin dans cette série). Ces lois reconnaissent le rôle important que jouent les fournisseurs de services en ligne dans l'exercice des droits fondamentaux dans la société d'aujourd'hui.
La nécessité de créer des règles de responsabilité spécifiques est apparue dans les années 1990, les plateformes Internet étant de plus en plus poursuivies pour les préjudices causés par les actions et les propos de leurs utilisateurs. Cette tendance à cibler les intermédiaires Internet a entraîné une multitude de problèmes, allant de l'augmentation des risques associés à l'investissement dans l'économie Internet naissante à l'incertitude juridique pour les utilisateurs et les entreprises, en passant par la fragmentation des régimes juridiques entre les pays et les régions.
Tentant de contrebalancer cette tendance, les législateurs du monde entier ont introduit des sphères de sécurité et d'autres limitations de responsabilité pour les intermédiaires Internet. En protégeant les intermédiaires de toute responsabilité, les lois sur la sphère de sécurité poursuivent trois objectifs : (1) encourager l'activité économique et l'innovation, (2) protéger la liberté d'expression des internautes et (3) encourager les intermédiaires à lutter contre les contenus illégaux et à prendre des mesures pour prévenir les préjudices.
Un changement de ton : des exonérations de responsabilité à la responsabilité
Ces objectifs sont toujours très pertinents, même si l'environnement en ligne d'aujourd'hui est différent de celui pour lequel les premières réglementations ont été adoptées. Aujourd'hui, une poignée d'entreprises sont des acteurs mondiaux dominants sur Internet et sont devenues des écosystèmes à part entière
Il existe de nombreuses réponses potentielles à la domination des « grandes technologies ». Chez EFF, nous préconisons depuis longtemps l'interopérabilité et la portabilité des données dans le cadre de la réponse à un pouvoir de marché démesuré. Les exonérations de responsabilité ne sont pas un « cadeau aux grandes technologies » ; elles garantissent plutôt que les utilisateurs peuvent partager la parole et le contenu sur Internet en utilisant une variété Néanmoins, certains considèrent que les exonérations de responsabilité confèrent un avantage déloyal aux plateformes dominantes.
Le discours politique a également évolué de manière importante. Les intermédiaires Internet – et en particulier les réseaux de médias sociaux – sont des espaces où se produit une quantité considérable de discours publics et jouent souvent un rôle dans la formation du discours eux-mêmes. Ces dernières années, de grands événements mondiaux ont catapulté les plateformes de médias sociaux sous les projecteurs de l'attention du public, notamment : l'ingérence étrangère dans l'élection présidentielle américaine de 2016 ; le scandale de Cambridge Analytica ; le nettoyage ethnique des Rohingyas au Myanmar ; la fusillade de la mosquée de Christchurch en 2018 ; et la diffusion de fausses informations menaçant l'intégrité des élections dans des pays comme le Brésil, l'Inde et les États-Unis.
En raison de la perception largement répandue à la fois du public et des décideurs politiques que les réponses des entreprises aux problèmes récurrents tels que la désinformation, la cyberintimidation et les discours de haine en ligne ont été insuffisantes, les intermédiaires en ligne font l'objet d'une surveillance accrue. Ce « techlash » a ainsi donné lieu à des appels à de nouvelles règles plus sévères pour les intermédiaires en ligne.
Les récents débats sur la responsabilité ont déplacé l'attention vers les obligations assumées par les plateformes sur la base d'arguments moraux ou éthiques concernant le rôle public des intermédiaires en ligne dans une société démocratique. Plutôt que de se concentrer sur une approche des limitations de responsabilité fondée sur l'utilité ou le bien-être, les décideurs s'orientent de plus en plus vers un discours sur la responsabilité. Parce que tant de gens comptent sur eux pour communiquer entre eux et parce qu'ils semblent si puissants, les plateformes en ligne, et en particulier les services de médias sociaux, sont de plus en plus considérées comme des gardiens qui ont une responsabilité envers le bien public.
Cette attente des intermédiaires pour répondre aux normes culturelles ou sociales actuelles a conduit à deux réponses politiques connexes, toutes deux centrées sur la nécessité pour les plateformes d'assumer plus de « responsabilité » : un recours croissant à la responsabilité sociale des entreprises et à d'autres formes d'auto-intervention des intermédiaires. , et une plus grande pression pour obliger légalement les plateformes à établir des structures de gouvernance appropriées et à lutter efficacement contre l'inconduite des utilisateurs. Certaines suggestions portent sur la nécessité pour les plateformes d'utilisateurs de prendre des mesures volontaires plus efficaces contre les contenus préjudiciables et d'adopter des cadres de modération conformes aux droits de l'homme. Des réponses politiques encore plus agressives et dangereuses considèrent les filtres de téléchargement et les obligations de surveillance proactive comme une solution.
L'EFF travaille depuis longtemps pour fournir des conseils en réponse à l'évolution des normes sur ce sujet. En 2015, en tant que membre d'une coalition internationale, nous avons contribué au lancement des « Principes de Manille sur la responsabilité des intermédiaires », un cadre de garanties de base et de meilleures pratiques fondé sur les instruments internationaux relatifs aux droits de l'homme et d'autres cadres juridiques internationaux. En 2018, EFF et ses partenaires ont ensuite lancé les Principes de Santa Clara sur la transparence et la redevabilité dans la modération de contenu, qui appellent les intermédiaires à adopter volontairement de meilleures pratiques. En 2021, une nouvelle version des principes a été élaborée, en mettant l'accent sur la résolution adéquate des inégalités fondamentales dans les pratiques de procédure régulière et de transparence des plateformes pour différentes communautés et sur différents marchés. Pour cette révision, la coalition des Principes de Santa Clara a lancé un appel ouvert aux commentaires d'un large éventail de parties prenantes mondiales. Des commentaires ont été reçus d'alliés dans plus de quarante pays, et la deuxième version des Principes de Santa Clara a été lancée en décembre 2021.
Le climat politique actuel favorable à la réglementation des intermédiaires et l'évolution des conditions du marché pourraient entraîner une modification des idées de base sur lesquelles reposent les régimes de sphère de sécurité actuels. Chez EFF, nous pensons que cela peut s'avérer être une pente glissante. Nous craignons que la conséquence de régimes de responsabilité plus stricts ne soit la perte de sphères de sécurité pour les intermédiaires d'Internet, refaçonnant le comportement des intermédiaires d'une manière qui finira par nuire à la liberté d'expression et à d'autres droits des internautes du monde entier.
Ces thèmes seront explorés plus en détail dans les blogs suivants dans le cadre de cette série en quatre parties, Tendances de la responsabilité des plateformes autour du globe. De grands remerciements à l'ancienne EFF Mercator Fellow Svea Windwehr, qui a mené une première analyse sur les tendances réglementaires des plateformes, et à l'ancienne stagiaire EFF Sasha Mathew, qui a aidé à rédiger la série d'articles de blog.