Sur les plus grandes plateformes internet, la modération des contenus est mauvaise et s’aggrave. Il est difficile de bien faire les choses, et à l’échelle de millions ou de milliards d’utilisateurs, cela peut être impossible. Il est déjà assez difficile pour les humains de faire le tri entre le spam, le contenu illégal et le discours offensant mais légal. Les robots et l’IA n’ont pas non plus réussi à se montrer à la hauteur.
Il est donc inévitable que les services commettent des erreurs, en supprimant le discours des utilisateurs qui ne violent pas leurs politiques ou en résiliant les comptes des utilisateurs sans explication ni possibilité de faire appel. Et la modération incohérente tombe souvent plus durement sur les groupes opprimés .
La domination d’une poignée de plateformes en ligne comme Facebook, YouTube et Twitter augmente l’impact de leurs décisions et erreurs de modération de contenu sur la capacité des internautes à parler, à s’organiser et à participer en ligne. La mauvaise modération des contenus est un vrai problème qui nuit aux internautes.
Il n’y a pas de solution parfaite à ce problème. Mais les législateurs américains semblent épris d’essayer de forcer les plateformes à suivre une ligne éditoriale mandatée par le gouvernement : héberger ce type de discours, supprimer cet autre type de discours. Lors d’audiences au Congrès après audiences, les législateurs ont martelé les dirigeants des plus grandes entreprises sur le contenu qui est resté en place et sur ce qui s’est passé. Les audiences ont ignoré les plates-formes et les services plus petits qui pourraient être endommagés ou détruits par bon nombre des nouvelles réglementations Internet proposées.
Les législateurs ont également largement ignoré les efforts louables pour lutter contre l’influence démesurée des plus grands services en ligne, comme la législation soutenant la confidentialité, la concurrence et l’interopérabilité. Au lieu de cela, en 2021, de nombreux législateurs ont décidé qu’ils seraient eux-mêmes les meilleurs modérateurs de contenu. L’EFF a donc combattu et continue de combattre les tentatives répétées du gouvernement de saper la liberté d’expression en ligne.
Les meilleurs modérateurs de contenu ne viennent pas du Congrès
C’est une partie bien établie du droit de l’internet selon laquelle les utilisateurs individuels sont responsables de leur propre discours en ligne. Les utilisateurs et les plateformes diffusant la parole des utilisateurs ne sont généralement pas responsables de la parole des autres. Ces principes sont inscrits dans une loi clé de l’internet, 47 USC § 230 (« Section 230 »), qui empêche les plateformes en ligne d’être tenues responsables de la plupart des poursuites judiciaires liées à la parole de leurs utilisateurs. La loi s’applique aux petits blogs et sites web, aux utilisateurs qui republient le discours d’autrui, ainsi qu’aux plus grandes plateformes.
Au Congrès, les législateurs ont présenté une série de projets de loi suggérant que la modération du contenu en ligne sera améliorée en supprimant ces protections légales. Bien sûr, on ne sait pas comment un déluge de poursuites coûteuses ciblant les plates-formes améliorera le discours en ligne. En fait, le fait de devoir potentiellement contester chaque décision de modération de contenu rendra l’hébergement de discours en ligne d’un coût prohibitif, ce qui signifie qu’il y aura de fortes incitations à censurer le discours des utilisateurs chaque fois que quelqu’un se plaindra. Quiconque n’est pas un Google ou un Facebook aura beaucoup de mal à se permettre de gérer un site Web qui héberge du contenu utilisateur, qui est également conforme à la loi.
Néanmoins, nous avons vu des projets de loi après des projets de loi qui cherchaient activement à augmenter le nombre de poursuites pour discours en ligne. En février, un groupe de sénateurs démocrates a adopté une approche similaire à celle d’un fusil de chasse pour saper la loi sur Internet , la SAFE Tech Act. Ce projet de loi aurait supprimé l’application de l’article 230 au discours dans lequel “le fournisseur ou l’utilisateur a accepté le paiement” pour créer le discours. S’il avait été adopté, SAFE Tech aurait à la fois augmenté la censure et nui à la confidentialité des données (car de plus en plus de fournisseurs en ligne se sont tournés vers la publicité invasive et se sont éloignés de “l’acceptation de paiement”, ce qui leur ferait perdre les protections).
Le mois suivant, nous avons vu l’introduction d’une loi PACT révisée . Comme le SAFE Tech Act, le PACT récompenserait les plateformes pour la surcensure de la parole des utilisateurs. Le projet de loi exigerait un système de “notification et retrait” dans lequel les plateformes suppriment la parole de l’utilisateur lorsqu’un demandeur fournit une ordonnance judiciaire concluant que le contenu est illégal. Cela semble raisonnable à première vue, mais la loi PACT n’a pas fourni de garanties et aurait permis aux censeurs potentiels de supprimer les discours qu’ils n’aiment pas en obtenant des jugements préliminaires ou par défaut.
La loi PACT rendrait également obligatoire certains types de rapports de transparence, une idée que nous espérons voir revenir l’année prochaine. Bien que nous soutenions les rapports de transparence volontaires (en fait, c’est un élément clé des principes de Santa Clara ), nous ne soutenons pas les rapports obligatoires qui sont soutenus par les forces de l’ordre fédérales, ou la menace de perdre les protections de l’article 230. En plus d’être une mauvaise politique, ces réglementations empiéteraient sur les droits du premier amendement des services.
Enfin, plus tard dans l’année, nous nous sommes attaqués au Justice Against Malicious Algorithms, ou JAMA Act . Les auteurs de ce projet de loi ont imputé le contenu en ligne problématique à un nouveau boogeyman mathématique : les “recommandations personnalisées”. La loi JAMA supprime les protections de l’article 230 pour les plates-formes qui utilisent un “algorithme personnel” vaguement défini pour suggérer du contenu tiers. JAMA rendrait presque impossible pour un service de savoir quel type de curation de contenu pourrait le rendre susceptible de poursuites judiciaires.
Aucun de ces projets de loi n’a encore été adopté. Pourtant, il était consternant de voir le Congrès continuer sur des voies sans issue répétées cette année, essayant de créer une sorte de régime de contrôle de la parole sur Internet qui ne violerait pas la Constitution et ne produirait pas de consternation publique généralisée. Pire encore, les législateurs semblent totalement indifférents à l’exploration de solutions réelles, telles que la législation sur la protection de la vie privée des consommateurs , la réforme antitrust et les exigences d’interopérabilité , qui remédieraient à la domination des plateformes en ligne sans avoir à violer les droits des utilisateurs au titre du premier amendement.
Les législatures des États attaquent la liberté d’expression en ligne
Alors que les démocrates au Congrès ont exprimé leur indignation envers les plateformes de médias sociaux pour ne pas avoir supprimé assez rapidement le discours des utilisateurs, les républicains de deux législatures d’État ont adopté des lois pour lutter contre la prétendue censure des discours des utilisateurs conservateurs par les plateformes.
Le premier a été la Floride, où le gouverneur Ron DeSantis a dénoncé l’interdiction par Twitter du président Donald Trump et d’autres “comportements tyranniques” de “Big Tech”. La législature de l’État a adopté cette année un projet de loi qui interdit aux plateformes de médias sociaux d’interdire les candidats politiques ou de déprioriser les publications par ou à leur sujet. Le projet de loi interdit également aux plateformes d’interdire les grandes sources d’information ou de publier un « addendum » (c’est-à-dire une vérification des faits) aux publications des sources d’information. Les plates-formes non conformes peuvent être condamnées à une amende pouvant aller jusqu’à 250 000 $ par jour, à moins que la plate-forme ne possède également un grand parc à thème dans l’État. Un représentant de l’État de Floride qui a parrainé le projet de loi a expliqué que cette exemption était conçue pour permettre au service de streaming Disney + d’éviter la réglementation.
Cette loi est clairement inconstitutionnelle. Le premier amendement interdit au gouvernement d’exiger qu’un service permette à un candidat politique de s’exprimer sur son site Web, pas plus qu’il ne peut exiger que la radio, la télévision ou les journaux traditionnels hébergent le discours de candidats particuliers. EFF, en collaboration avec Protect Democracy, a déposé un dossier d’ami du tribunal dans le cadre d’un procès contestant la loi, Netchoice c. Moody. Nous avons remporté une victoire en juillet, lorsqu’un tribunal fédéral a empêché l’entrée en vigueur de la loi. La Floride a fait appel de la décision et EFF a déposé un autre mémoire auprès de la Cour d’appel des États-Unis pour le onzième circuit.
Vient ensuite le Texas, où le gouverneur Greg Abbott a signé un projet de loi pour arrêter les entreprises de médias sociaux qui, selon lui, “fait taire les points de vue et les idées conservateurs”. Le projet de loi interdit aux grands services en ligne de modérer le contenu en fonction des points de vue des utilisateurs. Le projet de loi obligeait également les plateformes à suivre des procédures de transparence et de plainte. Ces exigences, si elles sont soigneusement conçues pour tenir compte des préoccupations constitutionnelles et pratiques, pourraient constituer une alternative appropriée aux restrictions éditoriales. Mais dans ce projet de loi, ils font partie intégrante d’une loi de représailles et inconstitutionnelle.
Ce projet de loi a également été contesté devant les tribunaux et l’ EFF a de nouveau pesé , déclarant à un tribunal fédéral du Texas que la mesure était inconstitutionnelle. Le tribunal a récemment bloqué l’ entrée en vigueur de la loi, y compris ses exigences de transparence. Le Texas fait appel de la décision.
Une voie à suivre : les questions que les législateurs devraient poser
Les propositions visant à réécrire les fondements juridiques d’Internet ont été si fréquentes cette année qu’à l’EFF, nous avons élaboré un processus d’analyse plus détaillé . Ayant plaidé pour la parole des utilisateurs pendant plus de 30 ans, nous avons développé une série de questions que les législateurs devraient poser lorsqu’ils préparent toute proposition visant à modifier les lois régissant la parole en ligne.
Nous demandons d’abord, qu’est-ce que la proposition essaie d’accomplir? Si la réponse est quelque chose comme « freiner la Big Tech », la proposition ne devrait pas entraver la concurrence des petites entreprises, ni cimenter la domination existante des plus grands services. Nous examinons également si la proposition législative vise correctement les intermédiaires de l’internet. Si l’objectif est quelque chose comme arrêter le harcèlement, les abus ou le harcèlement, ces activités sont souvent déjà illégales, et le problème peut être mieux résolu avec une application de la loi plus efficace ou des actions civiles ciblant les personnes qui perpétuent le mal.
Nous avons également entendu un nombre croissant d’appels pour imposer la modération du contenu au niveau de l’infrastructure. En d’autres termes, fermer le contenu en demandant à un FAI ou à un réseau de diffusion de contenu (CDN) de prendre certaines mesures, ou à un processeur de paiement. Ces intermédiaires sont des « points d’étranglement » potentiels de la parole et les décideurs politiques doivent réfléchir à de sérieuses questions avant de tenter une modération au niveau de l’infrastructure.
Nous espérons que 2022 apportera une approche plus constructive de la législation sur Internet. Que ce soit le cas ou non, nous serons là pour lutter pour le droit des utilisateurs à la liberté d’expression.
Cet article fait partie de notre série Bilan de l’année. Lisez d’autres articles sur la lutte pour les droits numériques en 2021.
DE JOE MULLIN
Cet article a été publié en partenariat avec EFF