Au milieu de l’invasion de l’Ukraine, les plateformes continuent d’effacer la documentation critique sur les crimes de guerre

Lorsque des atrocités se produisent, à Marioupol, Gaza, Kaboul ou Christchurch, les utilisateurs et les entreprises de médias sociaux sont confrontés à une question difficile : comment gérer le contenu en ligne qui montre ces atrocités ? Pouvons-nous et devons-nous faire la différence entre les contenus pro-violence contenant des atrocités et la documentation par des journalistes ou des militants des droits de l’homme ? Dans un conflit, les plateformes doivent-elles prendre parti pour déterminer quels contenus violents sont autorisés ?

La dernière décennie a démontré que les plateformes de médias sociaux jouent un rôle important dans la documentation et la préservation des preuves de crimes de guerre. Bien que les médias sociaux ne soient pas l’endroit idéal pour partager de tels contenus, le fait est que pour ceux qui vivent dans des zones de conflit, ces plateformes sont souvent l’endroit le plus facile pour télécharger rapidement de tels contenus.

La plupart des plateformes ont des politiques de plus en plus strictes sur l’extrémisme et la violence graphique. En tant que tel, la documentation des violations des droits de l’homme, ainsi que le contre-discours, les nouvelles, l’art et la protestation, est souvent pris dans le filet.  Les plateformes retirent du contenu qui peut être précieux pour le public et qui pourrait même être utilisé comme preuve dans de futurs procès pour crimes de guerre. Il s’agit d’un problème persistant depuis des années qui perdure au milieu de l’invasion de l’Ukraine par la Russie.

YouTube a fièrement annoncé avoir supprimé plus de 15 000 vidéos liées à l’Ukraine en seulement 10 jours en mars. YouTube , Facebook, Twitter et un certain nombre d’autres plates-formes utilisent également l’analyse automatisée pour la grande majorité de leurs suppressions de contenu dans ces catégories. Mais la vitesse fournie par l’automatisation conduit également à des erreurs. Par exemple, début avril, Facebook a temporairement bloqué les hashtags utilisés pour commenter et documenter les meurtres de civils dans la ville de Bucha, dans le nord de l’Ukraine. Meta, le propriétaire de Facebook, a déclaré que cela s’était produit parce qu’ils recherchaient et supprimaient automatiquement les contenus violents.

Nous avons critiqué les plateformes pour leur suppression trop large des contenus « violents » ou « extrémistes » pendant de nombreuses années. Ces suppressions finissent par cibler le plus les utilisateurs marginalisés. Par exemple, sous couvert d’arrêter le terrorisme, les plateformes suppriment souvent de manière sélective le contenu des Kurdes et de leurs partisans. Facebook a supprimé à plusieurs reprises des contenus critiquant le gouvernement turc pour sa répression du peuple kurde.

Facebook a à plusieurs reprises admis son erreur ou s’est défendu en liant le contenu supprimé au Parti des travailleurs du Kurdistan (PKK), que le Département d’État américain désigne comme une organisation terroriste. Que cette justification soit authentique ou non ( Facebook aurait laissé des photos du parti au pouvoir en Turquie montrant le Hamas, une autre organisation terroriste désignée par les États-Unis), cela signifie en fait que la plate-forme s’est alignée sur le gouvernement contre les dissidents politiques.

Lorsqu’une plateforme supprime un contenu « violent », elle peut effectivement censurer les journalistes documentant des conflits et gêner les militants des droits de l’homme qui peuvent avoir besoin du contenu comme preuve. Au début du soulèvement syrien, sans accès à des canaux médiatiques réceptifs, les militants se sont rapidement tournés vers YouTube et d’autres plateformes pour organiser et documenter leurs expériences.

Ils ont été confrontés à une censure efficace, car YouTube a supprimé et refusé de restaurer des centaines de milliers de vidéos documentant des atrocités telles que des attaques chimiques, des attaques contre des hôpitaux et des installations médicales et la destruction d’infrastructures civiles. Au-delà de la censure, cela entrave les affaires de droits humains qui utilisent de plus en plus le contenu des médias sociaux comme preuve. Un enquêteur sur les crimes de guerre a déclaré à Human Rights Watch : « Je suis constamment confronté à d’éventuelles preuves cruciales qui ne me sont plus accessibles.

Lors de l’invasion de l’Ukraine, les plateformes en ligne ont ajouté des nuances prometteuses à leurs politiques de modération de contenu qui étaient absentes des conflits précédents. Par exemple, Facebook a commencé à autoriser les utilisateurs en Ukraine et dans quelques autres pays à utiliser des discours violents contre les soldats russes, tels que “mort aux envahisseurs russes”, qualifiant cela de forme d’expression politique. Twitter a cessé d’amplifier et de recommander des comptes gouvernementaux qui limitent l’accès à l’information et s’engagent dans un «conflit armé interétatique». Cela semble être un clin d’œil aux préoccupations concernant la désinformation russe, mais il reste à voir si Twitter appliquera sa nouvelle politique aux alliés américains qui se comportent sans doute de la même manière, comme l’Arabie saoudite. Bien sûr, il peut y avoir un désaccord avec certaines de ces “nuances”, comme Facebook renversement de son interdiction du bataillon Azov, une milice ukrainienne d’ origine néonazie .

En fin de compte, les plateformes en ligne ont beaucoup plus de nuances à ajouter à leurs pratiques de modération de contenu, et tout aussi important, plus de transparence avec les utilisateurs. Par exemple, Facebook n’a pas informé les utilisateurs de son revirement sur Azov ; au contraire, l’Intercept a appris cela à partir de matériaux internes. Les utilisateurs ne savent souvent pas pourquoi leur contenu dissident est supprimé ou pourquoi la propagande de leur gouvernement est laissée de côté, ce qui peut leur nuire gravement. Les plateformes doivent travailler avec les journalistes, les militants des droits de l’homme et leurs utilisateurs pour établir des politiques de modération de contenu claires qui respectent la liberté d’expression et le droit d’accéder à l’information.

Cet article a été publié en partenariat avec EFF