đâđš La modĂ©ration abusive de contenu sur ordre de la Cyber UnitĂ© israĂ©lienne consacre lâapartheid numĂ©rique de Gaza
L'approche de Meta restreint drastiquement la libertĂ© d'expression sans justification, et l'entreprise devra mettre fin Ă l'interdiction de supprimer tous les contenus utilisant le terme âshaheedâ.
đâđš La modĂ©ration abusive de contenu sur ordre de la Cyber UnitĂ© israĂ©lienne consacre lâapartheid numĂ©rique de Gaza
Par Page Collings, le 26 juillet 2024
PremiÚre partie d'une série en cours.
L'implication des gouvernements dans la modération des contenus soulÚve de graves préoccupations en matiÚre de droits humains, quel que soit le contexte. Depuis le 7 octobre, les plateformes de réseaux sociaux ont été confrontées à la suppression injustifiée de contenus pro-palestiniens - parfois à la demande du gouvernement israélien - et à un manquement simultané à l'obligation de supprimer les discours de haine à l'égard des Palestiniens. Plus précisément, les plateformes de réseaux sociaux ont collaboré avec Cyber Unit, la cyber-unité israélienne - un service gouvernemental chargé d'adresser des demandes de retrait aux plateformes - afin de supprimer les contenus considérés comme une incitation à la violence et au terrorisme, ainsi que toute promotion de groupes largement désignés comme terroristes.
Nombre de ces partenariats sont antérieurs au conflit actuel, mais ils se sont amplifiés depuis. Entre le 7 octobre et le 14 novembre, les autorités israéliennes ont envoyé au total 9 500 demandes de suppression à des plateformes de réseaux sociaux, dont 60 % ont été adressées à Meta, avec un taux de conformité de 94 %.
Ce n'est pas nouveau. La Cyber Unit se vante depuis longtemps de ce que ses injonctions de suppression se traduisent par des taux de satisfaction élevés, allant jusqu'à 90 %, sur l'ensemble des plateformes de réseaux sociaux. Elle a injustement ciblé des militants des droits des Palestiniens, des organisations de presse et la société civile. Un incident de ce type a incité le Conseil de surveillance de Meta à recommander à l'entreprise de
âformaliser un processus transparent sur la façon dont elle reçoit et rĂ©pond Ă toutes les demandes gouvernementales de suppression de contenu, et de veiller Ă ce qu'elles soient intĂ©grĂ©es dans les rapports de transparenceâ.
Lorsqu'une plateforme modifie un contenu Ă la demande d'un organisme gouvernemental, elle risque d'ĂȘtre systĂ©matiquement biaisĂ©e en faveur des positions privilĂ©giĂ©es de ce gouvernement. Cette coopĂ©ration confĂšre aux agences gouvernementales une influence considĂ©rable sur les systĂšmes de modĂ©ration de contenu pour leurs propres objectifs politiques - contrĂŽler le dialogue public, supprimer la dissidence, rĂ©duire au silence les opposants politiques ou neutraliser les mouvements sociaux. Une fois ces systĂšmes mis en place, il est facile pour le gouvernement de les utiliser pour contraindre et faire pression sur les plateformes afin qu'elles modĂšrent des discours qu'elles n'auraient peut-ĂȘtre pas choisi de modĂ©rer autrement.
ParallĂšlement aux demandes de retrait du gouvernement, la libertĂ© d'expression Ă Gaza a subi des restrictions supplĂ©mentaires car les plateformes ont injustement supprimĂ© des contenus et des comptes pro-palestiniens, entravant ainsi la diffusion des informations et rĂ©duisant au silence les voix qui expriment leur inquiĂ©tude pour les Palestiniens. Dans le mĂȘme temps, X a Ă©tĂ© critiquĂ© pour son incapacitĂ© Ă supprimer les discours haineux et a dĂ©sactivĂ© des fonctions permettant aux utilisateurs de signaler certains types de fausses informations. TikTok a mis en Ćuvre des stratĂ©gies peu convaincantes pour contrĂŽler la nature du contenu de ses services. Meta a admis avoir supprimĂ© certains commentaires contenant le drapeau palestinien dans certains "contextes offensants" qui enfreignent ses rĂšgles.
Pour lutter contre ces atteintes à la liberté d'expression à Gaza, l'Electronic Frontier Foundation (EFF) exhorte les plateformes à suivre les principes de Santa Clara sur la transparence et la responsabilité en matiÚre de modération de contenu et à entreprendre les actions suivantes :
Associer les parties prenantes locales et régionales au processus d'élaboration des politiques afin d'assurer une plus grande compétence culturelle - connaissance et compréhension de la langue, de la culture et des contextes locaux - dans l'ensemble du systÚme de modération des contenus.
ReconnaĂźtre d'urgence les risques particuliers pour les droits des utilisateurs qui rĂ©sultent de l'implication de l'Ătat dans les processus de modĂ©ration des contenus.
Veiller à ce que les acteurs étatiques n'exploitent pas ou ne manipulent pas les systÚmes de modération de contenu des entreprises pour censurer les dissidents, les opposants politiques, les mouvements sociaux ou toute autre personne.
Informer les utilisateurs quand, comment et pourquoi leur contenu a fait l'objet d'une action, et leur donner la possibilité de faire appel.
Tous doivent pouvoir accéder au processus décisionnel
Compte tenu des preuves significatives des violations des droits de l'homme commises Ă l'encontre des Palestiniens, avant et depuis le 7 octobre, les entreprises technologiques amĂ©ricaines ont l'obligation Ă©thique de vĂ©rifier, pour elles-mĂȘmes, pour leurs employĂ©s, pour le public amĂ©ricain et pour les Palestiniens eux-mĂȘmes, qu'elles ne contribuent pas directement Ă ces abus. Les Palestiniens doivent pouvoir participer, au mĂȘme titre que les IsraĂ©liens, Ă la modĂ©ration des discours dans la rĂ©gion, et en premier lieu du leur. Ă dĂ©faut, ils risquent de contribuer Ă une forme d'apartheid numĂ©rique.
Un problÚme récurrent
Ce n'est pas la premiĂšre fois que l'EFF soulĂšve des questions sur la censure en Palestine, y compris dans de nombreux forums internationaux. Plus rĂ©cemment, nous avons Ă©crit au rapporteur spĂ©cial de l'ONU sur la libertĂ© d'expression pour lui faire part de notre inquiĂ©tude quant Ă l'impact disproportionnĂ© des restrictions d'expression imposĂ©es par les gouvernements et les entreprises sur les plates-formes. En mai, nous avons soumis des commentaires au Conseil de surveillance en insistant sur le fait que les dĂ©cisions de modĂ©ration du cri de ralliement âDu fleuve Ă la merâ doivent ĂȘtre prises sur une base individuelle plutĂŽt que par le biais d'une interdiction globale. Avec des alliĂ©s internationaux et rĂ©gionaux, l'EFF a Ă©galement demandĂ© Ă Meta de revoir ses pratiques de modĂ©ration de contenu et ses politiques qui restreignent le contenu sur la Palestine, et a publiĂ© une sĂ©rie de recommandations Ă mettre en Ćuvre par l'entreprise.
En avril 2023, l'EFF et l'ECNL [European Center for Not-for-Profit Law : Centre europĂ©en pour le droit des organisations Ă but non lucratif, joue un rĂŽle primordial dans la promotion de la dĂ©mocratie, de l'Ătat de droit, de l'inclusion sociale et du dĂ©veloppement] ont soumis des commentaires au Conseil de surveillance concernant la surmodĂ©ration du mot âshaheedâ [martyr] et d'autres contenus en langue arabe par Meta, en particulier par l'utilisation d'outils de modĂ©ration de contenu automatisĂ©s. Dans sa rĂ©ponse, le Conseil de surveillance a estimĂ© que l'approche de Meta restreint de maniĂšre disproportionnĂ©e la libertĂ© d'expression, qu'elle n'est pas justifiĂ©e et que l'entreprise doit mettre fin Ă l'interdiction gĂ©nĂ©rale de supprimer tous les contenus utilisant le terme âshaheedâ.