Facebook dit à ses modérateurs d’autoriser des images choquantes de frappes aériennes russes mais censure les attaques israéliennes

Selon des notes internes, Meta a considéré les attaques contre les civils ukrainiens comme “relevant de l’actualité” — ce qui a amené les défenseurs de la Palestine à parler de “deux poids, deux mesures”.

Après une série de bombardements israéliens contre la Bande de Gaza, territoire densément peuplé, au début du mois d’août, les utilisateurs palestiniens de Facebook et d’Instagram ont protesté contre la suppression brutale de posts faisant état des morts et des destructions résultant de ces frappes aériennes. Ce n’était pas la première fois que des utilisateurs palestiniens de ces deux géants des réseaux sociaux appartenant à une même maison mère, Meta, se plaignaient de ce que leurs posts avaient été supprimés indûment. C’est maintenant un schéma récurrent : des Palestiniens publient des vidéos ou des images parfois choquantes d’attaques israéliennes, et Meta se hâte de supprimer ce contenu, en faisant tout au plus allusion à une violation des “Community Standards” de la société (“standards de la communauté”) ou, bien souvent, en ne fournissant aucune explication.

Les milliards d’utilisateurs des plateformes de Meta ne se heurtent pourtant pas tous à ces problèmes lorsqu’ils publient des contenus sur le bombardement de leur quartier.

The Intercept s’est procuré des recommandations restées jusqu’à présent non publiques et qui montrent que, cette année, l’entreprise a demandé à plusieurs reprises aux modérateurs de s’écarter de la procédure habituelle et de traiter avec prudence certaines images saisissantes de la guerre entre la Russie et l’Ukraine. Comme d’autres entreprises américaines de l’internet, Meta a réagi à l’invasion en émettant rapidement une kyrielle de nouvelles consignes exceptionnelles destinées à amplifier et à protéger l’expression en ligne des Ukrainiens, notamment en acceptant que leurs images choquantes de civils tués par l’armée russe restent accessibles sur Instagram et Facebook.

De telles exceptions n’ont jamais été pratiquées concernant les victimes palestiniennes de la violence d’État israélienne — par ailleurs, il ne ressort pas des matériaux disponibles qu’une telle latitude ait été accordée à une autre population éprouvée.

“Il s’agit là d’une censure délibérée de la documentation sur les droits humains et du récit palestinien”, affirme Mona Shtaya, conseillère auprès de 7amleh (Centre arabe pour l’avancement des médias sociaux), groupe de la société civile qui collabore officiellement avec Meta sur les questions liées à la liberté d’expression. Au cours des attaques israéliennes récentes contre Gaza, entre le 5 août et le 15 août, 7amleh a recensé sur les plateformes Meta presque 90 suppressions de contenus ou suspensions de comptes en lien avec les bombardements, et note que des avis de contenus censurés continuent à être communiqués.

Marwa Fatafta, responsable politique Moyen-Orient et Afrique du Nord pour Access Now, groupe international de défense des droits numériques, s’est exprimée ainsi : “Leur censure est d’une précision presque mécanique — dès que la violence s’intensifie sur le terrain, la suppression des contenus palestiniens augmente immédiatement.”

Parmi les cas de contenus palestiniens censurés dont The Intercept a eu connaissance, citons, le 5 août, la suppression d’un post portant le deuil d’Alaa Qaddoum, enfant palestinienne de 5 ans tuée par un missile israélien, ainsi que d’une vidéo Instagram montrant des Gazaouis sortant des corps d’un amas de décombres. La suppression de ces deux posts était accompagnée d’un avertissement indiquant que ces images étaient contraires “à nos lignes directrices sur la violence ou les organisations dangereuses” — formule se référant à la politique d’entreprise de Meta contre les contenus violents ou les informations en lien avec sa vaste liste de personnes et de groupes bannis.

Erica Sackin, porte-parole de Meta, a dit à The Intercept que ces deux posts avaient été supprimés en application de la politique dite Dangerous Individuals and Organizations — Individus et organismes dangereux —, politique définie par l’entreprise pour censurer les contenus qui font l’apologie de groupes désignés comme terroristes à l’échelon fédéral. Sackin n’a pas répondu lorsqu’on lui a demandé ensuite d’expliquer comment l’image d’une fillette de 5 ans ou celle d’un homme enseveli sous des décombres pouvait faire l’apologie du terrorisme.

Les Palestiniens de Gaza qui publient des contenus sur les offensives israéliennes soulignent que leurs posts ne comportent pas de messages politiques et n’indiquent aucune affiliation à des groupes terroristes. “Je publie simplement de pures informations sur ce qui se passe”, explique Issam Adwan, journaliste indépendant basé à Gaza. “Je n’utilise même pas le langage très orienté de l’information palestinienne : quand je décris les avions israéliens, je parle d’avions israéliens. Je ne dis pas que je suis un partisan du Hamas, ou cette sorte de choses.”

Des défenseurs des droits ont dit à The Intercept que les exemptions concernant la guerre entre la Russie et l’Ukraine constituent l’exemple le plus récent du traitement inégalitaire pratiqué par Meta, qui différencie les marchés occidentaux et le reste du monde — on constate un traitement spécial de la cause ukrainienne de la part de Meta depuis le début de la guerre, et cela peut s’observer plus généralement en ce qui concerne la couverture médiatique de la guerre.

Bien que la majorité des utilisateurs de plateformes sociales appartenant à Meta vivent en dehors des États-Unis, certains critiques soulignent que les politiques de censure de l’entreprise, qui touchent des milliards de personnes dans le monde entier, s’harmonisent parfaitement avec les intérêts étasuniens en termes de politique étrangère. Les défenseurs des droits ont souligné la nature politique de ces décisions relatives à la modération. “Meta a été capable de prendre des mesures très strictes pour protéger les Ukrainiens en pleine invasion russe parce qu’il en avait la volonté politique”, précise Shtaya, “mais nous, Palestiniens, n’avons bénéficié d’aucune de ces mesures.”

En calquant sa conduite sur la politique du gouvernement des États-Unis — notamment en reprenant les listes noires du contre-terrorisme étasunien — il peut arriver à Meta de censurer des déclarations totalement non violentes de soutien ou de sympathie envers les Palestiniens, selon un communiqué publié en 2021 par Human Rights Watch. “C’est un exemple assez clair des conditions dans lesquelles ça se produit”, a expliqué à The Intercept Omar Shakir, directeur de Human Rights Watch pour Israël et la Palestine, en commentant les suppressions les plus récentes. Selon Shakir, pendant que l’enquête de Human Rights Watch sur la censure récente concernant Gaza se poursuivait, il avait déjà relevé des éléments qui indiquaient que Meta censurait toujours la libre expression palestinienne et pro-palestinienne, y compris le recueil de documents sur les atteintes aux droits humains.

On ne sait pas clairement quelle facette particulière du système byzantin de censure planétaire de Meta a motivé la vague de censure des posts sur Gaza en août ; de nombreux auteurs de posts n’ont reçu aucune information substantielle sur la raison de l’effacement de leurs posts. La porte-parole de Meta n’a pas souhaité rendre compte des différentes politiques qui avaient été utilisées. Dans le passé, des suppressions de contenus palestiniens s’étaient référées, non seulement à la politique relative aux Individus et organismes dangereux, mai aussi à des interdictions promulguées par l’entreprise contre la représentation explicite de la violence, les symboles de haine et les discours haineux. Comme c’est le cas pour les autres politiques de Meta relatives aux contenus, l’interdiction des contenus explicites ou violents peut parfois éliminer des posts qui, loin de glorifier des crises globales, en partagent la réalité — phénomène que l’entreprise a veillé à éviter en Ukraine au moyen de mesures sans précédent.

Le recueil de règles présentant au public les Community Standards de Meta est rédigé en ces termes : “Nous supprimons les contenus qui glorifient la violence ou célèbrent la souffrance ou l’humiliation d’autrui parce qu’ils peuvent créer un environnement qui décourage la participation” — une exception floue est faite pour “les contenus explicites (dans certaines limites) afin d’assurer une sensibilisation sur ces questions.” La politique sur les contenus explicites ou violents interdit globalement les vidéos effrayantes de cadavres et restreint aux adultes de 18 ans ou plus l’accès à des photos similaires.

Dans une version interne plus développée du guide des Community Standards que The Intercept a pu se procurer, la section consacrée aux contenus explicites comporte une série de fiches directrices ouvrant aux modérateurs la possibilité de s’écarter des normes établies ou d’examiner de façon attentive certains évènements relevant de l’actualité. En consultant la liste de ces actualités qui justifient une exception, on voit que Meta a demandé aux modérateurs à sept reprises de veiller à ce que des images explicites de civils ukrainiens tués dans des attaques russes ne soient pas effacées, et ce dès le déclenchement de l’invasion. Les contenus placés sur cette liste blanche comportent des actes de violence d’État comparables à ceux qui tombent régulièrement sous le coup de la censure lorsqu’ils sont l’œuvre de l’armée israélienne, notamment de multiples références spécifiques à des frappes aériennes.

Selon ce document interne, Meta a commencé à proposer à ses modérateurs de s’écarter des pratiques normales pour conserver des éléments sur l’invasion russe dès le lendemain de son déclenchement. Une mise à jour des lignes directrices en date du 25 février demandait aux modérateurs d’éviter de supprimer une vidéo montrant certaines des premières victimes civiles de la guerre. “Cette vidéo montre les suites de frappes aériennes sur la ville d’Ouman, en Ukraine”, peut-on lire dans cette note. “À 0,5 seconde, des entrailles sont visibles. Nous tenons compte de la situation pour appliquer le MAD à cette vidéo” —référence à une pratique de l’entreprise, “Mark As Disturbing” (“Marquer comme choquant”), qui consiste à accompagner d’une mise en garde une image ou une vidéo au lieu de la supprimer immédiatement.

Le 5 mars, les modérateurs ont reçu la consigne d’“appliquer le MAD à la vidéo montrant des personnes mutilées à la suite de bombardements aériens à Tchernigov”— indiquant de nouveau que les modérateurs devaient s’écarter des normes règlementant la liberté d’expression. “Bien que les vidéos montrant des personnes mutilées en dehors d’un cadre médical soient prohibées par notre politique sur les contenus violents et explicites”, indique cette note, “la séquence relative à ces individus est brève et semble située dans un contexte de sensibilisation, étant mise en ligne par des survivants au tir de roquette.”

Les exceptions liées à la violence explicite comptent parmi les nombreux moyens utilisés par Meta pour adapter rapidement ses pratiques de modération de façon à aider la résistance ukrainienne. Au début de l’invasion, l’entreprise a pris une mesure inaccoutumée en levant les restrictions à la libre expression concernant le Bataillon Azov, unité néo-nazie de l’armée ukrainienne bannie antérieurement en vertu de la politique de l’entreprise sur les individus et organismes dangereux (Dangerous Individuals and Organizations policy). En mars, selon une information de Reuters, Meta a permis temporairement aux utilisateurs d’appeler à la mort de soldats russes de façon explicite, discours qui, encore une fois, violerait en temps normal les règles de l’entreprise.

Des défenseurs des droits ont souligné qu’ils ne protestent pas contre les protections renforcées accordées aux Ukrainiens, mais contre l’absence de mesures spéciales du même ordre pour protéger les civils attaqués presque partout dans le monde du dispositif erratique de censure pratiqué par Meta.

“Les droits humains, ce n’est pas du picorage, chacun ne peut pas sélectionner ce qui lui convient”, précise Fatafta. “C’est bien qu’ils aient pris des mesures aussi importantes pour l’Ukraine, mais l’absence de pratiques semblables pour la Palestine projette une vive lumière sur leur attitude discriminatoire en matière de modération de contenus. Le sujet central, c’est toujours la géopolitique et les profits pour Meta.”

Comment exactement Meta détermine-t-il quels posts célèbrent des morts horribles en temps de guerre et lesquels favorisent une prise de conscience sur ce point, voilà qui n’est jamais expliqué dans les exposés publics faits par cette société sur ses règles en matière de liberté d’expression, pas plus que dans les documents internes examinés par The Intercept.

Un billet de blog de Meta daté de janvier 2022 note que l’entreprise procède à une “mise en balance qui évalue l’intérêt public en regard du risque de nocivité” à l’égard de contenus qui, dans des conditions normales, violeraient les règles de l’entreprise, mais il ne donne d’information ni sur ce que cet examen comporte précisément, ni sur l’auteur de cet examen. Est-ce qu’un effort pour recueillir des éléments sur des atrocités ou pour porter le deuil d’un voisin tué dans une frappe aérienne va être considéré comme de la glorification ou comme un geste en faveur de l’intérêt public ? Ce choix incombe au jugement subjectif des prestataires de contenus de Meta, surmenés et parfois traumatisés, chargés de prendre chaque jour des centaines de décisions de ce genre.

Rares sont ceux qui contesteraient la valeur d’information des images de l’Ukraine évoquées dans les actualisations des lignes directrices de Meta— ce sont des documents sur l’invasion russe —, mais les éléments obtenus par The Intercept montrent que la mise en liste blanche par Meta des matériaux prenant le parti de l’Ukraine s’est même étendue à une propagande étatique dérangeante.

Les matériaux internes montrent que Meta, à plusieurs reprises, a placé en liste blanche des vidéos de propagande de l’État ukrainien qui braquent le projecteur sur la violence russe contre les civils, notamment le film “Close the Sky”, à forte charge émotionnelle, que le président ukrainien Volodymyr Zelenskyy a présenté au Congrès en mars. “Bien que la vidéo montrant des êtres humains mutilés en dehors d’un cadre médical soit interdite par la politique en matière de VGC [Violent & Graphic Content, contenus violents et explicites], la séquence partagée appartient à un contexte de sensibilisation posté par le président de l’Ukraine”, indique une mise à jour en date du 24 mars, distribuée aux modérateurs.

Le 13 mai, les modérateurs ont reçu la consigne de ne pas supprimer une vidéo postée par le ministère ukrainien de la Défense qui comportait des images explicites de cadavres carbonisés. “La vidéo montre très brièvement un corps carbonisé non identifié couché sur le sol”, indique cette mise à jour. “Même si toute vidéo montrant des personnes carbonisées ou en flammes est prohibée par notre politique en matière de contenus violents et explicites… cette séquence est courte et répond aux critères d’exception justifiant une couverture médiatique [dans la mesure où il s’agit d’un] conflit armé en cours.”

Les matériaux internes examinés par The Intercept ne révèlent aucune intervention comparable pour les Palestiniens — aucun placement sur la liste blanche de documents de propagande visant à susciter une sympathie envers les civils, aucune directive de recours à des mises en garde plutôt qu’à la suppression de contenus présentant des dommages infligés aux civils.

Des critiques soulignent cette disparité et se demandent pourquoi l’expression en ligne sur les atteintes aux droits humains et les crimes de guerre commis contre des Européens semble entraîner des protections spéciales, alors que ce n’est pas le cas lorsqu’il s’agit de réagir à des exactions commises contre d’autres êtres humains.

“Meta devrait respecter le droit à la libre expression, que l’on soit en Ukraine ou en Palestine”, dit Shakir, de Human Rights Watch. “En réduisant au silence de nombreuses personnes arbitrairement et sans explication, Meta reproduit en ligne certains des déséquilibres de pouvoir et des atteintes aux droits que nous voyons dans le monde réel.”

Alors que Meta semble prendre position en ne laissant pas les civils palestiniens maintenir des contenus explicites, il est intervenu dans les mises en ligne relatives au conflit Israël-Palestine en maintenant des images qui prennent parti pour l’armée d’occupation israélienne. Dans un cas, Meta a fait en sorte qu’une description d’une attaque contre un membre des forces de sécurité israéliennes en Cisjordanie occupée reste en ligne : “Un agent de la police israélienne des frontières a été touché et légèrement blessé par un cocktail Molotov au cours d’affrontements avec des Palestiniens à Hébron”, signale une note sans date distribuée aux modérateurs. “Nous faisons une exception dans le cas de cette vidéo en demandant qu’elle soit ‘Marquée comme choquante’.”