Renversé
Déclaration à propos du Parti communiste chinois
1 août 2024
Un utilisateur a fait appel de la décision de Meta de supprimer un commentaire sur Instagram qui appelait à la « death » (mort) du Parti communiste chinois.
Les décisions sommaires concernent les cas pour lesquels Meta est revenue sur sa décision initiale après que le Conseil les a portés à l’attention de l’entreprise. Elles contiennent des informations relatives aux erreurs reconnues par Meta. Elles sont approuvées par une partie du Conseil (et pas par l’ensemble de ses membres), n’impliquent pas de commentaires publics et n’ont pas valeur de précédent pour le Conseil. Les décisions sommaires exercent une influence directe sur les décisions de Meta en assurant la transparence quant à ses corrections et en identifiant les domaines dans lesquels Meta pourrait améliorer son application des politiques.
Résumé
Un utilisateur a fait appel de la décision de Meta de supprimer un commentaire sur Instagram qui appelait à la « death » (mort) du Parti communiste chinois. Après que le Conseil a porté l’appel à l’attention de Meta, l’entreprise est revenue sur sa décision initiale et a restauré la publication.
À propos du cas
En mars 2024, un utilisateur d’Instagram a publié un commentaire disant « Death to the Chinese Communist Party! » (Mort au Parti communiste chinois !), suivi d’emojis en forme de tête de mort. Il s’agissait d’une réponse à la publication d’un média, qui comportait une vidéo de Wang Wenbin, un ancien porte-parole du ministère des Affaires étrangères de Chine, où il condamnait le passage d’un projet de loi de la Chambre des représentants des États-Unis qui pourrait avoir des répercussions sur la présence de TikTok dans le pays.
Meta a initialement supprimé le commentaire de l’utilisateur en vertu de son standard de la communauté sur la violence et l’incitation, qui interdit les « menaces de violence ». L’entreprise a expliqué que l’interdiction concernait « certains appels à la mort s’ils incluent une cible et un mode de violence ».
Lorsque le Conseil a porté ce cas à l’attention de Meta, l’entreprise a déterminé que la suppression du commentaire était injustifiée et elle a restauré le contenu sur Instagram. Meta a expliqué que, d’après ses règles internes à l’attention des équipes de modération de contenu, les appels à la mort d’une institution comme le Parti communiste chinois ne sont pas considérés comme des infractions.
Autorité et champ de compétence du Conseil
Le Conseil jouit de l’autorité nécessaire pour examiner la décision de Meta à la suite d’un appel interjeté par l’utilisateur dont le contenu a été supprimé (article 2, section 1 de la Charte ; article 3, section 1 des Statuts).
Lorsque Meta reconnaît avoir commis une erreur et revient sur sa décision dans un cas soumis à l’examen du Conseil, ce dernier peut décider de ne statuer que sommairement sur ce cas (article 2, section 2.1.3 des Statuts). Le Conseil réexamine la décision initiale afin de mieux comprendre le processus de modération de contenu, de réduire les erreurs et d’accroître l’équité pour les personnes qui utilisent Facebook, Instagram et Threads.
Signification du cas
Ce cas met en évidence une incohérence dans la manière dont Meta applique sa politique sur la violence et l’incitation aux déclarations métaphoriques ou figurées dans un contexte politique, qui peut affecter de manière disproportionnée les critiques politiques des États ainsi que des institutions gouvernementales. Ce cas souligne également l’importance, pour Meta, de prendre en considération la cible de la déclaration (dans ce cas-ci, un parti politique), ainsi que l’utilisation de figures hyperboliques, rhétoriques, ironiques et satiriques pour critiquer des institutions, lors de la mise au point de ses systèmes de modération.
À propos du discours rhétorique, le Conseil a fait remarquer, dans le cas Poème russe, que les passages violents du poème « Kill him ! » (Tuez-le !) pouvaient être compris comme « une description, et non un encouragement, d’un état d’esprit ». Le Conseil a déterminé que ce type de langage était employé à titre de figure rhétorique pour faire passer le message de l’utilisateur et que, en conséquence, cette partie du contenu était autorisée par les règles internes de Meta relatives à sa politique sur la violence et l’incitation.
Bien qu’elle touche à un autre standard de la communauté (Discours haineux) que celui en question dans ce cas-ci (Violence et incitation), la décision Bot au Myanmar reste pertinente parce qu’elle concerne des déclarations visant des États ou des institutions politiques. Dans ce cas-là, le Conseil a conclu que le contenu en question n’enfreignait pas le standard de la communauté sur les discours haineux puisque les injures qu’il comportait ne visaient pas de personnes sur la base de leur origine ethnique ou nationale, mais bien un État. Le Conseil a souligné ce qui suit : « Il est essentiel de veiller à ce que les interdictions de cibler les personnes sur la base de caractéristiques protégées ne soient pas interprétées de manière à protéger les gouvernements ou les institutions de toute critique. »
Le Conseil a par le passé demandé à Meta de mettre en place des procédures adéquates pour évaluer les contenus dans leur contexte respectif (recommandation n° 3 du cas Meme auxdeux boutons). Il a également recommandé ceci : « Pour mieux informer les utilisateurs des types de déclarations interdites, Meta devrait modifier le Standard de la communauté relatif à la violence et à l’incitation pour (i) expliquer que les menaces rhétoriques comme les déclarations “mort à telle personne” sont généralement autorisées, sauf lorsque la cible de la menace est une personne à haut risque… » (recommandation n°1 du cas Slogan de protestation en Iran) ; et « Meta devrait privilégier l’application de tolérances ayant fait l’objet d’une remontée lorsque (i) cela n’est pas susceptible de conduire à la violence ; (ii) lorsque le contenu potentiellement violent est utilisé dans des contextes de protestation ; et (iii) lorsque l’intérêt public est élevé » (recommandation n°2 du cas Slogan de protestation en Iran).
Meta a signalé avoir appliqué la recommandation sur le cas « Meme aux deux boutons » et la recommandation n°2 de la décision « Slogan de protestation en Iran », mais ne pas avoir publié d’informations pour le prouver. En ce qui concerne la recommandation n°1 du cas « Slogan de protestation en Iran », Meta a indiqué ce qui suit dans sa Mise à jour trimestrielle pour le Conseil (Q4 2023) : « Nous avons mis à jour nos standards de la communauté sur la violence et l’incitation pour fournir davantage d’informations sur ce qui constitue une “menace” et pour distinguer nos mesures de modération en fonction de la cible. Dans le cadre de ce travail, nous avons également mis à jour nos règles internes. »
Le Conseil estime que l’application complète de ces recommandations pourrait contribuer à réduire le nombre d’erreurs d’application de la politique relative à la violence et l’incitation.
Décision
Le Conseil a annulé la décision initiale de Meta visant à supprimer le contenu. Le Conseil reconnaît que Meta a corrigé son erreur initiale une fois que le Conseil a porté le cas à son attention.
Retour aux décisions de cas et aux avis consultatifs politiques