Renversé
Commentaires déshumanisants sur les habitants de Gaza
18 avril 2024
Un utilisateur a fait appel de la décision de Meta de laisser en ligne une publication Facebook affirmant que le Hamas était issu de la population de Gaza, les comparant à une « horde sauvage ». Après que le Conseil a porté l’appel à l’attention de Meta, l’entreprise est revenue sur sa décision initiale et a supprimé la publication.
Il s’agit d’un résumé de la décision. Les décisions sommaires concernent les cas pour lesquels Meta est revenue sur sa décision initiale après que le Conseil les a portés à l’attention de l’entreprise. Elles contiennent des informations relatives aux erreurs reconnues par Meta. Elles sont approuvées par une partie du Conseil (et pas par l’ensemble de ses membres), n’impliquent pas de commentaires publics et n’ont pas valeur de précédent pour le Conseil. Les décisions sommaires ont une influence directe sur les décisions de Meta en assurant la transparence quant à ses corrections et en identifiant les domaines dans lesquels Meta pourrait améliorer son application des politiques.
Résumé
Un utilisateur a fait appel de la décision de Meta de laisser en ligne une publication Facebook affirmant que le Hamas était issu de la population de Gaza et reflétait ses « désirs les plus profonds », les comparant à une « horde sauvage ». Après que le Conseil a porté l’appel à l’attention de Meta, l’entreprise est revenue sur sa décision initiale et a supprimé la publication.
À propos du cas
En décembre 2023, un utilisateur a publié sur Facebook une image comportant un texte, à côté de l’image d’un homme anonyme, exprimant le point de vue selon lequel le « grand public » de Gaza n’est pas la « victime » du Hamas, mais plutôt que le groupe militant est apparu comme un « véritable reflet » des « désirs les plus profonds d’une horde sauvage ». L’image republiée contenait une légende de soutien comprenant les mots « la vérité ». La publication a été vue moins de 500 fois.
La politique de Meta en matière de discours haineux interdit les contenus ciblant une personne ou un groupe de personnes sur la base de leurs caractéristiques protégées, en mentionnant spécifiquement les comparaisons avec la « sous-humanité » et en incluant le terme « sauvages » à titre d’exemple. Dans ce contenu, la référence au « grand public de Gaza » est une référence implicite aux Palestiniens de Gaza, ciblant ainsi les caractéristiques protégées que sont l’appartenance ethnique et la nationalité.
Dans une déclaration faisant appel de ce cas auprès du Conseil, l’utilisateur a noté que la publication « constituait un discours déshumanisant » en émettant une généralité au sujet de la population de Gaza.
Après que le Conseil a porté ce cas à l’attention de Meta, l’entreprise a déterminé que le contenu enfreignait la politique de Meta en matière de discours haineux et que sa décision initiale de laisser le contenu en ligne était incorrecte. L’entreprise a ensuite supprimé le contenu de Facebook.
Autorité et champ d’application du Conseil
Le Conseil jouit de l’autorité nécessaire pour examiner la décision de Meta à la suite d’un appel interjeté par l’utilisateur ayant signalé le contenu qui a été laissé sur la plateforme (article 2, section 1 de la Charte ; article 3, section 1 des Statuts).
Lorsque Meta reconnaît avoir commis une erreur et revient sur sa décision dans un cas soumis à l’examen du Conseil, ce dernier peut sélectionner ce cas pour un résumé de la décision (article 2, section 2.1.3 des Statuts). Le Conseil réexamine la décision initiale afin de mieux comprendre le processus de modération de contenu impliqué, de réduire les erreurs et d’accroître l’équité pour les personnes qui utilisent Facebook et Instagram.
Signification du cas
Ce cas met en lumière les erreurs commises par Meta dans l’application de sa politique en matière de discours haineux, en particulier en ce qui concerne les contenus qui attaquent les personnes sur la base de leurs caractéristiques protégées. Les erreurs de modération sont particulièrement préjudiciables en période de conflit armé. Il aurait donc fallu mettre en place des pratiques de modération du contenu plus rigoureuses.
Le cas Dessin animé de Knin contenait également un discours haineux visant une caractéristique protégée, à savoir une ethnie, en comparant un groupe ethnique à des rats sans le nommer explicitement. Cependant, dans le cas du dessin animé de Knin, il fallait un contexte historique et culturel pour interpréter la représentation symbolique d’un groupe ethnique, alors que le contenu de ce cas lie plus directement des commentaires déshumanisants à une population entière, ce qui devrait raisonnablement être compris comme évoquant des personnes en fonction d’une caractéristique protégée.
Dans la décision du Dessin animé de Knin, le Conseil a recommandé à Meta de « clarifier le Standard de la communauté en matière de discours haineux et les orientations fournies aux équipes d’examen, en expliquant que même les références implicites à des groupes protégés sont interdites par la politique lorsque la référence serait raisonnablement comprise » (décision du Dessin animé de Knin, recommandation n° 1), ce que Meta a déclaré avoir partiellement mis en œuvre. Au quatrième trimestre 2022, Meta a indiqué qu’elle avait « ajouté un texte aux Standards de la communauté et à la politique d’orientation des équipes d’examen précisant que les discours haineux implicites seront supprimés s’ils sont transmis par les équipes d’examen à grande échelle pour être examinés par des spécialistes où Meta peut raisonnablement comprendre l’intention de l’utilisateur ». Le Conseil considère que cette recommandation a été partiellement suivie, étant donné que les mises à jour n’ont pas porté sur le Standard de la communauté relatif au discours haineux, mais uniquement sur l’introduction générale des Standards de la communauté.
Le Conseil estime que l’application complète de cette recommandation réduirait le nombre d’erreurs d’application de la politique de Meta en matière de discours haineux.
Décision
Le Conseil a annulé la décision initiale de Meta de laisser le contenu sur la plateforme. Le Conseil reconnaît que Meta a corrigé son erreur initiale une fois que le Conseil a porté le cas à son attention.
Retour aux décisions de cas et aux avis consultatifs politiques