Renversé
Racisme et La Planète des singes
16 novembre 2023
Un utilisateur a fait appel de la décision de Meta de conserver une publication Facebook comparant un groupe de personnes noires impliquées dans une émeute en France à la « Planète des singes ».
Il s’agit d’un résumé de la décision. Les résumés des décisions examinent les cas où Meta est revenue sur sa décision initiale concernant un élément de contenu après que le Conseil a porté l’affaire à l’attention de l’entreprise. Ces décisions comprennent des informations sur les erreurs reconnues de Meta. Elles sont approuvées par un groupe de membres du Conseil, et non par le Conseil dans son ensemble. Elles ne tiennent pas compte des commentaires publics et n’ont pas valeur de précédent pour le Conseil. Les résumés des décisions assurent la transparence des corrections apportées par Meta et mettent en évidence les domaines dans lesquels l’entreprise pourrait améliorer l’application de sa politique.
Résumé du cas
Un utilisateur a fait appel de la décision de Meta de conserver une publication Facebook comparant un groupe de personnes noires impliquées dans une émeute en France à la « Planète des singes ». Après que le Conseil a porté l’appel à l’attention de Meta, l’entreprise est revenue sur sa décision initiale et a supprimé la publication.
Description du cas et contexte
En janvier 2023, un utilisateur de Facebook a publié une vidéo qui semble avoir été prise depuis une voiture roulant de nuit. La vidéo montre la voiture traversant des quartiers jusqu’à ce qu’un groupe d’hommes noirs apparaisse et soit vu en train de poursuivre la voiture jusqu’à la fin de la séquence. La légende indique en anglais que « France has fell like planet of the friggin apes over there rioting in the streets running amok savages » (la France est tombée comme la planète des putains de singes là-bas, avec des émeutes dans les rues et des sauvages qui se déchaînent) et explique que « the ones » (ceux) qui parviennent à « our shores » (nos côtes) sont logés pour un coût que l’utilisateur estime important. La publication a été vue moins de 500 fois. Un utilisateur de Facebook a signalé le contenu.
En vertu de la politique de Meta en matière de discours haineux, l’entreprise supprime les contenus qui déshumanisent les personnes appartenant à un groupe avec des caractéristiques protégées en les comparant à des « insectes » ou à des « animaux en général ou à des types spécifiques d’animaux qui sont culturellement perçus comme étant intellectuellement ou physiquement inférieurs (notamment, mais sans s’y limiter : les personnes noires de peau et les singes ou les créatures ressemblant à des singes ; les personnes de confession juive et les rats ; les personnes de confession musulmane et les porcs ; les mexicains et les vers de terre). »
Meta a d’abord laissé le contenu sur Facebook. Après que le Conseil a porté ce cas à l’attention de Meta, l’entreprise a déterminé que le contenu enfreignait le Standard de la communauté relatif au discours haineux et que sa décision initiale de laisser le contenu sur la plateforme était incorrecte. Meta a expliqué au Conseil que la légende de la vidéo enfreignait sa politique en matière de discours haineux en comparant les hommes à des singes et qu’elle aurait dû être supprimée. L’entreprise a ensuite supprimé le contenu de Facebook.
Autorité et champ d’application du Conseil
Le Conseil jouit de l’autorité nécessaire pour examiner la décision de Meta à la suite d’un appel interjeté par l’utilisateur ayant signalé le contenu qui a été laissé sur la plateforme (article 2, section 1 de la Charte ; article 3, section 1 des Statuts).
Lorsque Meta reconnaît avoir commis une erreur et revient sur sa décision dans un cas soumis à l’examen du Conseil, ce dernier peut sélectionner ce cas pour un résumé de la décision (article 2, section 2.1.3 des Statuts). Le Conseil réexamine la décision initiale afin de mieux faire comprendre le processus de modération des contenus, de réduire les erreurs et d’accroître l’équité pour les utilisateurs de Facebook et d’Instagram.
Importance du cas
Ce cas met en lumière les difficultés rencontrées par Meta pour faire appliquer de manière cohérente ses politiques en matière de contenu. La politique de Meta en matière de discours haineux comporte une disposition spécifique interdisant les comparaisons entre les Noirs et les singes, et pourtant elle n’a pas supprimé le contenu en question dans ce cas. D’autres cas traités par le Conseil ont examiné les politiques de Meta en matière de discours haineux et les facteurs contextuels pour déterminer si ce discours impliquait des déclarations comportementales qualifiées ou non qualifiées sur un groupe protégé dans le cadre d’un commentaire social légitime. Le contenu en question, cependant, utilise sans équivoque un discours haineux déshumanisant dans le but exprès de dénigrer un groupe d’individus sur la base de leur origine ethnique et aurait dû être supprimé. Le cas souligne également que les problèmes de mise en application peuvent entraîner le maintien sur les plateformes de Meta de contenus discriminatoires à l’égard d’un groupe de personnes en raison de leur origine ethnique ou de leur appartenance ethnique. Le Conseil note que ce type de contenu, à grande échelle, contribue à marginaliser davantage les groupes de minorités visibles et peut même potentiellement causer des préjudices hors ligne, en particulier dans les régions où il existe une animosité envers les immigrés.
Précédemment, le Conseil a émis une recommandation soulignant l’importance pour les modérateurs de reconnaître les nuances dans la politique de Meta en matière de discours haineux. Le Conseil a notamment recommandé à Meta de clarifier le Standard de la communauté relatif aux discours haineux et les instructions fournies aux examinateurs, expliquer que les références implicites aux groupes protégés sont elles aussi interdites par la politique lorsque ces références sont comprises assez facilement » (Décision sur le Dessin animé de Knin, recommandation nº 1). La mise en œuvre partielle de cette recommandation par Meta a été démontrée par des informations publiées. Le Conseil souligne la nécessité pour Meta de répondre à ces préoccupations afin de réduire le taux d’erreur dans la modération des contenus de discours haineux.
Décision
Le Conseil a annulé la décision initiale de Meta de laisser le contenu sur la plateforme. Le Conseil reconnaît que Meta a corrigé son erreur initiale une fois que le Conseil a porté le cas à l’attention de Meta.
Retour aux décisions de cas et aux avis consultatifs politiques