Renversé

Dessin animé sur la conspiration des médias

Un utilisateur a fait appel de la décision de Meta de conserver sur la plateforme un commentaire Facebook représentant une caricature d’un homme juif tenant une boîte à musique étiquetée « media » (médias), accompagné d’un singe étiqueté « BLM », assis sur son épaule.

Type de décision

Résumé

Politiques et sujets

Sujet
Communautés marginalisées, Discrimination, Origine ou identité ethnique
Norme communautaire
Discours incitant à la haine

Régions/Pays

Emplacement
Allemagne, Australie, Israël

Plate-forme

Plate-forme
Facebook

Il s’agit d’un résumé de la décision. Les résumés des décisions examinent les cas où Meta est revenue sur sa décision initiale concernant un élément de contenu après que le Conseil a porté l’affaire à l’attention de l’entreprise. Ces décisions incluent des informations sur les erreurs reconnues de Meta, et informent le public sur l’impact du travail du Conseil. Elles sont approuvées par un groupe de membres du Conseil, et non par le Conseil dans son ensemble. Elles n’impliquent pas de processus de commentaires publics, et n’ont pas valeur de précédent pour le Conseil. Les résumés des décisions assurent la transparence des corrections apportées par Meta et mettent en évidence les domaines dans lesquels l’entreprise pourrait améliorer l’application de sa politique.

Résumé du cas

Un utilisateur a fait appel de la décision de Meta de conserver sur la plateforme un commentaire Facebook représentant une caricature d’un homme juif tenant une boîte à musique étiquetée « media » (médias), accompagné d’un singe étiqueté « BLM », assis sur son épaule. Après que le Conseil a porté l’appel à l’attention de Meta, l’entreprise est revenue sur sa décision initiale et a supprimé le commentaire.

Description du cas et contexte

En mai 2023, un utilisateur a publié un commentaire contenant une image représentant une caricature d’un homme juif tenant une boîte à musique ancienne, tandis qu’un singe repose sur ses épaules. La caricature a un nez exagérément crochu et porte une étoile de David avec l’inscription « Jude » (Juif), qui rappelle les insignes que les Juifs étaient obligés de porter pendant l’Holocauste. Le singe sur son épaule porte l’inscription « BLM » (acronyme du mouvement « Black Lives Matter » [les vies noires comptent]), tandis que la boîte à musique porte l’inscription « media » (médias). Le commentaire a été vu moins de 100 fois.

Ce contenu enfreint deux éléments distincts de la politique de Meta en matière de discours haineux. La politique de Meta en matière de discours haineux interdit les contenus qui font référence à des « stéréotypes préjudiciables historiquement liés à l’intimidation », tels que « les affirmations selon lesquelles le peuple juif contrôle les institutions financières, politiques ou médiatiques ». En outre, la politique de Meta en matière de discours haineux interdit les images déshumanisantes, telles que les contenus assimilant « les personnes noires de peau et les singes ou les créatures ressemblant à des singes ». Ce contenu enfreint ces deux éléments car il insinue que des Juifs contrôlent les institutions médiatiques et assimile « BLM » à un singe. Dans son appel auprès du Conseil, l’utilisateur qui a signalé le contenu a déclaré que celui-ci était antisémite et raciste à l’égard des Noirs.

Meta a d’abord laissé le contenu sur Facebook. En portant ce cas à l’attention de Meta, l’entreprise a déterminé que la publication a enfreint sa politique en matière de discours haineux, et que sa décision originale de conserver le contenu sur la plateforme était incorrecte. L’entreprise a ensuite supprimé le contenu de Facebook.

Autorité et champ d’application du Conseil

Le Conseil jouit de l’autorité nécessaire pour examiner la décision de Meta à la suite d’un appel interjeté par la personne ayant signalé le contenu qui a été laissé sur la plateforme (article 2, section 1 de la Charte ; article 3, section 1 des Statuts).

Lorsque Meta reconnaît avoir commis une erreur et revient sur sa décision dans un cas soumis à l’examen du Conseil, ce dernier peut sélectionner ce cas pour un résumé de la décision (article 2, section 2.1.3 des Statuts). Le Conseil réexamine la décision initiale afin de mieux comprendre les processus de modération de contenu impliqués, de réduire les erreurs et d’accroître l’équité pour les utilisateurs de Facebook et d’Instagram.

Importance du cas

Le cas met en lumière les lacunes dans l’application par Meta de sa politique en matière de discours haineux, qui peut conduire à la diffusion de contenus véhiculant des stéréotypes préjudiciables et des images déshumanisantes. Les erreurs d’application telles que celles-ci doivent être corrigées étant donné la responsabilité de Meta de réduire le risque de préjudice associé au contenu qui cible les groupes marginalisés.

Le Conseil a déjà examiné l’application insuffisante de la politique de Meta en matière de discours haineux lorsque le contenu des utilisateurs constituait une infraction manifeste aux Standards de l’entreprise. Le Conseil a recommandé à Meta de « clarifier le Standard de la communauté relatif aux discours haineux et les instructions fournies aux examinateurs, d’expliquer que les références implicites aux groupes protégés sont elles aussi interdites par la politique lorsque ces références sont comprises assez facilement » (Décision sur le Dessin animé de Knin, recommandation nº 1). Meta a partiellement suivi cette recommandation.

Le Conseil a également émis des recommandations visant à réduire le nombre d’erreurs d’application. Le Conseil a recommandé à Meta d’« implémenter une procédure d’examen interne pour analyser continuellement un échantillon statistiquement représentatif des décisions de suppression de contenu automatisées afin d’annuler les erreurs de modération et d’en tirer des leçons » (Décision sur les Symptômes du cancer du sein et nudité, recommandation n° 5). Meta affirme que cette recommandation correspond à un travail qu’elle effectue déjà, sans publier d’informations pour le démontrer.

Le Conseil réaffirme que la mise en œuvre intégrale des recommandations ci-dessus contribuera à réduire les erreurs d’application de la politique relative aux discours haineux, en réduisant la prévalence des contenus qui véhiculent des stéréotypes offensants et des images déshumanisantes.

Décision

Le Conseil a annulé la décision initiale de Meta de laisser le contenu sur la plateforme. Le Conseil reconnaît que Meta a corrigé son erreur initiale une fois qu’il a porté ce cas à l’attention de Meta.

Retour aux décisions de cas et aux avis consultatifs politiques