Renversé
Montage vidéo contenant des memes haineux
7 mars 2024
Un utilisateur a fait appel de la décision de Meta de conserver une publication Facebook dans laquelle un montage vidéo contient une série de memes antisémites, racistes, homophobes et transphobes sur de la musique allemande. Le cas présent met en évidence les erreurs commises par Meta dans l’application de sa politique relative au discours haineux.
Il s’agit d’un résumé de la décision. Les résumés des décisions examinent les cas où Meta est revenue sur sa décision initiale concernant un élément de contenu après que le Conseil a porté l’affaire à l’attention de l’entreprise. Ces décisions incluent des informations sur les erreurs reconnues de Meta, et informent le public sur l’impact du travail du Conseil. Elles sont approuvées par un groupe de membres du Conseil, et non par le Conseil tout entier. Elles ne tiennent pas compte des commentaires publics et n’ont pas valeur de précédent pour le Conseil. Les résumés des décisions assurent la transparence des corrections apportées par Meta et mettent en évidence les domaines dans lesquels l’entreprise pourrait améliorer l’application de sa politique.
Résumé du cas
Un utilisateur a fait appel de la décision de Meta de conserver une publication Facebook dans laquelle un montage vidéo contient une série de memes antisémites, racistes, homophobes et transphobes sur de la musique allemande. Le cas présent met en évidence les erreurs commises par Meta dans l’application de sa politique relative au discours haineux. Après que le Conseil a porté l’appel à l’attention de Meta, l’entreprise est revenue sur sa décision initiale et a supprimé la publication.
Description du cas et contexte
En août 2023, un utilisateur Facebook a publié un vidéo-clip de trois minutes contenant une série de memes antisémites, racistes, homophobes et transphobes. Les memes prétendent que les Juifs contrôlent les institutions médiatiques, font l’éloge de l’armée du régime nazi, expriment du mépris quant aux relations interraciales, comparent les personnes issues de la communauté noire à des gorilles, insultent les communautés noire et LGBTQIA+ et prônent la violence à leur encontre, entre autres. La légende accompagnant la vidéo, en anglais, affirme que cette publication entraînerait la suspension de la Page Facebook de l’utilisateur, mais que cela serait « worth it » (cela vaudrait le coup). La publication a été vue environ 4000 fois et signalée moins de 50 fois.
Ce contenu enfreint plusieurs éléments de la politique de Meta en matière de discours haineux, qui interdit les contenus qui font référence à des « stéréotypes offensants historiquement liés à l’intimidation », tels que « les affirmations selon lesquelles le peuple juif contrôle les institutions financières, politiques ou médiatiques ». En outre, la politique interdit les images déshumanisantes, telles que les contenus assimilant « les personnes noires de peau et les singes ou les créatures ressemblant à des singes ». La politique interdit également l’utilisation d’insultes à caractère racial. Les memes de ce contenu enfreignent les éléments susmentionnés en prétendant que les Juifs contrôlent les médias (un meme représente une kippa [le couvre-chef juif] portant l’inscription « facebook »), en comparant les personnes issues de la communauté noire à des gorilles et en utilisant des insultes à caractère racial par le biais de l’inscription du « n-word » (mot en n) sur une épée brandie par un personnage de dessin animé. La légende accompagnant la vidéo, en anglais, affirme que cette publication entraînerait la suspension de la Page Facebook de l’utilisateur, mais que cela serait « worth it » (cela vaudrait le coup). La légende encourage également les personnes qui interagissent avec le contenu à « show these degenerates your utter contempt » (montrer à ces dégénérés votre mépris le plus total) et à télécharger la vidéo.
Meta a d’abord laissé le contenu sur Facebook. Après que le Conseil a porté ce cas à l’attention de Meta, l’entreprise a déterminé que le contenu enfreignait le Standard de la communauté relatif au discours haineux et a supprimé le contenu.
Autorité et champ d’application du Conseil
Le Conseil jouit de l’autorité nécessaire pour examiner la décision de Meta à la suite d’un appel interjeté par l’utilisateur ayant signalé le contenu qui a été laissé sur la plateforme (article 2, section 1 de la Charte ; article 3, section 1 des Statuts).
Lorsque Meta reconnaît avoir commis une erreur et revient sur sa décision dans un cas soumis à l’examen du Conseil, ce dernier peut décider de ne statuer que sommairement sur ce cas (article 2, section 2.1.3 des Statuts). Le Conseil réexamine la décision initiale afin de mieux comprendre le processus de modération de contenu, de réduire les erreurs et d’accroître l’équité pour les personnes qui utilisent Facebook et Instagram.
Importance du cas
Le cas présent met en évidence les erreurs commises par Meta dans sa manière d’appliquer sa politique relative au discours haineux. Le Conseil avait déjà examiné la politique de Meta relative aux discours haineux pour des contenus d’utilisateurs comprenant des insultes, comme dans le cas des Insultes en Afrique du Sud pour lequel le Conseil a déterminé que l’utilisation d’insultes à caractère racial était dégradante et excluante ; et pour le contenu faisant référence à un groupe de personnes en les qualifiant de sous-humains, comme dans le cas du Dessin animé de Knin.
Le contenu de ce cas impliquait plusieurs éléments en infraction, de l’utilisation d’insultes visant les personnes issues de la communauté noire à l’accusation selon laquelle les Juifs contrôlent les médias. Alors que la légende indiquait que l’utilisateur était parfaitement conscient que le contenu était susceptible d’être en infraction et, par conséquent, d’être supprimé pour discours haineux, le contenu n’a pas été supprimé jusqu’à ce que le Conseil identifie ce cas comme un cas à examiner sur la base de l’appel d’un autre utilisateur. Le Conseil a également publié des décisions sommaires démontrant que Meta a toujours des difficultés à mettre en œuvre sa politique en matière de discours haineux, notamment dans le cas du Racisme et La Planète des singes et du Dessin animé sur la conspiration des médias concernant les discours à l’encontre, respectivement, des personnes issues de la communauté noire et des Juifs.
Précédemment, le Conseil a témoigné, dans le cas de la Publication en polonais ciblant les personnes trans, de l’échec de Meta en matière de mise en application adaptée, malgré plusieurs signalements, du contenu nuisible d’une publication. Le Conseil avait donc conclu que l’entreprise n’agissait pas en conformité avec les idéaux qu’elle formule en matière de sécurité des personnes LGBTIA+ et d’autres communautés marginalisées. Le Conseil exhorte Meta à combler ses lacunes liées au Standard de la communauté relatif au discours haineux.
Décision
Le Conseil a annulé la décision initiale de Meta de laisser le contenu sur la plateforme. Le Conseil reconnaît que Meta a corrigé son erreur initiale une fois que le Conseil a porté le cas à l’attention de l’entreprise.
Retour aux décisions de cas et aux avis consultatifs politiques