Renversé
Commentaire selon lequel les Roms « ne devraient pas exister »
31 juillet 2025
Un utilisateur a fait appel de la décision de Meta de conserver un commentaire sur Facebook qui déclare des Roms qu’ils « should not exist » (ne devraient pas exister). Après que le Conseil a porté l’appel à l’attention de Meta, l’entreprise est revenue sur sa décision initiale et a supprimé le commentaire.
Les décisions sommaires concernent les cas pour lesquels Meta est revenue sur sa décision initiale après que le Conseil les a portés à l’attention de l’entreprise. Elles contiennent des informations relatives aux erreurs reconnues par Meta. Elles sont approuvées par une partie du Conseil (et pas par l’ensemble de ses membres), n’impliquent pas de commentaires publics et n’ont pas valeur de précédent pour le Conseil. Les décisions sommaires exercent une influence directe sur les décisions de Meta en assurant la transparence quant à ses corrections et en identifiant les domaines dans lesquels Meta pourrait améliorer son application des politiques.
Résumé
Un utilisateur a fait appel de la décision de Meta de conserver un commentaire sur Facebook qui déclare des Roms qu’ils « should not exist » (ne devraient pas exister). Après que le Conseil a porté l’appel à l’attention de Meta, l’entreprise est revenue sur sa décision initiale et a supprimé le commentaire.
À propos du cas
En mars 2025, un utilisateur de Facebook a commenté une publication sur l’histoire des migrations des Roms (également connus sous d’autres noms, comme « tziganes »), un groupe ethnique originaire du nord de l’Inde qui a migré dans le monde entier et qui, aujourd’hui, vit principalement en Europe. Cet utilisateur a déclaré que les Roms « should not exist » (ne devraient pas exister) et qu’ils ne représentent « only [a] problem for the world » (qu’un problème pour le monde).
Un utilisateur a fait appel auprès du Conseil de la décision initiale de Meta de conserver le commentaire. Il a rappelé les persécutions subies en Europe par les Roms au cours de leur histoire et les discriminations dont ils souffrent encore à l’heure actuelle, telles que « la ségrégation scolaire, les discriminations à l’emploi, au logement et aux soins de santé, les discriminations politiques et légales, la stigmatisation dans la société et dans les médias, les brutalités policières, l’extrême pauvreté et les crimes haineux ».
Avant le 7 janvier 2025, date à laquelle Meta a annoncé apporter des changements à son standard de la communauté relatif aux discours haineux (à la conduite haineuse, désormais), la politique interdisait les « déclarations niant l’existence (notamment, “[caractéristique(s) protégée(s) ou caractéristique(s) quasi protégée(s)] n’existe(nt) pas”, “[caractéristique(s) protégée(s) ou caractéristique(s) quasi protégée(s)], ça n’existe pas”) ».
Bien que cette interdiction ait été retirée du texte public de la politique en matière de conduite haineuse, l’entreprise supprime les « appels à l’exclusion ou à la ségrégation lorsqu’ils visent des personnes sur la base de caractéristiques protégées », comme l’origine ethnique. Cette interdiction concerne notamment « l’exclusion générale », définie comme un « appel à l’exclusion ou à la ségrégation générale, tel que “Aucun X n’est autorisé !” ». Dans les informations que l’entreprise a fournies au Conseil, elle a également révélé d’autres exemples d’infraction, comme « plus de » ou « un monde sans » [membres d’un groupe à caractéristique protégée].
Après que le Conseil a porté ce cas à l’attention de Meta, l’entreprise a déterminé que le contenu enfreignait la politique en matière de conduite haineuse et que sa décision initiale de conserver le commentaire était incorrecte. Meta a considéré que l’utilisateur violait la politique parce que sa déclaration selon laquelle les Roms « should not exist » (ne devraient pas exister) constitue un appel à leur exclusion générale. L’entreprise a ensuite supprimé le contenu de Facebook.
Autorité et champ de compétence du Conseil
Le Conseil jouit de l’autorité nécessaire pour examiner la décision de Meta à la suite d’un appel interjeté par l’utilisateur ayant signalé le contenu qui a été laissé sur la plateforme (article 2, section 1 de la Charte ; article 3, section 1 des Statuts).
Lorsque Meta reconnaît avoir commis une erreur et revient sur sa décision dans un cas soumis à l’examen du Conseil, ce dernier peut décider de ne statuer que sommairement sur ce cas (article 2, section 2.1.3 des Statuts). Le Conseil réexamine la décision initiale afin de mieux comprendre le processus de modération de contenu, de réduire les erreurs et d’accroître l’équité pour les personnes qui utilisent Facebook, Instagram et Threads.
Importance du cas
Le contenu dans ce cas-ci est un exemple de discours haineux à l’encontre des Roms qui n’est ni subtil ni codé et qui déclare expressément qu’ils « should not exist » (ne devraient pas exister). Le cas présent est un nouvel exemple de sous-modération de discours manifestement haineux (cf., p. ex., Commentaire ciblant les personnes porteuses de trisomie 21, Déclarations ciblant les populations australiennes aborigènes et Publication en polonais ciblant les personnes trans) qui met en évidence les lacunes inquiétantes de Meta en matière d’application de ses politiques relatives aux conduites haineuses sur ses plateformes.
Le Conseil des droits de l’homme des Nations Unies a reconnu il y a longtemps que les Roms « sont victimes depuis plus de cinq cents ans de discrimination, de rejet, d’exclusion sociale et de marginalisation, à grande échelle et partout dans le monde, en particulier en Europe, dans tous les domaines ». Le Conseil a également reconnu « l’existence de l’antitziganisme [« tzigane » étant un terme utilisé en référence aux Roms qui est considéré comme péjoratif par certains et dans certaines langues] comme une forme particulière de racisme et d’intolérance qui entraîne des actes hostiles allant de l’exclusion à la violence à l’encontre des communautés roms ». De même, selon une étude globale réalisée par le Rapporteur spécial des Nations Unies sur les questions relatives aux minorités, les Roms sont exposés à des risques de violence, son identité collective est menacée, ses conditions de vie sont délicates et sa participation effective à la vie sociale est un parcours semé d’embûches. Plus récemment, une résolution du Parlement européen, ainsi qu’une enquête réalisée dans 10 pays européens par l’Agence des droits fondamentaux de l’Union européenne, a mis en évidence les discriminations, la violence et les difficultés auxquelles les Roms doivent faire face dans plusieurs domaines tels que le logement, l’éducation, la santé et l’emploi.
Le Conseil a fait part à plusieurs reprises de son inquiétude quant à la sous-modération des contenus haineux à l’égard des groupes qui ont subi des discriminations par le passé et qui continuent à en subir aujourd’hui. Dans sa décision Déclarations ciblant les populations australiennes aborigènes, le Conseil a souligné l’erreur de Meta, qui n’avait pas supprimé un appel à l’exclusion de ce groupe. Dans sa décision Crimes présumés à Raya Kobo, le Conseil a recommandé à Meta de « reformuler [sa] valeur de “sécurité” afin de refléter que les discours en ligne peuvent créer un risque pour la sécurité physique des personnes et le droit à la vie, en plus des risques d’intimidation, d’exclusion et de réduction au silence » (recommandation n° 1). Des informations publiées attestent de la mise en œuvre de cette recommandation.
Le Conseil a également émis des recommandations pour améliorer l’application des politiques de Meta et réduire les erreurs. Par exemple, le Conseil a recommandé à Meta de « partager [publiquement] les résultats des audits internes réalisés pour évaluer la précision de l’examen manuel et les performances des systèmes automatisés dans le cadre de la mise en application de sa politique en matière de discours haineux [de conduite haineuse, désormais] […] sous une forme qui permet de comparer ces évaluations d’une langue à l’autre et/ou d’une région à l’autre » (recommandation n° 2 du cas Allégations criminelles fondées sur la nationalité). Dans sa réponse initiale au Conseil, Meta a indiqué qu’elle appliquerait partiellement cette recommandation. L’entreprise a déclaré que, bien que l’entreprise « continue[rait] de partager des données sur la quantité de contenus haineux traités par [ses] mécanismes de détection et de modération dans le Rapport d’application des Standards de la communauté, les données sur la précision de ses mesures de modération à l’échelle mondiale seraient partagées confidentiellement avec le Conseil. Cette recommandation a été émise en septembre 2024. Elle est en cours d’application, et les données correspondantes n’ont pas encore été partagées avec le Conseil.
Le Conseil exhorte Meta à améliorer grandement sa précision en matière de détection et de suppression de contenu qui enfreint clairement son standard de la communauté sur la conduite haineuse, quelles que soient la langue et la région. Dans sa décision Publications affichant le drapeau sud-africain de la période de l’apartheid, le Conseil a mis en évidence le fait qu’« en 2018, Meta a mentionné son incapacité à supprimer les discours haineux de Facebook en périodes de crise, comme au Myanmar, comme une source de motivation pour améliorer la fiabilité de ses systèmes de modération automatisés ». Dans la même décision, le Conseil a expliqué que « de nombreuses régions du monde, les utilisateurs sont moins susceptibles d’interagir avec les outils de signalement dans l’application de Meta, et ceci pour différentes raisons. En conséquence, les signalements d’utilisateurs constituent un système peu fiable pour connaître les endroits dans lesquels les pires préjudices pourraient se produire ». Toujours dans cette décision-là, le Conseil a conclu qu’il était donc « indispensable que Meta envisage de manière exhaustive les effets inégaux d’une modification de la détection automatique du contenu potentiellement en infraction, aussi bien du point de vue de l’excès de mise en application que du défaut de celle-ci, tout particulièrement dans les pays traversant ou sortant de crises, de guerres ou frappés par des crimes atroces ».
Le Conseil estime que la mise en œuvre de la totalité de la recommandation n° 2 de sa décision « Allégations criminelles fondées sur la nationalité » susmentionnée permettrait de renforcer davantage la capacité de l’entreprise à limiter la sous-modération du contenu nuisible qui affecte les groupes vulnérables. Grâce à elle, Meta pourrait comparer les données relatives à sa précision dans toutes les langues et toutes les régions afin de distribuer les ressources en fonction des besoins pour améliorer l’exactitude. Par ailleurs, un rapport public sur le degré de précision des examens relatifs à la politique sur la conduite dangereuse permettrait à l’entreprise de faire preuve de plus de transparence et de générer un engagement avec Meta qui a le potentiel d’entraîner d’autres améliorations.
Décision
Le Conseil a annulé la décision initiale de Meta de conserver le contenu. Le Conseil reconnaît que Meta a corrigé son erreur initiale une fois que le Conseil a porté le cas à son attention.
Retour aux décisions de cas et aux avis consultatifs politiques