Renversé
Publication incitant à la discrimination à l’embauche à l’égard des Khmers
3 mars 2026
Un utilisateur a fait appel de la décision de Meta de conserver une publication Facebook en thaï qui disait : « Stop hiring Khmer people » (Arrêtez d’embaucher des Khmers).
Les décisions sommaires concernent les cas pour lesquels Meta est revenue sur sa décision initiale après que le Conseil les a portés à l’attention de l’entreprise. Elles contiennent des informations relatives aux erreurs reconnues par Meta. Elles sont approuvées par une partie du Conseil (et pas par l’ensemble de ses membres), n’impliquent pas de commentaires publics et n’ont pas valeur de précédent pour le Conseil. Les décisions sommaires exercent une influence directe sur les décisions de Meta en assurant la transparence quant à ses corrections et en identifiant les domaines dans lesquels Meta pourrait améliorer son application des politiques.
Résumé
Un utilisateur a fait appel de la décision de Meta de conserver une publication Facebook en thaï qui disait : « Stop hiring Khmer people » (Arrêtez d’embaucher des Khmers). Après que le Conseil a porté l’appel à l’attention de Meta, l’entreprise est revenue sur sa décision initiale et a supprimé la publication.
À propos du cas
En juillet 2025, un utilisateur Facebook a publié une photo de quatre individus en uniforme qui tenaient ce qui semblait être des sacs de sable sur un chantier, accompagnée d’une légende en thaï : « #Stop hiring Khmer people » (#Arrêtez d’embaucher des Khmers). La légende insistait également sur le fait qu’il ne fallait pas apporter son soutien aux magasins et aux entreprises qui employaient des Cambodgiens et demandait aux autres utilisateurs de partager le message s’ils étaient d’accord avec celui-ci. Le contenu a été publié à l’époque d’affrontements à la frontière entre la Thaïlande et le Cambodge, à cause desquels des civils ont été blessés et tués. Des milliers de migrants cambodgiens ont quitté la Thaïlande pour retourner au Cambodgepar peur des discriminations et des actes de violence en cette période de troubles.
Dans son appel au Conseil, l’auteur du signalement a noté que la publication « nourrissait la haine et les discriminations ethniques à l’encontre des Cambodgiens », ainsi que la « division sociale », et qu’elle mettait « des innocents en danger ».
En vertu du standard de la communauté en matière de conduite haineuse, Meta supprime le « contenu ciblant une personne ou un groupe de personnes du fait de leur(s) caractéristique(s) protégée(s) » avec « des appels ou soutiens à l’exclusion ou à la ségrégation ou des déclarations d’intention d’exclure ou de ségréger ». Cela inclut « l’exclusion économique caractérisée comme un déni du droit d’accès aux avantages économiques et une participation limitée au marché du travail ».
Après que le Conseil a porté ce cas à l’attention de Meta, l’entreprise a déterminé que le contenu enfreignait la politique en matière de conduite haineuse et que sa décision initiale de le conserver était incorrecte. Meta a jugé que la publication appelait explicitement à ne pas embaucher de Khmers, ce qui constitue un « appel à leur refuser l’accès au marché du travail », et l’a supprimée de Facebook.
Autorité et champ de compétence du Conseil
Le Conseil jouit de l’autorité nécessaire pour examiner la décision de Meta à la suite d’un appel interjeté par l’utilisateur ayant signalé le contenu qui a été laissé sur la plateforme (article 2, section 1 de la Charte ; article 3, section 1 des Statuts).
Lorsque Meta reconnaît avoir commis une erreur et revient sur sa décision dans un cas soumis à l’examen du Conseil, ce dernier peut décider de ne statuer que sommairement sur ce cas (article 2, section 2.1.3 des Statuts). Le Conseil réexamine la décision initiale afin de mieux comprendre le processus de modération de contenu, de réduire les erreurs et d’accroître l’équité pour les personnes qui utilisent Facebook, Instagram et Threads.
Importance du cas
Le contenu dans ce cas-ci constitue un exemple d’application laxiste de la politique de Meta en matière de conduite haineuse, ce qui peut contribuer à la discrimination à l’égard des Cambodgiens en Thaïlande, en particulier compte tenu des récents affrontements entre la Thaïlande et le Cambodge. Le Conseil accorde une attention particulière aux erreurs de modération de Meta qui concernent ce standard de la communauté depuis l’annonce de l’entreprise à son sujet le 7 janvier 2025.
Le Conseil a émis une recommandation dont l’objectif est d’aider Meta à mieux appliquer sa politique en matière de conduite haineuse. Dans sa décision Allégations criminelles fondées sur la nationalité, le Conseil a déclaré que Meta devrait « partager [publiquement] les résultats des audits internes réalisés pour évaluer la précision de l’examen manuel et les performances des systèmes automatisés dans le cadre de la mise en application de sa politique en matière de discours haineux [de conduite haineuse, désormais] […] sous une forme qui permet de comparer ces évaluations d’une langue à l’autre et/ou d’une région à l’autre » (recommandation n° 2). Dans sa réponse initiale au Conseil, Meta a indiqué qu’elle préférerait partager ses données sur la précision de ses processus de modération en toute confidentialité avec le Conseil plutôt que les rendre publiques. Meta a récemment fourni de nouvelles informations au sujet de cette recommandation, indiquant que : « Dans le cadre des efforts [de l’entreprise] pour changer la manière dont [elle] applique [ses] politiques afin de réduire les erreurs, [elle] s’appuie davantage sur les signalements d’utilisateurs au lieu de ses systèmes de détection proactive pour de nombreux types de violations, y compris en matière de conduite haineuse » (Rapport S1 2025 de Meta au Conseil de surveillance). Selon Meta, une évaluation sera réalisée « plus tard pour permettre aux équipes d’appliquer totalement ces changements ». Les changements semblent en cours d’application, et les données correspondantes n’ont pas encore été partagées avec le Conseil.
Le Conseil estime que la mise en œuvre de la totalité de la recommandation n° 2 de sa décision « Allégations criminelles fondées sur la nationalité » permettrait d’améliorer la capacité de l’entreprise à limiter la sous-modération du contenu nuisible qui affecte les groupes vulnérables. Grâce à elle, Meta pourrait comparer les données relatives à sa précision dans toutes les langues et toutes les régions afin de distribuer les ressources en fonction des besoins pour améliorer l’exactitude. Par ailleurs, un rapport public sur le degré de précision des examens relatifs à la politique en matière de conduite haineuse permettrait à l’entreprise de faire preuve de plus de transparence et de générer un engagement avec Meta. Cet engagement pourrait entraîner de futures améliorations à mesure que l’entreprise reçoit les avis des parties prenantes et y réagit en conséquence.
Décision
Le Conseil a annulé la décision initiale de Meta de conserver le contenu. Le Conseil reconnaît que Meta a corrigé son erreur initiale une fois qu’il a porté le cas à son attention.
Retour aux décisions de cas et aux avis consultatifs politiques