Décision sur plusieurs affaires

Commentaires appelant à l’épuration ethnique

Un utilisateur a fait appel de la décision de Meta de conserver trois commentaires Facebook qui appelaient à l’épuration ethnique des Albanais au Kosovo.

3 cas inclus dans ce lot

Renversé

FB-U3X0XVOY

Cas de violence et incitation sur Facebook

Plate-forme
Facebook
Sujet
Discrimination,Origine ou identité ethnique,Guerres et conflits
Standard
Violence et incitation
Emplacement
Albanie,Serbie,Turquie
Date
Publié le 9 décembre 2025
Renversé

FB-C7C98IEV

Cas de violence et incitation sur Facebook

Plate-forme
Facebook
Sujet
Discrimination,Origine ou identité ethnique,Guerres et conflits
Standard
Violence et incitation
Emplacement
Albanie,Serbie,Turquie
Date
Publié le 9 décembre 2025
Renversé

FB-DC3DA56G

Cas de violence et incitation sur Facebook

Plate-forme
Facebook
Sujet
Discrimination,Origine ou identité ethnique,Guerres et conflits
Standard
Violence et incitation
Emplacement
Albanie,Serbie,Turquie
Date
Publié le 9 décembre 2025

Les décisions sommaires concernent les cas pour lesquels Meta est revenue sur sa décision initiale après que le Conseil les a portés à l’attention de l’entreprise. Elles contiennent des informations relatives aux erreurs reconnues par Meta. Elles sont approuvées par une partie du Conseil (et pas par l’ensemble de ses membres), n’impliquent pas de commentaires publics et n’ont pas valeur de précédent pour le Conseil. Les décisions sommaires exercent une influence directe sur les décisions de Meta en assurant la transparence quant à ses corrections et en identifiant les domaines dans lesquels Meta pourrait améliorer son application des politiques.

Résumé

Un utilisateur a fait appel de la décision de Meta de conserver trois commentaires Facebook qui appelaient à l’épuration ethnique des Albanais au Kosovo. Après que le Conseil a porté ces appels à l’attention de Meta, l’entreprise est revenue sur ses décisions initiales et a supprimé les trois commentaires.

À propos des cas

Cette décision regroupe trois éléments de contenu. En juin 2025, un utilisateur Facebook a publié une photo de la construction de la Bibliothèque nationale du Kosovo à Pristina, la capitale. Plusieurs utilisateurs ont commenté la publication. Le premier commentaire signalé au Conseil identifiait l’auteur du signalement et parlait d’une « good ethnic cleanse, as Milošević started » (bonne épuration ethnique, commencée par Milošević), qui mettrait un terme au « fake state » (faux État) et au « turkoschiptar myth » (mythe des turkoschiptars [ci-après t************]) sur la « greater turkoalbania » (grande Turquie-Albanie). Slobodan Milošević fut président de la Serbie et, par la suite, de l’ancienne République de Yougoslavie, dont faisait partie le Kosovo.

L’auteur du signalement a répondu à ce commentaire et souligné que la personne qui avait publié le contenu semblait célébrer l’épuration ethnique et le génocide et glorifier les crimes de guerre. Il a affirmé que Milošević était responsable du meurtre et du déplacement forcé de nombreuses personnes, ainsi que de violences sexuelles à leur encontre.

Le deuxième cas se rapporte à un commentaire de la personne qui avait publié le contenu en réponse à l’auteur du signalement. Cette personne a de nouveau identifié ce dernier et affirmé que « you are victimizing yourself » (tu te victimises) et que « Milošević was too soft » (Milošević a été trop gentil). Elle a poursuivi  : « We should go with full ethnic cleanse as you did to Serbian people back from wwII [World War Two] » (Nous devrions totalement vous épurer ethniquement, comme vous l’avez fait au peuple serbe pendant la 2e guerre mondiale). Avant d’ajouter : « That’s the only way » (C’est le seul moyen) puisque « you are not civilized people » (vous n’êtes pas civilisés).

L’auteur du signalement a de nouveau répondu au commentaire en accusant la personne qui avait publié le contenu d’appeler au génocide et d’ignorer l’histoire.

Le troisième cas se rapporte à un autre commentaire de la personne qui avait publié le contenu en réponse à l’auteur du signalement. Le commentaire dit ceci : « We’ll get back to Serbian Kosovo and Metohia sooner or later » (Nous reviendrons au Kosovo et en Métochie serbes tôt ou tard) et « NATO [the North Atlantic Treaty Organization] wouldn’t always be there for you » (L’OTAN [l’Organisation du Traité de l’Atlantique Nord] ne sera pas toujours là pour vous). La Métochie correspond à la région sud-ouest du Kosovo. Le commentaire indique également que « You are a disgrace to civilization » (Vous êtes la honte de la civilisation) et que le commentateur « know very well who t************ are » (sait très bien qui sont les t************).

L’auteur du signalement a fait appel auprès du Conseil à trois reprises (une fois pour chaque commentaire de la personne qui a publié le contenu) des décisions de Meta de conserver les trois commentaires. Dans ses déclarations au Conseil, l’utilisateur a expliqué que le premier commentaire utilisait « des termes incendiaires et dénigrants qui ciblent des groupes ethniques spécifiques » et qui « promeuvent l’idée de supériorité d’un groupe ethnique ». Il a également attiré l’attention sur le fait que du contenu comme celui-ci « pouvait contribuer à une aggravation des tensions ethnonationales, en particulier dans les régions qui ont été le théâtre de nombreux conflits ». Au sujet du deuxième commentaire de la personne qui a publié le contenu, l’auteur du signalement a fait remarquer que l’incitation à une « full ethnic cleanse » (épuration ethnique totale), avec des références aux conflits passés, « nourrissait l’hostilité et la violence à l’encontre du groupe ciblé ». Toujours selon lui, « sans modération, de telles déclarations en ligne pourraient causer de réels préjudices ». Enfin, pour ce qui est du troisième commentaire de la personne à l’origine du contenu, l’auteur du signalement a souligné que t************ « est une injure ethnique dénigrante et chargée d’histoire qui sert à insulter et à déshumaniser les Albanais. Elle est largement reconnue comme un terme haineux dans le contexte des tensions ethniques dans les Balkans. »

Meta a initialement conservé les trois éléments de contenu. Toutefois, au titre de son standard de la communauté sur la violence et l’incitation, l’entreprise supprime « les propos qui encouragent ou permettent des violences et menaces crédibles à l’encontre de la sécurité publique ou personnelle. Cela inclut les discours violents ciblant une personne ou un groupe de personnes du fait de leur(s) caractéristique(s) protégée(s) ou de leur statut d’immigration. » L’entreprise supprime les « menaces de violence pouvant entraîner la mort (ou d’autres formes de violence de haute gravité) ». Les menaces de violence sont définies comme « des déclarations ou des images représentant une intention, une aspiration ou un appel à la violence à l’encontre d’une cible, et les menaces peuvent être exprimées dans divers types de déclarations telles que des déclarations d’intention, des appels à l’action, des plaidoyers, des déclarations d’aspiration, des déclarations d’espoir et des déclarations conditionnelles ». En outre, en vertu de son standard de la communauté relatif à la conduite haineuse, l’entreprise supprime « le contenu qui décrit ou cible négativement des personnes par des injures ». La politique définit les injures comme « des mots qui créent intrinsèquement une atmosphère d’exclusion et d’intimidation à l’encontre de personnes sur la base d’une caractéristique protégée, souvent parce que ces mots renvoient à une discrimination, une oppression et une violence historiques ».

Après que le Conseil a porté ces cas à l’attention de Meta, l’entreprise a déterminé que les trois éléments de contenu n’auraient pas dû être conservés sur la plateforme. Meta a expliqué que le premier d’entre eux « appelle à une reprise de l’épuration ethnique entamée par Slobodan Milošević », ce qui est « explicitement indiqué plus tard dans la conversation avec le même utilisateur ». Elle a par conséquent conclu que ce commentaire constituait une menace de violence de haute gravité à l’encontre des Albanais. L’entreprise a également considéré que le deuxième commentaire enfreignait la politique sur la violence et l’incitation, indiquant qu’« ici, l’utilisateur appelle au nettoyage ethnique, ce qui constitue une menace de violence de haute gravité à l’encontre des Albanais ». Enfin, Meta a conclu que le troisième commentaire était en infraction aussi puisqu’il faisait référence à un épisode historique de violence perpétrée à l’encontre des Albanais du Kosovo », ce qui, au vu de « la menace de violence proférée plus tôt par le même utilisateur », constituait également une « menace de violence de haute gravité à l’encontre des Albanais ». Elle a ensuite supprimé les trois éléments de contenu de Facebook.

Autorité et champ de compétence du Conseil

Le Conseil jouit de l’autorité nécessaire pour examiner la décision de Meta à la suite d’un appel interjeté par l’utilisateur ayant signalé le contenu qui a été laissé sur la plateforme (article 2, section 1 de la Charte ; article 3, section 1 des Statuts).

Lorsque Meta reconnaît avoir commis une erreur et revient sur sa décision dans un cas soumis à l’examen du Conseil, ce dernier peut décider de ne statuer que sommairement sur ce cas (article 2, section 2.1.3 des Statuts). Le Conseil réexamine la décision initiale afin de mieux comprendre le processus de modération de contenu, de réduire les erreurs et d’accroître l’équité pour les personnes qui utilisent Facebook, Instagram et Threads.

Importance des cas

Les trois éléments de contenu considérés dans cette décision sont autant d’exemples d’application trop laxiste à grande échelle du standard de la communauté de Meta sur la violence et l’incitation. À trois reprises, les systèmes de modération de contenu de l’entreprise ont d’abord échoué à identifier et à supprimer des menaces patentes de violence de haute gravité qui ciblent un groupe de personnes spécifique sur la base de caractéristiques protégées, à savoir, dans ces cas-ci, les Albanais. Néanmoins, après que le Conseil a signalé le contenu, Meta l’a réexaminé et ses équipes spécialisées ont tenu compte de la totalité du contexte dans lequel s’inscrivait cette conversation afin d’établir que chaque commentaire constituait une infraction.

Le Conseil a fait part à de nombreuses reprises de ses préoccupations relatives à la sous-modération des menaces de mort en général et, plus spécifiquement, des contenus à l’égard des groupes qui ont subi des discriminations par le passé et qui continuent à en subir aujourd’hui (cf. p. ex. Déclarations ciblant les populations australiennes aborigènes et Publication en polonais ciblant les personnes trans). Le Conseil fait remarquer que les nombreux conflits qui ont secoué le Kosovo et la récente montée des tensions à la suite des évènements qui ont ébranlé la région en mai et septembre 2023 et en février et en novembre 2024, ainsi que l’attention attirée par l’auteur du signalement sur le risque que ce type de commentaires engendrent de la violence hors ligne. Dans la décision Dessin animé de Knin, lorsqu’il a examiné une vidéo sur Facebook qui associait les personnes d’origine serbe à des rats, le Conseil a conclu que le contenu qui cible un groupe ethnique est déshumanisant et haineux s’il « célèbre des actes discriminatoires accomplis par le passé », « en particulier dans une région où des conflits ethniques ont eu lieu récemment ».

Dans cette même décision, le Conseil a recommandé à Meta de clarifier « les instructions fournies aux modérateurs de contenu pour leur expliquer que les références implicites aux groupes protégés sont elles aussi interdites par la politique lorsque ces références sont comprises assez facilement » (recommandation n° 1 de la décision Dessin animé de Knin). Bien que la recommandation ait été émise en lien avec la politique de Meta sur le discours haineux (désormais qualifié de conduite haineuse), le Conseil estime qu’elle est pertinente dans ce cas-ci, car la personne à l’origine du contenu initial n’a fait explicitement référence aux Albanais dans aucun des trois commentaires. En réponse à cette recommandation, Meta a signalé qu’elle « avait complété l’introduction de [ses] Standards de la communauté dans [son] Espace modération afin de clarifier la manière dont [elle] abordait le contenu qui comporte des termes ambigus ou implicites et qui nécessite davantage de contexte pour être qualifié d’infraction. La mise à jour précise que Meta est susceptible de supprimer un contenu donné lorsque des éléments de contexte supplémentaires [lui] permettent de juger de manière raisonnable que ledit contenu enfreint [ses] Standards de la communauté » (Mise à jour trimestrielle T4 2022 de Meta au Conseil de surveillance). Le Conseil a considéré que la recommandation n’avait été que partiellement mise en œuvre parce que cette mise à jour n’était pas reprise dans la politique relative au discours haineux et qu’elle ne mentionnait pas les références implicites aux groupes protégés.

En outre, comme le note le Conseil, après qu’il a attiré l’attention de Meta sur ces cas-ci, l’entreprise a évalué les trois commentaires concernés, ainsi que les commentaires publiés par l’auteur du signalement, dans le contexte de la conversation plus longue qui avait eu lieu entre les deux personnes. Il s’agissait d’une démarche pertinente en vue d’établir que les trois commentaires appelaient à l’épuration ethnique et à un « retour à un “Kosovo serbe” », une référence à un épisode historique de violence perpétrée à l’encontre des Albanais du Kosovo, et donc une menace de violence de haute gravité à leur encontre. Bien que cette approche soit cohérente avec les recommandations du Conseil sur la manière dont Meta doit appliquer ses politiques sur ses plateformes, elle n’a pas été suivie par les équipes de modération à grande échelle. Dans la décision Poème sur les manifestations politiques en Argentine, le Conseil a souligné à quel point il est important de fournir aux modérateurs à grande échelle la totalité du contexte dans lequel s’inscrit une publication afin d’améliorer la précision de leurs décisions. Bien que ce cas-là soit axé sur l’application de la politique aux carrousels (une publication avec plusieurs images), la conclusion du Conseil vaut tout autant pour les fils de conversation, comme le montrent ces cas-ci.

En outre, le Conseil a émis des recommandations pour mieux comprendre à quel point les décisions de modération de Meta sont précises et saisir l’approche de l’entreprise pour mesurer cette exactitude, ainsi que pour améliorer la transparence globale à ce sujet :

  • « Pour prendre des décisions éclairées dans le cadre de ses futures évaluations et recommandations relatives à la politique sur la violence et l’incitation, ainsi que pour pouvoir effectuer ses propres analyses sur la nécessité et la proportionnalité des compromis trouvés au cours du développement de la politique », Meta devrait de « fournir au Conseil les données qu’elle utilise pour évaluer la précision avec laquelle elle applique sa politique. Ces informations doivent être suffisamment complètes pour permettre au Conseil de valider les arguments de Meta selon lesquels le type d’erreurs de modération dans ces cas-ci ne découle pas de problèmes systémiques au sein des processus de modération de Meta » (recommandation n° 1 du cas Publications sur l’avortement aux États-Unis).
  • Meta « doit améliorer ses rapports de transparence pour augmenter la qualité des informations qu’elle fournit au public au sujet du taux d’erreurs de modération en ajoutant ces informations par pays, par langue et par standard de la communauté ». Le Conseil soutient que des « rapports de transparence plus détaillés aideront le public à détecter les endroits où les erreurs sont les plus fréquentes, y compris les répercussions spécifiques susceptibles de toucher les groupes minoritaires, et à alerter Facebook pour que l’entreprise y remédie » (recommandation n° 3 du cas Inquiétude pendjabie concernant le RSS en Inde).

En réponse aux deux recommandations, Meta a partagé un « résumé confidentiel des données de modération […] y compris un aperçu des données sur la précision de la modération » pour les politiques sur la violence et l’incitation, d’une part, et sur les organisations et les personnes dangereuses, d’autre part (Rapport du S1 2025 de Meta sur le Conseil de surveillance). Le Conseil considère que ces deux recommandations ont été « omises ou recadrées » étant donné que les réponses de Meta ne traitaient pas de l’objectif principal des recommandations. Pour ce qui est de la première recommandation, cela s’explique par le fait que le Conseil a demandé à Meta de lui fournir les données qu’elle utilise pour évaluer la précision avec laquelle elle applique sa politique. Meta n’a toutefois partagé que les résultats d’une évaluation en elle-même. Dans le second cas, c’est parce qu’il a demandé Meta de mettre les données de modération à la disposition du public et de les classer par pays et par langue. Aussi le Conseil a-t-il conclu que l’objectif de chacune de ces recommandations n’avait pas été atteint.

Enfin, le Conseil a également émis une recommandation au sujet des audits de Meta sur sa liste d’injures afin de s’assurer qu’elle était à jour pour toutes les régions : « Lorsque Meta révise ses listes d’insultes, elle doit veiller à procéder à un large engagement externe des parties prenantes concernées. Cette démarche devrait inclure la consultation des groupes concernés et de la société civile. » (recommandation n° 3 de la décision Critique des politiques d’immigration de l’UE et des immigrants). Meta a indiqué qu’elle avait effectué des progrès dans la mise en œuvre de cette recommandation. Elle a expliqué qu’elle « discutait régulièrement avec les parties prenantes, y compris la société civile, afin de maintenir des listes exactes d’injures pour l’ensemble des régions du monde [et qu’elle] travaillait à l’établissement de ce processus au début de [son] audit annuel » (Rapport du S1 2025 de Meta au Conseil de surveillance). Meta a indiqué qu’elle « mettait sur pied un groupe de travail pour identifier la manière de définir de bonnes pratiques et des exigences à respecter pour s’assurer que les parties prenantes soient incluses dans le prochain audit ». Selon l’entreprise, de nouvelles informations seront fournies à l’avenir.

Le Conseil estime que la mise en œuvre intégrale des recommandations susmentionnées permettrait à Meta de renforcer sa capacité à limiter la sous-modération des menaces qui visent des groupes de personnes sur la base de caractéristiques protégées. Première, cela aiderait les équipes de modération à identifier les références implicites à des groupes protégés et à supprimer le contenu nuisible. Deuxièmement, l’entreprise serait en mesure de peaufiner son approche pour mesurer et comparer les données de précision au travers des langues et/ou des régions afin de mieux répartir les ressources et, ainsi, d’améliorer le degré de précision où cela est nécessaire. Troisième, un rapport public sur le degré de précision des examens relatifs à la politique sur la violence et l’incitation permettrait à l’entreprise de faire preuve de plus de transparence et de générer un engagement avec Meta qui a le potentiel d’entraîner d’autres améliorations. Enfin, la consolidation des bonnes pratiques et des exigences à suivre pour impliquer les parties prenantes dans la mise à jour de sa liste d’injures améliorera la capacité de Meta à réagir plus rapidement à l’évolution des tendances relatives à l’usage de certains mots qui ont le potentiel de nuire.

Décision

Le Conseil annule la décision initiale de Meta de conserver les trois éléments de contenu. Le Conseil reconnaît que Meta a corrigé ses erreurs initiales une fois qu’il a porté ces cas à l’attention de l’entreprise.

Retour aux décisions de cas et aux avis consultatifs politiques