Décision sur plusieurs affaires
Communiqué de presse du Front de libération oromo
24 février 2026
Indépendamment, deux utilisateurs ont fait appel des décisions prises par Meta de supprimer respectivement leurs publications, qui partageaient toutes deux un communiqué de presse du Front de libération oromo (OLF), un parti politique militant pour l’autodétermination du peuple oromo en Éthiopie.
2 cas inclus dans ce lot
FB-KW5ZYLJ8
Cas relatif à des personnes et organisations dangereuses sur Facebook
FB-A41GXKK9
Cas relatif à des personnes et organisations dangereuses sur Facebook
Les décisions sommaires concernent les cas pour lesquels Meta est revenue sur sa décision initiale après que le Conseil les a portés à l’attention de l’entreprise. Elles contiennent des informations relatives aux erreurs reconnues par Meta. Elles sont approuvées par une partie du Conseil (et pas par l’ensemble de ses membres), n’impliquent pas de commentaires publics et n’ont pas valeur de précédent pour le Conseil. Les décisions sommaires exercent une influence directe sur les décisions de Meta en assurant la transparence quant à ses corrections et en identifiant les domaines dans lesquels Meta pourrait améliorer son application des politiques.
Résumé
Indépendamment, deux utilisateurs ont fait appel des décisions prises par Meta de supprimer respectivement leurs publications, qui partageaient toutes deux un communiqué de presse du Front de libération oromo (OLF), un parti politique militant pour l’autodétermination du peuple oromo en Éthiopie. Après que le Conseil a porté ces appels à l’attention de Meta, l’entreprise est revenue sur ses décisions et a restauré les deux publications.
À propos des cas
Le Conseil a examiné deux éléments de contenu partageant un communiqué de presse de l’OLF. Dans les deux cas, deux utilisateurs Facebook distincts ont partagé un communiqué de presse et une légende en langue oromo indiquant que le siège social de l’OLF à Addis-Abeba, capitale de l’Éthiopie, avait été officiellement restitué au parti en juin 2025. Dans ce communiqué de presse, l’OLF a décrit cet événement comme le résultat d’efforts prolongés et a exprimé sa gratitude envers toutes les institutions et tous les membres qui ont soutenu ce processus.
L’OLF a été fondé en 1973 en tant qu’organisation politique défendant l’autodétermination du peuple oromo, le principal groupe ethnique d’Éthiopie. Historiquement, l’OLF s’était engagé dans des luttes armées contre le gouvernement éthiopien, qui l’avait désigné comme groupe terroriste. Cependant, en 2018, le gouvernement éthiopien a supprimé l’OLF de sa liste des organisations terroristes, permettant ainsi à ses dirigeants de revenir d’exil. Une faction dissidente qui avait servi de branche armée de l’OLF a refusé de déposer les armes et a poursuivi sa résistance armée contre le gouvernement fédéral. En 2021, les autorités éthiopiennes ont désigné cette faction comme une organisation terroriste.
En vertu de ladite politique, l’entreprise supprime « les glorifications, les soutiens et les représentations » d’individus ou d’organismes qui « revendiquent des objectifs violents ou qui sont impliqués dans des activités violentes ».
Les utilisateurs ont indiqué lors de leur appel auprès du Conseil que les publications partageaient un communiqué de presse de l’OLF concernant la réouverture de son siège à Addis-Abeba et qu’elles ne violaient pas les politiques de Meta. Ils ont souligné que l’OLF était un parti politique légalement enregistré et reconnu par la Commission électorale nationale d’Éthiopie.
Suite au signalement de ces cas par le Conseil à Meta, l’entreprise a déterminé que les publications faisaient référence au Front de libération oromo, distinct d’une organisation portant un nom similaire désignée comme un acteur non étatique violent de niveau 2 dans le cadre de la politique sur les personnes et organisations dangereuses. Selon Meta, comme les publications ne concernaient pas une entité désignée, elles n’enfreignaient pas la politique. Par conséquent, les décisions initiales de Meta de supprimer les publications étaient incorrectes. L’entreprise a ensuite restauré les deux publications sur Facebook.
Autorité et champ de compétence du Conseil
Le Conseil jouit de l’autorité nécessaire pour examiner la décision de Meta à la suite d’un appel interjeté par l’utilisateur dont le contenu a été supprimé (article 2, section 1 de la Charte ; article 3, section 1 des Statuts).
Lorsque Meta reconnaît avoir commis une erreur et revient sur sa décision dans un cas soumis à l’examen du Conseil, ce dernier peut décider de ne statuer que sommairement sur ce cas (article 2, section 2.1.3 des Statuts). Le Conseil réexamine la décision initiale afin de mieux comprendre le processus de modération de contenu, de réduire les erreurs et d’accroître l’équité pour les personnes qui utilisent Facebook, Instagram et Threads.
Importance des cas
Ces cas mettent en évidence la mise en application toujours aussi peu rigoureuse de la norme communautaire de Meta sur les personnes et organisations dangereuses, y compris pour des contenus qui ne font pas référence à une entité désignée. De telles erreurs de mise en application, qui portent atteinte à la liberté d’expression des utilisateurs, sont particulièrement préoccupantes dans un pays comme l’Éthiopie, où un conflit est en cours et où la liberté d’expression est restreinte.
Le Conseil a déjà émis plusieurs recommandations à ce sujet. Parmi celles-ci, le Conseil a recommandé à Meta d’« expliquer les méthodes qu’elle[l’entreprise] utilise pour évaluer la précision de l’examen manuel et les performances des systèmes automatisés dans la mise en application de sa politique sur les personnes et organisations dangereuses » (recommandation n° 6 de l’avis Référence à des personnes dangereuses désignées sous le terme « chahid »). Le Conseil estime que cette recommandation a été recadrée par Meta. L’entreprise a déclaré qu’elle menait des audits afin d’évaluer la précision de ses décisions en matière de modération de contenu et qu’elle en tirait des leçons. Meta n’a toutefois pas fourni d’explications et a refusé de rendre publiques les méthodes utilisées pour effectuer ces évaluations, ce qui permettrait d’améliorer encore la transparence de l’entreprise en matière de mise en application des règles, notamment lorsqu’elles sont appliquées à différentes régions, différents marchés et différentes langues.
En outre, afin d’améliorer la transparence globale concernant la désignation et la suppression de la désignation des entités, le Conseil a émis la recommandation suivante : « Meta devrait fournir des explications plus détaillées sur la procédure de désignation des entités et des événements. Meta doit également publier des informations agrégées sur le nombre total d’entités dans chaque niveau de sa liste de désignation, ainsi que le nombre d’entités ajoutées et supprimées l’année passée », (Référence à des personnes désignées sous le terme chahid, recommandation n°4). Meta a partiellement suivi cette recommandation. En novembre 2024, Meta a publié des informations sur la manière dont l’entreprise désigne les organisations ou les individus, les raisons qui la motivent, ainsi que la manière et le moment où elle envisage leur suppression de la liste des organisations et personnes dangereuses. Meta n’a toutefois pas publié de données sur le nombre total d’entités figurant dans chaque catégorie de la liste, ni sur le nombre d’entités qui ont été supprimées de la liste.
Le Conseil a en outre émis une recommandation axée sur la modération automatique, demandant à Meta d’« implémente[r] une procédure d’examen interne pour analyser continuellement un échantillon statistiquement représentatif des décisions de suppression de contenu automatisées afin d’annuler les erreurs de modération et d’en tirer des leçons » (recommandation n° 5 du cas Symptômes du cancer du sein et nudité). Le Conseil estime que Meta n’a pas tenu compte de cette recommandation, étant donné que l’entreprise l’a regroupée avec la recommandation n° 1 du même cas, qui demandait à Meta « d’améliorer la détection automatique des images avec du texte superposé afin d’assurer que les publications de sensibilisation aux symptômes du cancer du sein ne soient pas signalées à tort pour examen ». Bien que Meta ait signalé des améliorations dans la détection automatisée des images, l’entreprise n’a pas suivi la procédure d’audit interne décrite par le Conseil dans sa recommandation n° 5 ( Mise à jour de Meta relative au Conseil de surveillance pour le T2 et T3 2021, p. 32).
La mise en application excessive et répétée de la politique de l’entreprise relative aux organisations et personnes dangereuses, comme souligné dans les décisions sommaires précédentes (par exemple, le Lien vers l’article Wikipédia sur Hayat Tahrir al-Sham, Mention d’Al-Shabaab, leader anticolonialiste Amílcar Cabral), compromet la capacité des utilisateurs à partager des informations sur les plateformes de Meta. Le Conseil estime que la mise en œuvre de la totalité de ces recommandations contribuerait encore davantage à renforcer la capacité de l’entreprise à améliorer la précision de la mise en application des règles et à mieux protéger la liberté d’expression des utilisateurs. De plus, le partage d’informations supplémentaires sur la désignation des entités améliorerait la transparence globale et favoriserait l’engagement avec Meta, ce qui pourrait conduire à de nouvelles améliorations.
Décision
Le Conseil a annulé les décisions initiales de Meta de supprimer les deux éléments de contenu. Le Conseil reconnaît que Meta a corrigé ses erreurs initiales une fois qu’il a porté ces cas à l’attention de l’entreprise.
Retour aux décisions de cas et aux avis consultatifs politiques