Renversé
Lien vers l'article de Wikipédia sur Hayat Tahrir al-Sham
13 mai 2025
Un utilisateur a fait appel de la décision de Meta de supprimer une réponse à un commentaire Facebook qui comprenait un lien vers un article de Wikipedia sur Hayat Tahrir al-Sham (HTS). Après que le Conseil a porté l’appel à l’attention de Meta, l’entreprise est revenue sur sa décision initiale et a restauré la publication.
Les décisions sommaires concernent les cas pour lesquels Meta est revenue sur sa décision initiale après que le Conseil les a portés à l’attention de l’entreprise. Elles contiennent des informations relatives aux erreurs reconnues par Meta. Elles sont approuvées par une partie du Conseil (et pas par l’ensemble de ses membres), n’impliquent pas de commentaires publics et n’ont pas valeur de précédent pour le Conseil. Les décisions sommaires exercent une influence directe sur les décisions de Meta en assurant la transparence quant à ses corrections et en identifiant les domaines dans lesquels Meta pourrait améliorer son application des politiques.
Résumé
Un utilisateur a fait appel de la décision de Meta de supprimer une réponse à un commentaire Facebook qui comprenait un lien vers un article de Wikipedia sur Hayat Tahrir al-Sham (HTS). Après que le Conseil a porté l’appel à l’attention de Meta, l’entreprise est revenue sur sa décision initiale et a restauré la publication.
À propos du cas
En décembre 2024, en pleine offensive rebelle qui conduisit à la chute du régime de Bachar el-Assad en Syrie, un utilisateur de Facebook en Macédoine a publié un message sur la fuite de l'ancien président syrien à Moscou. Un autre utilisateur a commenté par une citation en bulgare, faisant référence à Hayat Tahrir al-Sham (HTS) en tant qu'« islamistes d'Al-Qaïda ». Un troisième utilisateur a ensuite répondu au commentaire en bulgare, en affirmant qu'il s'agissait de l'un des groupes qui avaient chassé Assad, et a inclus un lien vers un article de Wikipédia sur HTS.
Meta a initialement retiré la réponse du troisième utilisateur de Facebook en vertu de sa politique relative aux organismes et individus dangereux (OID). Cette politique interdit la « glorification », le « soutien » et la « représentation » d’entités désignées, de leurs dirigeants, de leurs fondateurs ou de leurs membres éminents, ainsi que toute référence équivoque à ceux-ci. En revanche, elle autorise les discussions neutres, notamment les « déclarations factuelles, les commentaires, les questions et autres informations qui n’expriment pas de jugement positif sur l’organisation ou la personne dangereuse désignée et son comportement. »
L’appel du troisième utilisateur auprès du Conseil précise qu'il a partagé le lien à des fins d'information et qu'il « ne soutient pas l'organisation, au contraire, [il] la condamne ».
Après que le Conseil a porté ce cas à l'attention de Meta, l'entreprise a jugé que le contenu n'enfreignait pas sa politique en matière d’OID. Elle a estimé que sa décision initiale de supprimer le contenu était erronée car le commentaire n'exprime pas de « jugement positif » sur Hayat Tahrir al-Sham. L’entreprise a alors restauré le contenu sur la plateforme.
Autorité et champ de compétence du Conseil
Le Conseil jouit de l’autorité nécessaire pour examiner la décision de Meta à la suite d’un appel interjeté par l’utilisateur dont le contenu a été supprimé (article 2, section 1 de la Charte ; article 3, section 1 des Statuts).
Lorsque Meta reconnaît avoir commis une erreur et revient sur sa décision dans un cas soumis à l’examen du Conseil, ce dernier peut décider de ne statuer que sommairement sur ce cas (article 2, section 2.1.3 des Statuts). Le Conseil réexamine la décision initiale afin de mieux comprendre le processus de modération de contenu, de réduire les erreurs et d’accroître l’équité pour les personnes qui utilisent Facebook, Instagram et Threads.
Importance du cas
Ce cas met en lumière une mise en application excessive par Meta de sa politique en matière d’organismes et d’individus dangereux. La Commission a précédemment noté dans la décision relative au commentaire sur l’élection du maire de Karachi que de telles erreurs peuvent avoir des effets négatifs sur la capacité des utilisateurs à « partager des commentaires et des informations d’actualité à caractère politique » sur des organisations qualifiées de « dangereuses », portant ainsi atteinte à la liberté d'expression.
Le Conseil a émis plusieurs recommandations visant à améliorer la transparence et la précision quant à la mise en application de la politique de Meta relative aux organismes et individus dangereux et de ses exceptions. Le Conseil a notamment recommandé d’« évaluer l’exactitude des équipes d’examen qui appliquent l’autorisation d’informer en vertu de la politique relative aux organismes et individus dangereux afin d’identifier les problèmes systémiques à l’origine des erreurs de mise en application. » (Mention des talibans dans les informations d’actualité, recommandation n° 5). Bien que Meta ait déclaré avoir mis en œuvre cette recommandation, l’entreprise n'a pas publié d'informations le démontrant.
Dans la même décision, le Conseil a recommandé à Meta d’« améliorer la capacité attribuée au système de rejet des faux positifs à impact élevé (HIPO) appliqué aux langues afin de garantir que davantage de décisions émises sur des contenus susceptibles d’être des erreurs d’application fassent l’objet d’un examen manuel supplémentaire (Mention des talibans dans les informations d’actualité, recommandation n° 7). HIPO est un système que Meta utilise pour identifier les cas dans lesquels elle a agi de manière incorrecte, par exemple en supprimant à tort du contenu. Meta a indiqué avoir étudié des améliorations visant à accroître la capacité d'examen de HIPO, ce qui a entraîné une « multiplication des annulations par HIPO » (Mises à jour trimestrielles T4 2022 de Meta à propos du Conseil de surveillance). Le Conseil a estimé que cette recommandation avait été reformulée par Meta, étant donné que la réponse de l’entreprise n'indique pas clairement si les changements impliquaient une augmentation des ressources ou seulement une réaffectation de ces dernières en vue d'une meilleure efficacité.
Dans la décision Inquiétude pendjabie concernant le RSS en Inde, le Conseil a recommandé à Meta d’« améliorer la qualité des informations qu’elle fournit au public au sujet du taux d’erreurs de modération en ajoutant ce taux par pays, par langue et par standard de la communauté dans ses rapports de transparence. » Le Conseil a soutenu que « des rapports de transparence plus détaillés aideraient le public à détecter les endroits où les erreurs sont les plus fréquentes, y compris les répercussions spécifiques susceptibles de toucher les groupes minoritaires » (recommandation n° 3). La mise en œuvre de cette recommandation est actuellement en cours. Dans sa dernière mise à jour concernant cette recommandation, Meta a expliqué que l'entreprise était « en train de compiler une vue d'ensemble des données relatives à la mise en application afin de les partager confidentiellement avec le Conseil ». Le document décrira les points de données qui fournissent des indicateurs de l'exactitude de la mise en application de diverses politiques, parmi lesquelles la politique relative aux organisations et individus dangereux. Meta a déclaré que l'entreprise « reste déterminée à compiler une vue d’ensemble qui répond à l’appel général du Conseil pour une transparence accrue sur la précision de la mise en application des diverses politiques » (Rapport biannuel H2 2024 de Meta sur le Conseil de surveillance – Annexe).
En outre, dans un avis consultatif en matière de politique, le Conseil a demandé à Meta d’« expliquer les méthodes qu’elle utilise pour évaluer la précision des examens manuels et les performances des systèmes automatisés dans la mise en application de sa politique sur les organismes et individus dangereux » (voir le cas relatif aux personnes dangereuses désignées sous le terme « chahid », recommandation n° 6). Le Conseil a estimé que cette recommandation avait été recadrée par Meta. L’entreprise a déclaré qu’elle menait des audits afin d’évaluer la précision de ses décisions en matière de modération de contenu et qu’elle en tirait des informations sur les domaines d’amélioration. Meta n'a toutefois pas expliqué les méthodes qu'elle utilise pour réaliser ces audits.
Le Conseil demande instamment à Meta de continuer à améliorer sa capacité à faire respecter avec précision les contenus qui relèvent des exceptions à la politique relative aux organismes et individus dangereux. Un engagement total en faveur des recommandations mentionnées ci-dessus renforcerait encore la capacité de l'entreprise à améliorer la précision de la mise en application de sa politique.
Décision
Le Conseil a annulé la décision initiale de Meta de supprimer le contenu. Le Conseil reconnaît que Meta a corrigé son erreur initiale une fois que le Conseil a porté le cas à son attention.
Retour aux décisions de cas et aux avis consultatifs politiques