Renversé
Déclaration à l’encontre de l’ancien président du Sénégal
31 juillet 2025
Un utilisateur a fait appel de la décision de Meta de supprimer une publication sur Facebook qui critiquait le taux d’endettement du Sénégal sous l’ancien président Macky Sall et déclarait que M. Sall méritait « the public guillotine » (d’être guillotiné en place publique). Après que le Conseil a porté l’appel à l’attention de Meta, l’entreprise est revenue sur sa décision initiale et a restauré la publication.
Les décisions sommaires concernent les cas pour lesquels Meta est revenue sur sa décision initiale après que le Conseil les a portés à l’attention de l’entreprise. Elles contiennent des informations relatives aux erreurs reconnues par Meta. Elles sont approuvées par une partie du Conseil (et pas par l’ensemble de ses membres), n’impliquent pas de commentaires publics et n’ont pas valeur de précédent pour le Conseil. Les décisions sommaires exercent une influence directe sur les décisions de Meta en assurant la transparence quant à ses corrections et en identifiant les domaines dans lesquels Meta pourrait améliorer son application des politiques.
Résumé
Un utilisateur a fait appel de la décision de Meta de supprimer une publication sur Facebook qui critiquait le taux d’endettement du Sénégal sous l’ancien président Macky Sall et déclarait que M. Sall méritait « the public guillotine » (d’être guillotiné en place publique). Après que le Conseil a porté l’appel à l’attention de Meta, l’entreprise est revenue sur sa décision initiale et a restauré la publication.
À propos du cas
En février 2025, un utilisateur a publié sur Instagram une série d’émojis en train de pleurer, suivie par une déclaration selon laquelle la dette nationale du Sénégal sous l’ancien président sénégalais Macky Sall semblait presque égale au produit intérieur brut du pays. Il ajoutait que M. Sall méritait « the public guillotine » (d’être guillotiné en place publique).
Le contenu a été publié à peu près au moment de la parution d’un rapport de la Cour des comptes sénégalaise, qui indiquait que le gouvernement de l’ancien président Sall avait fait état de données économiques incorrectes, y compris sur la dette.
L’utilisateur qui a saisi le Conseil dans ce cas-ci a affirmé que la suppression de son contenu était le reflet de « mesures coercitives injustifiées qui nuisaient à notre liberté d’expression ».
La politique de Meta sur la violence et l’incitation stipule que l’entreprise supprime les « menaces de violence pouvant entraîner la mort (ou d’autres formes de violence de haute gravité) » qui ciblent un individu, quel qu’il soit, y compris les personnalités publiques. La justification de la politique indique toutefois que l’entreprise essaie « d’examiner le langage utilisé et le contexte pour distinguer les déclarations triviales ou à but sensibilisateur de celles qui représentent une menace réelle pour la sécurité publique ou celle d’un individu ». Elle met également en évidence le fait que Meta « [examine] d’autres informations, telles que le degré d’exposition publique d’un individu et les risques pour sa sécurité physique » afin de déterminer si les menaces sont crédibles.
Après que le Conseil a porté ce cas-ci à l’attention de Meta, l’entreprise a déterminé que le contenu n’enfreignait pas sa politique relative à la violence et à l’incitation et que sa suppression était injustifiée. L’entreprise a déclaré que, compte tenu de « la situation sociale et politique globale au Sénégal », la publication semblait « condamner le fait que le gouvernement avait fait état de données économiques clés incorrectes plutôt qu’appeler véritablement à la violence à l’encontre de M. Sall ». En outre, lors de l’évaluation du contenu pour déterminer s’il constituait une menace crédible, Meta a noté que M. Sall ne vivait pas au Sénégal à l’heure actuelle et que la guillotine « n’était pas une méthode d’exécution moderne ». L’entreprise a par la suite restauré le contenu sur Facebook.
Autorité et champ de compétence du Conseil
Le Conseil jouit de l’autorité nécessaire pour examiner la décision de Meta à la suite d’un appel interjeté par l’utilisateur dont le contenu a été supprimé (article 2, section 1 de la Charte ; article 3, section 1 des Statuts).
Lorsque Meta reconnaît avoir commis une erreur et revient sur sa décision dans un cas soumis à l’examen du Conseil, ce dernier peut décider de ne statuer que sommairement sur ce cas (article 2, section 2.1.3 des Statuts). Le Conseil réexamine la décision initiale afin de mieux comprendre le processus de modération de contenu, de réduire les erreurs et d’accroître l’équité pour les personnes qui utilisent Facebook, Instagram et Threads.
Importance du cas
Ce cas est en exemple d’application à outrance de la politique de Meta sur la violence et l’incitation. Il met en évidence les lacunes de l’entreprise lorsqu’il s’agit de distinguer, à grande échelle, les menaces violentes crédibles de celles qui ne le sont pas, et l’influence que ces lacunes peuvent avoir sur les discours politiques. Les erreurs de modération de cette nature sont particulièrement inquiétantes lorsqu’elles nuisent aux discours politiques dans les pays tels que le Sénégal, où la liberté de la presse et, de manière plus générale, la liberté d’expression sont entravées.
Les erreurs que commet Meta lorsqu’elle distingue les menaces crédibles des menaces non crédibles à l’encontre des personnalités publiques ont déjà fait l’objet de discussion au sein du Conseil lors de cas antérieurs. Dans sa décision Slogan de protestation en Iran, le Conseil a déterminé qu’un slogan très répandu (qui se traduit littéralement par un appel à la mort du Guide suprême iranien, l’ayatollah Khamenei) avait été utilisé de manière rhétorique pour manifester une désapprobation. En outre, dans sa décision Déclarations à propos du Premier ministre japonais, le Conseil a souligné le fait que « la menace à l’encontre d’une personnalité politique [l’ancien premier ministre japonais Fumio Kishida] servait de critique politique non littérale, attirait l’attention sur un scandale de corruption présumée et employait des termes grossiers ». Le Conseil a également fait part de son inquiétude quant au fait que la politique de Meta sur la violence et l’incitation « ne fait pas suffisamment la distinction entre les menaces littérales et figurées ».
Le Conseil a émis des recommandations dans ses décisions « Slogan de protestation en Iran » et « Déclarations à propos du Premier ministre japonais » qui sont pertinentes dans ce cas-ci. Le Conseil a tout d’abord recommandé à Meta de « modifie[r] son standard de la communauté sur la violence et l’incitation pour (i) expliquer que les menaces rhétoriques, comme « Mort à X » sont généralement autorisées, sauf lorsque la cible de la menace est une personne à haut risque ; (ii) ajouter une liste d’exemples de personnes à haut risque et préciser que celles-ci incluent les chefs d’État ; (iii) établir les critères selon lesquels les menaces à l’encontre de chefs d’État sont autorisées afin de protéger les discours politiques de nature manifestement rhétorique en cas de protestations qui n’incitent pas à la violence » (recommandation n° 1 de la décision Slogan de protestation en Iran). Meta a indiqué qu’elle était en bonne voie de mettre en œuvre cette recommandation et qu’elle travaillait au développement de sa politique pour évaluer la modération des « appels à mort » sur ses plateformes (Rapport bisannuel H2 2024 de Meta au Conseil de surveillance - Annexe).
En outre, le Conseil a recommandé à Meta de « mettre à jour ses consignes internes à l’attention de ses équipes d’examen de contenu à grande échelle à propos des appels à mort qui incluent l’expression spécifique « mort à » et qui ciblent des personnes à haut risque », en particulier pour « autoriser les publications qui, dans le langage et le contexte de la région, expriment du dédain ou un désaccord par le biais de formes désinvoltes et peu sérieuses de menaces de violence » (recommandation n° 2 de la décision Déclarations à propos du Premier ministre japonais). Meta a également indiqué avoir fait des progrès dans la mise en place de cette recommandation et expliqué que le développement de sa politique liée aux « appels à mort » nécessite de la réexaminer pour « tenir compte des déclarations figurées et bénignes ». Meta a indiqué qu’elle « envisageait des pistes d’amélioration » de sa politique sur la violence et l’incitation afin de « la rendre plus nuancée » (Rapport bisannuel H2 2024 de Meta au Conseil de surveillance - Annexe).
Le Conseil estime que la mise en œuvre de la totalité des deux recommandations contribuerait à la réduction du nombre d’erreurs de modération liées à la politique de Meta sur la violence et l’incitation, parce qu’elles permettraient à l’entreprise d’évaluer la crédibilité des menaces de manière plus nuancée, notamment en prenant davantage en compte le contexte.
Décision
Le Conseil a annulé la décision initiale de Meta de supprimer le contenu. Le Conseil reconnaît que Meta a corrigé son erreur initiale une fois que le Conseil a porté le cas à son attention.
Retour aux décisions de cas et aux avis consultatifs politiques