Renversé

Rapport sur l’attaque violente au Sri Lanka

Un utilisateur a fait appel de la décision de Meta de supprimer une publication Facebook contenant un lien vers un article de presse sur un tireur qui avait ouvert le feu dans une église au Sri Lanka.

Type de décision

Résumé

Politiques et sujets

Sujet
Évènements d’actualité, Sécurité, Violence
Norme communautaire
Contenu violent et explicite

Régions/Pays

Emplacement
Sri Lanka

Plate-forme

Plate-forme
Facebook

Les décisions sommaires concernent les cas pour lesquels Meta est revenue sur sa décision initiale après que le Conseil les a portés à l’attention de l’entreprise. Elles contiennent des informations relatives aux erreurs reconnues par Meta. Elles sont approuvées par une partie du Conseil (et pas par l’ensemble de ses membres), n’impliquent pas de commentaires publics et n’ont pas valeur de précédent pour le Conseil. Les décisions sommaires exercent une influence directe sur les décisions de Meta en assurant la transparence quant à ses corrections et en identifiant les domaines dans lesquels Meta pourrait améliorer son application des politiques.

Résumé

Un utilisateur a fait appel de la décision de Meta de supprimer une publication Facebook contenant un lien vers un article de presse sur un tireur qui avait ouvert le feu dans une église au Sri Lanka. Après que le Conseil a porté l’appel à l’attention de Meta, l’entreprise est revenue sur sa décision initiale et a restauré la publication.

À propos du cas

En avril 2025, un utilisateur Facebook a publié un lien vers un article de presse en anglais sur un tireur qui avait ouvert le feu dans une église au Sri Lanka. Cet article a été partagé dans un groupe se décrivant comme dédié aux « actualités et discussions » sur les conflits et la consolidation de la paix. Le lien a généré automatiquement un titre et une légende contextuels qui décrivaient l’état d’alerte maximale dans le pays six ans après les attentats du dimanche de Pâques qui avaient fait des centaines de morts. Il comportait également une image des conséquences d’un attentat perpétré en avril 2019 à l’église Saint-Sébastien de la ville de Negombo.

Meta a d’abord supprimé le contenu en vertu de son Standard de la communauté relatif aux contenus violents et explicites. Par la suite, l’entreprise a précisé que la politique applicable à la suppression de contenu était en l’espèce le Standard de la communauté relatif à la violence et à l’incitation. En vertu de cette politique, l’entreprise supprime les « menaces de violence à l’encontre de diverses cibles », définies comme « des déclarations ou des images représentant une intention, une aspiration ou un appel à la violence à l’encontre d’une cible ». Cependant, Meta autorise les menaces « lorsqu’elles sont partagées dans un contexte de sensibilisation ou de condamnation ».

En déposant son appel auprès du Conseil, l’utilisateur a souligné que le groupe sur lequel l’article avait été publié avait pour objectif d’informer l’audience sur l’escalade et la désescalade des conflits dans le monde, afin de contribuer à la consolidation et à la résolution de la paix.

Après que le Conseil a porté ce cas à l’attention de Meta, l’entreprise a jugé que le contenu n’aurait pas dû être supprimé. Meta a souligné que sa politique relative à la violence et à l’incitation autorise le partage de contenus visant à sensibiliser le public à une menace de violence émanant d’autres personnes. Dans le cas présent, l’entreprise a estimé que la publication avait un effet de sensibilisation. En effet, le contenu était un lien vers un article de presse concernant un homme armé qui avait ouvert le feu dans un lieu de culte au Sri Lanka. Meta a également indiqué que le lien vers l’article avait été partagé sur une Page Facebook le lendemain de l’évènement, ce qui montrait que l’intention était d’informer le public. L’entreprise a par la suite restauré le contenu sur Facebook.

Autorité et champ de compétence du Conseil

Le Conseil jouit de l’autorité nécessaire pour examiner la décision de Meta à la suite d’un appel interjeté par l’utilisateur dont le contenu a été supprimé (article 2, section 1 de la Charte ; article 3, section 1 des Statuts).

Lorsque Meta reconnaît avoir commis une erreur et revient sur sa décision dans un cas soumis à l’examen du Conseil, ce dernier peut décider de ne statuer que sommairement sur ce cas (article 2, section 2.1.3 des Statuts). Le Conseil réexamine la décision initiale afin de mieux comprendre le processus de modération de contenu, de réduire les erreurs et d’accroître l’équité pour les personnes qui utilisent Facebook, Instagram et Threads.

Importance du cas

Ce cas est un exemple d’application disproportionnée du Standard de la communauté de Meta sur la violence et l’incitation. Les systèmes de modération de contenu de l’entreprise n’ont pas réussi à reconnaître le contexte de sensibilisation, ce qui a directement affecté la capacité de l’utilisateur à partager des informations sur les attaques contre des lieux de culte au Sri Lanka. Le Conseil souligne que la description du groupe dans lequel l’utilisateur a publié l’article indique qu’il s’agit d’un forum d’actualités et de discussions sur la résolution pacifique des conflits. La défaillance du système a également eu un impact sur la capacité des autres utilisateurs à accéder à ces informations.

Le Conseil a émis des recommandations pertinentes par le passé qui visent à améliorer la précision, le suivi et la transparence de l’application des exceptions à la politique de Meta en matière de violence et d’incitation. Tout d’abord, le Conseil a recommandé à Meta de « lui fournir les données sur lesquelles ses équipes se basent pour évaluer la mise en application de sa politique » afin « d’éclairer les évaluations et recommandations futures relatives à la politique en matière de violence et d’incitation » (publications des États-Unis abordant l’avortement, recommandation n° 1). La mise en œuvre de cette recommandation est actuellement en cours. Dans son rapport du second semestre 2024, Meta a déclaré : « Nous sommes en train de compiler une vue d’ensemble des données relatives à la mise en application des Standards de la communauté afin de les partager de manière confidentielle avec le Conseil. Ce document décrira les points de données qui permettent d’évaluer la précision de la mise en application de diverses politiques, notamment la politique en matière de violence et d’incitation. »

Le Conseil a également recommandé à Meta d’« ajouter au langage public de son Standard de la communauté sur la violence et l’incitation que l’entreprise interprète la politique pour autoriser le contenu comportant des déclarations avec « une référence neutre à un résultat potentiel d’une action ou un avis consultatif » et le contenu qui « condamne ou sensibilise aux menaces violentes » (recommandation n°1 dans le cas Poème russe). La mise en œuvre partielle de la recommandation est attestée par des informations publiées. Meta a mis à jour sa politique en matière de violence et d’incitation (voir Rapport de Meta pour le T4 2023) afin d’y inclure la mention suivante : « Nous n’interdisons pas les menaces lorsqu’elles sont partagées dans un contexte de sensibilisation ou de condamnation, dans les cas de menaces plus légères dans le contexte des sports de contact, ou lorsque les menaces sont dirigées contre certains acteurs violents, tels que les groupes terroristes ». Toutefois, Meta a indiqué dans son rapport du T3 2023 que l’entreprise avait décidé de ne pas ajouter de mention spécifique concernant « les références neutres à un résultat potentiel d’une action ou un avis consultatif, lorsque l’auteur de la publication ne profère pas de menace violente », car cela est « généralement couvert par la justification de la politique et la définition et le cadre d’une menace ».

Par ailleurs, le Conseil a recommandé que « afin de mieux informer les utilisateurs lorsque des exceptions à la politique peuvent s’appliquer, Meta devrait créer une nouvelle section dans chaque Standard de la communauté indiquant en détail les exceptions et les tolérances applicables. Si Meta prévoit une justification spécifique pour ne pas autoriser certaines exceptions qui s’appliquent à d’autres politiques (telles que pour les reportages ou la sensibilisation), Meta doit l’inclure dans cette section du Standard de la communauté » (Documentaire sur des abus sexuels d’enfants au Pakistan, recommandation n° 1). La mise en œuvre de cette recommandation est actuellement en cours. Dans sa réponse initiale au Conseil en 2024, Meta a déclaré que l’entreprise « envisagerait de mettre à jour son [ses] Standard(s) de la communauté afin d’apporter plus de clarté sur les tolérances pertinentes pouvant s’appliquer à des sections spécifiques de la politique et sur les raisons pour lesquelles elles s’appliquent ou non ». Meta a également expliqué que « compte tenu de la portée large et complexe » de la recommandation, sa mise en œuvre prendrait du temps.

L’application répétitivement disproportionnée de la politique de Meta en matière de violence et d’incitation nuit à la capacité des utilisateurs à partager des informations et des reportages sur les attaques violentes. Le Conseil estime que la mise en œuvre complète de la recommandation n° 1 du cas Publications des États-Unis abordant l’avortement renforcerait davantage la capacité de Meta à identifier et à corriger les lacunes en matière de précision de la mise en application, réduisant ainsi le nombre d’erreurs. De plus, la mise en œuvre complète des recommandations sur la transparence concernant les exceptions à la politique en matière de violence et d’incitation permettrait d’éviter (et d’annuler) les retraits injustifiés en sensibilisant davantage les utilisateurs et les examinateurs de contenu aux exceptions à la politique.

Décision

Le Conseil a annulé la décision initiale de Meta de supprimer le contenu. Le Conseil reconnaît que Meta a corrigé son erreur initiale une fois qu’il a porté le cas à l’attention de l’entreprise.

Retour aux décisions de cas et aux avis consultatifs politiques