Renversé
Vidéo des massacres en Syrie
13 mai 2025
Un(e) utilisateur(ice) a fait appel de la décision de Meta de supprimer une publication Facebook d’une vidéo contenant des images explicites de violences en Syrie.
Les décisions sommaires concernent les cas pour lesquels Meta est revenue sur sa décision initiale après que le Conseil les a portés à l’attention de l’entreprise. Elles contiennent des informations relatives aux erreurs reconnues par Meta. Elles sont approuvées par une partie du Conseil (et pas par l’ensemble de ses membres), n’impliquent pas de commentaires publics et n’ont pas valeur de précédent pour le Conseil. Les décisions sommaires exercent une influence directe sur les décisions de Meta en assurant la transparence quant à ses corrections et en identifiant les domaines dans lesquels Meta pourrait améliorer son application des politiques.
Résumé
Un(e) utilisateur(ice) a fait appel de la décision de Meta de supprimer une publication Facebook d’une vidéo contenant des images explicites de violences en Syrie. Après que le Conseil a porté l’appel à l’attention de Meta, l’entreprise est revenue sur sa décision initiale et a rétabli la publication avec un écran d’avertissement.
À propos du cas
En décembre 2024, un(e) utilisateur(ice) a publié une vidéo sur Facebook contenant des scènes violentes, notamment des coups et des attaques à arme blanche, l’immolation d’individus, et des personnes blessées ou décédées, y compris des enfants. La légende au-dessus de la vidéo, en arabe, décrivait comment le contenu montrait des scènes de massacres [auxquelles avaient pris part] les « criminels du Parti de Satan en Syrie », et affirme que le peuple n’a pas oublié et n’oubliera pas les crimes qui ont été commis. Selon des informations bien documentées, le « Parti de Satan » serait une référence au Hezbollah.
Conformément au Standard de la communauté relatif au contenu violent et explicite de Meta, Meta supprime « les contenus les plus explicites et [ajoute] des avertissements aux autres contenus explicites, afin d’informer les personnes de leur caractère sensible ou dérangeant avant de cliquer dessus ». Les « vidéos de personnes, vivantes ou décédées, dans des contextes non médicaux » montrant un « démembrement », des « entrailles visibles », des « personnes brûlées ou carbonisées » ou des « égorgements » ne sont donc pas autorisées. Meta note également que pour les « images (au format vidéo ou photo) représentant la mort violente d’une personne (notamment le moment ou les suites de son décès) ou une personne confrontée à un évènement potentiellement mortel », l’entreprise applique un écran d’avertissement pour que les personnes sachent que le contenu peut être dérangeant. Dans ces cas, l’entreprise peut également réserver la possibilité de voir ce contenu aux adultes de 18 ans et plus. En outre, lors de l’apport de contexte supplémentaire, Meta peut permettre le contenu explicite « afin de porter un éclairage ou de condamner des actes tels que des violations des droits de l'homme ou des conflits armés » pour « laisser un espace à la discussion et à la sensibilisation ».
Après que le Conseil a attiré l’attention de Meta sur ce cas, l’entreprise a estimé que le contenu n’aurait pas dû être supprimé conformément à la Politique de contenu violent et explicite. L’entreprise a ensuite restauré le contenu sur Facebook avec un écran d’avertissement.
Autorité et champ de compétence du Conseil
Le Conseil jouit de l’autorité nécessaire pour examiner la décision de Meta à la suite d’un appel interjeté par l’utilisateur dont le contenu a été supprimé (article 2, section 1 de la Charte ; article 3, section 1 des Statuts).
Lorsque Meta reconnaît avoir commis une erreur et revient sur sa décision dans un cas soumis à l’examen du Conseil, ce dernier peut décider de ne statuer que sommairement sur ce cas (article 2, section 2.1.3 des Statuts). Le Conseil réexamine la décision initiale afin de mieux comprendre le processus de modération de contenu, de réduire les erreurs et d’accroître l’équité pour les personnes qui utilisent Facebook, Instagram et Threads.
Importance du cas
Ce cas illustre les problèmes persistants liés à la capacité de Meta à modérer les contenus qui sensibilisent aux violations des droits humains ou les documentent. Bien que la Politique de contenu violent et explicite de Meta reconnaisse que les utilisateur(ices) peuvent partager du contenu pour apporter un éclairage ou condamner des actes tels que les « abus envers les droits humains ou les conflits armés », l’entreprise continue de supprimer de ses plateformes des contenus qui ont cette même finalité.
Le Conseil a publié des recommandations pour guider Meta dans ses pratiques de mise en œuvre des contenus explicites ou violents partagés dans le contexte d'une condamnation ou d'une sensibilisation, dans l'intention de rendre ces autorisations applicables à grande échelle et pas seulement dans des circonstances exceptionnelles. Par exemple, dans la décision sur le cas de la Vidéo explicite du Soudan, « Meta devrait modifier le Standard de la communauté relatif au contenu violent et explicite, afin d’autoriser les vidéos explicites de personnes décédées ou non lorsqu’elles sont partagées à des fins de sensibilisation ou de témoignage concernant des violations des droits humains. Ces contenus devraient être autorisés avec l’apposition d’un écran d’avertissement afin d’annoncer qu’il s’agit de contenus potentiellement dérangeants. » ( Vidéo explicite du Soudan, recommandation nº 1). La recommandation a été refusée après une étude de faisabilité. Meta a déclaré avoir entrepris l'élaboration d'une politique sur le sujet et a finalement décidé de maintenir le statu quo, à savoir « supprimer le contenu par défaut, mais autoriser le contenu avec une étiquette d'avertissement lorsqu'il y a un contexte supplémentaire » (Mise à jour du 4e trimestre 2023 de Meta sur le Conseil de surveillance).
En outre, le Conseil avait recommandé au préalable que « Meta ajoute aux termes publics de son Standard de la communauté relatif au contenu violent et explicite des détails tirés de ses règles internes sur la façon dont l’entreprise détermine si une image « montre la mort violente d’une ou plusieurs personnes à la suite d’un accident ou d’un meurtre ». (Poème russe, recommandation nº 2). Meta a fait preuve d'une mise en œuvre partielle de cette recommandation dans les informations publiées : l'entreprise a mis à jour la formulation de ses Standards de la communauté en matière de contenu violent et explicite, en incluant une formulation entre parenthèses pour clarifier ce que l'entreprise entend par « mort violente ». Les termes sont désormais les suivants : « les images (vidéos et images fixes) représentant la mort violente d'une personne (y compris le moment de la mort ou ses suites) ». La définition élargie de Meta n'explique cependant pas suffisamment comment l'entreprise détermine si une image « montre la mort violente d'une ou de plusieurs personnes par accident ou par meurtre ».
En outre, le Conseil a recommandé à Meta d’« améliorer la qualité des informations qu’elle fournit au public au sujet du taux d’erreurs de modération en ajoutant ce taux par pays, par langue et par standard de la communauté dans ses rapports de transparence. » ( Inquiétude pendjabie concernant le RSS en Inde, recommandation nº 3). Le Conseil a soutenu, dans cette recommandation, que « des rapports de transparence plus détaillés aideraient le public à détecter les endroits où les erreurs sont les plus fréquentes, notamment les répercussions spécifiques susceptibles de toucher les groupes minoritaires ». La mise en œuvre de cette recommandation est actuellement en cours. Dans sa dernière mise à jour concernant cette recommandation, Meta a expliqué que l'entreprise était « en train de compiler une vue d'ensemble des données relatives à la mise en application afin de les partager confidentiellement avec le Conseil ». Le document décrira les points de données qui fournissent des indicateurs de l'exactitude de la mise en application de diverses politiques. Meta a déclaré que l'entreprise « reste déterminée à compiler une vue d’ensemble qui répond à l’appel général du Conseil pour une transparence accrue sur la précision de la mise en application des diverses politiques » (Rapport biannuel H2 2024 de Meta sur le Conseil de surveillance – Annexe).
Le Conseil insiste sur l’importance de la poursuite de l’amélioration de la capacité de Meta à détecter avec précision du contenu qui cherche à sensibiliser ou à condamner des abus des droits humains et à maintenir ce contenu, avec un écran d’avertissement, sur la plateforme, conformément à la politique de l’entreprise sur le contenu violent et explicite.
Décision
Le Conseil a annulé la décision initiale de Meta de supprimer le contenu. Le Conseil reconnaît que Meta a corrigé son erreur initiale une fois que le Conseil a porté le cas à son attention.
Retour aux décisions de cas et aux avis consultatifs politiques