Décision sur plusieurs affaires

Publications partageant des discours dans le cadre du conflit syrien

Le Conseil de surveillance enjoint Meta à compléter ses outils de modération des contenus dans le contexte des conflits armés afin d’atténuer les disparités d’information que ses politiques pourraient engendrer entre les différentes parties au conflit.

2 cas inclus dans ce lot

Renversé

FB-WK0ZJ2Z9

Cas relatif à des personnes et organisations dangereuses sur Facebook

Plate-forme
Facebook
Sujet
Évènements d’actualité,Politique,Guerres et conflits
Standard
Personnes et organisations dangereuses
Emplacement
Syrie
Date
Publié le 2 octobre 2025
Renversé

FB-XICM1710

Cas relatif à des personnes et organisations dangereuses sur Facebook

Plate-forme
Facebook
Sujet
Évènements d’actualité,Politique,Guerres et conflits
Standard
Personnes et organisations dangereuses
Emplacement
Syrie
Date
Publié le 2 octobre 2025

Résumé

Le Conseil de surveillance enjoint Meta à compléter ses outils de modération des contenus dans le contexte des conflits armés afin d’atténuer les disparités d’information que ses politiques pourraient engendrer entre les différentes parties au conflit. Le Conseil souligne que, dans les conflits qui évoluent rapidement, les civils utilisent les réseaux sociaux d’une manière différente de celle observée dans les situations non conflictuelles, afin de partager rapidement des informations susceptibles de contribuer à la sécurité des personnes. Il convient d’étudier les répercussions des interdictions visant à canaliser les communications provenant d’une entité désignée dans le cadre de la politique de Meta relative aux organismes et individus dangereux sur les personnes et leur protection contre la violence. Le Conseil a demandé à Meta de restaurer avec une tolérance d’intérêt médiatique deux publications, dans lesquelles des utilisateurs partageaient des contenus provenant des dirigeants de l’organisation Hayat Tahrir al-Sham (HTS), peu avant la chute du régime d’Assad en Syrie.

À propos des cas

Fin 2024, deux utilisateurs de Facebook en Syrie ont publié du contenu relatif à HTS, un organisme que le Conseil de sécurité des Nations Unies (ONU) désigne comme un groupe terroriste et qui a mené l’offensive qui a renversé le régime de Bachar al-Assad.

Dans le premier cas, un utilisateur dont l’appel auprès du Conseil stipulait qu’il était journaliste a publié en novembre une vidéo en arabe sur sa page. La vidéo montrait le discours d’un commandant de HTS, encourageant les combattants rebelles à « attaquer vos ennemis et les étouffer ». Quant aux forces de Bachar al-Assad, le commandant leur dit : « Vos seules solutions sont la mort, la fuite ou la désertion ». Moins de 15 minutes après la publication du contenu, Meta l’a supprimé pour infraction à la politique relative aux organismes et individus dangereux. La vidéo a été vue presque 5000 fois.

Dans le deuxième cas, en décembre, une photo du dirigeant de HTS, Ahmed al-Sharaa, accompagnée du texte en arabe d’un discours qu’il avait prononcé le même jour, a été publiée sur une page publique. Le discours encourageait les combattants de HTS à « ne gaspiller aucune balle, sauf dans la poitrine de vos ennemis, car Damas vous attend ». La publication a été supprimée en quelques minutes pour infraction au Standard de la communauté relatif aux organismes et individus dangereux. Le lendemain, les forces de HTS ont pris Damas, la capitale syrienne.

Meta a empêché que les comptes puissent réaliser des lives et a rétrogradé la portée et la visibilité de la page. L’utilisateur qui avait publié la photo a fait appel et Meta a confirmé la suppression du contenu. Les deux utilisateurs ont fait appel auprès du Conseil. L’entreprise a ensuite déclaré que les publications enfreignaient aussi sa politique relative à la violence et à l’incitation.

Principales conclusions

La majorité des membres du Conseil estiment que supprimer le contenu n’était pas conforme aux responsabilités de Meta en matière de droits humains et que les politiques de Meta doivent être modifiées afin d’assurer cette conformité à l’avenir. L’intérêt public à recevoir des informations susceptibles d’assurer la sécurité des personnes dans une situation de conflit en rapide évolution, où le régime limitait sévèrement la circulation de l’information, et la faible probabilité que le partage de ce contenu entraîne des dommages supplémentaires sont particulièrement pertinents. Le Conseil souligne que dans ce conflit politique comme dans tout autre, les communications sont tronquées, ce qui rend les indices contextuels sur les motivations pour une publication moins évidents pour les personnes extérieures. Il était garanti que la tolérance d’intérêt médiatique serait octroyée.

Une minorité des membres du Conseil ne sont pas d’accord et estiment que la suppression de la publication était conforme aux responsabilités de Meta en matière de droits humains et aux antécédents du Conseil. Les deux publications transmettent des ordres de tuer, sans aucun commentaire et avec peu d’informations utiles visant à maintenir la sécurité des civils.

Le Conseil estime qu’en relayant les communications d’un groupe identifié sans intention claire de s’engager dans un débat social et politique autorisé, ces deux publications enfreignent la politique relative aux organismes et individus dangereux. Il estime également que ces deux publications enfreignent la politique relative à la violence et à l’incitation, car elles contiennent des appels clairs à la violence.

Le refus de Meta d’indiquer aux utilisateurs quels organismes et individus ne peuvent faire l’objet de discussions en vertu de sa politique relative aux organismes et individus dangereux est particulièrement problématique en période de conflit armé, lorsque les entités désignées peuvent agir en tant qu’autorités gouvernementales de facto. L’exception prévue par la politique pour les discours sociaux et politiques n’est pas non plus suffisamment transparente, car il existe des différences importantes entre les informations rendues publiques et les directives internes sur ce qui est considéré comme un discours acceptable.

Meta applique depuis février 2025 une politique non publique, mais pleinement opérationnelle, sur la manière dont les utilisateurs peuvent faire référence à des communications du président al-Sharaa dans le cadre de ses fonctions officielles ou les partager, ce qui est contraire aux exigences en matière de légalité. Les utilisateurs doivent avoir connaissance de ces politiques afin de pouvoir comprendre comment exercer leur droit à la liberté d’expression dans le respect des règles de Meta.

Le Conseil souligne que la modération de Meta dans le cadre du conflit syrien a pu entraîner des asymétries d’information discutables ayant mis les utilisateurs en danger. Les politiques de Meta autorisent les appels à la violence contre les entités listées, mais les interdisent contre les forces armées ordinaires. Et ce, indépendamment du comportement des deux parties.

La décision du Conseil de surveillance

Le Conseil annule la décision de Meta de retirer les deux publications et demande à ce qu’elles soient restaurées en vertu de la tolérance d’intérêt médiatique.

Le Conseil recommande également à Meta ce qui suit :

  • Ajouter un levier au protocole de politique de crise qui permette à la plateforme d’atténuer les asymétries d’information que ses politiques pourraient engendrer. Cela pourrait inclure des leviers politiques tels que : suspendre l’interdiction de partager des informations provenant d’entités désignées impliquées dans le conflit ; suspendre les sanctions ou réduire les limites de fonctionnalités lorsque le contenu est jugé en infraction en raison d’une intention peu claire ; informer les utilisateurs sur la manière de partager des informations sur les entités désignées de manière autorisée. Lorsque ces leviers politiques sont invoqués, la mesure doit être rendue publique.
  • Étudier, en consultation avec les parties prenantes concernées, comment l’interdiction de diffuser des communications officielles au nom d’une entité désignée dans le cadre de la politique relative aux organismes et individus dangereux influe sur l’accès à l’information et la protection des civils contre la violence dans les conflits armés.
  • Rendre compte au Conseil de ses efforts au cours des cinq dernières années pour évaluer si et comment ses Standards de la communauté relatifs à la violence et à l’incitation et aux organismes et individus dangereux devraient être modifiés pour tenir compte des normes du droit international humanitaire, et présenter ses projets à court terme dans ce domaine.

* Les résumés de cas donnent un aperçu des cas et n’ont pas valeur de précédent.

Décision complète sur le cas

1. Description du cas et contexte

Fin 2024, deux utilisateurs de Facebook en Syrie ont publié du contenu relatif à Hayat Tahrir al-Sham (HTS), un organisme que le Conseil de sécurité des Nations Unies (ONU) désigne comme un groupe terroriste. HTS a mené une offensive militaire entre le 27 novembre et le 8 décembre 2024, qui a renversé le régime Assad en Syrie. Cela a marqué la fin d’un chapitre dans un conflit armé qui avait commencé en 2012 après que le régime a brutalement réprimé les manifestations pacifiques de masse qui avaient débuté l’année précédente. Début 2025, le chef de HTS, Ahmed al-Sharaa, est devenu président provisoire de la Syrie. Il dirige actuellement un gouvernement de transition dans lequel de nombreux anciens membres de HTS occupent des postes de haut rang. Il a ordonné la dissolution de HTS et d’autres groupes armés dans le pays.

Dans le premier cas, le 28 novembre 2024, un utilisateur a publié une courte vidéo en arabe sur sa page. La vidéo montrait un discours prononcé par Abu Zubair al-Shami, un commandant de HTS, vêtu d’un treillis militaire et le visage dissimulé. Dans son discours, il cite le Coran, évoque les crimes commis par le régime d’Assad, célèbre la révolution « de la fierté et de la dignité » visant à « rétablir les droits et éliminer les injustices », et encourage les combattants rebelles à poursuivre le combat et à « attaquer vos ennemis et les étouffer ». Il déclare également : « Aujourd’hui, nous vivons une nouvelle phase de notre révolution bénie, après que l’Administration des opérations militaires a lancé l’opération Dissuasion de l’agression », en référence aux récentes opérations menées par HTS pour renverser le régime du président Bachar al-Assad. Dans une section s’adressant directement aux forces de Bachar al-Assad, M. al-Shami déclare : « Vos seules solutions sont la mort, la fuite ou la désertion. » L’utilisateur a ajouté une légende indiquant « Discours du commandant militaire Abu Zubair al-Shami », avec les hashtags en arabe #GestionOperationsMilitaires et #DissuasionAgression faisant référence au nom de la structure de commandement et de l’offensive menées par HTS, tous deux mentionnés par M. al-Shami dans son discours. Un utilisateur a signalé le contenu presque immédiatement et, en moins de 15 minutes, Meta l’a supprimé pour infraction à la politique relative aux organismes et individus dangereux. La publication a été vue près de 5000 fois au cours de ces 15 minutes.

Dans le second cas, le 7 décembre 2024, l’administrateur d’une page publique a publié une seule image contenant une photographie de M. al-Sharaa et un texte en arabe. Le texte est extrait d’un discours qu’il a prononcé ce jour-là, félicitant les combattants révolutionnaires du groupe d’avoir infligé de lourdes pertes à leur ennemi. Il les a également félicités d’avoir libéré les prisonniers du régime d’Assad et d’avoir remplacé « les ténèbres de l’injustice et de la tyrannie par la lumière de la justice et de la dignité ». Il les a exhortés à « laisser les villes libérées que Dieu vous a accordées à vos frères de la police et de la sécurité afin qu’ils puissent se poster à leurs frontières et accomplir leur devoir ». Il faisait référence aux gains territoriaux réalisés par HTS et les milices alliées alors qu’ils progressaient vers le sud depuis leur bastion d’Idlib, s’emparant d’autres villes et villages, jusqu’à atteindre la capitale, Damas, quelques jours plus tard. Il les a encouragés à continuer de se battre pour libérer la Syrie et rétablir les droits du peuple, et à « ne gaspiller aucune balle, sauf dans la poitrine de vos ennemis, car Damas vous attend ». La publication a été automatiquement détectée comme enfreignant le Standard de la communauté relatif aux organismes et individus dangereux et supprimée quelques minutes après sa publication. Le lendemain de la publication du contenu, les forces de HTS sont entrées dans Damas, ne rencontrant que peu ou pas de résistance, marquant ainsi la fin du régime d’Assad.

En raison du sérieux avec lequel Meta traite les infractions à la politique relative aux organismes et individus dangereux, l’entreprise a infligé une sanction sévère au compte de chaque utilisateur et a appliqué des restrictions aux fonctionnalités de ces derniers et aux pages sur lesquelles le contenu avait été publié, les empêchant ainsi de passer en direct et réduisant la portée et la visibilité des pages. Dans les deux cas, les utilisateurs ayant publié les contenus ont fait appel de ces décisions auprès de l’entreprise, qui a confirmé la suppression des deux publications, puis ils ont tous deux fait appel auprès du Conseil. Lorsque le Conseil a sélectionné ces cas pour examen, Meta a noté que les deux publications enfreignaient également sa politique relative à la violence et à l’incitation.

Un rapport de l’ONU publié en 2024 indique que des acteurs étatiques et non étatiques en Syrie, y compris HTS, ont commis des violations des droits humains en toute impunité tout au long du conflit. La Commission des Nations unies a notamment constaté « la persistance de crimes contre l’humanité et de crimes de guerre » commis par le gouvernement Assad, et que des membres de HTS s’étaient livrés à des actes de torture, à des traitements cruels et à des exécutions extrajudiciaires de civils, ce qui pourrait constituer des crimes de guerre. Des centaines de milliers de Syriens ont été tués entre 2011 et 2025, la grande majorité d’entre eux par les forces d’Assad et leurs alliés.

2. Soumissions de l’utilisateur

Dans le cas de la vidéo, l’utilisateur a expliqué qu’il était journaliste et qu’il avait publié la vidéo dans un but informatif et pédagogique. Il a déclaré que la vidéo jouait un rôle important dans le partage d’informations avec le public et que son retrait portait atteinte à la liberté de la presse.

Dans le cas de la photographie, l’utilisateur s’est interrogé sur les raisons pour lesquelles Meta avait autorisé la publication d’images et de citations de l’ancien président al-Assad tout au long du conflit syrien. Il a qualifié l’ancien président al-Assad de dictateur et M. al-Sharaa de révolutionnaire. Il a fait valoir que l’approche de Meta, qui consistait à autoriser la publication de photos de l’ancien président al-Assad et non de M. al-Sharaa, revenait à soutenir la dictature et les effusions de sang, tout en « restreignant la liberté d’opinion ».

3. Politiques de Meta relatives au contenu et soumissions

I. Politiques de Meta relatives au contenu

Organismes et individus dangereux

La justification de la politique relative aux organismes et individus dangereux stipule qu’afin d’éviter et d’empêcher tout danger réel, les organismes ou individus qui revendiquent des objectifs violents ou qui sont impliqués dans des activités violentes ne sont pas les bienvenus sur les plateformes de Meta. Meta tient à jour une liste d’organismes et d’individus désignés, répartis en deux niveaux, le niveau 1 étant soumis aux mesures de mise en application les plus strictes. Au niveau 1, Meta précise qu’elle « n’autorise pas » les organismes ou individus désignés, ni les dirigeants ou membres éminents de ces organismes, « à être présents sur la plateforme ». En outre, elle « supprime tout soutien apporté à ces individus et organismes ».

Les entités de niveau 1 sont décrites comme « engagées dans des actes de violence hors ligne graves, notamment en organisant ou en prônant des actes de violence envers des civils ». Le niveau 1 inclut les personnes et les entités que le gouvernement des États-Unis qualifie de « Foreign Terrorist Organizations [FTO] ou de Specially Designated Global Terrorists [SDGT] » (organisations étrangères considérées comme terroristes) ainsi que des entités que Meta désigne indépendamment comme correspondant aux critères du niveau 1. L’entreprise fournit ici de plus amples informations sur la manière dont les entités sont désignées ou retirées de la liste. Aussi bien HTS en tant qu’organisation que le président al-Sharaa en tant qu’individu étaient désignés comme appartenant au niveau 1 au moment de la publication des contenus en question dans ce cas. Le 8 juillet 2025, alors que le Conseil examinait ce cas, les États-Unis ont révoqué leur désignation de HTS en tant que FTO et, au moment de la publication de cette décision, Meta évaluait si HTS répondait aux critères de l’entreprise pour être retirée de sa propre liste d’entités désignées. Au moment de la publication de cette décision, l’ONU et plusieurs pays maintenaient leur désignation de HTS en tant qu’entité terroriste.

Meta supprime « les glorifications, les soutiens et les représentations » d’entités de niveau 1, de leurs dirigeants, de leurs fondateurs ou de leurs membres éminents, ainsi que toute « référence équivoque » à ceux-ci. Les formes de « soutien » interdites incluent « toute action visant à canaliser des informations ou des ressources, y compris des communications officielles, au nom d’une entité ou d’un événement désignés ». Meta donne un exemple de canalisation selon lequel il s’agit de citer directement une entité désignée sans légende qui [1] condamne ses propos, [2] ouvre une discussion neutre à ce sujet ou [3] fait partie d’un reportage. De telles légendes relèveraient de l’exception « discours social et politique » de Meta. Meta définit les reportages comme du contenu qui inclut « les informations partagées à des fins de sensibilisation sur des événements locaux et mondiaux impliquant des personnes et organisations désignées ». La politique stipule que cette exception nécessite une indication claire de l’intention de l’utilisateur qui publie le contenu. Meta exige des déclarations d’intention claires pour les discours sociaux et politiques, car elle souhaite autoriser ce type de discussions tout en limitant les préjudices hors ligne. Si l’intention d’un utilisateur est ambiguë ou peu claire, Meta supprime la publication par défaut. Meta a précédemment précisé au Conseil que cette exception n’était pas destinée à servir de faille permettant à des tiers de distribuer du matériel de campagne officiel et de la propagande officielle, ou d’autoriser des canaux de communication officiels au nom de ces groupes, afin de fournir un avantage opérationnel ou stratégique tangible à une entité désignée. Meta a également souligné que permettre la diffusion d’informations dans le cadre de cette exception reviendrait essentiellement à permettre aux entités désignées de contourner les politiques de Meta afin de partager leurs programmes (voir la décision Campagne électorale 2023 en Grèce).

En réponse aux questions du Conseil, Meta a expliqué qu’outre les trois exemples de catégories de discours sociaux et politiques énumérés dans la politique publique, les directives internes de Meta comprennent de nombreuses autres catégories et stipulent que les références à des entités désignées doivent relever de l’une d’entre elles pour être autorisées, soit en étant explicitement mentionnées, soit par une indication sans ambiguïté de l’intention de débattre de ce sujet. La liste complète des catégories de discours social et politique autorisées est la suivante : élections, fonctions parlementaires et exécutives, résolution de conflits (trêves/cessez-le-feu, etc.), accords ou traités internationaux, réponse aux catastrophes et aide humanitaire, services communautaires locaux, discours sur les droits humains et l’humanitaire, discussion neutre et représentation fictive d’une entité désignée et de ses comportements, reportages d’actualité, condamnation et critique, satire et humour, et discussion juridique autour d’une entité désignée et des auteurs d’événements violents.

Directives internes et protocole de gestion de crise

Le 25 février 2025, plusieurs mois après la publication du contenu en question et peu après la nomination de M. al-Sharaa à la tête de la Syrie, Meta a publié des « directives internes, à grande échelle, mondiales et limitées dans le temps » modifiant temporairement l’application des Standards de la communauté en Syrie en ce qui concerne le président al-Sharaa. Ces directives confidentielles autorisaient les contenus qui, autrement, auraient été considérés comme relayant des communications officielles émanant du président al-Sharaa ou faites en son nom, uniquement lorsqu’ils étaient partagés dans le cadre de ses fonctions officielles de président par intérim de la Syrie. Ces directives, qui n’ont été rendues publiques que par l’annonce de ces cas par le Conseil, couvrent « les publications, vidéos ou images des engagements présidentiels, déclarations publiques, décisions, communiqués de presse, discours et interviews, en particulier ceux partagés officiellement par la présidence syrienne ». Conformément à ces directives, Meta continue de supprimer toute glorification, tout soutien ou toute représentation de HTS. Si les communications du président al-Sharaa ou faites en son nom comportent d’autres infractions à la politique, Meta demande à ses modérateurs de supprimer le contenu.

Le 20 mai, Meta a mis à jour ses directives afin d’autoriser les contenus faisant « référence au président al-Sharaa », y compris les références positives. Meta a confirmé que ces directives s’appliquent à Facebook, Instagram et Threads, et qu’il n’existe pas de directives similaires pour les autres membres du gouvernement transitoire syrien ou d’autres personnalités importantes du conflit syrien.

Meta a expliqué que cette directive faisait partie d’une série de mesures prises après avoir déclaré la Syrie en état de crise début décembre 2024. Cette décision a été prise dans le cadre du Protocole de politique de crise (CPP) de Meta, créé par l’entreprise en réponse à l’une des recommandations précédentes du Conseil. Parmi les autres mesures prises conformément au CPP figuraient la suppression des appels aux armes ou à l’armement des civils, la suppression des allégations dénonçant des personnes comme étant associées au régime d’Assad et « le lancement d’un événement tendance permettant aux médias de vérification tiers d’identifier et de démystifier rapidement les fausses allégations liées au conflit ». Les événements tendance sont un outil utilisé par Meta pour détecter de manière plus proactive les contenus liés à des circonstances importantes qu’elle considère comme présentant un risque élevé de fausses informations virales. Meta dresse une liste de mots-clés pertinents utilisés pour identifier les contenus susceptibles de diffuser de fausses informations. Les contenus identifiés grâce à ce processus sont étiquetés et facilement filtrables pour être examinés dans l’outil utilisé par les médias de vérification tiers en dehors des États-Unis.

Violence et incitation

La justification du Standard de la communauté en matière de violence et d’incitation stipule que Meta vise à « prévenir la violence hors ligne potentielle qui peut être liée au contenu sur nos plateformes ». Meta supprime « les propos qui encouragent ou permettent des violences et menaces réelles à l’encontre de la sécurité publique ou personnelle ».

Meta supprime les menaces de violence pouvant entraîner la mort ou d’autres formes de violence de haute gravité. Meta définit les menaces de violence comme des « déclarations ou des images représentant une intention, une aspiration ou un appel à la violence à l’encontre d’une cible, et les menaces peuvent être exprimées dans divers types de déclarations telles que des déclarations d’intention, des appels à l’action, des plaidoyers, des déclarations d’aspiration, des déclarations d’espoir et des déclarations conditionnelles ». La politique souligne que Meta « n’interdit pas les menaces lorsqu’elle sont partagées dans des contextes de sensibilisation ou de condamnation ». La politique autorise également certains appels à la violence de nature idéologique ainsi que « certaines menaces » dirigées contre des acteurs violents et des groupes terroristes.

Tolérance d’intérêt médiatique

Meta peut autoriser sur ses plateformes des contenus qui enfreignent ses politiques lorsqu’ils sont considérés comme suffisamment dignes d’intérêt. Meta indique ne le faire « qu’après un examen approfondi qui mesure l’intérêt public du contenu par rapport au risque de préjudice qu’il présente ». Ces interventions sont très rares, avec seulement 32 autorisations accordées entre juin 2023 et juin 2024, 69 entre juin 2022 et juin 2023 (dont 17 ont été « adaptées », voir ci-dessous) et 68 entre juin 2021 et juin 2022. Cette autorisation ne peut être délivrée que par l’équipe chargée de la politique de contenu de Meta, après remontée du contenu. Pour définir l’intérêt médiatique, Meta évalue « si le contenu présente une menace imminente pour la santé ou la sécurité publique, ou s’il exprime une opinion en débat dans le cadre d’un processus politique ». Elle prend aussi en compte d’autres facteurs, comme les circonstances propres à chaque pays, la nature du discours (particulièrement s’il concerne la gouvernance ou la politique) et la structure politique du pays, notamment la question de la liberté de la presse.

Meta supprime le contenu ayant un intérêt médiatique potentiel lorsque « le fait de le laisser en ligne entraîne des risques de dommages physiques, émotionnels ou financiers, ou une menace directe pour la sécurité publique ». La tolérance d’intérêt médiatique peut être très restreinte et ne s’appliquer qu’à un seul élément de contenu. Elle peut aussi être « échelonnée » et « s’appliquer plus largement, à une phrase par exemple ». Meta a indiqué au Conseil ne pas avoir appliqué de tolérance d’intérêt médiatique pendant les mois précédant la chute du régime d’Assad.

II. Soumissions de Meta

Organismes et individus dangereux

Meta a indiqué que le cas de la vidéo enfreignait la politique relative aux organismes et individus dangereux en soutenant HTS en canalisant ses communications officielles, et donc en partageant du contenu produit par une entité désignée. Meta a indiqué que la vidéo présentait un dirigeant militaire d’HTS et semblait avoir été créée par HTS, car elle a estimé qu’elle ne contenait aucun signe d’avoir été produite par un tiers comme un média. Contrairement au contenu du cas de la photographie, l’utilisateur a accompagné sa publication d’une légende identifiant l’orateur ainsi que des hashtags #GestionOperationsMilitaires et #DissuasionAgression. Cependant, Meta a expliqué que, même s’il elle pouvait avoir été publiée par un journaliste, la publication ne correspondait pas à du reportage, car la vidéo avait été produite par HTS et l’utilisateur partageait des informations officielles provenant du groupe sans intervention éditoriale pour clarifier le fait qu’il s’agissait d’un reportage.

Meta a également supprimé le contenu dans le cas de la photographie, car elle constituait un soutien à HTS, un organisme désigné et M. al-Sharaa, un individu désigné, en canalisant leurs informations officielles. Meta a souligné que le contenu est en fait un partage sans légende de ce qui semble être une déclaration officielle de M. al-Sharaa lors de son titre précédent de commandant de HTS lors d’un conflit en cours. Meta a expliqué que, comme le contenu n’avait pas de légende, il n’était pas possible de définir clairement l’intention derrière le partage. Par conséquent, le contenu ne pourrait pas correspondre à un des contextes autorisés de l’exception concernant le débat social et politique, ce qui comprend le reportage ou la discussion neutre.

Meta a également souligné que le contenu avait été partagé avant que M. al-Sharaa devienne président de la Syrie, la directive interne selon laquelle les utilisateurs peuvent canaliser ses communications lorsqu’il est à cette fonction n’a donc pas pu être appliquée.

Meta a également indiqué qu’aucune des deux publications ne pourrait être autorisée en tant que reportage et donc en tant de discours social ou politique autorisé. Et ce, parce qu’il n’y avait « aucune preuve que le contenu a été partagé dans le but d’améliorer la compréhension d’un problème ou la connaissance d’un sujet d’intérêt public. » Meta a souligné que la publication de la photographie a été partagée sans légende et hors contexte de sensibilisation. Par contre, la vidéo était accompagnée d’une légende et avait été publiée par un journaliste ; cependant, il n’était « pas possible de déterminer si la publication visait à sensibiliser. La légende donnait simplement à nouveau les faits déjà repris dans la vidéo sans contexte, explication, ni débat supplémentaire. »

Violence et incitation

Meta a expliqué que les deux publications enfreignaient aussi sa politique relative à la violence et à l’incitation.

Meta a estimé que le contenu dans le cas de la vidéo engendrait deux infractions à la politique. Dans la vidéo, M. al-Shami appelle les combattants de HTS à « attaquer vos ennemis et les étouffer », ce que Meta interprète comme une menace de violence de haute gravité (un appel à l’action d’attaquer et de tuer les soldats du régime d’Assad et/ou ses partenaires). De plus, Meta a estimé que la déclaration dans la vidéo comprenait du chantage à l’attention des soldats d’Assad, à savoir « Vos seules solutions sont la mort, la fuite ou la désertion. »

Dans le cas de la photographie, M. al-Sharaa exhortait les combattants de HTS à « ne gaspiller aucune balle, sauf dans la poitrine de vos ennemis ». Selon Meta, il s’agit d’un chantage visant à tirer sur l’« ennemi » pour le tuer, l’ennemi était supposément les soldats du régime d’Assad et/ou ses partenaires.

Intérêt médiatique

Meta a confirmé ne considérer aucune de ces deux publications comme revêtant un intérêt médiatique suffisant pour appliquer une tolérance. En évaluant l’intérêt public du contenu, Meta a souligné qu’elle « supprimait le contenu dans ces cas afin d’éviter d’éventuels préjudices hors ligne au vu des crimes atroces documentés et commis par l’ensemble des parties au conflit, de la nature violente des menaces contenues dans les discours publiés et du statut de l’orateur dans chacun des cas... ainsi que de la situation qui dégénérait au moment de la publication des contenus. »

Le Conseil a posé des questions à Meta sur les changements apportés à ses politiques et à ses pratiques de mise en application dans le cadre du conflit syrien et de sa résolution, ainsi que sur l’application de la politique relative aux organismes et individus dangereux aux parties au conflit. Meta a répondu à toutes les questions.

4. Commentaires publics

Le Conseil de surveillance a reçu deux commentaires publics qui répondent aux critères de soumission. Un de ces commentaires venait du Moyen-Orient et l’autre d’Afrique subsaharienne. Pour consulter les commentaires publics soumis accompagnés d’un consentement à la publication, cliquez ici.

Les soumissions couvraient les thèmes suivants : les relevés humanitaires du régime d’Assad et du nouveau gouvernement syrien, le fait que les menaces et les discours violents sur les réseaux sociaux peuvent engendrer des faits de violence en Syrie, la nécessité de modérer le contenu ciblant les minorités en Syrie et le fait que le contenu qui fait circuler des informations d’actualité et relatives aux évolutions politiques ne doivent pas être censuré.

5. Analyse du Conseil de surveillance

Le Conseil a sélectionné ces cas pour aborder la manière dont les politiques de contenu Meta et leur mise en application influent sur la liberté d’expression lors de conflit en rapide évolution, en particulier la guerre en Syrie dans le cadre de laquelle les personnes qui partagent des informations sur une organisation interdite étaient engagés dans le conflit.

Le Conseil a analysé les décisions de Meta dans les cas présents, en les comparant à ses politiques relatives au contenu, à ses valeurs et à ses responsabilités en matière de droits humains. Le Conseil a également évalué les implications de ces cas pour l’approche plus globale de Meta dans le cadre de la gouvernance du contenu.

5.1 Respect des politiques de Meta relatives au contenu

Règles relatives au contenu

Le Conseil estime que les deux publications enfreignent la politique relative aux organismes et individus dangereux. Toutes deux contiennent une communication officielle de HTS, l’une un discours de son commandant et l’autre un message vidéo d’un des dirigeants militaires de HTS. Les publications fournissent du soutien, un concept décrit dans les Standards de la communauté, à M. al-Sharaa et à HTS en canalisant leurs communications vers des audiences sans donner aucune indication claire que l’utilisateur avait pour intention de s’impliquer dans un discours social et politique autorisé, par exemple, sous la forme d’une discussion neutre. Si l’utilisateur avait ajouté un commentaire bref indiquant que c’est ce qu’il souhaitait faire, alors la publication aurait pu être autorisée en tant que discours social et politique et n’aurait pas été supprimée. Cependant, à défaut d’indices clairs de cette intention, les publications enfreignent la signification de base de la politique.

Le Conseil estime également que les publications enfreignent la politique relative à la violence et à l’incitation. Le contenu dans le cas de la vidéo appelle les combattants de HTS à « attaquer vos ennemis et les étouffer » avant de dire aux ennemis en question qu’ils seraient tués s’ils ne fuient ou ne désertent pas. Dans le cas de l’image, le contenu appelle les combattants de HTS et leurs alliés à tirer sur leurs ennemis.

En évaluant si les publications enfreignaient les Standards de la communauté ou non, le Conseil a souligné la complexité de la mise en application de ces règles à des situations de conflits armés, car ces politiques ne correspondent pas aux standards légaux humanitaires internationaux et ne mentionnent pas la différence de mise en application dans un contexte de conflit armé.

Tolérance d’intérêt médiatique

Pour les raisons exposées dans l’analyse de la nécessité et de la proportionnalité ci-dessous, la majorité des membres du Conseil estiment que, malgré les infractions à la politique relative aux organismes et individus dangereux et à celle relative à la violence et à l’incitation, une tolérance proportionnelle à l’intérêt médiatique aurait dû être appliquée dans les deux cas. Cela permettrait à ces publications et à d’autres partageant la même vidéo et la même image avec une intention peu claire pendant cette période de rester sur la plateforme si les légendes qui les accompagnent ne comportent aucune autre infraction aux politiques de Meta. Une minorité des membres du Conseil ne sont pas d’accord et ont exprimé leur opinion dissidente dans l’analyse de la nécessité et de la proportionnalité ci-dessous.

5.2 Respect des responsabilités de Meta en matière de droits humains

Une majorité des membres du Conseil estiment que supprimer le contenu de la plateforme n’était pas conforme aux responsabilités de Meta en matière de droits humains et que les politiques de Meta doivent être modifiées afin d’assurer cette conformité à l’avenir.

Liberté d’expression (article 19 du PIDCP)

L’article 19 du Pacte international relatif aux droits civils et politiques (PIDCP) prévoit une large protection pour l’expression, y compris politique. Ce droit inclut la « liberté de rechercher, de recevoir et de répandre des informations et des idées de toute espèce ». Chaque aspect de ce droit doit être respecté, y compris pendant les conflits armés, en particulier afin de garantir que les populations civiles aient accès à des informations pouvant être cruciales pour leur compréhension des derniers développements et de la dynamique du conflit. Cette préoccupation devrait continuer à informer les responsabilités de Meta en matière de droits humains, parallèlement aux règles du droit international humanitaire qui se renforcent mutuellement et se complètent et qui s’appliquent pendant ces conflits (voir Observation générale n° 31, Comité des droits de l’homme, 2004, paragraphe 11 ; Commentaire sur les Principes directeurs des Nations Unies relatifs aux entreprises et aux droits de l’homme (PDNU), Principe 12 ; voir également le rapport sur la désinformation dans les conflits armés de la Rapporteuse spéciale des Nations Unies sur la liberté d’expression, A/77/288, paragraphes 33 à 35 [2022]).

L’accès à l’information dans un conflit peut faire la différence entre la vie et la mort. La Rapporteuse spéciale des Nations Unies sur la liberté d’expression a déclaré que « lors des conflits armés, les populations sont extrêmement vulnérables et ont particulièrement besoin d’une information précise et fiable afin de garantir leur sécurité et leur bien-être. Pourtant, c’est précisément dans ces situations que leur liberté d’expression et d’opinion [...] est la plus entravée par les circonstances de la guerre, par les parties au conflit et par les autres acteurs qui manipulent et restreignent l’information à des fins politiques, militaires et stratégiques » (A/77/288, paragraphe 1). Le rapport souligne également que la manipulation de l’information est une caractéristique courante des conflits armés, allant des tentatives visant à tromper l’opposition à celles visant à influencer les civils ou à attiser la haine. Les plateformes de réseaux sociaux jouent un double rôle dans les conflits : elles permettent aux populations de rester en contact avec le monde extérieur et de recevoir un large éventail d’informations essentielles pour leur survie, mais elles servent également de vecteurs de fausses informations et de discours haineux. Néanmoins, le Conseil note que le fait de savoir quels acteurs diffusent quelles informations, y compris lorsqu’elles sont trompeuses, peut encore fournir un contexte important pour comprendre les événements en cours et permettre aux populations d’évaluer de manière plus complète les risques auxquels elles sont confrontées.

Lorsque des restrictions de la liberté d’expression sont imposées par un État, elles doivent remplir des critères de légalité, d’objectif légitime, ainsi que de nécessité et de proportionnalité (article 19, paragraphe 3 du PIDCP). Ces exigences sont souvent reprises sous l’intitulé « test tripartite ». Le Conseil s’appuie sur ce test afin d’interpréter les responsabilités de Meta en matière de droits humains conformément aux PDNU, que Meta s’est engagée à respecter dans sa Politique relative aux droits humains. Le Conseil utilise ce test pour la décision relative au contenu individuel en cours d’examen et pour ce que cela dit de l’approche plus large de Meta en matière de gouvernance du contenu. Comme l’a déclaré le Rapporteur spécial de l’ONU sur la liberté d’expression, même si « les entreprises ne sont pas soumises aux mêmes devoirs que les gouvernements, leur influence est néanmoins telle qu’elle doit les inciter à se poser les mêmes questions qu’eux quant à la protection de la liberté d’expression de leurs utilisateurs » (A/74/486, paragraphe 41).

I. Légalité (clarté et accessibilité des règles)

Le principe de légalité prévoit que les règles qui limitent la liberté d’expression soient accessibles, claires et suffisamment précises pour permettre à un individu d’adapter son comportement en conséquence (Observation générale n° 34, paragraphe 25). En outre, ces règles « ne peu[ven]t pas conférer aux personnes chargées de [leur] application un pouvoir illimité de décider de la restriction de la liberté d’expression » et doivent « énoncer des règles suffisamment précises pour permettre aux personnes chargées de leur application d’établir quelles formes d’expression sont légitimement restreintes et quelles formes d’expression le sont indûment » (Ibid). Le Rapporteur spécial des Nations Unies sur la liberté d’expression a déclaré que lorsqu’elles s’appliquent aux acteurs privés, les règles régissant le discours en ligne devaient être claires et précises (A/HRC/38/35, paragraphe 46). Les personnes qui utilisent les plateformes de Meta doivent pouvoir accéder aux règles et les comprendre, et les équipes d’examen de contenu doivent disposer de conseils clairs sur leur application.

Le Conseil réitère ses préoccupations, exprimées pour la première fois dans la décision relative à la citation nazie, selon lesquelles le refus de Meta de divulguer sa liste d’entités désignées rend la politique relative aux organismes et individus dangereux insuffisamment claire, car les utilisateurs ne savent pas de quelles entités ils peuvent recevoir des communications. Bien que Meta ait rejeté la recommandation du Conseil de divulguer intégralement sa liste d’entités désignées, elle a accepté en juin 2024 une recommandation du Conseil formulée en avril de la même année (Vidéo d’un prisonnier des forces de soutien rapide au Soudan) visant à ce qu’elle ajoute des liens vers les listes publiques des désignations des États-Unis lorsque celles-ci sont mentionnées dans la politique. Le Conseil indique que, contrairement aux gouvernements, qui divulguent généralement les désignations terroristes, Meta ne le fait pas. Meta n’a pas encore appliqué cette recommandation. Ce manque de transparence persistant est particulièrement problématique pendant les conflits armés, lorsque la nécessité de discuter du comportement de ces entités est particulièrement pressante et que les entités désignées peuvent agir en tant qu’autorités gouvernementales de facto.

Le Conseil estime que l’exception accordée aux organismes et individus dangereux dans le cadre du discours social et politique n’est pas suffisamment transparente, compte tenu des différences importantes entre les informations rendues publiques (limitées aux exceptions autorisant la « dénonciation », la « discussion neutre » et la « condamnation » des entités désignées ou de leurs activités) et les directives internes fournies aux examinateurs, qui énumèrent de nombreux autres exemples de discours autorisés.

De plus, le Conseil estime que Meta applique depuis février 2025 une politique non publique, mais pleinement opérationnelle, sur la manière dont les utilisateurs peuvent faire référence à des communications du président al-Sharaa ou les partager, ce qui est contraire aux exigences en matière de légalité. Il est essentiel que les utilisateurs puissent avoir connaissance de ces politiques afin de pouvoir comprendre la portée des règles de Meta et comment exercer leur droit à la liberté d’expression dans ce cadre.

Enfin, en ce qui concerne le contenu de ces cas, le Conseil estime que les politiques relatives aux organismes et individus dangereux et à la violence et à l’incitation sont suffisamment claires, tout en notant les difficultés conceptuelles liées à l’application de ces politiques dans les conflits armés lorsque les règles et principes applicables du droit international humanitaire ne sont pas reflétés dans ces politiques.

II. Objectif légitime

Par ailleurs, toute restriction de la liberté d’expression doit aussi, au minimum, répondre à l’un des objectifs légitimes énumérés dans le PIDCP, qui incluent la protection des droits d’autrui (article 19, paragraphe 3, PIDCP).

Le Conseil avait déjà indiqué que la politique de Meta relative aux organismes et individus dangereux vise à « prévenir et arrêter les dommages dans le monde réel ». Dans plusieurs décisions, le Conseil a estimé que cette politique poursuivait l’objectif légitime de protéger les droits d’autrui, tels que le droit à la vie (article 6 du PIDCP) et le droit à la sécurité de la personne (article 9 du PIDCP).

Le Conseil avait également déjà estimé que le Standard de la communauté relatif à la violence et à l’incitation vise à « prévenir tout préjudice potentiel hors ligne » en supprimant les contenus qui présentent « un risque réel de blessures physiques ou de menaces directes pour la sécurité publique ». Cette politique sert l’objectif légitime de protéger le droit à la vie et le droit à la sécurité de la personne (article 6, PIDCP ; Article 9, PIDCP ; Observation générale n° 35, paragraphe 9).

III. Nécessité et proportionnalité

Conformément à l’article 19(3) du PIDCP, le principe de nécessité et de proportionnalité requiert que les restrictions de la liberté d’expression soient « appropriées pour remplir leur fonction de protection, elles doivent constituer le moyen le moins perturbateur parmi ceux qui pourraient permettre d’obtenir le résultat recherché et elles doivent être proportionnées à l’intérêt à protéger » (Observation générale n° 34, paragraphe 34).

Une majorité des membres du Conseil estiment que la suppression des deux publications n’est ni nécessaire ni proportionnée. Le Conseil a déjà utilisé les facteurs contextuels décrits dans le Plan d’action de Rabat pour évaluer si un préjudice imminent est probable et s’il ne peut être évité que par la suppression du contenu (par exemple, les décisions Publication sur les armes liée au conflit soudanais et Bureau des affaires de communication du Tigré). En appliquant les facteurs contextuels de Rabat à ces cas, le Conseil s’appuie uniquement sur les informations dont Meta aurait raisonnablement pu disposer au moment de son examen initial de ces publications, en notant que le résultat serait le même quelle que soit la façon dont les événements se sont déroulés après la publication du contenu. Une majorité des membres du Conseil conclut ce qui suit :

Contexte social et politique : Les publications ont été examinées alors que les milices dirigées par HTS gagnaient rapidement du terrain dans le cadre d’une offensive en cours, dont l’issue était inconnue, à la suite d’un conflit prolongé qui a donné lieu à des atteintes généralisées aux droits humains et à des attaques contre des civils par diverses parties au conflit. Le contexte de l’environnement médiatique est également pertinent. Le régime d’Assad a fortement limité la liberté de la presse ainsi que l’accès à l’information pour la majorité des civils syriens, allant jusqu’à arrêter et persécuter ceux qui publiaient des informations ou des opinions anti-régime sur les réseaux sociaux. Le régime d’Assad a usé de son contrôle sur les médias traditionnels sur son territoire pour supprimer systématiquement les informations pendant le conflit. L’interdiction de nombreux groupes d’opposition sur les réseaux sociaux, alors que le gouvernement pouvait opérer librement, a encore réduit l’espace réservé aux voix de l’opposition et créé des asymétries d’information problématiques. Les Syriens vivant sous le contrôle du régime voyaient dans les médias traditionnels une vision de la guerre, de la puissance des forces d’Assad et de leurs alliés, telle que présentée par le gouvernement, plutôt que les forces et les succès de ses adversaires. En raison de ces mesures répressives, de nombreux Syriens (y compris les minorités vulnérables) dépendaient des réseaux sociaux pour accéder à d’autres sources d’information et les diffuser, pour savoir comment le conflit évoluait, s’ils risquaient de le vivre directement et pour connaître leur situation politique et sécuritaire générale.

Identité et statut des auteurs : Les personnes qui ont publié le contenu ne sont pas des personnalités publiques et semblent avoir une influence directe minime sur leur audience, bien que celui qui se présente comme journaliste compte un grand nombre d’abonnés. Les personnes représentées dans ce contenu sont des personnalités publiques qui jouissent d’une grande notoriété et d’une influence considérable en raison de leur position au sein de HTS.

Intention des auteurs : Il est difficile d’interpréter l’intention des personnes qui ont publié ce contenu, étant donné l’absence de commentaires substantiels dans les légendes. Leurs publications ne permettent pas de déterminer s’ils avaient l’intention d’inciter à la violence ou de soutenir les propos tenus par HTS. Si l’intention des personnes représentées semble être principalement d’encourager les combattants de HTS à poursuivre leur offensive, y compris en tuant leurs ennemis, cette intention ne doit pas être directement attribuée à ceux qui partagent ces publications. La déduction de l’intention était différente dans la décision du Bureau des affaires de communication du Tigré, car il s’agissait alors d’une incitation publiée par un compte officiellement associé à une partie au conflit, et non d’une publication partagée par des personnes extérieures qui ne sont pas clairement des combattants ou qui ne s’expriment pas au nom de HTS. Cette situation est également différente de celle du cas du Premier ministre cambodgien, où l’incitation du chef de l’État visait l’opposition politique dans le contexte d’une élection, afin d’intimider et de réprimer l’expression et la participation publique d’autres personnes. Bien que l’orateur dans la décision Vidéo d’un prisonnier des forces de soutien rapide au Soudan n’ait pas été identifié comme l’une des parties au conflit, la légende du contenu semblait approuver le message violent de l’entité désignée.

En situation de crise, lorsque le temps est compté, la communication est inévitablement tronquée. De plus, dans un contexte répressif où les canaux de communication sont rares et où la surveillance et le contrôle des publications sur les réseaux sociaux suscitent des inquiétudes légitimes, il peut y avoir de bonnes raisons de limiter les commentaires. Le fait que les indices contextuels soient moins évidents ou visibles pour les personnes extérieures ne signifie pas qu’ils ne seront pas perçus par l’audience de l’auteur de la publication, qui peut très bien comprendre le contexte dans lequel certaines informations sont partagées. Dans ce cas, et dans tout conflit politique, les gens se contentent de raccourcis.

Préjudice (y compris sa probabilité et son caractère imminent) : Le Conseil constate que le contenu partagé par HTS ne s’adressait pas à un public général, mais fournissait des instructions et des encouragements aux membres de HTS. Ni M. al-Shami ni M. al-Sharaa n’encourageaient les civils à participer directement aux hostilités. Les références à la violence contre l’armée d’Assad étaient peu susceptibles de susciter davantage de violence de la part des forces de HTS et encore moins de la part d’autres groupes. En tant que tiers, les utilisateurs qui partageaient ce contenu étaient plus susceptibles d’informer le public et de lui permettre de suivre l’évolution du conflit. Les civils syriens qui tentaient de suivre l’évolution rapide du conflit en l’absence de médias indépendants ont bénéficié de l’accès à toutes les informations disponibles, y compris les messages des hauts dirigeants des groupes armés qui orientaient le conflit. La possibilité de comparer les déclarations de toutes les parties sur les développements militaires, ainsi que la déclaration de HTS sur son avancée vers Damas, pouvait constituer des informations exploitables que les civils auraient pu utiliser pour assurer leur sécurité. Le partage de ces publications par les utilisateurs n’a pas augmenté la probabilité que les membres de HTS attaquent leurs ennemis, et la suppression des expressions des utilisateurs partageant ces informations n’a pas réduit de manière significative les risques de préjudice.

Après avoir examiné ces facteurs contextuels, une majorité des membres du Conseil estiment que le risque que ces publications entraînent davantage de violence était compensé par la nécessité pour la population de comprendre la situation en Syrie, qui évoluait rapidement et où le régime limitait fortement la circulation de l’information. Dans ses commentaires publics adressés au Comité, l’organisation de la société civile SMEX, basée dans la région, a fait remarquer que, même si les mises à jour des groupes rebelles servaient souvent leurs propres intérêts, elles étaient essentielles pour que les Syriens restent informés. Dans une telle situation, la suppression des publications ne constituait pas le moyen le moins intrusif d’éviter un préjudice potentiel et n’était pas proportionnée à l’intérêt public de recevoir des informations sur des événements en rapide évolution (CP-31259). Ce cas se distingue donc de la décision Campagne électorale 2023 en Grèce, où la couverture médiatique nationale généralisée garantissait d’autres moyens d’accéder à l’information que celui de s’informer plus directement auprès des entités désignées ou de leurs affiliés.

En proposant un récit alternatif à celui diffusé par les médias contrôlés par le gouvernement syrien à l’époque, le contenu des deux cas fournissait des informations utiles aux civils syriens qui suivaient de près le conflit afin de prendre des décisions pour leur propre sécurité. La vidéo comprenait une mise à jour sur l’offensive rebelle qui venait de commencer, indiquant qu’une « nouvelle phase » du conflit avait débuté, ce qui aurait permis de transmettre aux auditeurs des informations sur l’intensification des violences. De plus, les hashtags indiqués dans la légende permettaient aux utilisateurs d’accéder à d’autres contenus et informations sur le déroulement de l’offensive. La photo annonçait la dernière poussée de l’offensive vers Damas et indiquait que les forces rebelles avaient pris le contrôle de villes aux mains des forces gouvernementales et libéré des prisonniers. Toutes ces informations auraient été précieuses pour les personnes vivant sous un régime répressif sans liberté de la presse. Cette décision se distingue de celle rendue dans le contexte distinct de la Vidéo d’un prisonnier des forces de soutien rapide au Soudan, où le Conseil est parvenu à la conclusion inverse. Dans ce cas, la publication contenait moins d’informations directement pertinentes pour les civils cherchant à suivre l’évolution du conflit et à assurer leur sécurité. La divulgation de l’identité d’un prisonnier de guerre était également susceptible de causer un préjudice supplémentaire, et la légende ajoutée par l’utilisateur semblait approuver le message violent de l’entité désignée dans le contenu.

Le Conseil note également que la modération de Meta dans le conflit syrien a pu entraîner des asymétries d’information qui ont mis ses utilisateurs en danger en limitant leur accès à l’information. Dans le contexte d’un régime répressif qui tente de contrôler totalement l’accès à l’information pendant un conflit qui évolue rapidement, il est essentiel que des entreprises telles que Meta veillent à respecter la liberté d’expression et l’accès à l’information. Le contrôle total du régime d’Assad sur les médias traditionnels et sa capacité à publier librement sur les plateformes de réseaux sociaux lui ont permis de créer un récit très trompeur sur l’avancée des rebelles. En empêchant les utilisateurs de fournir des informations provenant des groupes rebelles, Meta a, même involontairement, contribué à cette asymétrie de l’information et a empêché les Syriens d’accéder à des informations potentiellement vitales. Les politiques de Meta autorisent également les appels à la violence contre des entités désignées, mais pas contre les forces armées ordinaires, même lorsque ces dernières sont impliquées dans de graves violations des droits humains constituant des crimes contre l’humanité. Cette asymétrie aurait permis au régime d’Assad et à ses partisans de relayer des communications, y compris des menaces de violence ambitieuses ou conditionnelles contre HTS, des groupes armés similaires et leurs partisans sur les plateformes de Meta, mais pas l’inverse.

Une majorité des membres du Conseil estiment que, dans ces circonstances, Meta aurait dû accorder une tolérance proportionnelle à l’intérêt médiatique afin d’éviter toute atteinte indue au droit du public à l’information. Cette tolérance aurait pu être étendue aux publications partageant le même contenu sans intention claire, si les légendes qui les accompagnaient ne comportaient aucune autre infraction aux politiques de Meta. Cela aurait permis aux civils syriens d’avoir accès à autant d’informations que possible sur le conflit. Dans ce cas, la publication contenait moins d’informations directement pertinentes pour les civils cherchant à suivre l’évolution du conflit et à assurer leur sécurité.

Une majorité des membres du Conseil estiment également que Meta devrait étudier la possibilité d’assouplir l’obligation pour les utilisateurs de manifester clairement leur intention de participer à un débat social et politique lorsqu’ils partagent des informations sur des entités désignées ou des communications officielles émanant de celles-ci. Ce point est particulièrement important dans le contexte d’un conflit prolongé ou en évolution rapide, où il est essentiel que les informations susceptibles de contribuer à la sécurité des populations soient diffusées rapidement, en particulier sous un régime répressif qui contrôle les médias traditionnels et punit la dissidence en ligne.

Une minorité des membres du Conseil n’est pas d’accord, estimant que la suppression des deux publications sans appliquer la tolérance d’intérêt médiatique est conforme aux responsabilités de l’entreprise en matière de droits humains et à la jurisprudence du Conseil.

Pour la minorité des membres, les facteurs contextuels du Plan d’action de Rabat, l’identité des intervenants et leur influence sur leur public, ainsi que le risque imminent de violence, rendaient la suppression nécessaire et proportionnée. Les deux publications relayaient sans commentaire les ordres de tuer donnés par des dirigeants hautement influents d’une organisation armée récemment impliquée dans de graves violations du droit international. Le public visé est constitué de militants très dociles. Le contexte d’asymétrie de l’information et de liberté médiatique limitée n’a pas réduit le risque accru de préjudice pour leurs « ennemis », y compris les civils. La jurisprudence du Conseil soutient directement la nécessité du retrait (Vidéo d’un prisonnier des forces de soutien rapide au Soudan ; Bureau des affaires de communication du Tigré), et les variations factuelles mineures entre ces publications et les présentes ne modifient pas de manière significative l’analyse sous-jacente des droits humains. Comme dans les cas présents, ces conflits ont été prolongés et ont donné lieu à des violations généralisées des droits humains et à des attaques contre des civils, à un contrôle strict de l’information et à une liberté de la presse fortement restreinte. Dans les deux cas, les forces d’opposition ont avancé vers le territoire contrôlé par le gouvernement et des discours prononcés par des dirigeants ou des membres éminents des forces armées ont appelé à la violence.

Pour une minorité, les publications contenaient peu ou pas d’informations exploitables sur l’évolution du conflit qui auraient pu aider les civils à rester en sécurité. Bien que l’environnement informationnel ait été limité, la suppression de ces deux publications n’aurait pas restreint de manière significative la capacité des Syriens à accéder à d’autres informations en temps réel et plus objectives sur le conflit sur les réseaux sociaux. Les responsabilités de Meta en matière de droits humains dans un conflit armé ne l’obligent pas à autoriser l’utilisation de ses technologies par des personnes pour relayer des communications militaires. Si Meta autorisait des tiers à partager sans commentaire ni critique des menaces violentes ou des appels à la violence émanant de dirigeants éminents d’entités désignées, cela reviendrait essentiellement à permettre à ces entités d’être présentes sur les plateformes pour diffuser de tels messages. Dans la décision relative au Premier ministre cambodgien, le Conseil a mis en garde Meta contre le fait d’utiliser la tolérance d’intérêt médiatique pour autoriser des menaces de violence crédibles au nom du droit du public à l’information. Les conclusions de la majorité dans ce cas sont en contradiction avec ce précédent.

Le Conseil estime que les sanctions sévères imposées aux utilisateurs qui partagent des informations provenant d’entités désignées sans légende, en infraction aux autres dispositions de la politique, pourraient être excessives. Il est donc nécessaire que les utilisateurs soient mieux informés sur la manière dont ils peuvent discuter des entités et des personnes désignées et partager des informations les concernant sans enfreindre la politique. Cela est particulièrement important en période de crise évoluant rapidement, lorsque le partage de ces informations de manière autorisée devient essentiel pour que les populations soient mieux informées des menaces réelles et des développements importants qui les entourent.

6. Décision du Conseil de surveillance

Le Conseil annule la décision de Meta de retirer les deux publications et demande à ce qu’elles soient restaurées en vertu de la tolérance d’intérêt médiatique.

7. Recommandations

A. Politique de contenu

1. Afin de garantir que les personnes puissent accéder à des informations essentielles pendant les crises et les conflits armés pour les aider à rester en sécurité, Meta devrait ajouter un levier politique au CPP qui permette à la plateforme d’atténuer les asymétries d’information que ses politiques pourraient entraîner. Cela pourrait inclure des leviers politiques tels que : suspendre l’interdiction de partager des informations provenant d’entités désignées impliquées dans le conflit ; suspendre les sanctions ou réduire les limites de fonctionnalités lorsque le contenu est jugé en infraction en raison d’une intention peu claire ; informer les utilisateurs sur la manière de partager des informations sur les entités désignées de manière autorisée. Lorsque ces leviers politiques sont invoqués, la mesure doit être rendue publique.

Le Conseil considérera cette recommandation comme mise en œuvre lorsque Meta lui aura communiqué à la fois le CPP mis à jour et les critères qui en découlent pour le déploiement de ces leviers politiques dans les situations de conflit armé.

2. Meta devrait étudier, en consultation avec les parties prenantes concernées, comment l’interdiction de diffuser des communications officielles au nom d’une entité désignée dans le cadre de la politique relative aux organismes et individus dangereux influe sur l’accès à l’information et la protection des civils contre la violence dans les conflits armés. Cette étude devrait s’appuyer sur une analyse qualitative et quantitative détaillée d’un échantillon représentatif adéquat de contenus qui ont été visés par la partie pertinente de la politique relative aux organismes et individus dangereux dans un certain nombre de conflits armés sélectionnés. Par exemple, cela peut couvrir une période de six mois de suppressions de contenus pertinents dans un certain nombre de conflits sélectionnés afin d’analyser les compromis entre les contenus qui auraient pu causer un préjudice s’ils étaient restés en ligne et les répercussions sur le droit des personnes à communiquer et à recevoir des informations qui leur permettent d’être mieux informées dans les situations de conflit.

Le Conseil considérera cette recommandation comme mise en œuvre lorsque Meta lui aura communiqué l’intégralité de l’étude, y compris les mesures que Meta pourrait prendre à la suite de celle-ci.

3. Meta devrait rendre compte au Conseil de ses efforts au cours des cinq dernières années pour évaluer si et comment ses Standards de la communauté relatifs à la violence et à l’incitation et aux organismes et individus dangereux devraient être modifiés pour tenir compte des normes du droit international humanitaire (DIH), et présenter ses projets à court terme dans ce domaine, conformément aux PDNU (Principe 12, commentaire) qui appellent les entreprises à prendre en comptes les normes DIH dans leurs opérations.

Le Conseil estimera que cette recommandation aura été suivie lorsque Meta aura partagé cette informations avec lui.

* Note de procédure :

  • Les décisions du Conseil de surveillance sont prises par des panels de cinq membres et approuvées par une majorité du Conseil dans son ensemble. Les décisions du Conseil ne représentent pas nécessairement les opinions de tous les membres.
  • En vertu de sa Charte, le Conseil de surveillance est habilité à examiner les appels déposés par les utilisateurs dont le contenu a été supprimé par Meta, les appels déposés par les utilisateurs ayant signalé un contenu que Meta n’a finalement pas supprimé, et les décisions que Meta lui transmet (article 2, section 1 de la Charte). Le Conseil dispose d’une autorité contraignante pour confirmer ou annuler les décisions de Meta relatives au contenu (article 3, section 5 de la Charte ; article 4 de la Charte). Le Conseil est habilité à émettre des recommandations non contraignantes auxquelles Meta doit répondre (article 3, section 4 de la Charte ; article 4). Lorsque Meta s’engage à donner suite aux recommandations, le Conseil surveille leur mise en œuvre.
  • Pour la décision sur ce cas, des recherches indépendantes ont été commandées au nom du Conseil. Le Conseil a bénéficié de l’aide de Duco Advisors, une société de conseil spécialisée dans la géopolitique, la confiance et la sécurité, ainsi que la technologie.

Retour aux décisions de cas et aux avis consultatifs politiques