Renforcer les outils pour contrer les politiques générant des déséquilibres d’information lors de conflits

Le Conseil de surveillance demande à Meta de renforcer ses outils de modération du contenu dans le contexte de conflit armé, afin d’atténuer les asymétries d’information que ses politiques peuvent engendrer entre les différentes parties impliquées. Le Conseil souligne que, dans les conflits en évolution rapide, les civils recourent aux médias sociaux de manière distincte par rapport aux situations non conflictuelles, afin de partager rapidement des informations susceptibles de contribuer à la sécurité des personnes. Il est nécessaire d’étudier l’impact des interdictions visant à canaliser les communications d’une entité désignée, dans le cadre de la politique de Meta relative aux individus et organisations dangereux, sur la population et sa protection contre la violence. Le Conseil a demandé à Meta de restaurer deux publications, en raison de leur intérêt médiatique, dans lesquelles des utilisateurs partageaient des contenus provenant des dirigeants de l’organisation Hayat Tahrir al-Sham (HTS), peu avant le renversement du régime Assad en Syrie.

À propos des cas

Fin 2024, deux utilisateurs de Facebook basés en Syrie ont publié du contenu lié à HTS, une organisation désignée comme groupe terroriste par le Conseil de sécurité des Nations unies, qui a mené l’offensive ayant conduit au renversement du régime de Bashar al-Assad.

Dans le second cas, une image a été publiée en décembre sur une page publique. Elle contenait une photographie du chef du HTS, Ahmed al-Sharaa, accompagnée d’un texte en arabe extrait du discours qu’il avait prononcé le jour même. Ce discours encourageait les combattants du HTS à « ne pas gaspiller une seule balle, sauf dans la poitrine de vos ennemis, car Damas vous attend ». La publication a été automatiquement supprimée en quelques minutes après sa mise en ligne, pour violation du Standard de la communauté relatif aux individus et organisations dangereux. Le lendemain, les forces du HTS ont pris le contrôle de la capitale syrienne, Damas. 

Dans le second cas, une image a été publiée en décembre sur une page publique. Elle contenait une photographie du chef du HTS, Ahmed al-Sharaa, accompagnée d’un texte en arabe extrait du discours qu’il avait prononcé le jour même. Ce discours encourageait les combattants du HTS à « ne pas gaspiller une seule balle, sauf dans la poitrine de vos ennemis, car Damas vous attend ». La publication a été automatiquement supprimée en quelques minutes après sa mise en ligne, pour violation du Standard de la communauté relatif aux individus et organisations dangereux. Le lendemain, les forces du HTS ont pris le contrôle de la capitale syrienne, Damas. 

Meta a empêché la mise en ligne des comptes et a réduit la portée et la visibilité des pages. Les utilisateurs ayant posté des messages ont fait appel et Meta a confirmé la suppression du contenu. Les utilisateurs ont tous deux fait appel auprès du conseil d'administration. L'entreprise a par la suite déclaré que les messages violaient également sa politique en matière de violence et d'incitation.

Principaux constats

La majorité du Conseil considère que la suppression du contenu ne respecte pas les engagements de Meta en matière de droits humains et estime que les politiques concernées doivent être révisées afin d’assurer leur conformité à ces principes à l’avenir. L’intérêt public à recevoir des informations susceptibles de contribuer à la sécurité des personnes dans un contexte de conflit en évolution rapide, marqué par une forte restriction des flux d’informations imposée par le régime, ainsi que la faible probabilité que le partage de ce contenu entraîne un préjudice supplémentaire sont des éléments particulièrement pertinents. Le Conseil observe que, dans ce conflit politique comme dans tous les autres, la communication est tronquée, ce qui rend les indices contextuels sur les intentions d’une publication moins accessibles aux personnes extérieures. Il était justifié d’octroyer un intérêt médiatique à grande échelle.

Une minorité du Conseil n’est pas d’accord, estimant que la suppression des publications était conforme aux responsabilités de Meta en matière de droits humains ainsi qu’à la jurisprudence du Conseil. Les deux publications relaient des ordres de tuer, sans aucun commentaire et avec peu d’informations exploitables pour assurer la sécurité des civils.

Le Conseil estime qu’en relayant les communications d’un groupe désigné sans intention claire de s’engager dans un discours social et politique autorisé, les deux publications enfreignent la politique relative aux individus et organisations dangereux. Il estime également que les deux publications enfreignent la politique en matière de violence et d’incitation, car elles contiennent des appels clairs à la violence.

Le refus de Meta d’indiquer aux utilisateurs quelles organisations et quels individus ne peuvent faire l’objet de discussion en vertu de sa politique relative aux individus et organisations dangereux est particulièrement problématique en période de conflit armé, lorsque certaines entités désignées peuvent exercer des fonctions d’autorité gouvernementale de facto. L’exception prévue par la politique en matière de discours sociaux et politiques manque également de transparence, en raison d’écarts significatifs entre les informations rendues publiques et les directives internes encadrant les discours autorisés.

Depuis février 2025, Meta applique une politique non publique, mais pleinement opérationnelle encadrant la manière dont les utilisateurs peuvent faire référence ou partager les communications du président al-Sharaa dans l’exercice de ses fonctions officielles ; ce qui ne répond pas aux exigences de légalité. Les utilisateurs doivent être informés de l’existence de telles politiques afin de pouvoir exercer leurs droits d’expression en connaissance de cause et dans le respect des règles établies par Meta.

Le Conseil observe que la modération exercée par Meta dans le cadre du conflit syrien a pu générer des asymétries d’information préoccupantes, susceptibles d’exposer les utilisateurs à des risques. Les politiques de Meta autorisent les appels à la violence contre les entités répertoriées, mais les interdisent contre les forces armées régulières. Cela indépendamment du comportement des deux parties.

Décision du Conseil de surveillance

Le Conseil renverse les décisions de Meta de supprimer les deux publications et exige leur remise en ligne en raison de l’intérêt médiatique.

Le Conseil recommande également à Meta :

  • Ajouter un levier au protocole de politique de crise qui permette à la plateforme d’atténuer les asymétries d’information que ses politiques peuvent créer. Cela pourrait inclure des leviers politiques tels que : suspendre l’interdiction de partager des informations provenant d’entités désignées impliquées dans le conflit ; suspendre les sanctions ou réduire les limites de fonctionnalités lorsque le contenu est jugé contraire à l’intention pour des raisons peu claires ; informer les utilisateurs sur la manière de partager des informations sur les entités désignées de manière autorisée. Lorsque ces leviers politiques sont invoqués, la mesure doit être rendue publique.
  • Étudier, en consultation avec les parties prenantes concernées, les effets de l’interdiction de diffuser des communications officielles émanant d’une entité désignée au titre de la politique relative aux individus et organisations dangereux, notamment en ce qui concerne l’accès à l’information et la protection des civils contre la violence en contexte de conflit armé.
  • Rendre compte au Conseil de ses efforts déployés au cours des cinq dernières années pour évaluer si, et de quelle manière, ses Standards de la communauté relatifs à la violence et à l’incitation et aux individus et organisations dangereux devraient être adaptés afin de mieux refléter les normes du droit international humanitaire, et présenter ses projets à court terme en la matière.

Pour plus d’informations

Pour lire les commentaires publics sur ce cas, cliquez ici.

Retour Aux Actualités