Renversé

Article du Washington Post sur le conflit israélo-palestinien

Un utilisateur a fait appel de la décision de Meta de supprimer une publication Facebook comprenant un lien vers un article du Washington Post établissant la chronologie du conflit israélo-palestinien. Après que le Conseil a porté l’appel à l’attention de Meta, l’entreprise est revenue sur sa décision initiale et a restauré la publication.

Type de décision

Résumé

Politiques et sujets

Sujet
Évènements d’actualité, Guerre et conflits, Journalisme
Norme communautaire
Personnes et organisations dangereuses

Régions/Pays

Emplacement
États-Unis, Israël, Territoires palestiniens

Plate-forme

Plate-forme
Facebook

Il s’agit d’un résumé de la décision. Les résumés de décisions examinent les cas dans lesquels Meta est revenue sur sa décision initiale concernant un élément de contenu après que le Conseil a porté l’affaire à l’attention de l’entreprise. Ils contiennent des informations relatives aux erreurs reconnues par Meta. Ils sont approuvés par un panel de membres du Conseil, et non par le Conseil dans son ensemble, n’impliquent pas de commentaires publics et n’ont pas de valeur de précédent pour le Conseil. Les résumés de décisions ont une influence directe sur les décisions de Meta, en assurant la transparence quant aux corrections et en identifiant les domaines dans lesquels Meta pourrait améliorer son application des politiques.

Résumé du cas

Un utilisateur a fait appel de la décision de Meta de supprimer une publication Facebook comprenant un lien vers un article du Washington Post établissant la chronologie du conflit israélo-palestinien. Après que le Conseil a porté l’appel à l’attention de Meta, l’entreprise est revenue sur sa décision initiale et a restauré la publication.

Description du cas et contexte

En octobre 2023, un utilisateur Facebook a publié un article du Washington Post reprenant la chronologie du conflit israélo-palestinien. L’aperçu de l’article, automatiquement partagé avec le lien, mentionne le Hamas. L’utilisateur n’a ajouté aucune légende pour accompagner sa publication, et n’a pas fourni de contexte.

La publication Facebook avait été supprimée en vertu de la politique relative aux organismes et individus dangereux qui interdit la représentation de groupes et d’individus que l’entreprise estime liés à des préjudices dans le monde réel ainsi que certains propos les concernant.

Dans son appel au Conseil, l’utilisateur souligne le fait que la publication avait un objectif d’information concernant le conflit actuel entre Israël et le Hamas et n’avait pas vocation à soutenir le Hamas ou quelque autre organisation dangereuse.

Après que le Conseil a porté ce cas à l’attention de Meta, l’entreprise a déterminé que le contenu n’enfreignait pas sa politique relative aux organismes et aux individus dangereux, car la publication faisait référence au Hamas dans un contexte d’informations d’actualité, ce que la politique autorise. L’entreprise a ensuite restauré le contenu sur Facebook.

Autorité et champ d’application du Conseil

Le Conseil jouit de l’autorité nécessaire pour examiner la décision de Meta à la suite d’un appel interjeté par la personne dont le contenu a été supprimé (article 2, section 1 de la Charte ; article 3, section 1 des Statuts).

Lorsque Meta reconnaît avoir commis une erreur et revient sur sa décision dans un cas soumis à l’examen du Conseil, ce dernier peut décider de ne statuer que sommairement sur ce cas (article 2, section 2.1.3 des Statuts). Le Conseil réexamine la décision initiale afin de mieux comprendre les processus de modération de contenu impliqués, de réduire les erreurs et d’accroître l’équité pour les personnes qui utilisent Facebook et Instagram.

Importance du cas

Ce cas met en évidence un exemple dans lequel Meta a appliqué de manière trop sévère sa politique relative aux organismes et individus dangereux, plus particulièrement dans le cadre d’informations sur l’actualité des entités que l’entreprise estime dangereuses. Ce problème est récurrent et est particulièrement fréquent dans le cadre du conflit Israël-Hamas, dans lequel une des parties est un de ces organismes dangereux. Le Conseil a émis plusieurs recommandations relatives à la tolérance pour les informations d’actualité de la politique relative aux organismes et individus dangereux. Des erreurs répétées dans l’application de cette tolérance peuvent réduire de manière significative la liberté d’expression des utilisateurs et l’accès du public à l’information, et mettre à mal le débat public.

Dans une décision précédente, le Conseil a recommandé à Meta d’« évaluer l’exactitude des équipes d’examen qui appliquent l’autorisation d’informer en vertu de la politique relative aux organismes et individus dangereux afin d’identifier les problèmes systémiques à l’origine des erreurs de mise en application, » (Mention des talibans dans les informations d’actualité, recommandation n° 5). Meta a témoigné de son travail en la matière, mais n’a pas publié d’informations pour en donner la preuve. Le Conseil a également recommandé à Meta d’« ajouter des critères et des exemples concrets à sa politique relative aux organismes et individus dangereux afin de permettre aux utilisateurs de mieux comprendre les exceptions accordées en cas de discussions neutres, de condamnation et de reportages » (Publication partagée d’Al Jazeera, recommandation n° 1). La mise en œuvre de cette recommandation est attestée par des informations publiées. Par ailleurs, le Conseil a recommandé à Meta d’« inclure des informations plus complètes sur les taux d’erreur dans l’application des règles relatives aux “éloges” et au “soutien” envers les personnes et organisations dangereuses » dans les rapports de transparence (Isolement d’Öcalan, recommandation n° 12). Meta a refusé d’appliquer cette recommandation à la suite d’une évaluation de faisabilité. Depuis une mise à jour de sa politique datant du 29 décembre 2023, Meta utilise désormais le terme « glorification » à la place du terme « éloge » dans son standard de la communauté.

Le Conseil est convaincu du fait que l’observation de toutes ces recommandations pourrait réduire le nombre d’erreurs d’application en vertu de la politique de Meta sur les organismes et individus dangereux.

Décision

Le Conseil a annulé la décision initiale de Meta visant à supprimer le contenu. Le Conseil reconnaît que Meta a corrigé son erreur initiale une fois que le Conseil a porté le cas à son attention.

Retour aux décisions de cas et aux avis consultatifs politiques