Renversé
Un journaliste témoigne d’une rencontre à Gaza
4 avril 2024
Un journaliste a fait appel d’une décision de Meta de supprimer une publication Facebook relatant son expérience personnelle lors d’une interview d’Abdel Aziz Al-Rantisi, cofondateur du Hamas. Ce cas met en évidence le problème récurrent d’application par Meta de manière trop sévère de sa politique relative aux organismes et individus dangereux, plus particulièrement quand il s’agit de publications neutres. Après que le Conseil a porté l’appel à l’attention de Meta, l’entreprise est revenue sur sa décision initiale et a restauré la publication.
Il s’agit d’un résumé de la décision. Les résumés de décisions examinent les cas dans lesquels Meta est revenue sur sa décision initiale concernant un élément de contenu après que le Conseil a porté l’affaire à l’attention de l’entreprise.Ils contiennent des informations relatives aux erreurs reconnues par Meta. Ils sont approuvés par un panel de membres du Conseil, et non par le Conseil dans son ensemble, n’impliquent pas de commentaires publics et n’ont pas de valeur de précédent pour le Conseil. Les résumés de décisions ont une influence directe sur les décisions de Meta, en assurant la transparence quant aux corrections et en identifiant les domaines dans lesquels Meta pourrait améliorer son application des politiques.
Résumé du cas
Un journaliste a fait appel d’une décision de Meta de supprimer une publication Facebook relatant son expérience personnelle lors d’une interview d’Abdel Aziz Al-Rantisi, cofondateur du Hamas. Ce cas met en évidence le problème récurrent d’application par Meta de manière trop sévère de sa politique relative aux organismes et individus dangereux, plus particulièrement quand il s’agit de publications neutres. Après que le Conseil a porté l’appel à l’attention de Meta, l’entreprise est revenue sur sa décision initiale et a restauré la publication.
Description du cas et contexte
Peu après les attentats terroristes du 7 octobre 2023 contre Israël, un journaliste a publié sur Facebook un texte relatant ses souvenirs d’une interview qu’il avait réalisée d’Abdel Aziz Al-Rantisi, cofondateur du Hamas, une organisation de niveau 1 selon la politique de Meta relative aux organismes et individus dangereux. La publication décrit le trajet du journaliste jusqu’à Gaza,sa rencontre avec des membres du Hamas et des résidents locaux, ainsi que son expérience lors de sa rencontre et de son interview d’Abdel Aziz Al-Rantisi. La publication contient quatre photos, notamment d’Abdel Aziz Al-Rantisi, du journaliste et de militants du Hamas masqués.
Dans son appel au Conseil, l’utilisateur explique que l’objectif de sa publication était d’informer le public de son expérience à Gaza et de l’interview qu’il a réalisée d’un des cofondateurs originaux du Hamas.
Meta a supprimé la publication de Facebook, invoquant sa politique relative aux organismes et individus dangereux, en vertu de laquelle l’entreprise supprime de ses plateformes certains contenus concernant des organismes et des individus qu’elle considère comme dangereux. Cependant, la politique reconnaît que « les utilisateurs peuvent partager des contenus incluant des références à des organismes et à des individus dangereux dans le cadre d’un discours social et politique. Cela inclut les contenus qui apportent des informations, discutent en toute neutralité ou condamnent les organismes et les individus dangereux ou leurs activités. »
Après que le Conseil a porté ce cas à l’attention de Meta, l’entreprise a déterminé que « le contenu avait pour but de sensibiliser à la situation » et n’enfreignait donc pas le standard de la communauté relatif aux organismes et individus dangereux. Meta a invoqué la tolérance relative aux discours sociaux et politiques, qui « apportent des informations, discutent en toute neutralité ou condamnent les organismes et les individus dangereux ou leurs activités ». Meta a par ailleurs déclaré que « le contexte de discours social et politique est explicitement mentionné dans le contenu, il n’y a donc aucune ambiguïté quant à l’intention de l’utilisateur » dans ce cas.
Autorité et champ d’application du Conseil
Le Conseil jouit de l’autorité nécessaire pour examiner la décision de Meta à la suite d’un appel interjeté par l’utilisateur dont le contenu a été supprimé (article 2, section 1 de la Charte ; article 3, section 1 des Statuts).
Lorsque Meta reconnaît avoir commis une erreur et revient sur sa décision dans un cas soumis à l’examen du Conseil, ce dernier peut décider de ne statuer que sommairement sur ce cas (article 2, section 2.1.3 des Statuts). Le Conseil réexamine la décision initiale afin de mieux faire comprendre le processus de modération des contenus, de réduire les erreurs et d’accroître l’équité pour les utilisateurs de Facebook et d’Instagram.
Importance du cas
Ce cas met en évidence l’application trop sévère par Meta de sa politique relative aux organismes et individus dangereux, plus particulièrement dans le cadre d’informations sur l’actualité des entités que l’entreprise estime dangereuses. Ce problème est récurrent et est particulièrement fréquent dans le cadre du conflit Israël-Hamas, dans lequel une des parties est un de ces organismes dangereux. Le Conseil a émis plusieurs recommandations relatives à la tolérance pour les informations d’actualité en vertu de la politique relative aux organismes et individus dangereux. Des erreurs répétées dans l’application de cette tolérance peuvent réduire de manière significative la liberté d’expression des utilisateurs et l’accès du public à l’information, et mettre à mal le débat public.
Précédemment, le Conseil a recommandé à Meta d’« ajouter des critères et des exemples concrets à sa politique relative aux individus et aux organismes dangereux afin de permettre aux utilisateurs de mieux comprendre les exceptions accordées, en particulier en cas de discussions neutres et de reportages » (Publication partagée d’Al Jazeera, recommandation n° 1). Meta a fait état de la mise en œuvre de cette recommandation et en a attesté en publiant des informations. Depuis une mise à jour de sa politique relative aux organismes et individus dangereux datant du 29 décembre 2023, Meta utilise désormais le terme « glorification » à la place du terme « éloge » dans son standard de la communauté.
Le Conseil a également recommandé à Meta d’« évaluer l’exactitude des équipes d’examen qui appliquent l’autorisation d’informer en vertu de la politique relative aux organismes et individus dangereux afin d’identifier les problèmes systémiques à l’origine des erreurs de mise en application, » (Mention des talibans dans les informations d’actualité, recommandation n° 5). Meta a témoigné de la mise en œuvre de cette recommandation, mais n’a pas publié d’informations pour en donner la preuve.
En ce qui concerne la modération automatisée, le Conseil a appelé Meta à mettre en œuvre une procédure d’audit interne pour analyser en permanence un échantillon statistiquement représentatif des décisions de suppression automatisées afin de rectifier les erreurs de modération et d’en tirer des leçons (Symptômes du cancer du sein et nudité, recommandation n° 5). Meta a témoigné de la mise en application de cette recommandation.
Le Conseil est convaincu du fait que l’observation de toutes ces recommandations pourrait réduire le nombre d’erreurs d’application de la politique de Meta sur les organismes et individus dangereux.
Décision
Le Conseil a annulé la décision initiale de Meta visant à supprimer le contenu. Le Conseil reconnaît que Meta a corrigé son erreur initiale une fois que le Conseil a porté le cas à son attention.
Retour aux décisions de cas et aux avis consultatifs politiques