Renversé
Circonscription fédérale au Nigeria
8 décembre 2023
Un utilisateur a fait appel de la décision de Meta de supprimer une publication Facebook qui comporte une image de l’homme politique nigérian Yusuf Gagdi, avec une légende faisant référence à une circonscription fédérale au Nigeria.
Il s’agit d’un résumé de la décision. Les résumés des décisions examinent les cas où Meta est revenue sur sa décision initiale concernant un élément de contenu après que le Conseil a porté l’affaire à l’attention de l’entreprise. Ces décisions comprennent des informations sur les erreurs reconnues de Meta. Elles sont approuvées par un groupe de membres du Conseil, et non par le Conseil tout entier. Elles n’impliquent pas de processus de commentaires publics et n’ont pas valeur de précédent pour le Conseil. Les résumés des décisions assurent la transparence des corrections apportées par Meta et mettent en évidence les domaines dans lesquels l’entreprise pourrait améliorer l’application de sa politique.
Résumé du cas
Un utilisateur a fait appel de la décision de Meta de supprimer une publication Facebook qui comporte une image de l’homme politique nigérian Yusuf Gagdi, avec une légende faisant référence à une circonscription fédérale au Nigeria. La suppression était apparemment basée sur le fait que les initiales de la circonscription nigériane (PKK) sont également utilisées pour désigner une organisation terroriste en Turquie, bien que les deux entités n’aient rien à voir l’une avec l’autre. Ce cas met en évidence le fait que l’entreprise a appliqué de manière trop sévère sa politique relative aux organismes et aux individus dangereux. Cela peut avoir des répercussions sur la capacité des utilisateurs et des utilisatrices à faire et à partager des commentaires politiques, ce qui constitue une violation de leur liberté d’expression. Après que le Conseil a porté l’appel à l’attention de Meta, l’entreprise est revenue sur sa décision initiale et a restauré la publication.
Description du cas et contexte
En juillet 2023, un utilisateur Facebook a publié une photo de l’homme politique nigérian Yusuf Gagdi, avec la légende “Rt Hon Yusuf Gagdi OON member of the house of reps PKK” (Le très honorable Yusuf Gagdi, Officier de l’Ordre du Nigeria, membre de la Chambre des représentants pour le PKK). M. Gagdi est un représentant de la Chambre des représentants fédérale du Nigeria issu de la circonscription fédérale de Pankshin/Kanam/Kankede de l’État de Plateau. La circonscription englobe trois zones, auxquelles l’utilisateur fait référence en abrégeant leurs noms complets en PKK. Cependant, le PKK est également l’alias du Parti des travailleurs du Kurdistan, une organisation considérée comme dangereuse.
Meta a commencé par supprimer la publication de Facebook, invoquant sa politique relative aux organismes et aux individus dangereux, en vertu de laquelle l’entreprise supprime les types de contenu qui « glorifient », « soutiennent techniquement » ou « représentent » des organismes et des individus qu’elle considère comme dangereux.
Dans son appel au Conseil, l’utilisateur a déclaré que la publication comportait une image d’un représentant démocratiquement élu d’une circonscription fédérale du Nigeria présentant une motion à la Chambre et que cette publication n’enfreignait pas les Standards de la communauté de Meta.
Après que le Conseil a porté ce cas à l’attention de Meta, l’entreprise a déterminé que la suppression de la publication était injustifiée parce qu’elle ne faisait nullement référence à un organisme ou à un individu dangereux, et a restauré le contenu.
Autorité et champ d’application du Conseil
Le Conseil jouit de l’autorité nécessaire pour examiner la décision de Meta à la suite d’un appel interjeté par la personne dont le contenu a été supprimé (article 2, section 1 de la Charte ; article 3, section 1 des Statuts).
Lorsque Meta reconnaît avoir commis une erreur et revient sur sa décision dans un cas soumis à l’examen du Conseil, ce dernier peut décider de ne statuer que sommairement sur ce cas (article 2, section 2.1.3 des Statuts). Le Conseil réexamine la décision initiale afin de mieux comprendre les processus de modération de contenu impliqués, de réduire les erreurs et d’accroître l’équité pour les personnes qui utilisent Facebook et Instagram.
Importance du cas
Ce cas met en évidence une faille dans les pratiques de modération de Meta relatives à sa politique sur les organismes et les individus dangereux. Ces erreurs peuvent engendrer des violations de la liberté d’expression des utilisateurs et des utilisatrices.
Le Conseil a émis plusieurs recommandations au sujet de la politique relative aux organismes et aux individus dangereux. Il conseille notamment d’« évaluer les procédures de modération automatisées pour la mise en application de la politique sur les individus et les organismes dangereux », que Meta a refusé de mettre en œuvre (recommandation n° 2 de la décision Isolement d’Öcalan). Le Conseil a également recommandé à Meta d’« implémente[r] une procédure d’examen interne pour analyser continuellement un échantillon statistiquement représentatif des décisions de suppression de contenu automatisées afin d’annuler les erreurs de modération et d’en tirer des leçons » (recommandation n° 5 de la décision sur les Symptômes du cancer du sein et nudité). Meta a expliqué qu’elle travaillait déjà sur cette recommandation, mais n’a pas publié d’informations afin d’en prouver la mise en place.
Décision
Le Conseil a annulé la décision initiale de Meta visant à supprimer le contenu. Le Conseil reconnaît que Meta a corrigé son erreur initiale une fois que le Conseil a porté le cas à l’attention de l’entreprise. Le Conseil encourage également Meta à accélérer la mise en œuvre des recommandations restantes pour limiter ce type d’erreurs.
Retour aux décisions de cas et aux avis consultatifs politiques