Renversé
Dessin sur le coup d’État au Niger
8 décembre 2023
Un utilisateur a fait appel de la décision de Meta de supprimer une publication Facebook sur le coup d’État militaire au Niger.
Il s’agit d’un résumé de la décision. Les résumés des décisions examinent les cas où Meta est revenue sur sa décision initiale concernant un élément de contenu après que le Conseil a porté l’affaire à l’attention de l’entreprise. Ces décisions comprennent des informations sur les erreurs reconnues de Meta. Elles sont approuvées par un groupe de membres du Conseil, et non par le Conseil tout entier. Elles n’impliquent pas de processus de commentaires publics et n’ont pas valeur de précédent pour le Conseil. Les résumés des décisions assurent la transparence des corrections apportées par Meta et mettent en évidence les domaines dans lesquels l’entreprise pourrait améliorer l’application de sa politique.
Résumé du cas
Un utilisateur a fait appel de la décision de Meta de supprimer une publication Facebook sur le coup d’État militaire au Niger. Ce cas met en évidence les erreurs de Meta en matière de modération de contenu, y compris celles de ses systèmes automatisés lorsqu’il s’agit de détecter des discours haineux. Après que le Conseil a porté l’appel à l’attention de Meta, l’entreprise est revenue sur sa décision initiale et a restauré la publication.
Description du cas et contexte
En juillet 2023, un utilisateur Facebook en France a publié un dessin de style « cartoon » représentant la botte d’un militaire avec la mention « Niger », qui donne un coup de pied à une personne portant une robe et un chapeau rouge. Les contours géographiques de l’Afrique sont représentés sur la robe. Plus tôt ce mois-là, le Niger a été le théâtre d’un coup d’État militaire lorsque le général Abdourahamane Tchiani a pris le pouvoir avec l’aide de la garde présidentielle qu’il dirigeait, a renversé le président Mohamed Bazoum et s’est autoproclamé chef du pays.
Meta a initialement supprimé la publication de Facebook, citant sa politique relative au discours haineux, en vertu de laquelle l’entreprise supprime le contenu qui comprend des attaques de personnes sur la base d’une caractéristique protégée, y compris la représentation de violence à l’encontre de ces groupes.
Après que le Conseil a porté ce cas à l’attention de Meta, l’entreprise a déterminé que le contenu n’enfreignait pas la politique relative au discours haineux et que sa suppression était injustifiée. L’entreprise a ensuite restauré le contenu sur Facebook.
Autorité et champ d’application du Conseil
Le Conseil jouit de l’autorité nécessaire pour examiner la décision de Meta à la suite d’un appel interjeté par la personne dont le contenu a été supprimé (article 2, section 1 de la Charte ; article 3, section 1 des Statuts).
Lorsque Meta reconnaît avoir commis une erreur et revient sur sa décision dans un cas soumis à l’examen du Conseil, ce dernier peut décider de ne statuer que sommairement sur ce cas (article 2, section 2.1.3 des Statuts). Le Conseil réexamine la décision initiale afin de mieux comprendre les processus de modération de contenu impliqués, de réduire les erreurs et d’accroître l’équité pour les personnes qui utilisent Facebook et Instagram.
Importance du cas
Ce cas met en évidence les imprécisions des systèmes de modération de Meta qui détectent les discours haineux. Le Conseil a émis des recommandations sur l’amélioration de l’automatisation et de la transparence, y compris en encourageant Meta à « mettre en œuvre une procédure d’audit interne pour analyser en permanence un échantillon statistiquement représentatif des décisions de suppression automatisées, afin d’annuler les erreurs de modération et d’en tirer des leçons » ( recommandation n° 5 de la décision Symptômes du cancer du sein et nudité). Meta a indiqué avoir mis en œuvre cette recommandation, mais n’a pas encore publié d’informations à ce sujet pour prouver qu’elle l’avait fait.
Décision
Le Conseil a annulé la décision initiale de Meta visant à supprimer le contenu. Le Conseil reconnaît que Meta a corrigé son erreur initiale une fois que le Conseil a porté le cas à l’attention de l’entreprise. Le Conseil encourage également Meta à accélérer la mise en œuvre des recommandations restantes pour limiter ce type d’erreurs.
Retour aux décisions de cas et aux avis consultatifs politiques