Renversé
Suppression d’une publication sur Azov
8 décembre 2023
Un utilisateur a fait appel de la décision de Meta de supprimer une publication Instagram qui demandait « where is Azov? » (où est Azov ?) en Ukrainien. La légende de la publication appelle à la libération des soldats du régiment Azov prisonniers de la Russie.
Il s’agit d’un résumé de la décision. Les résumés des décisions examinent les cas où Meta est revenue sur sa décision initiale concernant un élément de contenu après que le Conseil a porté l’affaire à l’attention de l’entreprise. Ces décisions comprennent des informations sur les erreurs reconnues de Meta. Elles sont approuvées par un groupe de membres du Conseil, et non par le Conseil tout entier. Elles n’impliquent pas de processus de commentaires publics et n’ont pas valeur de précédent pour le Conseil. Les résumés des décisions assurent la transparence des corrections apportées par Meta et mettent en évidence les domaines dans lesquels l’entreprise pourrait améliorer l’application de sa politique.
Résumé du cas
Un utilisateur a fait appel de la décision de Meta de supprimer une publication Instagram qui demandait « where is Azov? » (où est Azov ?) en Ukrainien. La légende de la publication appelle à la libération des soldats du régiment Azov prisonniers de la Russie. Après que le Conseil a porté l’appel à l’attention de Meta, l’entreprise est revenue sur sa décision initiale et a restauré la publication.
Description du cas et contexte
En décembre 2022, un utilisateur Instagram a créé une publication avec l’image d’un symbole du régiment Azov. Par-dessus le symbole était affichée une légende en Ukrainien : « where is Azov? » (où est Azov ?) La légende indiquait que plus de 700 soldats Azov étaient encore prisonniers de la Russie, leur état étant inconnu. L’utilisateur appelle à leur libération, déclarant : « we must scream until all the Azovs are back from captivity! » (Nous devons hurler jusqu’à ce que tous les soldats Azov soient de retour de captivité !)
L’utilisateur a fait appel de la suppression de la publication, insistant sur l’importance du partage d’informations en temps de guerre. L’utilisateur a également mis en évidence le fait que le contenu n’enfreignait pas les politiques de Meta puisque Meta autorise les publications qui commentent au sujet du régiment Azov. La publication a été vue près de 800 fois et a été détectée par les systèmes automatisés de Meta.
Meta a d’abord supprimé la publication de Facebook, invoquant sa politique relative aux organismes et aux individus dangereux, qui interdit les types de contenu qui « glorifient », « soutiennent techniquement » ou « représentent » des individus et des organismes qu’elle considère comme dangereux. Cependant, Meta autorise « les discussions sur les droits de l’homme d’individus ou de membres désignés d’entités dangereuses désignées, sauf si le contenu inclut des éloges, des soutiens techniques ou des représentations de ces entités désignées ou d’autres infractions aux règlements, comme l’incitation à la violence ».
Meta a dit au Conseil qu’elle avait retiré le régiment Azov de sa liste d’organismes et d’individus dangereux en janvier 2023. Un article du Washington Post indique que Meta fait désormais la distinction entre le régiment Azov, qu’elle considère comme étant sous le contrôle officiel du gouvernement ukrainien, et d’autres éléments du mouvement Azov au sens large, dont certains sont toujours considérés par l’entreprise comme des nationalistes d’extrême-droite et comme étant dangereux.
Après que le Conseil a porté ce cas à l’attention de Meta, l’entreprise a déterminé que la suppression était injustifiée et a restauré le contenu sur Instagram. L’entreprise a reconnu que le régiment Azov ne figurait plus sur sa liste d’organismes dangereux. En outre, Meta a reconnu que, quelle que fût la manière dont était considéré le régiment Azov, cette publication était couverte par l’exception qui autorise les références aux organismes et aux individus dangereux lorsque la discussion cible les droits humains des individus et des membres d’entités désignées.
Autorité et champ d’application du Conseil
Le Conseil jouit de l’autorité nécessaire pour examiner la décision de Meta à la suite d’un appel interjeté par la personne dont le contenu a été supprimé (article 2, section 1 de la Charte ; article 3, section 1 des Statuts).
Lorsque Meta reconnaît avoir commis une erreur et revient sur sa décision dans un cas soumis à l’examen du Conseil, ce dernier peut décider de ne statuer que sommairement sur ce cas (article 2, section 2.1.3 des Statuts). Le Conseil réexamine la décision initiale afin de mieux comprendre les processus de modération de contenu impliqués, de réduire les erreurs et d’accroître l’équité pour les personnes qui utilisent Facebook et Instagram.
Importance du cas
Ce cas met en évidence les lacunes de Meta en matière de mise à jour et d’application de sa liste d’organismes et d’individus dangereux, ce qui est source de préoccupations encore plus vives en temps de guerre. Le cas illustre également les défis systémiques que doit relever Meta lorsqu’il s’agit de respecter les exceptions à sa politique relative aux organismes et aux individus dangereux.
Précédemment, le Conseil a émis une recommandation sur le fait que la politique de Meta relative aux organismes et aux individus dangereux devait autoriser les utilisateurs et les utilisatrices à discuter des violations présumées des droits humains des membres d’organismes dangereux (recommandation n° 5 de la décision sur l’Isolement d’Öcalan), que Meta s’est engagée à mettre en œuvre. En outre, le régiment Azov a été retiré de la liste d’organismes et d’individus dangereux de Meta en janvier 2023. Le Conseil a émis une recommandation selon laquelle, lorsqu’une quelconque nouvelle politique est adoptée, des conseils internes et des formations doivent être dispensés aux équipes de modération de contenu (recommandation n° 8 de la décision sur l’Isolement d’Öcalan). Le Conseil a également émis des recommandations sur l’exactitude de l’application des politiques de Meta, appelant l’entreprise à faire preuve de plus de transparence quant au taux d’erreurs de modération sur les « éloges » et le « soutien » aux organismes et aux individus dangereux (recommandation n° 12 de la décision sur l’Isolement d’Öcalan) et à mettre en œuvre une procédure d’audit interne pour tirer des leçons des erreurs de modération automatisées (recommandation n° 5 de la décision sur les Symptômes du cancer du sein et nudité). La mise en œuvre de ces recommandations dans leur intégralité pourrait aider Meta à réduire le nombre d’erreurs de modération liées à des contenus similaires.
Décision
Le Conseil a annulé la décision initiale de Meta visant à supprimer le contenu. Le Conseil reconnaît que Meta a corrigé son erreur initiale une fois que le Conseil a porté le cas à son attention.
Retour aux décisions de cas et aux avis consultatifs politiques