Plus de transparence demandée concernant les symboles interdits liés aux groupes haineux

Le Conseil de surveillance a examiné trois cas impliquant des symboles souvent utilisés par des groupes haineux, mais qui peuvent également avoir d’autres utilisations. Le Conseil demande à Meta d’expliquer comment sa liste de symboles désignés dans le cadre des standards de la communauté relatifs aux organisations et individus dangereux est établie et appliquée. Cela permettra d’offrir une plus grande transparence aux utilisateurs.  

Le Conseil s’inquiète de la possibilité d’une application excessive des références aux symboles désignés. Meta devrait développer un système permettant de signaler automatiquement les suppressions massives de contenus non contraires aux règles.  

Le Conseil confirme les décisions de Meta de supprimer les contenus litigieux dans deux des cas et de les laisser en ligne dans le troisième cas.  

À propos des cas 

Meta a signalé au Conseil trois publications Instagram contenant des symboles souvent utilisés par des groupes haineux, mais qui peuvent avoir d’autres utilisations. La première publication comprenait une image montrant une femme, avec les mots « Armée slave » et un symbole Kolovrat sur son voile. Dans la légende, l’utilisatrice a exprimé sa fierté d’être slave et sa volonté de voir son « peuple se réveiller ». 

The second post was a carousel of photographs of a woman wearing an iron cross necklace with a swastika on it and a T-shirt with an AK-47 assault rifle and “Defend Europe”, written in Fraktur font, printed on it. The caption contained the Odal (or Othala) rune, the hashtag #DefendEurope, symbols outlining an M8 rifle and heart emojis.  

Après avoir soumis les deux publications au Conseil, Meta les a supprimées car elles enfreignaient la politique relative aux organisations et individus dangereux.  

La troisième publication est un carrousel de dessins représentant une rune Odal enroulée autour d’une épée, accompagnée d’une citation sur le sang et le destin d’Ernst Jünger, auteur, philosophe et soldat allemand. La légende reprend la citation, relate une partie de l’histoire ancienne de la rune et indique que des reproductions de l’image sont en vente. Meta a conclu que cette publication n’enfreignait aucune de ses règles. 

Principaux constats 

La majorité des membres du Conseil estime que le symbole Kolovrat glorifie le nationalisme blanc. Une minorité conteste tout lien automatique entre la fierté slave et le nationalisme blanc. Le Conseil estime que la publication sur la défense de l’Europe glorifie la suprématie blanche. Les deux publications doivent être supprimées pour violation de la politique relative aux organisations et individus dangereux. Conformément à sa politique, Meta supprime tout contenu qui glorifie, soutient ou représente des idéologies incitant à la haine. Meta désigne le nationalisme blanc et la suprématie blanche comme des idéologies haineuses.  

La citation n’enfreint pas cette politique. Meta décrit la rune Odal comme étant visiblement neutre. Il n’y a aucune glorification d’une idéologie haineuse dans cette citation. La publication ne fait pas spécifiquement référence au nazisme ni à aucune autre idéologie haineuse désignée. 

Les décisions de Meta étaient conformes à ses responsabilités en matière de droits humains. Pour la majorité, les indices contextuels de la publication contenant le symbole de Kolovrat, notamment les références claires au nationalisme et à l’armée slave, peuvent être interprétés comme susceptibles d’inciter les adeptes à commettre des actes violents. Il convient donc de le supprimer. Une minorité n’est pas d’accord, estimant que la publication ne présentait pas de risque direct d’incitation à un préjudice imminent ou probable.   

Le Conseil estime que la suppression de la publication sur la défense de l’Europe est nécessaire et proportionnée pour prévenir tout risque de discrimination immédiate. Cette publication contient de multiples indices contextuels glorifiant certaines idéologies haineuses. Sa suppression est nécessaire et proportionnée pour empêcher que les plateformes de Meta ne soient utilisées de manière abusive pour organiser et inciter à la violence ou à l’exclusion.  

Laisser la citation était justifié, car son contenu ne fait pas référence à une idéologie haineuse particulière et fournit davantage de contexte autour de l’œuvre utilisée.  

Le Conseil réitère ses préoccupations concernant le manque de transparence entourant les processus de désignation dans le cadre du niveau 1 de la politique relative aux organisations et individus dangereux, car cela ne permet pas aux utilisateurs de comprendre quelles entités, idéologies et symboles associés ils peuvent partager. Meta devrait faire preuve d’une plus grande transparence concernant les symboles désignés, en particulier ceux associés à des entités ou idéologies haineuses désignées, en mettant en place un processus mondial, itératif et fondé sur des preuves. Meta devrait publier une explication claire de ses processus et critères pour désigner les symboles et les mesures coercitives à leur encontre.  

Le Conseil s’inquiète de la possibilité d’une application excessive des références aux symboles désignés. Meta ne collecte pas suffisamment de données détaillées sur ses pratiques en matière d’application de la loi dans ce domaine. Meta a déclaré au Conseil que sa définition interne du terme « référence » était plus large que la définition de « référence imprécise » figurant dans sa politique publique. Meta devrait rendre publique la définition interne du terme « références » et définir ses sous-catégories, afin d’assurer la clarté et l’accessibilité pour les utilisateurs. 

Décision du Conseil de surveillance 

Le Conseil de surveillance confirme les décisions de Meta de supprimer le contenu dans les premier et deuxième cas et de laisser le contenu dans le troisième cas.  

Le Conseil recommande à Meta de : 

  • Rendre publique la définition interne du terme « références » et définir ses sous-catégories dans le cadre des standards de la communauté relatifs aux organisations et individus dangereux. 
  • Établir un processus pour déterminer l’ajout des symboles désignés aux groupes appropriés, et la mettre à jour régulièrement pour garantir qu’elle couvre tous les symboles pertinents à l’échelle mondiale, en retirant ceux qui ne répondent plus aux critères publiés. 
  • Développer un système permettant d’identifier et de signaler automatiquement les cas où des symboles désignés entraînent des « pics » suggérant qu’un volume important de contenu non illicite est supprimé. 
  • Publier une explication claire de la manière dont Meta crée et applique sa liste de symboles désignés dans le cadre des standards de la communauté relatifs aux organisations et individus dangereux.  

Plus d’informations

Pour lire les commentaires publics sur ce cas, cliquez ici.

Retour Aux Actualités