Décision sur plusieurs affaires
Symboles adoptés par des organisations dangereuses
12 juin 2025
Le Conseil de surveillance a examiné trois cas relatifs à des symboles qui sont souvent utilisés par des groupes d’incitation à la haine, mais qui peuvent aussi être employés dans d’autres circonstances.
3 cas inclus dans ce lot
IG-AA9USQEN
Cas relatif à des personnes et organisations dangereuses sur Instagram
IG-L1R2T55W
Cas relatif à des personnes et organisations dangereuses sur Instagram
IG-GF7BT9ST
Cas relatif à des personnes et organisations dangereuses sur Instagram
Résumé
Le Conseil de surveillance a examiné trois cas relatifs à des symboles qui sont souvent utilisés par des groupes d’incitation à la haine, mais qui peuvent aussi être employés dans d’autres circonstances. Le Conseil appelle Meta à expliquer comment elle établit et fait respecter sa liste de symboles désignés au titre de son standard de la communauté sur les organismes et les individus dangereux. Ces explications offriraient plus de transparence aux utilisateurs.
Le Conseil s’inquiète d’une potentielle surmodération des références aux symboles associés aux organismes et aux individus dangereux. Meta devrait mettre au point un système automatique qui détecterait lorsque du contenu autorisé est supprimé à grande échelle.
Le Conseil confirme les décisions de Meta de supprimer le contenu en infraction dans deux des cas et de conserver le contenu dans le troisième cas.
À propos des cas
Meta a transmis au Conseil trois publications Instagram relatives à des symboles qui sont souvent utilisés par des groupes d’incitation à la haine, mais qui peuvent être utilisés dans d’autres contextes. La première d’entre elles comprenait l’image d’une femme, avec les mots « Slavic Army » (Armée slave) et un kolovrat en superposition sur l’accessoire qui lui masquait le visage. Dans la légende, l’utilisateur exprimait sa fierté d’être slave et espérait que « people will wake up » (les gens allaient se réveiller).
La deuxième publication était un carrousel de photos d’une femme avec un pendentif en forme de croix de fer et de swastika ainsi qu’un t-shirt, avec un AK-47 et le slogan « Defend Europe » (Défendez l’Europe) en écriture Fraktur imprimés dessus. La légende contenait la rune Odal (ou Ōþalan), le hashtag #DefendEurope, des symboles représentant un fusil d’assaut (M8) et des emojis en forme de cœur.
Après avoir transmis les deux publications au Conseil, Meta les a supprimées parce qu’elles enfreignaient sa politique sur les organismes et les individus dangereux.
La troisième publication était un carrousel de dessins d’une rune Odal autour d’une épée, avec une citation sur le sang et le destin d’Ernst Jünger, un auteur, philosophe et soldat allemand. La légende répète la citation, présente brièvement les origines historiques de la rune et indique que des impressions de l’image sont disponibles à la vente. Meta a conclu que cette publication ne violait aucune de ses règles.
Principales conclusions
La majorité du Conseil estime que la publication avec le kolovrat glorifie le nationalisme blanc. Une minorité considère qu’il n’y a pas forcément de lien entre la fierté slave et le nationalisme blanc. Le Conseil juge que la publication avec le slogan « Defend Europe » était à la gloire du suprémacisme blanc. Les deux publications auraient dû être supprimées pour infraction à la politique sur les organismes et les individus dangereux. Conformément à la justification de cette politique, Meta supprime le contenu qui glorifie, soutient ou représente des idéologies qui incitent à la haine. L’entreprise considère le nationalisme blanc et le suprémacisme blanc comme des idéologies de haine.
La publication avec la citation n’enfreint pas ladite politique. Elle semble décrire la rune Odal dans des termes neutres et ne glorifie aucune idéologie de haine. La publication ne fait pas référence au nazisme ni à une quelconque autre idéologie considérée comme haineuse.
Les décisions de Meta étaient cohérentes avec ses responsabilités en matière de droits humains. Selon la majorité du Conseil, les éléments de contexte de la publication avec le kolovrat, notamment les références univoques au nationalisme slave et à l’armée slave, peuvent être interprétées comme des incitations à faire preuve de violence, et le contenu devrait être supprimé. Une minorité ne partage toutefois pas cet avis : elle estime que la publication ne risque pas directement d’entraîner des préjudices imminents ou probables.
Le Conseil juge nécessaire et proportionnée la suppression de la publication avec le slogan « Defend Europe » afin de prévenir les risques de discrimination immédiate. Elle contient plusieurs éléments de contexte qui glorifient des idéologies de haine désignées. Sa suppression est nécessaire et proportionnée à un objectif légitime de Meta, celui d’empêcher l’utilisation abusive de ses plateformes pour organiser des actes de violence ou d’exclusion, ou pour y inciter.
Il était justifié de conserver la publication avec la citation puisque le contenu ne fait pas référence à une idéologie considérée comme haineuse et qu’il fournit du contexte sur la représentation artistique de l’utilisateur.
Le Conseil fait de nouveau part de ses préoccupations quant au manque de transparence relatif à la procédure de désignation des organismes et des individus dangereux de niveau 1 de la politique, à cause duquel les utilisateurs ne peuvent que difficilement comprendre à propos de quels entités, idéologies et symboles connexes ils sont autorisés à publier. Meta devrait communiquer avec plus de transparence au sujet des symboles désignés, en particulier de ceux qui sont associés aux entités ou aux idéologies désignées qui incitent à la haine, et mettre au point une procédure itérative et mondiale qui s’appuie sur des preuves. Elle devrait publier une explication claire des procédures et des critères qui lui permettent d’établir sa liste de symboles désignés et de mesures de modération correspondantes.
Le Conseil s’inquiète d’une potentielle surmodération des références aux symboles désignés. Meta ne recueille pas de données suffisamment précises sur ses pratiques de modération en la matière. Elle a informé le Conseil que sa définition interne de « référence » était plus large que celle de « référence équivoque » dans sa politique publique. Meta devrait communiquer au public sa définition interne de « références » et définir ses sous-catégories afin que celles-ci soient claires et compréhensibles pour les utilisateurs.
Décision du Conseil de surveillance
Le Conseil de surveillance a confirmé les décisions de Meta de supprimer le contenu des premier et deuxième cas, et de conserver celui du troisième cas.
Le Conseil recommande à Meta ce qui suit :
- Rendre publique sa définition interne de « références » et définir ses sous-catégories au titre du standard de la communauté sur les organismes et les individus dangereux.
- Mettre au point une procédure pour déterminer comment les symboles désignés sont associés aux groupes et à quel groupe chaque symbole désigné est associé, et auditer régulièrement tous les symboles désignés afin de s’assurer que la liste reprend tous les symboles pertinents dans le monde entier et de supprimer ceux qui ne répondent plus aux critères publiés.
- Développer un système qui identifie et signale automatiquement les cas où des symboles désignés entraînent des « pics » qui suggèrent qu’un grand volume de contenu autorisé est supprimé.
- Publier une explication claire de la manière dont elle établit et fait respecter sa liste de symboles désignés au titre de son standard de la communauté sur les organismes et les individus dangereux.
* Les résumés de cas donnent un aperçu des cas et n’ont pas valeur de précédent.
Décision complète sur les cas
- Description des cas et contexte
En novembre 2024, Meta a transmis au Conseil trois publications Instagram relatives à des symboles qui sont souvent utilisés par les groupes d’incitation à la haine, mais qui peuvent également être employés dans d’autres circonstances.
La première publication, qui date d’avril 2016, concernait l’image d’une femme blonde dont la partie inférieure du visage était couverte d’une écharpe. Les mots « Slavic Army » (Armée slave) et un kolovrat étaient inscrits en superposition sur le tissu. Le kolovrat est un type de swastika utilisé par les néonazis et certains néopaïens. Dans la légende, l’utilisateur exprimait sa fierté d’être slave et expliquait que le kolovrat était un symbole de foi, de guerre, de paix, de haine et d’amour. Il espérait que « people will wake up » (les gens allaient se réveiller) et disait qu’il allait poursuivre « their dreams to the death » (ses rêves jusqu’à sa mort). La publication a été visionnée moins d’une centaine de fois et a suscité moins de 500 réactions et moins de 50 commentaires. Lorsque Meta a sélectionné ce contenu pour le transmettre au Conseil, les spécialistes en politiques de l’entreprise ont jugé que la publication enfreignait ses règles sur les organismes et les individus dangereux, et ils l’ont supprimée.
La deuxième publication, datée d’octobre 2024, était un carrousel de selfies. Les photos représentaient une femme blonde dans différentes poses. Elle portait un pendentif en forme de croix de fer et de swastika ainsi qu’un t-shirt, avec un AK-47 et le slogan « Defend Europe » en écriture Fraktur imprimés dessus. La légende contenait la rune Odal (ou Ōþalan), le hashtag #DefendEurope, des symboles représentant un fusil d’assaut (M8), un emoji en forme de biceps contracté et des emojis en forme de cœur. La rune Odal est une lettre de l’alphabet runique qui était utilisé dans de nombreuses régions d’Europe avant d’être remplacé par l’alphabet latin au septième siècle. Les nazis se la sont appropriée, et elle est désormais utilisée par les néonazis et d’autres suprémacistes blancs pour représenter les idées liées à ce qu’ils qualifient de « race aryenne ». La publication a été visionnée quelque 3000 fois et a suscité moins de 500 réactions et moins de 50 commentaires. Après que l’entreprise a décidé de transmettre ce cas au Conseil, les spécialistes en politiques de Meta ont également jugé que la publication violait ses règles sur les organismes et les individus dangereux et l’ont supprimée de la plateforme.
La troisième publication comprenait elle aussi un carrousel d’images. Publiées en février 2024, celles-ci étaient des dessins d’une rune Odal autour d’une épée, avec une citation sur le lien qui unit le sang et le destin d’Ernst Jünger, un auteur, philosophe et soldat allemand qui a participé aux première et seconde guerres mondiales. Nationaliste allemand, Jünger était un opposant au parti nazi. La légende répète la citation avant de présenter les origines historiques de la rune, mais ne mentionne pas son appropriation par les nazis et les néonazis. La légende se termine par une description de la rune comme d’un symbole d’« heritage, homeland, and family » (héritage, patrie et famille), puis indique que des impressions de l’image sont disponibles à la vente. La publication a été visionnée quelque 25 000 fois et a suscité moins de 1000 réactions et moins de 50 commentaires. Après que Meta a sélectionné le contenu pour le transmettre au Conseil, les spécialistes en politiques de Meta ont conclu que cette troisième publication n’enfreignait aucune de ses règles.
2. Soumissions de l’utilisateur
Les auteurs des publications ont été avertis de l’examen du Conseil et ont eu la possibilité d’envoyer une déclaration. Aucun utilisateur n’en a envoyé.
3. Politiques de Meta relatives au contenu et soumissions
I. Politiques de Meta relatives au contenu
La politique de Meta sur les organismes et les individus dangereux s’efforce « d’éviter et d’empêcher tout danger réel ». Dans la justification de cette politique, Meta indique qu’elle supprime les contenus qui « glorifient, soutiennent ou représentent des idéologies qui incitent à la haine », également qualifiées d’idéologies de haine dans la politique. Ces idéologies de haine font partie des infractions de niveau 1 de la politique de Meta, celles qui entraînent les sanctions les plus sévères, car Meta estime que les entités et les personnes de niveau 1 ont « les liens les plus directs avec le préjudice hors ligne ».
Meta explique que cela désigne les idéologies interdites, répertoriées dans la politique comme « le nazisme, la suprématie blanche, le nationalisme blanc [et] le séparatisme blanc », celles-ci étant « intrinsèquement liées à la violence » et « aux tentatives de rassembler des personnes autour d’appels à la violence ou à l’exclusion d’autres personnes sur la base de leurs caractéristiques protégées ». Directement sous cette liste, l’entreprise déclare supprimer « les glorifications, les soutiens et les représentations explicites de ces idéologies ».
Meta supprime la glorification des entités et des idéologies de niveau 1. La glorification est notamment définie comme la « légitimation ou la défense des actes violents ou haineux d’une entité désignée en affirmant qu’ils revêtent une justification morale, politique, logique ou autre les rendant acceptables ou raisonnables » ou la « caractérisation ou la célébration de la violence ou de la haine d’une entité désignée comme une réalisation ou un accomplissement ».
Selon le niveau 1 de la politique, Meta supprime également les « références équivoques », ce qui « inclut l’humour équivoque et les références positives ou sans légende qui ne glorifient pas les actes de violence ou de haine perpétrés par l’entité désignée ». Meta déclare par deux fois supprimer les « références équivoques » aux idéologies fondées sur la haine : dans la justification de la politique, puis dans la description des organisations de niveau 1.
La politique autorise les utilisateurs à apporter des informations, à discuter en toute neutralité ou à condamner les personnes ou les organisations dangereuses ou leurs activités dans le cadre d’un « discours social et politique ». Dans la justification de la politique, Meta exige des utilisateurs qu’ils « indique[nt] clairement leur intention » lorsqu’ils créent ou partagent un tel contenu. Si l’intention de l’utilisateur est « ambiguë ou peu claire », Meta supprime le contenu par défaut.
II. Soumissions de Meta
Meta a jugé que les deux premières publications (avec le kolovrat et le slogan « Defend Europe ») enfreignaient la politique sur les organismes et les individus dangereux, tandis que le troisième contenu (avec la citation) ne la violait pas.
En réponse aux questions du Conseil, Meta a expliqué que les symboles associés aux entités ou aux idéologies de niveau 1 étaient répartis en trois groupes. Ces groupes déterminent la manière dont l’entreprise examine les publications et les mesures qui peuvent être prises en conséquence. Le premier groupe est constitué d’une très courte liste de symboles de « notoriété publique », des alias bien connus des entités désignées, qui les utilisent « régulièrement et massivement ». Les équipes de modération à grande échelle considèrent que les symboles du premier groupe violent intrinsèquement la politique sur les organismes et les individus dangereux.
Beaucoup plus large, le deuxième groupe rassemble les symboles qui sont généralement utilisés dans le cadre d’une entité ou d’une idéologie désignées. À grande échelle, Meta considère que ces symboles violent ses règles. Ainsi, le kolovrat de la première publication répond à la définition du deuxième groupe.
Le troisième groupe est constitué d’une très brève liste de symboles qui sont associés à des entités désignées, mais qui sont aussi utilisés couramment dans des contextes bénins. Meta fait évaluer ces symboles-là par ses équipes spécialisées (lors d’une remontée) pour prévenir les risques de surmodération et considère qu’ils enfreignent ses règles uniquement lorsque le contexte laisse penser que le symbole est utilisé en référence à une idéologie désignée. Ce groupe inclut la rune Odal concernée dans les deuxième et troisième cas.
En ce qui concerne les mesures prises à l’encontre des symboles des trois groupes lorsqu’ils sont partagés pour glorifier, soutenir ou représenter une entité ou une idéologie désignées, Meta supprime la publication et applique une pénalité au compte de l’utilisateur. Meta supprime les publications et applique une pénalité aussi lorsqu’un symbole du premier groupe est l’objet principal d’une image publiée sans contexte ni légende. Lorsqu’un symbole du premier groupe ne s’accompagne d’aucun contexte ni d’aucune légende, mais qu’il n’est pas l’objet principal de la publication, celle-ci est supprimée en raison de son équivocité, mais aucune pénalité n’est appliquée. Lorsqu’un symbole du deuxième groupe est partagé sans contexte ni légende, qu’il soit l’objet principal du contenu ou non, il est supprimé en raison de son équivocité sans qu’aucune pénalité soit appliquée. Cette dernière mesure est également prise lorsqu’un symbole du troisième groupe est publié sans contexte ni légende.
L’entreprise a indiqué que le kolovrat était supprimé à grande échelle pour violation, sauf lorsqu’il était utilisé dans un contexte acceptable, comme dans le cadre d’un discours social ou politique. Meta a estimé que la publication avec le kolovrat faisait référence au nationalisme blanc, une idéologie qualifiée de haineuse. Meta a jugé que l’expression « Slavic pride » (fierté slave) « cherchait à véhiculer le chauvinisme raciste du nationalisme blanc ». Compte tenu des références univoques du contenu au nationalisme slave et à l’armée slave, ainsi que de ses mentions militaristes, l’entreprise a conclu que le symbole était utilisé en référence à l’idéologie néonazie qui émane des croyances dans le suprémacisme slave.
Meta autorise la rune Odal, à moins que ses équipes spécialisées ne concluent (lors d’une remontée) que le symbole est utilisé dans un contexte d’incitation à la haine. L’entreprise a estimé que, dans la publication avec le slogan « Defend Europe », la rune Odal avait été partagée dans un contexte qui permettait de comprendre que la rune était utilisée pour glorifier le suprémacisme blanc. Meta a expliqué que différents signaux avaient aidé ses équipes à déterminer que le symbole était utilisé pour louer la violence d’une idéologie de haine. Cela comprend l’utilisation du hashtag #DefendEurope, souvent employé par les groupes suprémacistes blancs européens ; le fait que l’expression « Defend Europe » en écriture Fraktur et la croix de fer autour du cou de la femme sont associées à la propagande et aux objets nazis ; et les symboles qui représentent un fusil d’assaut (M8) dans la légende, avec les emojis en forme de fusil et de cœur autour de la rune Odal.
Meta a déterminé que la publication avec la citation n’enfreignait pas sa politique sur les organismes et les individus dangereux. L’entreprise a fait remarquer que la rune Odal était accompagnée d’une description neutre de ses origines historiques et de son importance linguistique. Bien qu’il ait été plus difficile d’évaluer la citation de Jünger, Meta a finalement conclu à l’absence d’une indication claire que la rune Odal avait été utilisée en référence au nazisme ou au suprémacisme blanc.
En réponse aux questions du Conseil, Meta a expliqué qu’elle n’avait pas effectué d’audit systémique de ses première et troisième listes de symboles. Quant à sa deuxième liste, l’entreprise la tient à jour. Meta a ajouté qu’elle envisageait de poursuivre le développement de sa politique dans ce sens afin de déterminer plus facilement comment elle pourrait approcher de futurs audits.
Le Conseil lui a posé des questions sur la désignation des symboles et l’application de ses règles connexes. Meta a répondu à toutes les questions.
4. Commentaires publics
Le Conseil de surveillance a reçu 100 commentaires publics qui répondaient aux critères de soumission. Quatre-vingt-quinze d’entre eux provenaient des États-Unis et du Canada, deux de l’Asie centrale et du Sud, deux du Moyen-Orient et d’Afrique du Nord, et un d’Europe. Pour consulter les commentaires publics soumis accompagnés d’un consentement à la publication, cliquez ici.
Les commentaires soumis traitaient des sujets suivants : les approches de la modération des symboles potentiellement haineux ; la nécessité d’autoriser les utilisateurs à fournir plus de contexte sur le contenu potentiellement en infraction ; le besoin de travailler avec des spécialistes externes et des partenaires de confiance ; et des propositions pour axer la formation de l’IA sur l’analyse de combinaisons de signaux.
5. Analyse du Conseil de surveillance
Le Conseil a sélectionné ces cas-ci pour étudier la manière dont Meta devrait modérer les symboles qui peuvent faire la promotion d’organisations dangereuses tout en respectant la liberté d’expression des utilisateurs. Ces cas relèvent de la priorité stratégique du Conseil suivante : Discours incitant à la haine envers des groupes marginalisés.
Le Conseil a examiné les décisions de Meta dans les cas présents, en les comparant à ses politiques relatives au contenu, à ses valeurs et à ses responsabilités en matière de droits humains. Il a également évalué les implications de ce cas-ci sur l’approche plus globale de la gouvernance du contenu par Meta.
5.1 Respect des politiques de Meta relatives au contenu
Le Conseil partage l’avis de Meta selon lequel les publications avec le kolovrat et le slogan « Defend Europe » enfreignaient la politique de l’entreprise sur les organismes et les individus dangereux, tandis que la publication avec la citation ne la violait pas.
Il estime néanmoins que le contenu avec le kolovrat aurait dû être supprimé pour une raison différente de celle qui a été avancée par Meta. En effet, l’entreprise estime que cette publication faisait « référence » à une idéologie de haine, tandis qu’une majorité du Conseil considère qu’elle glorifiait le nationalisme blanc, une idéologie désignée d’incitation à la haine. Les références de l’utilisateur à la fierté slave et à l’armée slave, associées à son espoir que « people will wake up » (les gens se réveillent) et à la déclaration qu’il poursuivrait « their dreams to the death » (ses rêves jusqu’à sa mort), illustrent son intention et correspondent à la définition de glorification qui en est faite au niveau 1 de la politique, en particulier, comme celle-ci le précise, à la « légitimation ou la défense des actes violents ou haineux […] en affirmant qu’ils revêtent une justification morale, politique, logique ou autre les rendant acceptables ». Puisque l’exception relative au « discours social et politique » requiert du contenu qu’il ne reprenne aucune forme de glorification, elle ne peut s’y appliquer.
Une minorité du Conseil ne trouve pas que la première publication était équivoque ni qu’elle glorifiait une idéologie de haine et estime donc qu’elle n’était pas en infraction. Cette minorité considère qu’il n’y a pas forcément de lien entre la fierté slave, un terme empreint de connotations culturelles et historiques, et le nationalisme blanc. Selon elle, la publication aurait également pu profiter de l’exception relative au « discours social et politique ». Sa suppression reflète bien le risque de surmodération associé au fait de supposer systématiquement que la publication fait des « références équivoques », selon les termes de la politique. La minorité invite également Meta à analyser régulièrement l’exactitude et la précision des conséquences de cette règle de la politique sur les suppressions globales et à déterminer si elle doit être restreinte et ajustée.
Le Conseil estime que la publication avec le slogan « Defend Europe » louait la violence du suprémacisme blanc, ce qui constitue une forme de glorification d’une idéologie désignée d’incitation à la haine. La conclusion du Conseil est étayée par les signaux contextuels suivants présents dans le contenu. Bien que ces signaux ne suffisent peut-être pas à conclure à l’existence d’une violation lorsqu’ils sont envisagés séparément, il ne fait aucun doute qu’ils constituent une glorification lorsqu’ils sont considérés ensemble.
- La croix de fer avec un swastika autour du cou de la femme. La croix de fer est une médaille militaire allemande que les nazis se sont appropriée en y ajoutant un swastika. Bien que la médaille ne soit plus remise depuis la deuxième guerre mondiale, les néonazis et les groupes suprémacistes blancs l’ont adoptée en tant que symbole de haine.
- L’utilisation du slogan « Defend Europe », en écriture Fraktur, sur le t-shirt et dans la légende. « Defend Europe » est un slogan utilisé par les suprémacistes blancs et d’autres organisations antimigrants liées à des actes de violence. L’écriture Fraktur est une police parfois associée aux nazis et aux néonazis.
- Le fait que la rune Odal est accompagnée de symboles représentant un fusil d’assaut (M8), et d’emojis en forme de biceps contracté et de cœur.
Puisque la publication contenait des éléments de glorification, le Conseil a jugé que l’exception relative au « discours social et politique » ne lui était pas applicable.
Le Conseil partage l’avis de Meta selon lequel la publication avec la citation n’enfreint pas sa politique sur les organismes et les individus dangereux. La publication semble décrire la rune Odal de manière neutre, sans mention de son appropriation par les nazis, et cherche à vendre une représentation artistique de cette rune. Bien qu’elle contienne une citation d’Ernst Jünger, un nationaliste allemand, les références au destin et au sang de la citation ne constituent pas un acte de glorification, de soutien ou de représentation d’une quelconque idéologie désignée d’incitation à la haine. De manière plus générale, la publication ne fait pas référence au nazisme ni à une quelconque autre idéologie considérée comme haineuse. Elle semble fournir du contexte autour de la représentation artistique, qui inclut la rune Odal. Bien que l’épée puisse être considérée comme un symbole de violence, un seul signal ne suffit pas pour que le contenu constitue une violation.
5.2 Respect des responsabilités de Meta en matière de droits humains
Le Conseil estime que la décision de Meta de supprimer le contenu des premier et deuxième cas et de conserver celui du troisième cas sur sa plateforme était cohérente avec les responsabilités de l’entreprise en matière de droits humains. Une minorité des membres du Conseil était opposée à la suppression de la première publication.
Liberté d’expression (article 19 du PIDCP)
L’article 19 du Pacte international relatif aux droits civils et politiques (PIDCP) protège la liberté d’expression sous de nombreuses formes, y compris le « discours politique », le « commentaire […] des affaires publiques » et l’expression qui peut être considérée comme « profondément offensante » (Observation générale n° 34, paragraphe 11). Lorsque des restrictions de la liberté d’expression sont imposées par un État, elles doivent remplir des critères de légalité, d’objectif légitime, ainsi que de nécessité et de proportionnalité (article 19, paragraphe 3 du PIDCP). Ces exigences sont souvent reprises sous l’intitulé « test tripartite ». Le Conseil s’appuie sur ce test afin d’interpréter les responsabilités de Meta en matière de droits humains conformément aux Principes directeurs relatifs aux entreprises et aux droits de l’homme de l’ONU, que Meta elle-même s’est engagée à respecter dans sa Politique relative aux droits humains. Le Conseil utilise ce test à la fois pour la décision relative au contenu en cours d’examen et pour ce que cela dit de l’approche plus large de Meta en matière de gouvernance du contenu. Comme l’a déclaré le Rapporteur spécial de l’ONU sur la liberté d’expression, même si « les entreprises ne sont pas soumises aux mêmes devoirs que les gouvernements, leur influence est néanmoins telle qu’elle doit les inciter à se poser les mêmes questions qu’eux quant à la protection de la liberté d’expression de leurs utilisateurs » (A/74/486, paragraphe 41).
I. Légalité (clarté et accessibilité des règles)
Le principe de légalité prévoit que les règles qui limitent la liberté d’expression soient accessibles, claires et suffisamment précises pour permettre à un individu d’adapter son comportement en conséquence (Observation générale n° 34, paragraphe 25). En outre, ces règles « ne peu[ven]t pas conférer aux personnes chargées de [leur] application un pouvoir illimité de décider de la restriction de la liberté d’expression » et doivent « énoncer des règles suffisamment précises pour permettre aux personnes chargées de leur application d’établir quelles formes d’expression sont légitimement restreintes et quelles formes d’expression le sont indûment » (Ibid). Le Rapporteur spécial des Nations Unies sur la liberté d’expression a déclaré que lorsqu’elles s’appliquent aux acteurs privés, les règles régissant le discours en ligne devaient être claires et précises (A/HRC/38/35, paragraphe 46). Les personnes qui utilisent les plateformes de Meta doivent pouvoir accéder aux règles et les comprendre, et les équipes d’examen de contenu doivent disposer de conseils clairs sur leur application.
Le Conseil fait de nouveau part de ses préoccupations quant au manque de transparence relatif à la procédure de désignation des organismes et des individus dangereux de niveau 1 de la politique. En effet, les utilisateurs ne peuvent que difficilement comprendre à propos de quels entités, idéologies et symboles connexes ils sont autorisés à publier (cf. Campagne électorale 2023 en Grèce). Le Conseil a appelé Meta à publier sa liste de niveau 1 (cf. Citation nazie). Meta a refusé d’accéder à cette demande, un refus qu’elle justifie en expliquant qu’une telle publication pourrait permettre « aux acteurs malveillants de contourner les mécanismes de modération » et nuire à la « sécurité des employés [de Meta] ». Meta s’est engagée à ajouter un hyperlien vers les listes d’organisations terroristes étrangères et de terroristes internationaux spécifiquement désignés établies par les États-Unis dans ses Standards de la communauté où ces listes sont mentionnées, en réponse à la recommandation n° 3 du cas Vidéo d’un prisonnier des Forces de soutien rapide au Soudan. Sa liste des entités d’incitation à la haine n’est toutefois pas fondée sur une liste publique équivalente, ce qui ne permet pas de déduire facilement les symboles de haine associés que l’entreprise interdit.
Le Conseil appelle Meta à faire preuve de plus de transparence quant aux symboles désignés, en particulier à ceux qui sont liés à des entités ou à des idéologies de haine désignées. Il l’invite également à mettre au point une procédure claire pour déterminer comment les symboles sont associés aux trois groupes et à quel groupe chaque symbole est associé. Le Conseil considère que cette procédure devrait être au minimum fondée sur des preuves, appliquée dans le monde entier et itérative par nature. Cette procédure aidera tout d’abord à s’assurer que la liste de symboles est à jour et que les symboles qui ne répondent pas aux critères d’inclusion sont supprimés, tandis que les symboles restants feront l’objet d’un processus d’évaluation et de modération le plus applicable possible. Par exemple, tous les symboles désignés qui peuvent être utilisés à de nombreuses fins respectueuses de la politique de Meta sont évalués à la suite d’une remontée par les équipes de spécialistes de l’entreprise ou des consignes spécifiques sont fournies aux équipes d’examen manuel. Pour déterminer les cas d’utilisation prépondérants de symboles spécifiques, Meta devrait s’appuyer sur les résultats de recherches pertinentes, ce qui peut inclure les recherches sur les tendances d’utilisation des symboles sur les plateformes de l’entreprise au travers des langues et des régions. Ensuite, conformément aux engagements de Meta à établir et à appliquer ses règles mondiales de manière non discriminatoire (articles 2 et 26 du PIDCP ; Observation générale n° 34, paragraphe 26), Meta devrait réviser sa liste de symboles désignés. L’entreprise devrait ainsi s’assurer que la liste recouvre, par exemple, les idéologies de haine non seulement dans les régions de la « minorité planétaire », mais aussi dans celles de la « majorité planétaire », comme le Conseil l’a fait remarquer dans sa décision Publications affichant le drapeau sud-africain de la période de l’apartheid. Le Conseil note également que l’utilisation des symboles peut changer au fil du temps et que, donc, la liste devrait être révisée régulièrement afin de prévenir les risques de surmodération ou de sous-modération liés à l’évolution de leur utilisation.
Pour offrir plus de transparence aux utilisateurs, Meta devrait également publier une explication claire de la manière dont elle établit et fait respecter sa liste de symboles désignés. Cette explication devrait mentionner les processus et les critères de désignation des symboles ainsi que la manière dont l’entreprise les applique aux différents symboles, y compris les cas où des pénalités sont imposées. Meta devrait publier ces informations dans l’Espace modération et ajouter un hyperlien vers celles-ci dans sa politique publique sur les organismes et les individus dangereux.
Le Conseil s’inquiète également du manque de précision et de l’équivocité potentielle de la règle relative aux « références » au titre de laquelle Meta a supprimé la première publication. En réponse aux questions du Conseil, l’entreprise a dévoilé que sa définition interne d’une « référence » était plus large que la définition de « référence équivoque » dans sa politique publique sur les organismes et les individus dangereux. Une référence « inclut sans s’y limiter les références positives, les représentations fortuites, les photos sans légende, la satire et l’humour peu clairs, et les symboles ». Dans la section « Nous supprimons » de la politique, Meta indique uniquement qu’elle supprime les « références équivoques ou sans contexte si l’intention de l’utilisateur ou de l’utilisatrice n’est pas clairement indiquée ». Cela « inclut l’humour équivoque et les références positives ou sans légende qui ne glorifient pas les actes de violence ou de haine perpétrés par l’entité désignée ». Aussi le Conseil appelle-t-il Meta à communiquer au public sa définition interne de « références » et à définir ses sous-catégories, telles que « références positives » et « représentation fortuite » afin d’assurer que cette règle de la politique soit suffisamment claire et compréhensible pour les utilisateurs.
II. Objectif légitime
Par ailleurs, toute restriction de la liberté d’expression doit au minimum répondre à l’un des objectifs légitimes énumérés dans le PIDCP, qui incluent la protection des droits d’autrui (article 19, paragraphe 3, PIDCP). Le Conseil a jugé que la politique sur les organismes et les individus dangereux, qui s’efforce « d’éviter et d’empêcher tout danger réel », poursuit l’objectif légitime de protéger les droits d’autrui, comme le droit à la vie (article 6 du PIDCP) et le droit à la non-discrimination et à l’égalité (articles 2 et 26 du PIDCP) parce qu’elle traite des organisations d’incitation à la haine, à la violence et à la discrimination, ainsi que les évènements violents désignés motivés par la haine (cf. Vidéo d’un prisonnier des Forces de soutien rapide au Soudan, Campagne électorale 2023 en Grèce).
III. Nécessité et proportionnalité
Conformément à l’article 19(3) du PIDCP, le principe de nécessité et de proportionnalité requiert que les restrictions de la liberté d’expression soient « appropriées pour remplir leur fonction de protection, elles doivent constituer le moyen le moins perturbateur parmi ceux qui pourraient permettre d’obtenir le résultat recherché et elles doivent être proportionnées à l’intérêt à protéger » (Observation générale n° 34, paragraphe 34).
En ce qui concerne les obligations étatiques, le Comité des droits de l’homme des Nations Unies déclare : « D’une manière générale, l’utilisation de drapeaux ou de banderoles et le port d’uniformes ou d’autres signes doivent être perçus comme une forme d’expression légitime qu’il n’y a pas lieu de restreindre, même si ces symboles renvoient à un passé douloureux. Dans des cas exceptionnels, lorsque les symboles arborés sont directement et principalement associés à l’incitation à la discrimination, à l’hostilité ou à la violence, des restrictions appropriées devraient s’appliquer » (Observation générale n° 37 sur le droit de réunion pacifique, CCPR/C/GC/37, paragraphe 51).
Une majorité du Conseil estime que la suppression de la publication avec le kolovrat était une réponse nécessaire et proportionnée afin de prévenir l’exploitation des plateformes de Meta pour inciter à la discrimination et à la violence ou organiser de tels actes. Compte tenu des éléments de contexte de la publication, notamment les références univoques au nationalisme slave et à l’armée slave, la publication peut être interprétée comme une incitation à faire preuve de violence. Selon cette majorité, la publication illustre la manière dont les symboles peuvent faire partie des efforts déployés en ligne pour faire naître et cultiver un soutien aux idéologies qui contribuent à la violence ou à l’exclusion. Une minorité ne partage toutefois pas cet avis : elle estime que la publication ne risquait pas d’entraîner directement d’actes de violence ou de discrimination imminents ou probables. Par conséquent, Meta aurait pu recourir à d’autres options, par exemple en ne recommandant pas la publication ou en limitant sa diffusion de manière globale. La suppression de cette publication, selon la minorité, n’était ni nécessaire ni proportionnée.
Le Conseil considère que la suppression de la publication avec le slogan « Defend Europe » répond aux principes de nécessité et de proportionnalité afin de prévenir les actes de discrimination et de violence imminents et probables. À la différence du contenu concerné par la décision Publications affichant le drapeau sud-africain de la période de l’apartheid, la publication contenait de nombreux éléments de contexte liés de manière plus directe à la glorification de la violence, comme cela est décrit à la section 5.1. Cette publication illustre la manière dont les symboles de haine peuvent devenir des points de ralliement pour les acteurs en ligne qui cherchent à établir des contacts et à recruter des individus qui partagent leurs opinions en contournant les mesures de modération de contenu. Aussi la suppression de la publication avec le slogan « Defend Europe » est-elle elle aussi nécessaire et proportionnée à l’objectif légitime de prévenir l’exploitation des plateformes de Meta pour inciter à la violence ou à l’exclusion ou organiser de tels actes.
Le Conseil estime que la décision de Meta de conserver la publication avec la citation était justifiée puisque le contenu ne fait pas référence à une idéologie considérée comme haineuse et qu’il fournit du contexte sur la représentation artistique de l’utilisateur. Par conséquent, il n’était pas justifié de le supprimer.
Le Conseil s’inquiète d’une potentielle surmodération des références aux symboles associés aux organismes et aux individus dangereux au titre de la politique du même nom. Meta ne recueille pas de données suffisamment précises sur ses pratiques de modération en la matière. Meta devrait développer un système qui identifie et signale automatiquement les cas où des symboles désignés entraînent des « pics » qui suggèrent qu’un grand volume de contenu autorisé est supprimé, similaire au système créé par l’entreprise en réponse à la recommandation n° 2 du Conseil pour le cas Dessin représentant la police colombienne. Ce système permettra à Meta d’analyser les « pics » qui impliquent des symboles désignés et d’éclairer les décisions de l’entreprise, y compris en améliorant l’exactitude et la précision de ses pratiques. Par exemple, Meta peut envisager de modifier sa politique ou d’ajuster ses mesures de modération en cas de volume élevé de faux positifs qui résultent de suppressions injustifiées de références aux symboles désignés lorsque le contenu n’est, en réalité, pas en infraction ou qu’il devrait bénéficier de l’exception relative au « discours social et politique ». Le Conseil attend de Meta qu’elle développe ce système et l’informe des actions prises afin d’éviter les risques de surmodération par le système. Le Conseil prévoit également d’examiner les actions prises lors d’une future décision.
6. Décision du Conseil de surveillance
Le Conseil de surveillance a confirmé les décisions de Meta de supprimer le contenu des premier et deuxième cas, et de conserver celui du troisième cas.
7. Recommandations
Politique de contenu
1. Pour apporter plus de clarté aux utilisateurs, Meta devrait rendre publique sa définition interne de « références » et définir ses sous-catégories au titre du standard de la communauté sur les organismes et les individus dangereux.
Le Conseil considérera que cette recommandation aura été appliquée lorsque Meta mettra à jour son standard de la communauté en matière d’organismes et d’individus dangereux destiné au public.
Mise en application
2. Pour s’assurer que sa liste de symboles désignés au titre de la politique sur les organismes et les individus dangereux n’inclut pas de symboles qui ne répondent plus à ses critères d’inclusion, Meta devrait mettre au point une procédure claire et fondée sur des preuves pour déterminer comment les symboles sont associés aux groupes et à quel groupe chaque symbole désigné est associé, et auditer régulièrement tous les symboles désignés afin de s’assurer que la liste reprend tous les symboles pertinents dans le monde entier et de supprimer ceux qui ne répondent plus aux critères publiés, comme indiqué plus en détail dans la section 5.2 de cette décision.
Le Conseil considérera que cette recommandation aura été appliquée lorsque Meta aura établi cette procédure et fourni au Conseil la documentation et les résultats de son premier audit basé sur ces nouvelles règles.
3. Pour traiter les éventuels faux positifs qui impliquent des symboles désignés au titre du standard de la communauté sur les organismes et les individus dangereux, Meta devrait développer un système qui identifie et signale automatiquement les cas où des symboles désignés entraînent des « pics » qui suggèrent qu’un grand volume de contenu autorisé est supprimé, similaire au système créé par l’entreprise en réponse à la recommandation n° 2 du Conseil pour le cas Dessin représentant la police colombienne. Ce système permettra à Meta d’analyser les « pics » qui impliquent des symboles désignés et d’éclairer les décisions de l’entreprise, y compris en améliorant l’exactitude et la précision de ses pratiques.
Le Conseil considérera que cette recommandation aura été appliquée lorsque Meta aura conçu ce système et informé le Conseil des actions prises afin d’éviter les risques de surmodération par le système.
Transparence
4. Pour offrir plus de transparence aux utilisateurs, Meta devrait publier une explication claire de la manière dont elle établit et fait respecter sa liste de symboles désignés au titre de son standard de la communauté sur les organismes et les individus dangereux. Cette explication devrait mentionner les processus et les critères de désignation des symboles ainsi que la manière dont l’entreprise les applique aux différents symboles, y compris des informations sur les pénalités et toute autre mesure de modération prise à l’encontre des symboles désignés.
Le Conseil considérera que cette recommandation aura été appliquée lorsque ces informations auront été publiées dans l’Espace modération et qu’un hyperlien vers celles-ci aura été ajouté dans la version publique du standard de la communauté sur les organismes et les individus dangereux.
* Note de procédure :
- Les décisions du Conseil de surveillance sont prises par des panels de cinq membres et approuvées par une majorité du Conseil dans son ensemble. Les décisions du Conseil ne représentent pas nécessairement les opinions de tous les membres.
- En vertu de sa Charte, le Conseil de surveillance est habilité à examiner les appels déposés par les utilisateurs dont le contenu a été supprimé par Meta, les appels déposés par les utilisateurs ayant signalé un contenu que Meta n’a finalement pas supprimé, et les décisions que Meta lui transmet (article 2, section 1 de la Charte). Le Conseil dispose d’une autorité contraignante pour confirmer ou annuler les décisions de Meta relatives au contenu (article 3, section 5 de la Charte ; article 4 de la Charte). Le Conseil est habilité à émettre des recommandations non contraignantes auxquelles Meta doit répondre (article 3, section 4 de la Charte ; article 4). Lorsque Meta s’engage à donner suite aux recommandations, le Conseil surveille leur mise en œuvre.
- Pour la décision sur ce cas, des recherches indépendantes ont été commandées au nom du Conseil. Le Conseil a bénéficié de l’aide de Duco Advisors, une société de conseil spécialisée dans la géopolitique, la confiance et la sécurité, ainsi que la technologie.
Retour aux décisions de cas et aux avis consultatifs politiques