Renversé
Publication en polonais ciblant les personnes trans
16 janvier 2024
Le Conseil de surveillance a annulé la décision initiale de Meta de conserver sur Facebook une publication dont l’auteur a ciblé des personnes transgenres avec un discours violent les enjoignant à se suicider.
Pour lire cette décision en polonais, cliquez ici.
Kliknij tutaj, aby przeczytać postanowienie w języku polskim.
Résumé
Le Conseil de surveillance a annulé la décision initiale de Meta de conserver sur Facebook une publication dont l’auteur a ciblé des personnes transgenres avec un discours violent les enjoignant à se suicider. Le Conseil estime que la publication constituait une infraction aux Standards de la communauté relatifs au discours haineux, ainsi qu’au suicide et à l’automutilation. Toutefois, le problème essentiel qui réside dans ce cas ne relève pas des politiques, mais de leur mise en application. À maintes reprises Meta n’a pas été en mesure d’appliquer correctement sa politique, malgré plusieurs signaux démontrant le caractère nuisible de la publication. Le Conseil en conclut donc que l’entreprise n’est pas à la hauteur des idéaux qu’elle a exprimés sur la sécurité de la communauté LGBTQIA+. Il exhorte Meta à combler ses lacunes en matière de mise en application, en améliorant notamment ses conseils internes aux équipes d’examen.
À propos du cas
En avril 2023, un utilisateur de Facebook en Pologne a publié l’image d’un rideau à rayures bleues, roses et blanches, les couleurs du drapeau transgenre, accompagnée des mentions suivantes en polonais : « Nouvelle technologie… Des rideaux qui se pendent tout seuls » et « nettoyage de printemps <3 ». On peut lire dans la biographie de l’utilisateur « Je suis transphobe ». La publication a reçu moins de 50 réactions.
Entre avril et mai 2023, 11 personnes différentes ont signalé la publication 12 fois au total. Seuls deux des 12 signalements ont été envoyés en priorité pour un examen manuel par les systèmes automatisés de Meta, tandis que les autres ont été fermés. Les deux signalements soumis à un examen manuel, soupçonnant une infraction au Standard de Facebook sur le suicide et l’automutilation, ont été évalués comme n’étant pas en infraction. Aucun des signalements basés sur la politique de Meta en matière de discours haineux n’a été soumis à un examen manuel.
Trois personnes ont ensuite fait appel de la décision de Meta de conserver la publication sur Facebook ; l’un de ces signalements a donné lieu, après examen manuel, à la confirmation de la décision initiale basée sur le Standard de la communauté relatif au suicide et à l’automutilation. Encore une fois, les autres appels, déposés en vertu du Standard de la communauté sur le discours haineux, n’ont pas été soumis à un examen manuel. Enfin, l’un des utilisateurs qui avaient signalé le contenu à l’origine a fait appel auprès du Conseil. Après que le Conseil a sélectionné le cas présent, Meta a conclu que la publication enfreignait ses politiques sur le discours haineux, ainsi que sur le suicide et l’automutilation, et l’a ensuite supprimée de Facebook. Par ailleurs, l’entreprise a désactivé le compte de l’utilisateur à l’origine de la publication du contenu pour avoir précédemment commis d’autres infractions.
Principales conclusions
Le Conseil considère que le contenu enfreignait la politique de Meta sur le discours haineux, car il comportait un « discours violent » sous la forme d’un appel au suicide d’un groupe désigné par une caractéristique protégée. En demandant aux personnes transgenres de se suicider, la publication créait une atmosphère d’intimidation et d’exclusion, et aurait pu entraîner des blessures physiques. Compte tenu de la nature du texte et de l’image, la publication exacerbait également les problèmes de santé mentale auxquels la communauté transgenre est confrontée. L’association Gay and Lesbian Alliance Against Defamation (GLAAD) a récemment publié un rapport qui fait état du « traumatisme psychologique entraîné par une exposition permanente aux insultes et aux comportements haineux » en ligne. Le Conseil appuie de surcroît sa conclusion sur le contexte général des préjudices en ligne et hors ligne que la communauté LGBTQIA+ subit en Pologne, notamment les attaques et les discours politiques de membres influents du gouvernement et autres personnalités publiques.
Il s’interroge sur le fait que les équipes d’examen manuel de Meta n’aient pas tenu compte des indications contextuelles. La référence dans la publication au risque élevé de suicide (« des rideaux qui se pendent tout seuls ») et à l’appel à la mort du groupe (« nettoyage de printemps ») constituaient des infractions claires du Standard de la communauté sur le discours haineux, tandis que le simple fait que le créateur du contenu se décrive lui-même comme transphobe représentait une autre infraction. Le Conseil exhorte Meta à améliorer la mise en application de sa politique sur le discours haineux envers les personnes LGBTQIA+, notamment lorsque les publications comportent des images et du texte qui nécessitent de connaître le contexte pour les interpréter. Dans le cas présent, les références passablement codées au suicide associées à la représentation visuelle d’un groupe protégé (le drapeau transgenre) ont pris la forme d’une « créativité pernicieuse ». Cette pratique concerne les personnes malveillantes qui élaborent de nouveaux moyens de cibler la communauté LGBTQIA+ en diffusant des publications et des memes qu’elles revendiquent comme étant « humoristiques ou satiriques », mais relèvent en réalité de la haine et du harcèlement.
Le Conseil s’interroge par ailleurs sur la déclaration de Meta selon laquelle la non-suppression du contenu par les équipes d’examen manuel observe une stricte application de ses règles internes. Cela indiquerait que les règles internes de Meta interprètent mal les éventuelles interactions entre le texte et l’image pour représenter un groupe défini par l’identité de genre de ses membres.
Bien que la publication ait également constitué une infraction au Standard de la communauté de Facebook sur le suicide et l’automutilation, le Conseil estime que cette politique devrait interdire plus clairement le contenu qui promeut le suicide auprès d’un groupe de personnes identifiable, plutôt qu’auprès d’une personne précise dans ce groupe.
Dans ce cas, les systèmes automatisés de priorisation d’examen de Meta ont considérablement influencé la mise en application, notamment la façon dont l’entreprise traite les différents signalements déposés au sujet du même contenu. Meta surveille et déduplique (supprime) ces signalements pour « assurer la cohérence des décisions des équipes d’examen et des mesures de mise en application ». Parmi les autres raisons invoquées pour la fermeture automatique des signalements, on peut mentionner les faibles niveaux de gravité et de viralité du contenu (nombre de fois qu’il a été vu), expliquant pourquoi il n’a pas fait l’objet d’un examen manuel prioritaire. Dans le cas présent, le Conseil estime que la biographie de l’utilisateur aurait pu être considérée comme un signal pertinent lors de l’évaluation des niveaux de gravité.
Le Conseil pense que Meta devrait investir davantage dans le développement de classificateurs capables d’identifier un contenu potentiellement en infraction contre la communauté LGBTQIA+ et améliorer la formation de ses équipes d’examen manuel sur les préjudices liés à l’identité de genre.
Décision du Conseil de surveillance
Le Conseil de surveillance a annulé la décision initiale de Meta de laisser le contenu sur la plateforme.
Le Conseil recommande à Meta ce qui suit :
- Préciser sur sa page relative au suicide et à l’automutilation que la politique interdit le contenu qui promeut le suicide auprès d’un groupe identifiable de personnes ou l’y encourage.
- Modifier les conseils internes qu’elle fournit à ses équipes d’examen à grande échelle afin de s’assurer que les représentations visuelles d’une identité de genre reposant sur un drapeau et ne contenant pas de figure humaine sont interprétées comme des représentations d’un groupe défini par l’identité de genre de ses membres.
*Les résumés de cas fournissent une présentation du cas et n’ont pas valeur de précédent.
Décision complète sur le cas
1. Résumé de la décision
Le Conseil de surveillance a annulé la décision initiale de Meta de conserver sur Facebook un contenu en polonais dont l’auteur a ciblé des personnes transgenres avec un discours violent les enjoignant à se suicider. Après que le Conseil a identifié le cas à examiner, Meta a conclu que sa décision initiale d’autoriser la publication à rester sur la plateforme était erronée, a supprimé le contenu, puis appliqué des sanctions. Le Conseil estime que la publication constituait une infraction aux Standards de la communauté relatifs au discours haineux, ainsi qu’au suicide et à l’automutilation. Le Conseil profite de cette occasion pour inviter Meta à améliorer ses politiques et conseils destinés à ses équipes d’examen afin de mieux protéger les personnes transgenres sur ses plateformes. Plus précisément, en évaluant si une publication relève du discours haineux, Meta doit s’assurer que les représentations visuelles d’une identité de genre reposant sur un drapeau et ne contenant pas de figure humaine sont comprises comme des représentations d’un groupe défini par l’identité de genre de ses membres. Meta doit par ailleurs préciser que le fait d’encourager un groupe entier à se suicider constitue une infraction du même degré que d’y encourager un seul individu. Le Conseil estime toutefois que le problème essentiel qui réside dans ce cas ne relève pas des politiques, mais de leur mise en application. Même écrites comme alors, les politiques interdisaient clairement cette publication, dont plusieurs indices laissaient penser qu’il s’agissait d’un discours haineux ciblant un groupe de personnes en fonction de leur identité de genre. L’incapacité répétée de Meta à prendre des mesures de mise en application pertinentes, malgré les différents signalements d’utilisateurs, conduit le Conseil à conclure que Meta n’est pas à la hauteur des idéaux qu’elle a exprimés sur la sécurité de la communauté LGBTQIA+. Le Conseil exhorte Meta à combler ces lacunes en matière de mise en application.
2. Description du cas et contexte
En avril 2023, une image d’un rideau à rayures bleues, roses et blanches représentant le drapeau transgenre a été publiée en Pologne. Accompagnant l’image, un texte en polonais indique : « Nouvelle technologie. Des rideaux qui se pendent tout seuls. » Au-dessus de cette ligne, un autre texte en polonais affirme : « nettoyage de printemps <3 ». On peut lire dans la biographie de l’utilisateur en polonais « Je suis transphobe ». La publication a reçu moins de 50 réactions des autres utilisateurs, la majorité d’entre eux la soutenant. L’emoji le plus fréquemment utilisé était « Haha ».
Entre avril et mai 2023, 11 personnes différentes ont signalé le contenu 12 fois au total. Parmi ces signalements, dix n’ont pas été soumis à un examen manuel par les systèmes automatisés de Meta pour différentes raisons, notamment de faibles niveaux de gravité et de viralité. En règle générale, Meta priorise le contenu pour un examen manuel en fonction de sa gravité, de sa viralité et de la probabilité qu’il enfreigne les politiques liées au contenu. Seulement deux de ces signalements ont été soumis à un examen manuel en vertu du Standard de la communauté de Facebook en matière de suicide et d’automutilation. Aucun des signalements basés sur la politique de Meta en matière de discours haineux n’a été soumis à un examen manuel. D’après Meta, les équipes d’examen disposent de la formation et des outils nécessaires pour « évaluer et agir » sur le contenu au-delà de leur file d’attente de politique désignée (par exemple, la politique sur le discours haineux ou la politique sur le suicide et l’automutilation). Cependant, l’équipe d’examen a conclu que le contenu ne constituait pas une infraction et n’y a donc pas donné suite.
Trois personnes ont fait appel de la décision de Meta de laisser le contenu en ligne sur Facebook. L’un de ces appels a été examiné, mais la décision initiale de Meta selon laquelle le contenu n’enfreignait pas sa politique en matière de suicide et d’automutilation a été confirmée. Les deux autres appels, qui s’appuyaient sur la politique de Facebook relative au discours haineux, n’ont pas été examinés. Meta « surveille et déduplique » en effet les différents signalements sur le même contenu afin d’assurer la cohérence des décisions des équipes d’examen et des mesures de mise en application.
L’une des personnes qui avaient signalé le contenu à l’origine a fait appel auprès du Conseil. Après que le Conseil a sélectionné le cas présent, Meta a conclu que le contenu enfreignait ses politiques sur le discours haineux, ainsi que sur le suicide et l’automutilation, et l’a ensuite supprimé. Par ailleurs, dans le cadre de son examen de ce cas, Meta a déterminé que le compte du créateur de contenu avait déjà plusieurs fois enfreint les Standards de la communauté, à tel point qu’il a été désactivé. Meta a en effet dû prendre cette mesure en août 2023.
Le Conseil a pris en considération le contexte ci-dessous pour parvenir à sa décision :
De nombreux rapports soulignent que la Pologne fait preuve d’une grande hostilité contre la communauté LGBTQIA+. [Remarque : le Conseil utilise le sigle « LGBTQIA+ » (personnes lesbiennes, gays, bisexuelles, trans, queers, intersexes et asexuelles) lorsqu’il évoque des groupes en fonction de leur orientation sexuelle, de leur identité de genre et/ou de leur expression de genre. Le Conseil conservera cependant les acronymes ou les usages que d’autres personnes en font pour les citer.] La Commissaire aux droits de l’homme du Conseil de l’Europe a précédemment attiré l’attention sur la « stigmatisation des personnes LGBTI » comme un « problème récurrent en Pologne ». Rainbow Europe, de l’Association internationale des personnes lesbiennes, gays, bisexuelles, trans et intersexuées (ILGA), a publié un classement des pays en fonction des lois et politiques qui affectent directement les droits humains des personnes LGBTI. Ce rapport établit que la Pologne est l’État membre de l’Union européenne (UE) le moins performant dans ce domaine, avec une 42e place sur 49 parmi les pays européens évalués. Les gouvernements nationaux et locaux, ainsi que des personnalités publiques bien connues, ciblent de plus en plus la communauté LGBTQIA+ à travers des discours et des mesures législatives discriminatoires.
Début 2018, ILGA-Europe a enquêté sur ce que l’organisation a appelé « le discours politique haineux de haut profil contre les personnes LGBTI prononcé par des dirigeants politiques polonais », notamment les déclarations affirmant que « tout le mouvement LGBT » constitue une « menace » pour la Pologne. La même année, le maire de Lublin, a tenté d’interdire la Marche pour l’égalité dans cette ville polonaise, bien que la Cour d’appel ait fini par lever cette interdiction juste avant la marche prévue. En 2019, le maire de Varsovie a introduit la Charte de Varsovie en faveur des personnes LGBT+ pour « améliorer la situation des personnes LGBT » dans la ville. Une charte qui a fait l’objet de critiques de la part du parti Droit et justice (PiS) actuellement au pouvoir en Pologne et des leaders religieux. Le président et le gouvernement central du pays ont également identifié la communauté transgenre comme une cible. Le président du parti PiS au pouvoir a par exemple désigné les personnes transgenres comme « anormales ». Le ministre de la Justice polonais a par ailleurs demandé à la Cour suprême du pays d’imposer que « en plus de leurs parents, les personnes trans doivent également entamer une procédure judiciaire vis-à-vis de leurs enfants et époux [afin d’obtenir leur autorisation pour réaliser leur transition de genre] lorsqu’elles souhaitent accéder à la RJG [Reconnaissance juridique du genre] ».
La Pologne a également décrété des lois anti-LGBTQIA+. Human Rights Watch indique que certaines villes ont commencé à appeler à « l’exclusion des personnes LGBT de la société polonaise » en mettant en place, entre autres mesures, des « zones sans idéologie LGBT » en 2019. Un rapport de Human Rights Watch a établi que ces zones sont des endroits « où les autorités locales ont adopté des “chartes des droits de la famille” discriminatoires qui promettent de “protéger les enfants contre la corruption morale” ou se sont déclarées sans “idéologie LGBT” ». Plus de 100 villes ont créé de telles zones. ILGA-Europe souligne qu’en raison de la pression locale, européenne et internationale, certaines de ces municipalités ont annulé leurs « résolutions anti-LGBT ou chartes des droits de la famille ». Le 28 juin 2022, la Cour administrative suprême de Pologne a ordonné à quatre municipalités d’abroger leurs résolutions anti-LGBTQI+. Le classement publié dans le rapport de Rainbow Europe suggère toutefois que le climat en Pologne est sensiblement hostile à la communauté LGBTQIA+.
Un sondage de 2019 mené par l’Agence des droits fondamentaux de l’Union européenne auprès des personnes LGBTI résidant dans l’UE, a comparé leurs expériences d’agression et de harcèlement en Pologne et dans d’autres régions de l’Union européenne. Le sondage démontre que 51 % des personnes LGBTI en Pologne évitent souvent ou constamment certains endroits par crainte de subir une agression. Ce taux est de 33 % dans le reste de l’Union européenne. L’étude a en outre révélé qu’une personne transgenre sur cinq a été agressée physiquement ou sexuellement au cours des cinq dernières années précédant le sondage, soit plus du double des autres groupes LGBTI.
Le Conseil a chargé des spécialistes internes d’analyser les réponses sur les réseaux sociaux suite aux déclarations péjoratives des représentants du gouvernement polonais. Ces spécialistes ont fait état « d’une hausse inquiétante du discours haineux en ligne contre les minorités en Pologne, notamment les communautés LGBTQIA+ depuis 2015 ». Leur analyse du contenu anti-LGBTQIA+ en polonais sur Facebook démontre la survenue de pics lors de « décisions de justice liées à des lois anti-LGBTQIA+ ». Parmi elles figure la décision de la Cour administrative suprême susmentionnée, ainsi que les décisions relatives aux défis juridiques que pose l’adoption de plusieurs déclarations anti-LGBT déposées devant les tribunaux administratifs locaux par les médiateurs polonais pour la Commissaire aux droits de l’homme, en cours depuis 2019.
Le Conseil a également demandé à des spécialistes en linguistique ce que les deux phrases de la publication en polonais signifiaient. En ce qui concerne la phrase « des rideaux qui se pendent tout seuls », ils ont observé que dans le contexte d’un « drapeau trans suspendu à une fenêtre », la phrase constituait un « jeu de mots » qui juxtaposait « suspendre des rideaux » à « se suicider par pendaison ». Les spécialistes en ont conclu que cette phrase représentait « une insulte transphobe voilée ». Quant à la phrase relative au « nettoyage de printemps », elle ferait, selon eux, « normalement référence à un nettoyage en profondeur au moment du printemps », mais, dans certains contextes, « elle signifie également “jeter toutes les ordures” et “se débarrasser de tous les objets (et/ou personnes) indésirables” ». Plusieurs commentaires publics, notamment la soumission de la fondation Human Rights Campaign (PC-16029), ont soutenu que la référence de la publication au « nettoyage de printemps » était une forme d’« éloge à l’exclusion des personnes trans de la société polonaise et à leur isolement (à travers leur décès) ».
Les problématiques relatives aux préjudices en ligne et hors ligne en jeu dans le cas présent vont au-delà de la communauté LGBTQIA+ en Pologne et l’affectent partout dans le monde. D’après l’Organisation mondiale de la Santé, le suicide représente la quatrième cause de décès chez les 15-29 ans à l’échelle internationale. L’OMS indique que « les taux de suicide sont également élevés dans les groupes vulnérables confrontés à la discrimination, tels que les réfugiés et les migrants ; les populations autochtones ; et les personnes lesbiennes, gays, bisexuelles, transgenres ou intersexuées (LGBTI) ». D’autres recherches ont révélé une « association positive » entre le cyberharcèlement et les pensées et comportements d’automutilation.
Le risque de suicide est particulièrement préoccupant chez la communauté transgenre et non binaire. L’enquête nationale menée en 2023 par le Trevor Project et consacrée à la santé mentale des personnes LGBTQ a établi que la moitié des jeunes transgenres et non binaires résidant aux États-Unis ont eu des pensées suicidaires en 2022. La même étude estime que 14 % des jeunes LGBTQ ont tenté de se suicider au cours de l’année passée, et près d’un jeune transgenre et non binaire sur cinq. D’après l’enquête sur les comportements à risque des jeunes du CDC, 10 % des lycéens américains ont commis une tentative de suicide en 2021. Plusieursétudes menées partout dans le monde ont démontré que les personnes transgenres ou non binaires risquent davantage d’avoir des pensées suicidaires et de commettre des tentatives de suicide que les personnes cisgenres.
Dans un commentaire public adressé au Conseil, l’association Gay and Lesbian Alliance Against Defamation (GLAAD) (PC-16027) a souligné les résultats obtenus de son enquête annuelle, l’Indice de sécurité sur les réseaux sociaux, qui évalue la sécurité des utilisateurs LGBTQ sur les cinq grandes plateformes de réseaux sociaux. Le rapport de 2023 a attribué à Facebook un score de 61 % après évaluation de 12 indicateurs propres à la question LGBTQ. Ce pourcentage a augmenté de 15 points par rapport à 2022, Facebook ayant été classée deuxième derrière Instagram et devant les trois principales autres plateformes. La GLAAD a cependant affirmé que « la sécurité et la qualité des mesures de protection des utilisateurs LGBTQ demeurent insatisfaisantes ». Le rapport a révélé que « les personnes LGBTQ sont confrontées à des préjudices en ligne bien réels, qui les dissuadent notamment d’exercer leur liberté d’expression par peur de représailles, sans parler du traumatisme psychologique entraîné par une exposition permanente aux insultes et aux comportements haineux ».
3. Champ d’application et autorité du Conseil de surveillance
Le Conseil a le pouvoir d’examiner la décision de Meta à la suite d’un appel interjeté par la personne qui a précédemment signalé un contenu laissé sur la plateforme (article 2, section 1 de la Charte ; article 3, section 1 des Statuts).
Le Conseil peut confirmer ou annuler la décision de Meta (article 3, section 5 de la Charte), et ce, de manière contraignante pour l’entreprise (article 4 de la Charte). Meta doit également évaluer la possibilité d’appliquer la décision à un contenu identique dans un contexte parallèle (article 4 de la Charte). Les décisions du Conseil peuvent inclure des recommandations non contraignantes auxquelles Meta doit répondre (article 3, section 4 de la Charte ; article 4 de la Charte). Lorsque Meta s’engage à donner suite aux recommandations, le Conseil surveille leur mise en œuvre.
Lorsque le Conseil sélectionne des cas comme celui-ci, où Meta reconnaît par la suite avoir commis une erreur, il réexamine la décision initiale afin de mieux comprendre le processus de modération du contenu et de formuler des recommandations visant à réduire les erreurs et à traiter les utilisateurs de Facebook et d’Instagram de manière plus équitable.
4. Sources d’autorité et conseils
Les standards suivants et les précédents ont éclairé l’analyse du Conseil dans ce cas :
I. Décisions du Conseil de surveillance
Les décisions antérieures les plus pertinentes du Conseil de surveillance comprennent les cas suivants :
- Réappropriation de mots arabes
- Dessin animé de Knin
- Manifestations en Colombie
- Arméniens d’Azerbaïdjan
II. Règles de Meta relatives au contenu
La justification de la Politique sur le discours haineux définit le discours haineux comme une « attaque directe contre des personnes, plutôt que contre des concepts ou des institutions, en raison de… caractéristiques protégées », notamment le sexe et l’identité de genre. Meta définit une attaque comme un « discours violent ou déshumanisant, des stéréotypes offensants, une déclaration d’infériorité, une expression de mépris, de dégoût ou de rejet, une insulte ou un appel à l’exclusion ou à la ségrégation ». Dans sa justification de la Politique, Meta indique par ailleurs : « Nous pensons que les personnes s’expriment et interagissent plus librement lorsqu’elles ne se sentent pas attaquées sur la base de ce qu’elles sont. C’est la raison pour laquelle nous interdisons tout type de discours haineux sur Facebook. Ces derniers créent un environnement intimidant et excluant et peuvent, dans certains cas, faire l’apologie de la violence hors ligne. »
Le Standard de la communauté de Meta sur le discours haineux classe les attaques selon différents « niveaux ». Les attaques de niveau 1 incluent le contenu ciblant une personne ou un groupe de personnes du fait de leurs caractéristiques protégées à travers un « discours violent ou un soutien sous forme écrite ou visuelle ». Meta a finalement conclu que la publication en l’espèce a enfreint cette ligne politique. Le 6 décembre 2023, Meta a mis à jour ses Standards de la communauté afin de tenir compte de l’introduction de l’interdiction du discours violent contre des groupes désignés par des caractéristiques protégées dans la politique sur la violence et l’incitation.
Les attaques de niveau 2 incluent le contenu ciblant une personne ou un groupe de personnes du fait de leurs caractéristiques protégées à travers des « expressions de mépris (sous forme écrite ou visuelle) ». Meta définit dans son Standard de la communauté sur le discours haineux les expressions de mépris comme « la reconnaissance personnelle d’une intolérance sur la base d’une caractéristique protégée » et « les déclarations selon lesquelles une caractéristique protégée ne devrait pas exister ».
Le Standard de la communauté relatif au suicide et à l’automutilation interdit « tout contenu qui encourage le suicide ou l’automutilation, y compris le contenu fictif comme les memes ou illustrations ». Conformément à cette politique, Meta supprime « le contenu qui promeut, encourage, coordonne ou fournit des instructions sur le suicide et l’automutilation ».
L’analyse du Conseil s’est appuyée sur l’engagement de Meta en faveur de la liberté d’expression, que l’entreprise qualifie de « primordial », et sur ses valeurs de sécurité et dignité.
III. Responsabilités de Meta en matière de droits humains
Les Principes directeurs relatifs aux entreprises et aux droits de l’homme des Nations unies (PDNU), soutenus par le Conseil des droits de l’homme des Nations unies en 2011, établissent un cadre de travail volontaire pour les responsabilités en matière de droits humains des entreprises privées. En 2021, Meta a annoncé l’entrée en vigueur de sa Politique relative aux droits humains au sein de l’entreprise, dans laquelle elle a réaffirmé son engagement à respecter les droits humains conformément aux PDNU. En l’espèce, l’analyse du Conseil sur les responsabilités de Meta en matière de droits humains s’est appuyée sur les standards internationaux suivants :
- Les droits à la liberté d’opinion et d’expression : article 19 du Pacte international relatif aux droits civils et politiques (PIDCP) ; L’observation générale n° 34, Comité des droits de l’homme, 2011 ; ues rapports du Rapporteur spécial des Nations Unies sur la liberté d’opinion et d’expression : A/HRC/38/35 (2018), A/74/486 (2019) ; et le Plan d’action de Rabat, rapport du Haut-Commissaire des Nations unies aux droits de l’homme : A/HRC/22/17/Add.4 (2013).
- Le droit à la vie : article 6 du PIDCP.
- Le droit de bénéficier du meilleur état de santé physique ou mentale susceptible d’être atteint : article 12 du Pacte international relatif aux droits économiques, sociaux et culturels (PIDESC).
- Le droit à l’égalité et à la non-discrimination : article 2, paragraphe 1 et article 26 du PIDCP.
5. Soumissions de l’utilisateur
En déposant son appel auprès du Conseil, l’utilisateur à l’origine du signalement du contenu a souligné que la personne qui a publié l’image avait déjà harcelé des personnes transgenres en ligne, et qu’elle avait créé un autre compte après avoir été suspendue de Facebook. Il a également affirmé que se réjouir du taux élevé de suicide dans la communauté transgenre « ne devrait pas être autorisé ».
6. Soumissions de Meta
Meta a finalement supprimé la publication en vertu du niveau 1 de son Standard de la communauté sur le discours haineux, car le contenu enfreignait la ligne politique interdisant le contenu qui cible une personne ou un groupe de personnes sur la base de leurs caractéristiques protégées à travers un « discours violent ou un soutien sous forme écrite ou visuelle ». Meta prévoit dans ses règles internes concernant l’application de cette politique que le contenu doit être supprimé s’il constitue « un discours violent sous la forme d’appels à l’action, de déclarations d’intention, de déclarations d’aspiration ou conditionnelles, ou de déclarations prônant ou soutenant le décès, la maladie ou les blessures (sous forme écrite ou visuelle) ».
Dans ces règles internes, l’entreprise décrit également ce qu’elle considère être une représentation visuelle des groupes désignés par des caractéristiques protégées dans une image ou une vidéo. Elle n’a pas autorisé le Conseil à publier des informations plus détaillées relatives à ces conseils. L’entreprise a indiqué à la place que « en vertu de la politique sur le discours haineux, Meta est susceptible de tenir compte des éléments visuels apparaissant dans le contenu pour évaluer s’il cible une personne ou un groupe de personnes en fonction de leurs caractéristiques protégées ».
Elle a indiqué que les multiples évaluations du contenu qui ont mené ses équipes d’examen à conclure à l’absence d’infraction au Standard de la communauté sur le discours haineux sont conformes à « une stricte application de nos règles internes ». Elle a affirmé ce qui suit : « Bien que les rideaux ressemblent au drapeau de la fierté trans, nous interpréterions une attaque contre un drapeau, considéré séparément, comme une attaque contre un concept ou une institution, et non contre une personne ou un groupe de personnes, ce qui ne porte pas atteinte à nos politiques ». Meta a toutefois ensuite affirmé que la « référence à la pendaison démontre que cette publication constitue une attaque contre un groupe de personnes ». Cette évaluation reposait sur l’idée que la phrase « “des rideaux qui se pendent tout seuls” fait implicitement référence au taux de suicide de la communauté transgenre, car les rideaux ressemblent au drapeau de la fierté trans, et que la photo des rideaux suspendus (ainsi que la superposition textuelle) est une métaphore du suicide par pendaison ». Meta a également fait remarquer que « les concepts ou les institutions ne sont pas à même de “se pendre eux-mêmes”, du moins pas littéralement. Elle a donc estimé que l’utilisateur évoquait les « personnes transgenres, et pas uniquement le concept ». Meta a ainsi conclu que « ce contenu enfreint la politique sur le discours haineux, car il doit être interprété comme une déclaration en faveur du suicide d’un groupe désigné par des c[aractéristiques] p[rotégées] ».
À la suite d’une mise à jour de la politique relative au discours haineux, qui a conduit à l’introduction de la ligne politique interdisant le discours violent contre les groupes désignés par des caractéristiques protégées dans la politique sur la violence et l’incitation, Meta a indiqué au Conseil que le contenu constitue toujours une infraction
L’entreprise a par ailleurs fait savoir que l’affirmation « Je suis transphobe » dans la biographie du compte de l’utilisateur enfreignait le niveau 2 de la politique sur le discours haineux, car elle représente une « reconnaissance personnelle d’une intolérance sur la base de caractéristiques protégées ». D’après Meta, cette déclaration a été évaluée en tant qu’infraction lors de l’examen que Meta a mené sur le cas et le compte de l’utilisateur après que le Conseil a sélectionné le cas présent. Elle a affirmé que cette déclaration lui a permis de mieux comprendre l’intention de l’utilisateur dans le contenu concerné.
En réponse au Conseil qui souhaitait savoir si le contenu enfreignait la politique sur le suicide et l’automutilation, Meta a confirmé que le « contenu enfreint cette politique en encourageant le suicide, en vertu de notre conclusion selon laquelle le contenu constitue une déclaration en faveur du suicide d’un groupe désigné par une caractéristique protégée ». En outre, Meta a indiqué que la politique sur le suicide et l’automutilation « n’établit pas de différence entre le contenu qui promeut ou encourage le suicide d’une personne en particulier et celui qui vise un groupe de personnes ».
Le Conseil a posé 13 questions par écrit à Meta. Les questions portaient sur l’approche adoptée par Meta sur la modération des contenus relatifs aux problématiques transgenres et LGBTQIA+ ; la relation entre les Standards de la communauté sur le discours haineux et ceux sur le suicide et l’automutilation ; l’évaluation de l’« humour » et de la « satire » lorsque les équipes de modération vérifient que le contenu n’enfreint pas la politique sur le discours haineux ; le rôle des niveaux de « viralité » et de « gravité » lors de la hiérarchisation du contenu pour examen manuel ; et ce que prévoient les pratiques de Meta en matière de modération du contenu pour prioriser le contenu devant être envoyé pour examen manuel après plusieurs signalements d’utilisateur. Meta a répondu à l’ensemble des 13 questions.
7. Commentaires publics
Le Conseil de surveillance a reçu 35 commentaires publics concernant le cas présent, dont 25 provenaient des États-Unis et du Canada, 7 d’Europe et 3 de l’Asie-Pacifique et de l’Océanie. Ce total comprend des commentaires publics qui étaient soit des doublons, soit des commentaires soumis avec autorisation de publication, mais qui ne remplissaient pas les conditions de publication du Conseil. Une telle exclusion peut être justifiée par la nature abusive du commentaire, des inquiétudes quant à la confidentialité de l’utilisateur et/ou d’autres raisons juridiques. Les commentaires publics peuvent être soumis au Conseil avec ou sans autorisation de publication, et avec ou sans autorisation d’attribution.
Les soumissions portaient sur les sujets suivants : la situation de la Pologne en matière de droits humains, notamment ce que vivent les personnes transgenres ; la sécurité de la communauté LGBTQIA+ sur les plateformes de réseaux sociaux ; la relation entre les préjudices en ligne et hors ligne dans le pays ; le lien entre l’humour, la satire, les memes et la haine/le harcèlement contre les personnes transgenres sur les plateformes de réseaux sociaux ; et les défis posés par la modération du contenu qui repose sur l’interprétation du contexte.
Pour lire les commentaires publics envoyés dans ce cas-ci, veuillez cliquer ici.
8. Analyse du Conseil de surveillance
Le Conseil a examiné si ce contenu devait être supprimé en analysant les politiques de contenu de Meta, ses responsabilités en matière de droits humains et ses valeurs. Le Conseil a également évalué les implications de ce cas pour l’approche plus globale de la gouvernance du contenu par Meta.
Le Conseil a sélectionné ce cas pour évaluer la mise en application par Meta de sa politique en matière de discours haineux, ainsi que pour mieux comprendre comment Meta aborde le contenu qui implique le discours haineux et la promotion du suicide ou de l’automutilation.
8.1 Respect des politiques relatives au contenu de Meta
I. Règles relatives au contenu
Discours haineux
Le Conseil estime que le contenu en question viole le Standard de la communauté relatif aux discours haineux. La publication faisait état « d’un discours violent ou d’un appel à la violence » (niveau 1) sous la forme d’un appel au suicide d’un groupe désigné par une caractéristique protégée, ce qui constitue une infraction claire à la politique sur le discours haineux.
Le Conseil partage le même avis final que Meta selon lequel la référence à la pendaison dans la publication représente une attaque contre un groupe de personnes plutôt qu’un concept, car « les concepts ou les institutions ne peuvent pas “se pendre” ». La conclusion du Conseil tient également compte du contexte général concernant les préjudices en ligne et hors ligne auxquels sont confrontés les membres de la communauté LGBTQIA+, et notamment les personnes transgenres, en Pologne. Une publication contenant un discours violent en vue de prôner ou de soutenir le suicide de personnes transgenres crée une atmosphère d’intimidation et d’exclusion, et pourrait entraîner des blessures physiques. Le contexte dans lequel le discours de la publication a été utilisé montre clairement que son objectif est de déshumaniser sa cible. Compte tenu de la nature du texte et de l’image, la publication exacerbe également les problèmes de santé mentale auxquels la communauté transgenre est actuellement confrontée. Plusieurs études ont démontré que les personnes transgenres et non binaires risquent davantage d’avoir des pensées suicidaires et de commettre des tentatives de suicide que les personnes cisgenres. Par ailleurs, une corrélation positive a été constatée entre les attaques et les prises à partie en ligne d’un côté et les pensées suicidaires de l’autre. Dans ce contexte, le Conseil est d’avis que la présence du drapeau transgenre, associé à la référence au risque élevé de suicide dans cette communauté (« des rideaux qui se pendent tout seuls »), démontre clairement que la publication cible les personnes trans. Selon le Conseil, la phrase « nettoyage de printemps », suivie de l’émoticône « <3 » (cœur), soutient également la mort du groupe concerné. Elle enfreint donc également l’interdiction énoncée dans le Standard de la communauté sur le discours haineux (niveau 2) sur les « déclarations selon lesquelles une caractéristique protégée ne devrait pas exister ».
Conformément à ce Standard de la communauté, le Conseil estime que la politique et les règles internes en vue de sa mise en application pourraient mieux répondre à la notion de « créativité pernicieuse » dans les tendances de contenu qui ciblent historiquement les groupes marginalisés. Le Wilson Center a formulé cette expression lors de recherches sur la maltraitance sexiste et sexualisée. La GLAAD en a également souligné la pertinence dans son commentaire public (PC-16027). La « créativité pernicieuse » désigne « l’utilisation d’un langage codé ; de memes itératifs, visuels et textuels basés sur le contexte ; et d’autres stratégies destinées à éviter leur détection sur les plateformes de réseaux sociaux ». En appliquant ce concept à la publication qui nous préoccupe dans ce cas, la GLAAD a expliqué que la « créativité pernicieuse » implique que « les personnes malveillantes développent de nouveaux moyens de cibler la communauté LGBTQ » et les groupes vulnérables plus généralement en publiant des publications et des memes qu’elles présentent comme « humoristiques ou satiriques », mais qui témoignent « en réalité d’une haine ou d’un harcèlement anti-LGBTQ ». Dans ce cas précis, la « créativité pernicieuse » a revêtu la forme d’une publication comportant deux références passablement codées au suicide (« des rideaux qui se pendent tout seuls » et « nettoyage de printemps ») associées à une représentation visuelle d’un groupe protégé (le drapeau transgenre) afin d’encourager sa mort par suicide. Dans la décision sur les Arméniens d’Azerbaïdjan, le Conseil a constaté l’importance du contexte lorsqu’il évalue si le terme examiné dans ce cas a été utilisé afin de cibler un groupe désigné par une caractéristique protégée. Bien que le contexte de guerre ait prévalu dans le cas susmentionné, les menaces auxquelles les personnes transgenres font face en Pologne montrent que ces situations peuvent avoir de terribles conséquences pour une communauté, en dehors de la guerre. Comme nous l’avons vu précédemment, en Pologne, une personne transgenre sur cinq a signalé avoir été agressée physiquement ou sexuellement au cours des cinq années antérieures à 2019, soit plus de deux fois plus que les autres groupes LGBTI.
Le Conseil est préoccupé par le fait que les premières équipes d’examen manuel de Meta n’ont pas relevé ces indications contextuelles dans le contenu et, par conséquent, ont conclu que celui-ci ne constituait pas une infraction. Malgré les recommandations du Conseil destinées à réviser les conseils sur la mise en application du Standard de la communauté sur le discours haineux, il souligne que la publication enfreignait les politiques même comme elles étaient alors rédigées. Les deux déclarations présentées dans la publication soutiennent la mort par suicide des personnes transgenres. Un autre signal apparaissant dans la bio de l’utilisateur va dans le sens de cette conclusion. Le simple fait que l’utilisateur se désigne lui-même comme transphobe constituerait une violation de niveau 2 de l’interdiction énoncée dans le Standard relatif au discours haineux sur la « reconnaissance personnelle d’une intolérance sur la base de caractéristiques protégées ». Meta doit améliorer la mise en application de sa politique sur le discours haineux envers la communauté LGBTQIA+, que ce soit à travers l’automatisation ou l’examen manuel, notamment lorsque les publications comportent des images et du texte qui nécessitent de connaître le contexte pour les interpréter. Comme la GLAAD l’a constaté (PC-16027), Meta « n’a de cesse de manquer à l’observation de ses politiques lorsqu’elle examine des signalements sur le contenu qui a recours à une “créativité pernicieuse” ».
Le Conseil s’interroge également sur la déclaration de Meta selon laquelle la non-suppression du contenu par les équipes d’examen « observe une stricte application de nos règles internes ». Cette affirmation indique que les règles internes destinées aux équipes d’examen interprètent mal les éventuelles interactions entre le texte et l’image dans une publication de réseau social pour représenter un groupe défini par l’identité de genre de ses membres. Le Conseil estime que ces conseils pourraient ne pas suffire pour permettre aux équipes d’examen de contenu à grande échelle de parvenir à la bonne décision de mise en application concernant un contenu qui cible des groupes désignés par une caractéristique protégée qui sont représentés visuellement, sans pour autant être nommés ni représentés sous forme humaine. Meta n’a pas autorisé le Conseil à publier des informations supplémentaires qui auraient permis une discussion plus approfondie sur ce qu’il aurait été possible d’entreprendre afin d’améliorer la mise en application de ce type de contenu. Le Conseil est toutefois d’avis que Meta doit modifier ses conseils afin de s’assurer que les représentations visuelles de l’identité de genre sont bien comprises au moment d’évaluer un contenu susceptible de constituer une attaque. Il souligne qu’en émettant cette recommandation, son intention n’est pas de réduire la protection de Meta envers les contestations de concepts, d’institutions, d’idées, de pratiques ou de croyances. Le Conseil souhaite plutôt que Meta précise que les publications n’ont pas besoin de représenter des figures humaines pour constituer une attaque contre des personnes.
Suicide et automutilation
Le Conseil estime que le contenu dans ce cas enfreint également le Standard de la communauté sur le suicide et l’automutilation. Cette politique interdit « le contenu qui promeut, encourage, coordonne ou fournit des instructions sur le suicide et l’automutilation ». D’après les conseils internes que Meta apporte à ses équipes d’examen, la « promotion » désigne le fait d’« évoquer quelque chose en termes positifs ». Le Conseil partage le même avis final que Meta selon lequel le contenu constitue une déclaration en faveur de la mort par suicide d’un groupe désigné par une caractéristique protégée, et encourage donc le suicide.
Il affirme également que le Standard de la communauté sur le suicide et l’automutilation devrait interdire plus clairement le contenu qui promeut ou encourage le suicide auprès d’un groupe de personnes identifiable, plutôt qu’auprès d’une personne précise dans ce groupe. Meta a révélé au Conseil que sa politique ne fait pas de distinction entre ces deux formes de contenu. Compte tenu des difficultés auxquelles les équipes d’examen ont été confrontées en tentant de déterminer si une déclaration encourageait le suicide d’un groupe dans le cas présent, le Conseil exhorte cependant Meta à préciser que la politique interdit le contenu qui promeut ou encourage le suicide auprès d’un groupe de personnes identifiable. Meta doit clarifier ce point sur sa page consacrée à la politique sur le suicide et l’automutilation, ainsi que dans ses règles internes associées destinées aux équipes d’examen.
II. Mesures de mise en application
Le Conseil observe que les systèmes automatisés de Meta pour la priorisation d’examen ont considérablement affecté les mesures de mise en application dans ce cas. Sur les 12 signalements d’utilisateur, 10 ont été automatiquement fermés par les systèmes automatisés de l’entreprise. Sur les trois appels déposés par les utilisateurs contre les décisions de Meta, deux ont été automatiquement fermés par ses systèmes automatisés. Le Conseil craint que l’historique de cas que Meta lui a communiqué comporte un certain nombre d’indices laissant penser à une infraction et que, par conséquent, ses politiques ne sont pas correctement mises en application.
Il remarque que de nombreux signalements d’utilisateur ont été fermés en raison des pratiques de Meta en matière de modération de contenu conçues pour traiter plusieurs signalements relatifs au même contenu. Le premier signalement d’utilisateur sur le discours haineux n’a pas fait l’objet d’un examen manuel prioritaire, car ses « niveaux de gravité et de viralité étaient faibles ». Les signalements ultérieurs liés au discours haineux n’ont pas été examinés en priorité car, lorsque plusieurs signalements portent sur le même contenu, Meta « déduplique ces signalements afin d’assurer la cohérence des décisions des équipes d’examen et des mesures de mise en application ». Le Conseil reconnaît que la déduplication représente une pratique raisonnable pour la modération de contenu à grande échelle. Toutefois, il note que cette pratique soumet la décision initiale concernant un signalement à davantage de pression, car elle déterminera également le sort de tous les signalements regroupés avec lui.
Le Conseil estime que Meta devrait donner la priorité à l’amélioration de ses systèmes automatisés qui appliquent les politiques liées au contenu et priorisent le contenu devant être examiné, notamment lorsqu’il est question d’un contenu susceptible d’affecter les personnes LGBTQIA+. En améliorant la capacité des systèmes automatisés à reconnaître le type de langage codé et d’images basées sur le contexte pris en compte dans le cas présent, il serait sûrement plus facile de mettre également en application la politique sur le contenu qui cible d’autres groupes désignés par une caractéristique protégée. Le Conseil considère que la biographie de l’utilisateur, par exemple, qui comportait une reconnaissance personnelle de transphobie, aurait pu être interprétée comme un signal pertinent lors de l’évaluation des niveaux de gravité menée pour savoir s’il convenait d’examiner le contenu en priorité et/ou de prendre des mesures de mise en application. Ce signal pourrait compléter les analyses existantes sur les comportements et les réseaux sociaux sur lesquelles Meta pourrait s’appuyer pour repérer le contenu potentiellement en infraction.
Par ailleurs, le Conseil souligne que Meta devrait s’assurer du bon étalonnage de ses systèmes automatisés et de la formation de ses équipes d’examen de contenu afin d’évaluer efficacement les publications relatives à la communauté LGBTQIA+ à grande échelle. Le Conseil émet des inquiétudes quant à l’approche actuelle de Meta, selon laquelle les équipes d’examen chargées d’analyser les appels semblent souvent disposer du même niveau d’expertise que celles qui réalisent la première évaluation du contenu. Le Conseil pense que Meta devrait investir davantage dans le développement et la formation de classificateurs capables d’identifier un contenu potentiellement en infraction contre la communauté LGBTQIA+ et de donner la priorité au contenu pour un examen manuel. Le discours haineux, notamment le contenu de la plus haute gravité qui relève du niveau 1 de la politique de Meta, doit toujours être évalué en priorité. Le Conseil suggère également de contribuer aux améliorations de la procédure en : i) améliorant la formation des équipes d’examen consacrée aux préjudices relatifs à l’identité de genre ; ii) mettant en place un groupe de travail étudiant les expériences des personnes transgenres et non binaires sur les plateformes de Meta ; et iii) créant un groupe de spécialistes du sujet afin d’examiner le contenu portant sur les problématiques qui affectent la communauté LGBTQIA+. Bien que les faits du cas présent concernent spécifiquement les préjudices subis par les personnes transgenres sur Facebook, le Conseil encourage également Meta à trouver des solutions pour améliorer ses mesures contre le contenu haineux qui touchent d’autres groupes désignés par une caractéristique protégée.
Le Conseil se limite à n’émettre ci-dessous que deux recommandations formelles, car il explique que les défis exposés dans le cas présent sont moins liés aux politiques actuellement en vigueur qu’à leur mise en application. Le Conseil fait état d’au moins cinq indications de contenu nuisible dans ce cas : (1) la référence dans la publication aux « rideaux qui se pendent tout seuls » ; (2) la référence dans la publication au « nettoyage de printemps <3 » ; (3) la désignation de l’utilisateur lui-même en tant que « transphobe » dans un contexte national de grande hostilité contre la communauté LGBTQIA+ ; (4) le nombre de signalements et d’appels déposés par des utilisateurs sur le contenu ; et (5) le nombre de signalements et d’appels concernant la viralité du contenu. Le Conseil s’inquiète de l’incapacité de Meta à repérer ces signaux et considère que cela démontre la mauvaise application de ses politiques. Le Conseil insiste sur le fait que Meta doit trouver des solutions rigoureuses et créatives pour combler les lacunes qui existent entre ses idéaux sur la protection des individus LGBTQIA+ sur ses plateformes et leur mise en application.
8.2 Respect des responsabilités de Meta en matière des droits humains
Liberté d’expression (article 19 du PIDCP)
L’article 19, paragraphe 2 du Pacte international relatif aux droits civils et politiques (PIDCP) prévoit que « toute personne a droit à la liberté d’expression ; ce droit comprend la liberté de rechercher, de recevoir et de répandre des informations et des idées de toute espèce, sans considération de frontières, sous une forme orale, écrite, imprimée ou artistique, ou par tout autre moyen. » L’observation générale n° 34 (2011) précise en outre que l’expression protégée inclut l’expression susceptible d’être considérée comme « profondément offensante » (paragraphe 11).
Lorsque des restrictions de la liberté d’expression sont imposées par un État, elles doivent remplir des critères de légalité, d’objectif légitime, et de nécessité et de proportionnalité (article 19, paragraphe 3 du PIDCP). Ces exigences sont souvent reprises sous l’intitulé « test tripartite ». Le Conseil utilise ce cadre pour interpréter les engagements volontaires de Meta en matière de droits humains, à la fois pour la décision relative au contenu individuel en cours d’examen et pour ce que cela dit de l’approche plus large de Meta en matière de gouvernance du contenu. Comme l’a déclaré le Rapporteur spécial des Nations unies sur la liberté d’expression disant que même si « les entreprises ne sont pas soumises aux mêmes devoirs que les gouvernements, leur influence est néanmoins telle qu’elle doit les inciter à se poser les mêmes questions qu’eux quant à la protection de la liberté d’expression de leurs utilisateurs » (A/74/486, paragraphe 41).
I. Légalité (clarté et accessibilité des règles)
Le principe de légalité consacré par la législation internationale des droits de l’homme exige que les règles utilisées pour limiter la liberté d’expression soient claires et accessibles (observation générale n° 34, paragraphe 25). Les règles qui limitent la liberté d’expression « ne peuvent pas conférer aux personnes chargées de [leur] application un pouvoir illimité de décider de la restriction de la liberté d’expression » et elles « énoncent des règles suffisamment précises pour permettre aux personnes chargées de leur application d’établir quelles formes d’expression sont légitimement restreintes et lesquelles ne le sont pas » (Ibid). Le Rapporteur spécial des Nations unies sur la liberté d’expression a déclaré que les règles régissant le discours en ligne devaient être claires et précises (A/HRC/38/35, paragraphe 46). Les personnes utilisant les plateformes de Meta doivent pouvoir accéder aux règles et les comprendre, et les équipes d’examen de contenu doivent disposer de conseils clairs sur leur application.
Le Conseil estime que les interdictions prononcées par Meta sur le « discours violent ou l’appel à la violence », exprimé textuellement ou visuellement contre des groupes désignés par des caractéristiques protégées, les déclarations selon lesquelles une caractéristique protégée ne devrait pas exister, et le discours qui promeut ou encourage le suicide et l’automutilation sont suffisamment claires.
D’après le Conseil, Meta pourrait cependant améliorer sa mise en application des politiques applicables dans ce cas en apportant des conseils plus précis aux équipes d’examen manuel, comme le stipule l’article 8.1 ci-dessus. Meta doit préciser que les représentations visuelles de l’identité de genre, par le biais d’un drapeau par exemple, n’ont pas besoin de comporter de figures humaines pour constituer une attaque en vertu de la politique sur le discours haineux. Par ailleurs, l’entreprise doit indiquer clairement qu’appeler un groupe (plutôt qu’un individu en particulier) à se suicider va à l’encontre de la politique sur le suicide et l’automutilation.
II. Objectif légitime
Toute limitation de la liberté d’expression doit poursuivre l’un des objectifs légitimes énoncés dans le PIDCP, lesquels incluent les « droits d’autrui ». Pour plusieurs décisions, le Conseil a estimé que la politique de Meta relative au discours haineux, établie pour protéger les personnes contre les préjudices causés par les discours haineux, comporte un objectif légitime reconnu par les standards du droit international lié aux droits humains (voir, par exemple, la décision relative au Dessin animé de Knin). En outre, le Conseil considère que, dans le cas présent, les lignes politiques relatives au contenu qui encourage le suicide ou l’automutilation servent les objectifs légitimes du droit de bénéficier du meilleur état de santé physique ou mentale susceptible d’être atteint (PIDESC 12) et du droit à la vie (article 5 du PIDCP). Dans les cas semblables à celui qui nous préoccupe, où un groupe désigné par une caractéristique protégée est encouragé à se suicider, la politique sur le suicide et l’automutilation protège également les droits des personnes à l’égalité et à la non-discrimination (article 2 du PIDCP, paragraphe 1).
III. Nécessité et proportionnalité
Le principe de nécessité et de proportionnalité stipule que les restrictions de la liberté d’expression « doivent être appropriées pour remplir leur fonction de protection ; elles doivent constituer le moyen le moins perturbateur parmi ceux qui pourraient permettre d’obtenir le résultat recherché » et « elles doivent être proportionnées à l’intérêt à protéger » (observation générale n° 34, paragraphe 34).
Lors de l’analyse des risques encourus en cas de contenu violent, le Conseil est généralement guidé, pour évaluer les risques posés par les contenus violents, par le test des six facteurs décrit dans le Plan d’action de Rabat, qui traite de l’appel à la haine nationale, raciale ou religieuse qui constitue une incitation à l’hostilité, à la discrimination ou à la violence. Après avoir évalué les facteurs pertinents, notamment le contexte et la forme d’expression, l’intention de l’auteur de la publication et le contexte décrit plus en détail ci-dessous, le Conseil juge le retrait du contenu conforme aux responsabilités de Meta en matière de droits humains en raison du risque de préjudice imminent et crédible qu’il induit. La suppression du contenu constitue une limitation nécessaire et proportionnée à l’expression destinée à protéger le droit à la vie, ainsi que le droit de bénéficier du meilleur état de santé physique ou mentale susceptible d’être atteint de la communauté LGBTQIA+ au sens large et, en particulier, des personnes transgenres en Pologne.
Bien que le Conseil ait précédemment noté l’importance de la réappropriation des termes péjoratifs par les personnes LGBTQIA+ contre la désinformation (voir la décision sur la Réappropriation de mots arabes), le cas présent ne relève pas de cette situation. La publication ne contient pas non plus de discours politique ni d’intérêt médiatique (voir la décision sur les Manifestations en Colombie). Elle contient ici l’image du drapeau transgenre suspendu tel des rideaux, avec pour description « des rideaux qui se pendent tout seuls ». D’après les spécialistes consultés par le Conseil, le recours aux rideaux, sous forme visuelle et textuelle, ne semble pas être un langage codé récurrent évoquant la communauté transgenre. Cependant, tel que nous l’avons vu précédemment, le phénomène de « créativité pernicieuse », ou l’utilisation de nouveaux termes et stratégies de représentation pour exprimer la haine et le harcèlement, caractérise aujourd’hui les tendances de contenu qui ciblent les personnes transgenres. Le Conseil estime que le présent contenu s’inscrit pleinement dans cette tendance. Même en utilisant une image que certains ont jugée « humoristique » (comme le démontrent les réactions sous forme d’emoji « Haha »), la publication peut toujours être interprétée comme une déclaration violente et provocante ciblant la communauté transgenre. L’humour et la satire peuvent, bien évidemment, servir à repousser les limites de la critique légitime, mais ne sauraient couvrir le discours haineux. La publication n’évoque le sujet des taux élevés de suicide parmi la communauté transgenre que pour célébrer cet état de fait.
En évaluant l’intention du créateur du contenu, le Conseil remarque qu’il indiquait ouvertement dans sa biographie être « transphobe ». Bien que Meta n’ait tenu compte que plus tard des implications de cette déclaration pour le contenu du cas lui-même, le Conseil la juge particulièrement pertinente pour identifier l’intention de l’utilisateur. Elle constituerait également un motif en soi pour supprimer le contenu en tant qu’infraction de niveau 2 de la politique sur le discours haineux. La publication décrivait par ailleurs le suicide des personnes transgenres comme un « nettoyage de printemps », en incluant une émoticône en forme de cœur dans la description. Compte tenu de cette déclaration qui soutient la mort d’un groupe par suicide, le Conseil constate l’intention d’encourager la discrimination et la violence en fonction du contenu de la publication, de l’image utilisée ainsi que du texte et de la légende qui l’accompagnent. Le contenu du cas présent n’encourage pas seulement les personnes transgenres à commettre des actes violents contre elles, mais incite également les autres à les discriminer et à agir hostilement contre elles. Nous en voulons pour preuve le fait que la réaction la plus fréquemment exprimée par les autres utilisateurs qui interagissent avec le contenu est l’emoji « Haha ».
Enfin, le Conseil fait état des risques hors ligne considérables que la communauté LGBTQIA+ polonaise doit affronter sous la forme d’attaques croissantes à travers des mesures législatives et administratives, ainsi que des discours politiques des figures du gouvernement central et des personnalités publiques influentes. Depuis 2020, la Pologne a systématiquement été classée comme le pays membre de l’UE le moins performant en matière de droits LGBTQIA+ selon ILGA-Europe. Il est également important de noter que la Pologne n’a adopté aucune protection LGBTQIA+ dans sa législation relative au discours haineux et aux crimes de haine, une lacune que ILGA-Europe et Amnesty International, ainsi que d’autres organisations, ont demandé à la Pologne de combler. Par ailleurs, la montée des discours anti-LGBTQIA+ en polonais sur Facebook, signalés par des spécialistes externes et de nombreux commentaires publics, n’est pas un cas isolé. Plusieurs organisations et institutions ont exprimé leurs inquiétudes quant à la prévalence des discours anti-LGBTQIA+ sur les réseaux sociaux. Victor Madrigal-Borloz, Expert indépendant des Nations Unies sur l’orientation sexuelle et l’identité de genre (IE SOGI), a affirmé que les niveaux de violence et de discrimination contre les personnes transgenres et de diverses identités de genre « offensent la conscience humaine ». Les recherches et rapports de la GLAAD ont révélé que « les personnes LGBTQ sont confrontées à des préjudices en ligne bien réels, par exemple …, sans parler du traumatisme psychologique entraîné par une exposition permanente aux insultes et aux comportements haineux ». Les contenus semblables à la publication du cas présent, notamment considérés à grande échelle, peuvent amplifier un environnement dans lequel les préjudices déjà généralisés de la mort par suicide dans la communauté transgenre est exacerbé. En outre, le contenu qui normalise le discours violent anti-transgenre, comme dans ce cas, risque de contribuer aux problèmes de santé mentale auxquels la communauté transgenre est actuellement confrontée, ainsi qu’à la hausse des actes de violence hors ligne dont elle est la cible.
9. Décision du Conseil de surveillance
Le Conseil de surveillance a annulé la décision initiale de Meta de laisser le contenu sur la plateforme.
10. Recommandations
Politique de contenu
1. La page de Meta relative au suicide et à l’automutilation doit préciser que la politique interdit le contenu qui promeut le suicide d’un groupe de personnes identifiable ou l’y encourage.
Le Conseil estimera que cette recommandation a été suivie lorsque le langage public du Standard de la communauté en matière de suicide et d’automutilation tiendra compte de la modification proposée.
Mise en application
2. Meta doit modifier ses conseils internes destinés à ses équipes d’examen à grande échelle afin de s’assurer que les représentations visuelles d’une identité de genre reposant sur un drapeau et ne contenant pas de figure humaine soient comprises comme des représentations d’un groupe défini par l’identité de genre de ses membres. Cette modification doit préciser les instructions pour la mise en application de cette forme de contenu à grande échelle lorsqu’il contient une attaque qui va à l’encontre de sa politique.
Le Conseil estimera que cette recommandation a été suivie lorsque Meta lui présentera les modifications apportées à ses conseils internes.
*Note de procédure :
Les décisions du Conseil de surveillance sont préparées par des panels de cinq membres et approuvées par une majorité du Conseil. Elles ne représentent pas nécessairement les opinions personnelles de tous ses membres.
Pour la décision sur ce cas, des recherches indépendantes ont été commandées au nom du Conseil. Le Conseil était assisté d’un institut de recherche indépendant, dont le siège se trouve à l’université de Göteborg. Il avait mobilisé une équipe de plus de 50 experts en sciences sociales sur 6 continents, ainsi que 3 200 experts nationaux du monde entier. Memetica, une organisation qui effectue des recherches open source sur les tendances des réseaux sociaux, a également fourni une analyse. L’entreprise Lionbridge Technologies, LLC, dont les spécialistes parlent couramment 350 langues et travaillent dans 5 000 villes du monde entier, a fourni son expertise linguistique.
Retour aux décisions de cas et aux avis consultatifs politiques