Le Conseil de surveillance annule la décision initiale de Meta concernant la publication en polonais ciblant les personnes transgenres

Le Conseil de surveillance a annulé la décision initiale de Meta de conserver sur Facebook une publication dont l’auteur a ciblé des personnes transgenres avec un discours violent les enjoignant à se suicider. Le Conseil estime que la publication constituait une infraction aux Standards de la communauté relatifs au discours haineux ainsi qu’au suicide et à l’automutilation. Toutefois, le problème essentiel qui réside dans ce cas ne relève pas des politiques, mais de leur mise en application. À maintes reprises Meta n’a pas été en mesure d’appliquer correctement sa politique, malgré plusieurs signaux démontrant le caractère nuisible de la publication, le Conseil en conclut donc que l’entreprise n’est pas à la hauteur des idéaux qu’elle a exprimés sur la sécurité de la communauté LGBTQIA+. Il exhorte Meta à combler ses lacunes en matière de mise en application, en améliorant notamment ses conseils internes aux équipes d’examen.

À propos du cas

En avril 2023, un utilisateur de Facebook en Pologne a publié l’image d’un rideau à rayures bleues, roses et blanche, les couleurs du drapeau transgenre, accompagnée des mentions suivantes en polonais : « Nouvelle technologie… Des rideaux qui se pendent tout seuls » et « nettoyage de printemps

Entre avril et mai 2023, 11 personnes différentes ont signalé la publication 12 fois au total. Seuls deux des 12 signalements ont été envoyés en priorité pour un examen manuel par les systèmes automatisés de Meta, tandis que les autres ont été fermés. Les deux signalements soumis à un examen manuel, soupçonnés d’enfreindre le Standard de Facebook sur le suicide et l’automutilation, ont été évalués comme n’étant pas en infraction. Aucun des signalements basés sur la politique de Meta en matière de discours haineux n’a été soumis à un examen manuel.

Trois utilisateurs ont ensuite fait appel de la décision de Meta de conserver la publication sur Facebook ; l’un de ces signalements a donné lieu, après examen manuel, à la confirmation de la décision initiale basée sur le Standard de la communauté relatif au suicide et à l’automutilation. Encore une fois, les autres appels, déposés en vertu du Standard de la communauté sur le discours haineux, n’ont pas été soumis à un examen manuel. Enfin, l’un des utilisateurs qui avaient signalé le contenu à l’origine a fait appel auprès du Conseil. Après que le Conseil a sélectionné le cas présent, Meta a conclu que la publication enfreignait ses politiques sur le discours haineux ainsi que sur le suicide et l’automutilation, et l’a ensuite supprimé de Facebook. Par ailleurs, l’entreprise a désactivé le compte de l’utilisateur à l’origine de la publication du contenu pour avoir précédemment commis d’autres infractions.

Principales observations

Le Conseil considère que le contenu enfreignait la politique de Meta sur le discours haineux, car il comportait un « discours violent » sous la forme d’un appel au suicide d’un groupe désigné par une caractéristique protégée. En demandant aux personnes transgenres de se suicider, la publication créait une atmosphère d’intimidation et d’exclusion, et aurait pu entraîner des blessures physiques. Compte tenu de la nature du texte et de l’image, la publication exacerbait également les problèmes de santé mentale auxquels la communauté transgenre est confrontée. L’association Gay and Lesbian Alliance Against Defamation (GLAAD) a récemment publié un rapport qui fait état du « traumatisme psychologique entraîné par une exposition permanente aux insultes et aux comportements haineux » en ligne. Le Conseil appuie de surcroît sa conclusion sur le contexte général des préjudices en ligne et hors ligne que la communauté LGBTQIA+ subit en Pologne, notamment les attaques et les discours politiques de membres influents du gouvernement et autres personnalités publiques.

Il s’interroge sur le fait que les équipes d’examen manuel de Meta n’aient pas tenu compte des indications contextuelles. La référence dans la publication au risque élevé de suicide (« Des rideaux qui se pendent tout seuls ») et à l’appel à la mort du groupe (« nettoyage de printemps ») constituaient des infractions claires du Standard de la communauté sur le discours haineux, tandis que le simple fait que le créateur du contenu se décrive lui-même comme transphobe représentait une autre infraction. Le Conseil exhorte Meta à améliorer la mise en application de sa politique sur le discours haineux envers les personnes LGBTQIA+, notamment lorsque les publications comportent des images et du texte qui nécessitent de connaître le contexte pour les interpréter. Dans le cas présent, les références passablement codées au suicide associées à la représentation visuelle d’un groupe protégé (le drapeau transgenre) ont pris la forme d’une « créativité pernicieuse ». Cette pratique concerne les personnes malveillantes qui élaborent de nouveaux moyens de cibler la communauté LGBTQIA+ en diffusant des publications et des memes qu’elles revendiquent comme étant « humoristiques ou satiriques », mais relèvent en réalité de la haine et du harcèlement.

En outre, le Conseil se montre préoccupé par la déclaration de Meta selon laquelle le fait que les équipes d’examen manuel n’aient pas supprimé le contenu correspond à une application stricte de ses règles internes. Cela indiquerait que les règles internes de Meta interprètent mal les éventuelles interactions entre le texte et l’image pour représenter un groupe défini par l’identité de genre de ses membres.

Bien que la publication ait également constitué une infraction au Standard de la communauté de Facebook sur le suicide et l’automutilation, le Conseil estime que cette politique devrait interdire plus clairement le contenu qui promeut le suicide auprès d’un groupe de personnes identifiable, plutôt qu’auprès d’une personne précise dans ce groupe.

Dans ce cas, les systèmes automatisés de priorisation d’examen de Meta ont considérablement influencé la mise en application, notamment la façon dont l’entreprise traite les différents signalements déposés au sujet du même contenu. Meta surveille et déduplique (supprime) ces signalements « pour assurer la cohérence des décisions des équipes d’examen et des mesures de mise en application ». Parmi les autres raisons invoquées pour la fermeture automatique des signalements, on peut mentionner les faibles niveaux de gravité et de viralité du contenu (nombre de fois qu’il a été vu), expliquant pourquoi il n’a pas fait l’objet d’un examen manuel prioritaire. Dans le cas présent, le Conseil estime que la biographie de l’utilisateur aurait pu être considérée comme un signal pertinent lors de l’évaluation des niveaux de gravité.

Le Conseil pense que Meta devrait investir davantage dans le développement de classificateurs capables d’identifier un contenu potentiellement en infraction contre la communauté LGBTQIA+ et améliorer la formation de ses équipes d’examen manuel sur les préjudices liés à l’identité de genre.

La décision du Conseil de surveillance

Le Conseil de surveillance a annulé la décision initiale de Meta de laisser le contenu sur la plateforme.

Le Conseil recommande à Meta de :

  • Préciser sur sa page relative au suicide et à l’automutilation que la politique interdit le contenu qui promeut le suicide auprès d’un groupe identifiable de personnes ou l’y encourage.
  • Modifier les conseils internes qu’elle fournit à ses équipes d’examen à grande échelle afin de s’assurer que les représentations visuelles d’une identité de genre reposant sur un drapeau et ne contenant pas de figure humaine sont interprétées comme des représentations d’un groupe défini par l’identité de genre de ses membres.

Pour en savoir plus

Pour lire l’intégralité de la décision, cliquez ici.

Pour lire un résumé des commentaires publics relatifs à ce cas, cliquez ici.

Retour Aux Actualités