Renversé

Terme réapproprié lors d’une performance drag

Un utilisateur a fait appel de la décision de Meta de supprimer une publication Instagram qui comprend une performance drag et une légende. L’auteur de cette dernière s’y désigne, de manière positive, par un terme réapproprié que Meta considère comme une insulte.

Type de décision

Résumé

Politiques et sujets

Sujet
Communautés marginalisées, Égalité des sexes et des genres, LGBT
Norme communautaire
Discours incitant à la haine

Régions/Pays

Emplacement
États-Unis

Plate-forme

Plate-forme
Instagram

Les décisions sommaires concernent les cas pour lesquels Meta est revenue sur sa décision initiale après que le Conseil les a portés à l’attention de l’entreprise. Elles contiennent des informations relatives aux erreurs reconnues par Meta. Elles sont approuvées par une partie du Conseil (et pas par l’ensemble de ses membres), n’impliquent pas de commentaires publics et n’ont pas valeur de précédent pour le Conseil. Les décisions sommaires exercent une influence directe sur les décisions de Meta en assurant la transparence quant à ses corrections et en identifiant les domaines dans lesquels Meta pourrait améliorer son application des politiques.

Résumé

Un utilisateur a fait appel de la décision de Meta de supprimer une publication Instagram qui comprend une performance drag et une légende. L’auteur de cette dernière s’y désigne, de manière positive, par un terme réapproprié que Meta considère comme une insulte. Après que le Conseil a porté l’appel à l’attention de Meta, l’entreprise est revenue sur sa décision initiale et a restauré la publication.

À propos du cas

En mai 2024, un utilisateur a publié sur Instagram une vidéo d’iel-même où iel porte une tenue rouge à paillettes et exécute une performance drag. La légende sous la vidéo citait d’autres utilisateurs d’Instagram et les remerciait pour leur soutien et leur participation. La publication comprenait également une note de remerciement à l’attention d’un autre utilisateur qui s’est occupé de la production sonore du show. Dans la publication, l’utilisateur se qualifie de « faggy martyr » (petit martyr pédé).

L’utilisateur qui a publié la vidéo a fait appel auprès du Conseil de la décision de Meta de supprimer cette publication et expliqué qu’iel était artiste queer, trans et drag et qu’iel parlait d’iel-même dans la légende de la vidéo. Iel a mis en évidence le fait qu’iel avait inclus le terme « faggy » (un diminutif de l’insulte « fag » [pédé], ci-après « f***y ») dans la description de sa publication parce qu’il s’agissait d’un « reclaimed colloquial term that the queer community … uses all the time » (terme familier que la communauté queer … s’était réapproprié et utilisait tout le temps). L’utilisateur a également souligné le fait qu’iel considérait ce terme comme un descriptif joyeux dont iel était fier. Iel a conclu son appel au Conseil en indiquant qu’il était important de laisser la publication en ligne parce qu’elle lui permettait d’être invité à davantage de performances.

En vertu du standard de la communauté de Meta en matière de conduite haineuse, l’entreprise supprime les insultes, « définies comme des mots qui créent intrinsèquement une atmosphère d’exclusion et d’intimidation à l’encontre de personnes sur la base d’une caractéristique protégée », dans la plupart des contextes, « parce que ces mots renvoient à une discrimination, une oppression et une violence historiques ». Bien que Meta ait annoncé le 7 janvier 2025 qu’elle allait apporter des modifications au texte de sa politique sur les discours haineux, désormais intitulée Politique en matière de conduite haineuse, et à sa manière de l’appliquer, l’insulte « f***y » figure toujours dans la liste de l’entreprise.

Celle-ci autorise les insultes lorsqu’elles sont utilisées par l’auteur pour se qualifier lui-même et dans un contexte clairement positif. Ces exceptions restent d’application à la suite de la révision de politique effectuée par Meta le 7 janvier. Dans ce cas-ci, l’utilisateur a publié une vidéo de sa performance dans laquelle iel fait l’éloge de sa prestation et se qualifie iel-même de « f***y ». Bien que « f***y » soit une insulte, elle était utilisée dans ce contexte-ci « de manière autoréférentielle ou de manière valorisante ».

Après que le Conseil a porté ce cas à l’attention de Meta, l’entreprise a déterminé que le contenu n’enfreignait pas la politique en matière de conduite haineuse et que sa suppression initiale était injustifiée parce que l’insulte « f***y » était utilisée à la fois de manière autoréférentielle et dans un contexte clairement positif. L’entreprise a ensuite restauré le contenu sur Instagram.

Autorité et champ de compétence du Conseil

Le Conseil jouit de l’autorité nécessaire pour examiner la décision de Meta à la suite d’un appel interjeté par l’utilisateur dont le contenu a été supprimé (article 2, section 1 de la Charte ; article 3, section 1 des Statuts).

Lorsque Meta reconnaît avoir commis une erreur et revient sur sa décision dans un cas soumis à l’examen du Conseil, ce dernier peut décider de ne statuer que sommairement sur ce cas (article 2, section 2.1.3 des Statuts). Le Conseil réexamine la décision initiale afin de mieux comprendre le processus de modération de contenu, de réduire les erreurs et d’accroître l’équité pour les personnes qui utilisent Facebook, Instagram et Threads.

Importance du cas

Ce cas est la preuve des problèmes actuels qui affectent la capacité de Meta à appliquer les exceptions à sa politique en matière de conduite haineuse (autrefois, sur les discours haineux) relatives à l’utilisation des insultes dans un contexte autoréférentiel ou valorisant. Cette décision sommaire met en évidence les répercussions que peuvent avoir les suppressions injustifiées sur la visibilité et les moyens de subsistance des artistes queer, comme l’a indiqué l’utilisateur qui a fait appel de la décision de Meta. Le potentiel d’erreurs disproportionnées lors de la modération des termes réappropriés par les communautés queers et les conséquences des suppressions à outrance qui en découlent constituent un problème majeur sur lequel de nombreux chercheurs attirent l’attention depuis des années.

Dans le cas Réappropriation de mots arabes, le Conseil a estimé que Meta avait également appliqué trop sévèrement ses politiques sur les discours haineux à l’utilisation autoréférentielle d’insultes, ce qui avait des répercussions sur les membres arabophones de la communauté LGBTQIA+. Dans ce cas-là, trois modérateurs avaient jugé à tort que le contenu enfreignait la politique sur les discours haineux (selon la version en vigueur à l’époque), ce qui laissait craindre que les consignes à leur attention étaient insuffisantes. Le Conseil avait également insisté sur le fait qu’il attendait de Meta qu’elle soit « particulièrement sensible au risque d’une suppression injustifiée » de ce type de contenu « [é]tant donné l’importance, pour la communauté LGBTQIA+, de se réapproprier des termes dénigrants pour lutter contre la discrimination ».

Le Conseil a émis des recommandations en vue de réduire le nombre d’erreurs de modération commises par Meta lorsqu’elle applique les exceptions à ses Standards de la communauté. Par exemple, le Conseil a recommandé à Meta de « procéder à une évaluation de la précision de l’examen en se concentrant sur les autorisations de la politique en matière de discours haineux qui couvrent l’expression artistique et les propos sur les infractions aux droits de l’homme (p. ex. les condamnations, les sensibilisations, les emplois autoréférentiels et les utilisations valorisantes) » (recommandation n° 3 du cas Collier de wampum). L’entreprise a procédé à une évaluation de l’exactitude de la modération et a fourni au Conseil des indicateurs de précision de modération associés à sa politique en matière de discours haineux (désormais, conduite haineuse). Le Conseil considère que la recommandation a été appliquée, comme le prouvent les informations publiées. Des erreurs de modération peuvent se produire à grande échelle. Toutefois, le Conseil encourage Meta à continuer d’améliorer sa capacité à détecter précisément les contenus pour lesquels une surmodération ou une sous-modération représenteraient des risques accrus pour les groupes vulnérables.

Le 7 janvier, Meta a annoncé qu’elle s’engageait à réduire le nombre d’erreurs d’application de ses politiques, en particulier en ce qui concerne les discours protégés. Par ses décisions sommaires, le Conseil met en évidence les erreurs de modération que l’entreprise a commises, indiquant souvent les domaines dans lesquels Meta peut continuer de s’améliorer sur la base des décisions et des recommandations précédentes du Conseil.

Décision

Le Conseil a annulé la décision initiale de Meta de supprimer le contenu. Le Conseil reconnaît que Meta a corrigé son erreur initiale une fois que le Conseil a porté le cas à son attention.

Retour aux décisions de cas et aux avis consultatifs politiques