Renversé

Contenu satirique sur Elon Musk

Un utilisateur a fait appel de la décision de Meta de supprimer une publication Instagram contenant une conversation fictive du réseau social « X », dans laquelle Elon Musk réagit à une publication contenant des propos provocateurs. Le cas met en évidence les manquements de Meta quant à l’identification exacte du contenu satirique sur ses plateformes.

Type de décision

Résumé

Politiques et sujets

Sujet
Humour, Liberté d’expression
Norme communautaire
Personnes et organisations dangereuses

Régions/Pays

Emplacement
États-Unis

Plate-forme

Plate-forme
Instagram

Il s’agit d’un résumé de la décision. Les résumés des décisions examinent les cas où Meta est revenue sur sa décision initiale concernant un élément de contenu après que le Conseil a porté l’affaire à l’attention de l’entreprise. Ces décisions incluent des informations sur les erreurs reconnues de Meta, et informent le public sur l’impact du travail du Conseil. Elles sont approuvées par un groupe de membres du Conseil, et non par le Conseil tout entier. Elles ne tiennent pas compte des commentaires publics et n’ont pas valeur de précédent pour le Conseil. Les résumés des décisions assurent la transparence des corrections apportées par Meta et mettent en évidence les domaines dans lesquels l’entreprise pourrait améliorer l’application de sa politique.

Résumé du cas

Un utilisateur a fait appel de la décision de Meta de supprimer une publication Instagram contenant une conversation fictive du réseau social « X » (anciennement Twitter), dans laquelle Elon Musk réagit à une publication contenant des propos provocateurs. Après que le Conseil a porté l’appel à l’attention de Meta, l’entreprise est revenue sur sa décision initiale et a restauré la publication.

Description du cas et contexte

En juillet 2023, un utilisateur a publié une image sur Instagram, représentant une conversation fictive du réseau social X, mais sans copier l’apparence de X. Dans cette conversation, un utilisateur fictif avait publié plusieurs déclarations provocatrices, telles que : « KKK never did anything wrong to black people » (Le KKK n’a jamais rien fait de mal à la communauté noire), « Hitler didn’t hate Jews » (Hitler ne détestait pas les Juifs) et « LGBT are all pedophiles » (Toutes les personnes LGBT sont des pédophiles). La conversation montrait une réponse d’Elon Musk disant « Looking into this... » (Je me renseigne...). Cette publication Instagram a été vue moins de 500 fois.

La publication avait été supprimée pour infraction à la politique relative aux organismes et individus dangereux qui interdit la représentation de groupes et d’individus que l’entreprise estime liés à des préjudices dans le monde réel ainsi que certains propos les concernant. Meta considère le Ku Klux Klan (KKK) et Hitler comme étant des entités dangereuses au titre de cette politique. Dans certains cas, Meta autorise le « contenu qui pourrait enfreindre les Standards de la communauté lorsque celui-ci est considéré comme satirique. Le contenu sera uniquement autorisé si les éléments en infraction du contenu sont satiriques ou attribués à une chose ou une personne afin de se moquer d’elle ou de la critiquer. »

Dans son appel au Conseil, l’utilisateur indique que la publication n’avait pas pour but de soutenir Hitler ou le KKK, mais plutôt « d’interpeller et de critiquer un des hommes les plus influents au monde concernant ses interactions avec des extrémistes sur sa plateforme ».

Après que le Conseil a porté ce cas à l’attention de Meta, l’entreprise a déterminé que le contenu n’enfreignait pas la politique relative aux personnes et organisations dangereuses et que sa suppression était injustifiée. L’entreprise a ensuite restauré le contenu sur Instagram.

Autorité et champ d’application du Conseil

Le Conseil jouit de l’autorité nécessaire pour examiner la décision de Meta à la suite d’un appel interjeté par l’utilisateur dont le contenu a été supprimé (article 2, section 1 de la Charte ; article 3, section 1 des Statuts).

Lorsque Meta reconnaît avoir commis une erreur et revient sur sa décision dans un cas soumis à l’examen du Conseil, ce dernier peut sélectionner ce cas pour un résumé de la décision (article 2, section 2.1.3 des Statuts). Le Conseil réexamine la décision initiale afin de mieux comprendre le processus de modération de contenu, de réduire les erreurs et d’accroître l’équité pour les personnes qui utilisent Facebook et Instagram.

Importance du cas

Ce cas met en évidence les manquements de Meta quant à l’identification exacte du contenu satirique sur ses plateformes. Le Conseil a déjà émis des recommandations relatives à la gestion du contenu satirique par Meta. Le Conseil exhorte Meta de « s’assurer que les procédures adéquates sont mises en place pour évaluer correctement les contenus satiriques et leur contexte respectif. Cela nécessite notamment de fournir aux modérateurs de contenu : (i) la possibilité de contacter les équipes d’exploitation locales de Facebook afin de recueillir les informations culturelles et le contexte pertinents ; et (ii) suffisamment de temps pour consulter les équipes d’exploitation locales et pour procéder à l’évaluation. Facebook doit s’assurer que ses politiques à l’attention des modérateurs de contenu encouragent ces derniers à se renseigner davantage ou à faire remonter le cas lorsqu’un modérateur n’est pas certain qu’un meme est satirique ou non », (Meme aux deux boutons, recommandation n° 3). Meta indique avoir appliqué cette recommandation sans publier davantage d’informations. L’application ne peut donc pas être vérifiée.

Ce cas témoigne en outre des difficultés de Meta quand il s’agit d’interpréter l’intention des utilisateurs. Précédemment, le Conseil a invité Meta a communiquer à ses utilisateurs la manière de préciser l’intention derrière une publication, en particulier dans le contexte de la politique relative aux personnes et organisations dangereuses. Meta a partiellement appliqué la recommandation du Conseil « d’expliquer dans les Standards de la communauté comment les utilisateurs peuvent indiquer clairement à Facebook l’intention derrière leur publication... Facebook devrait fournir des exemples illustrant la limite entre le contenu autorisé et le contenu interdit, notamment en lien avec l’application de la règle qui précise ce que le “soutien” exclut », (décision sur l’Isolement d’Öcalan, recommandation n° 6).

Le Conseil souligne que l’adoption complète de ces recommandations, ainsi que la publication par Meta d’informations permettant de prouver le succès de la mise en place pourraient réduire le nombre d’erreurs d’application de la politique pour du contenu satirique sur les plateformes Meta.

Décision

Le Conseil a annulé la décision initiale de Meta visant à supprimer le contenu. Le Conseil reconnaît que Meta a corrigé son erreur initiale une fois que le Conseil a porté le cas à son attention.

Retour aux décisions de cas et aux avis consultatifs politiques