Renversé

Réponse face à l’antisémitisme

Un utilisateur a fait appel de la décision de Meta de supprimer une publication Instagram composée d’une vidéo qui condamnait une déclaration de l’artiste musical Ye (le rappeur américain anciennement connu sous le nom de Kanye West) faisant l’éloge d’Hitler et niant l’Holocauste. Après que le Conseil a porté l’appel à l’attention de Meta, l’entreprise est revenue sur sa décision initiale et a restitué la publication.

Type de décision

Résumé

Politiques et sujets

Sujet
Liberté d’expression
Norme communautaire
Personnes et organisations dangereuses

Régions/Pays

Emplacement
États-Unis, Turquie

Plate-forme

Plate-forme
Instagram

Il s’agit d’un résumé de la décision. Les résumés des décisions examinent les cas où Meta est revenue sur sa décision initiale concernant un élément de contenu après que le Conseil a porté l’affaire à l’attention de l’entreprise. Ces décisions comprennent des informations sur les erreurs reconnues de Meta. Elles sont approuvées par un groupe de membres du Conseil, et non par le Conseil dans son ensemble. Elles ne tiennent pas compte des commentaires publics et n’ont pas valeur de précédent pour le Conseil. Les résumés des décisions assurent la transparence des corrections apportées par Meta et mettent en évidence les domaines dans lesquels l’entreprise pourrait améliorer l’application de sa politique.

Résumé du cas

Un utilisateur a fait appel de la décision de Meta de supprimer une publication Instagram composée d’une vidéo qui condamnait une déclaration de l’artiste musical Ye (le rappeur américain anciennement connu sous le nom de Kanye West) faisant l’éloge d’Hitler et niant l’Holocauste. Après que le Conseil a porté l’appel à l’attention de Meta, l’entreprise est revenue sur sa décision initiale et a restitué la publication.

Description du cas et contexte

En janvier 2023, un utilisateur d’Instagram en Turquie a publié un extrait vidéo d’une interview en anglais dans laquelle Ye déclare qu’il « likes » (aime) Adolf Hitler et que ce dernier « didn't kill 6 million Jews » (n’a pas tué 6 millions de Juifs). La vidéo montre ensuite une personne, vraisemblablement un journaliste TV, exprimant son indignation face aux déclarations de Ye et racontant comment les membres de sa famille ont été tués pendant l’Holocauste. La vidéo est sous-titrée en turc et accompagnée d’une légende pouvant être traduite par « un journaliste TV répond à Kanye West ».

Meta a d’abord supprimé la publication d’Instagram en invoquant ses politiques relatives aux organisations et personnes dangereuses (DOI) et au discours haineux. En vertu de la politique de Meta sur les DOI, l’entreprise supprime les propos élogieux d’individus désignés, notamment Adolf Hitler. Cependant, la politique reconnaît que « les utilisateurs peuvent partager des contenus incluant des références à des organisations et personnes dangereuses pour les signaler, les condamner ou engager une discussion neutre sur leurs activités ». En vertu de sa politique sur le discours haineux, l’entreprise supprime le négationnisme de l’Holocauste en tant que forme de stéréotype nuisible qui est « historiquement lié à l’intimidation, l’exclusion ou la violence sur la base d’une caractéristique protégée ». La politique sur le discours haineux reconnaît par ailleurs que « les utilisateurs partagent parfois des contenus incluant des insultes ou le discours haineux de quelqu’un d’autre pour le condamner ou sensibiliser les autres à son sujet ».

Dans son appel auprès du conseil, l’utilisateur a expliqué que la vidéo ne soutient pas Adolf Hitler et qu’il a été mal compris.

Après que le Conseil a porté ce cas à l’attention de Meta, l’entreprise a déterminé que le contenu n’enfreignait pas ses politiques. Bien que la vidéo contînt des propos élogieux sur Adolf Hitler et le négationnisme de l’Holocauste, la seconde partie condamnait sans équivoque ces déclarations, en les replaçant dans un contexte autorisé. L’entreprise a par conséquent conclu que sa suppression initiale était une erreur et a restauré le contenu sur la plateforme.

Autorité et champ d’application du Conseil

Le Conseil jouit de l’autorité nécessaire pour examiner la décision de Meta à la suite d’un appel interjeté par l’utilisateur dont le contenu a été supprimé (article 2, section 1 de la Charte ; article 3, section 1 des Statuts).

Lorsque Meta reconnaît avoir commis une erreur et revient sur sa décision dans un cas soumis à l’examen du Conseil, ce dernier peut sélectionner ce cas pour un résumé de la décision (article 2, section 2.1.3 des Statuts). Le Conseil réexamine la décision initiale afin de mieux faire comprendre le processus de modération des contenus, de réduire les erreurs et d’accroître l’équité pour les utilisateurs de Facebook et d’Instagram.

Importance du cas

Ce cas est un bon exemple d’une erreur d’application des exceptions dans les politiques de Meta sur les DOI et le discours haineux. De telles erreurs peuvent supprimer un discours visant à répondre à un discours haineux, notamment le négationnisme de l’Holocauste, ou à condamner des déclarations élogieuses sur des individus dangereux tels qu’Hitler. Il est essentiel de protéger le contre-discours afin de faire progresser la liberté d’expression et de s’en servir comme d’un outil pour combattre le contenu nuisible comme les fausses informations et le discours haineux. Le Conseil a précédemment recommandé les mesures suivantes : Meta doit évaluer l’exactitude des examinateurs qui appliquent l’autorisation d’informer en vertu de la politique relative aux organisations et personnes dangereuses afin d’identifier les problèmes systémiques à l’origine des erreurs de mise en application (Mention des talibans dans les informations d’actualité, recommandation n° 5) ; Meta doit évaluer les processus de modération automatisés pour la mise en application de la politique sur les DOI ( Isolement d’Öcalan, recommandation n° 2) ; et Meta doit mener des évaluations sur l’exactitude axées sur les autorisations de sa politique sur le discours haineux qui couvrent les formes d’expression comme la condamnation, la sensibilisation, l’auto-référence et la responsabilisation ( Collier de Wampum, recommandation n° 3). Meta a indiqué une progression sur le cas Mention des talibans dans les informations d’actualité, recommandation n° 5), a refusé de mettre en place le cas Isolement d’Öcalan, recommandation n° 2), et a démontré la mise en œuvre du cas Collier de Wampum, recommandation n° 3.

Le Conseil réitère que la mise en application intégrale de ces recommandations peut réduire les taux d’erreur dans la mise en œuvre des autorisations en vertu des politiques sur le discours haineux et les organisations et personnes dangereuses. Cela permettra ainsi de mieux protéger le contre-discours et d’améliorer la liberté d’expression dans son ensemble.

Décision

Le Conseil a annulé la décision initiale de Meta visant à supprimer le contenu. Le Conseil reconnaît que Meta a corrigé son erreur initiale une fois que le Conseil a porté le cas à l’attention de Meta.

Retour aux décisions de cas et aux avis consultatifs politiques