Décision sur plusieurs affaires

Citation de Goebbels

Dans le résumé de la décision, le Conseil examine 4 publications en même temps. 4 utilisateurs distincts ont fait appel des décisions de Meta de supprimer des publications contenant une citation attribuée à Joseph Goebbels.

4 cas inclus dans ce lot

Renversé

FB-EZ2SSLB1

Cas relatif à des personnes et organisations dangereuses sur Facebook

Plate-forme
Facebook
Sujet
Liberté d’expression,Fausses informations
Standard
Personnes et organisations dangereuses
Emplacement
Canada,Royaume-Uni,États-Unis
Date
Publié le 18 décembre 2023
Renversé

FB-GI0MEB85

Cas relatif à des personnes et organisations dangereuses sur Facebook

Plate-forme
Facebook
Sujet
Liberté d’expression,Fausses informations
Standard
Personnes et organisations dangereuses
Emplacement
Allemagne,États-Unis
Date
Publié le 18 décembre 2023
Renversé

FB-2X73FNY9

Cas relatif à des personnes et organisations dangereuses sur Facebook

Plate-forme
Facebook
Sujet
Liberté d’expression,Fausses informations
Standard
Personnes et organisations dangereuses
Emplacement
Australie
Date
Publié le 18 décembre 2023
Renversé

FB-PFP42GAJ

Cas relatif à des personnes et organisations dangereuses sur Facebook

Plate-forme
Facebook
Sujet
Liberté d’expression,Fausses informations
Standard
Personnes et organisations dangereuses
Emplacement
États-Unis
Date
Publié le 18 décembre 2023

Il s’agit d’un résumé de la décision. Les résumés des décisions examinent les cas où Meta est revenue sur sa décision initiale concernant un élément de contenu après que le Conseil a porté l’affaire à l’attention de l’entreprise. Ces décisions incluent des informations sur les erreurs reconnues de Meta, et informent le public sur l’impact du travail du Conseil. Elles sont approuvées par un groupe de membres du Conseil, et non par le Conseil tout entier. Elles n’impliquent pas de processus de commentaires publics et n’ont pas valeur de précédent pour le Conseil. Les résumés des décisions assurent la transparence des corrections apportées par Meta et mettent en évidence les domaines dans lesquels l’entreprise pourrait améliorer l’application de sa politique.

Résumé du cas

Dans le résumé de la décision, le Conseil examine 4 publications en même temps. 4 utilisateurs distincts ont fait appel des décisions de Meta de supprimer des publications contenant une citation attribuée à Joseph Goebbels, le chef de la propagande nazie. Chaque publication partageait la citation pour critiquer la diffusion de fausses informations à l’heure actuelle. Après que le Conseil a porté ces appels à l’attention de Meta, l’entreprise est revenue sur ses décisions initiales et a restauré les publications.

Description du cas et contexte

Les 4 publications contiennent une variante de la même citation attribuée à Joseph Goebbels : « Un mensonge répété une fois reste un mensonge ; répété mille fois, il devient une vérité. » Chaque utilisateur a accompagné la citation d’une légende. Les légendes contiennent les avis des utilisateurs sur les parallèles historiques perçus entre l’Allemagne nazie et le discours politique actuel, ainsi que sur les menaces que la normalisation des fausses informations fait peser sur la liberté d’expression.

Meta a initialement supprimé les 4 publications de Facebook en invoquant sa politique relative aux organisations et aux personnes dangereuses, en vertu de laquelle l’entreprise supprime les contenus qui « font l’éloge », « soutiennent de manière substantielle » ou « représentent » des personnes et des organisations qu’elle désigne comme dangereuses, y compris le parti nazi. La politique autorise les types de contenu qui discutent d’une organisation ou d’une personne dangereuse de manière neutre ou qui condamnent ses actions.

Les 4 utilisateurs ont fait appel de la suppression de leur contenu auprès du Conseil. Dans leurs recours, ils ont tous déclaré qu’ils avaient inclus la citation non pas pour soutenir Joseph Goebbels ou le parti nazi, mais pour critiquer l’effet négatif des fausses informations sur leurs systèmes politiques. Ils ont également souligné la pertinence des leçons d’histoire sur la question des dangers de la propagande.

Après que le Conseil a porté ces cas à l’attention de Meta, l’entreprise a déterminé que les contenus n’enfreignaient pas la politique relative aux organisations et aux personnes dangereuses et que la suppression des 4 publications était injustifiée. L’entreprise a ensuite restauré le contenu sur Facebook. Meta a déclaré que les contenus ne contenaient aucun soutien au parti nazi, mais plutôt des descriptions de « la campagne du régime nazi visant à normaliser les mensonges afin de souligner l’importance de l’éthique et des standards épistémiques pour la liberté d’expression ».

Autorité et champ d’application du Conseil

Le Conseil jouit de l’autorité nécessaire pour examiner les décisions de Meta à la suite d’appels interjetés par la personne dont le contenu a été supprimé (article 2, section 1 de la Charte ; article 3, section 1 des Statuts).

Lorsque Meta reconnaît avoir commis une erreur et revient sur sa décision dans un cas soumis à l’examen du Conseil, ce dernier peut décider de ne statuer que sommairement sur ce cas (article 2, section 2.1.3 des Statuts). Le Conseil réexamine la décision initiale afin de mieux comprendre les processus de modération de contenu impliqués, de réduire les erreurs et d’accroître l’équité pour les personnes qui utilisent Facebook et Instagram.

Importance du cas

Ces cas mettent en évidence l’incapacité de Meta à faire la distinction entre les références de soutien à des organisations qu’elle désigne comme dangereuses, qui sont interdites, et les références neutres ou de condamnation que l’entreprise autorise. Le Conseil a déjà émis de nombreuses recommandations sur la politique de Meta relative aux organisations et aux personnes dangereuses. Les erreurs persistantes dans l’application des exceptions de ce Standard de la communauté semblent limiter considérablement la liberté d’expression des utilisateurs, ce qui en fait un domaine crucial dans lequel l’entreprise doit encore s’améliorer.

Dans une décision précédente, le Conseil a recommandé à Meta d’« évaluer l’exactitude des équipes d’examen qui appliquent l’autorisation d’informer en vertu de la politique relative aux organisations et aux personnes dangereuses afin d’identifier les problèmes systémiques à l’origine des erreurs de mise en application, » (décision concernant la Mention des talibans dans les informations d’actualité, recommandation n° 5). Le Conseil a en outre invité Meta à « procéder à un examen de l’outil de classement des faux positifs à fort impact (HIPO) afin de déterminer s’il est possible de hiérarchiser plus efficacement les erreurs potentielles dans la mise en application des exceptions à la politique relative aux organisations et aux personnes dangereuses » (décision concernant la Mention des talibans dans les informations d’actualité, recommandation n° 6). Ce système de classement hiérarchise les décisions relatives au contenu en vue d’un examen supplémentaire, que Meta utilise pour identifier les cas dans lesquels il a agi de manière incorrecte, par exemple en supprimant du contenu à tort. Meta est toujours en train d’évaluer la faisabilité de cette recommandation. Le Conseil a aussi demandé à Meta d’« améliorer la capacité attribuée à l’examen HIPO appliqué aux langues afin de garantir que davantage de décisions émises sur des contenus susceptibles de constituer des erreurs de mise en application fassent l’objet d’un examen manuel supplémentaire » (décision concernant la Mention des talibans dans les informations d’actualité, recommandation n° 7). Meta a indiqué que cette recommandation correspondait à un travail que l’entreprise effectue déjà, sans publier d’informations pour le démontrer.

En outre, le Conseil a recommandé à Meta d’« expliquer et de fournir des exemples d’application des termes clés utilisés dans la politique relative aux organisations et aux personnes dangereuses, y compris les significations des termes « éloges », « soutien » et « représentations » », et a déclaré que ces explications publiques « devraient s’aligner sur les définitions utilisées dans les standards internes d’implémentation de Facebook » (décision concernant la citation nazie, recommandation n° 2). Meta a implémenté cette recommandation.

Comme l’illustrent ces cas, l’utilisation d’une analogie avec un personnage notoirement dangereux pour critiquer une personne ou une pratique actuelle est une forme courante et tout à fait légitime de discours politique. Ces 4 cas illustrent la nécessité de mettre en place des mesures plus efficaces allant dans le sens des recommandations du Conseil.

Décision

Le Conseil a annulé les décisions initiales de Meta visant à supprimer le contenu. Le Conseil reconnaît que Meta a corrigé ses erreurs initiales une fois qu’il a porté ces cas à son attention.

Retour aux décisions de cas et aux avis consultatifs politiques