Décision sur plusieurs affaires

Stéréotypes négatifs sur les Afro-Américains

Le Conseil a examiné trois publications Facebook véhiculant des idées racistes, que Meta n’a pas supprimées. Après que le Conseil a porté ces appels à l’attention de Meta, l’entreprise est revenue sur ses décisions initiales et a supprimé les publications.

3 cas inclus dans ce lot

Renversé

FB-LHBURU6Z

Cas de discours haineux sur Facebook

Plate-forme
Facebook
Sujet
Discrimination,Origine ou identité ethnique
Standard
Discours incitant à la haine
Emplacement
États-Unis
Date
Publié le 18 avril 2024
Renversé

FB-1HX5SN1H

Cas de discours haineux sur Facebook

Plate-forme
Facebook
Sujet
Discrimination,Origine ou identité ethnique
Standard
Discours incitant à la haine
Emplacement
Royaume-Uni,États-Unis
Date
Publié le 18 avril 2024
Renversé

FB-ZD01WKKW

Cas de discours haineux sur Facebook

Plate-forme
Facebook
Sujet
Discrimination,Origine ou identité ethnique
Standard
Discours incitant à la haine
Emplacement
États-Unis
Date
Publié le 18 avril 2024

Il s’agit d’un résumé de la décision. Les décisions sommaires concernent les cas pour lesquels Meta est revenue sur sa décision initiale après que le Conseil les a portés à l’attention de l’entreprise. Elles contiennent des informations relatives aux erreurs reconnues par Meta. Elles sont approuvées par une partie du Conseil (et pas par l’ensemble de ses membres), n’impliquent pas de commentaires publics et n’ont pas valeur de précédent pour le Conseil. Les décisions sommaires ont une influence directe sur les décisions de Meta en assurant la transparence quant à ses corrections et en identifiant les domaines dans lesquels Meta pourrait améliorer son application des politiques.

Résumé

Le Conseil a examiné trois publications Facebook véhiculant des idées racistes, que Meta n’a pas supprimées. Chaque publication contenait une caricature ou une image manipulée d’Afro-Américains mettant en avant des stéréotypes offensants, tels que l’absence de père, la dépendance aux aides sociales et le pillage de magasins. Ces cas témoignent des erreurs que Meta a commises en mettant en application ses politiques relatives au discours haineux et à l’intimidation et au harcèlement. Après que le Conseil a porté ces appels à l’attention de Meta, l’entreprise est revenue sur ses décisions initiales et a supprimé les publications.

À propos des cas

Fin 2023, le Conseil a reçu trois appels distincts concernant trois images différentes publiées sur Facebook, chacune véhiculant des idées négatives contre les Afro-Américains.

Dans la première publication, qui a été vue environ 500 000 fois, un utilisateur a publié une image générée par ordinateur montrant un magasin en feu et des personnes noires sous les traits de personnages de dessin animé, portant des sweats à capuche et s’enfuyant du magasin les bras chargés de marchandises. Le nom du magasin, Target, a été remplacé par « Loot » (Pillage) dans l’image et l’utilisateur explique qu’il s’agit du prochain film des studios Pixar dans la légende qui accompagne le contenu.

La deuxième publication représente une image générée par ordinateur, qui imite également une affiche de film, montrant une femme noire dont les traits physiques ont été exagérés, tenant un panier rempli de paquets de Cheetos. Le film s’intitule « EBT », qui est le nom d’un système d’aides sociales aux États-Unis. En haut de l’affiche, à la place des noms d’acteurs, on peut y lire les noms de Trayvon Martin et George Floyd, deux Afro-Américains victimes de violence, le premier tué par balle par un garde bénévole en 2012 et le second tué par la police en 2020. Leur décès a engendré de vives manifestations contre les inégalités raciales dans le système judiciaire américain.

La troisième publication, qui a été vue environ 14 millions de fois, comporte un meme prétendant que « Adobe a développé un logiciel capable de détecter les images photoshopées ». On voit sous cette affirmation l’image d’une femme dont chaque partie du visage est d’une couleur différente (comme on voit souvent dans les images de détection de la chaleur) afin de sous-entendre que certaines parties de l’image ont été modifiées. Ce contenu est mis en opposition avec l’image d’une famille noire en train de prendre son repas dans laquelle on voit le père et la nourriture sur la table affublés des mêmes variations de couleurs, impliquant que ces deux éléments ont été ajoutés par ordinateur. La publication renforce le stéréotype négatif courant selon lequel la figure paternelle est souvent absente dans les familles noires aux États-Unis, qui découle d’une histoire complexe qui lie le racisme systémique et les inégalités économiques.

Meta a tout d’abord laissé ces trois publications sur Facebook, malgré les appels déposés par certains utilisateurs. Dans leurs appels auprès du Conseil, ces mêmes utilisateurs ont expliqué que le contenu illustrait des stéréotypes raciaux nuisibles sur les Afro-Américains.

Après que le Conseil a porté ces cas à l’attention de Meta, l’entreprise a déterminé que chacune de ces publications enfreignait le Standard de la communauté sur le discours haineux, qui interdit les attaques directes contre les personnes sur la base de caractéristiques protégées, notamment l’origine ethnique. Cette politique interdit également spécifiquement de « cibler une personne ou un groupe » avec un « discours déshumanisant » sous la forme de « comparaisons à des criminels, y compris des voleurs », de « se moquer du concept, des évènements ou des victimes de crimes de haine » et des « généralisations qui affirment une infériorité dans…des caractéristiques morales ».

Par ailleurs, Meta a conclu que la deuxième publication qui mentionne les noms de Trayvon Martin et de George Floyd enfreignait également le Standard de la communauté sur l’intimidation et le harcèlement en vertu duquel l’entreprise supprime les « propos célébrant ou se moquant du décès ou des problèmes de santé » d’une personne. L’entreprise a expliqué que « l’image inclut le nom de deux individus décédés, Trayvon Martin et George Floyd… Le contenu banalise leur décès en prétendant qu’ils vont tenir les rôles principaux dans un dessin animé fictif ».
L’entreprise a donc supprimé ces trois publications.

Autorité et champ d’application du Conseil

Le Conseil jouit de l’autorité nécessaire pour examiner la décision de Meta à la suite d’un appel interjeté par l’utilisateur ayant signalé le contenu qui a été laissé sur la plateforme (article 2, section 1 de la Charte ; article 3, section 1 des Statuts).

Lorsque Meta reconnaît avoir commis une erreur et revient sur sa décision dans un cas soumis à l’examen du Conseil, ce dernier peut décider de ne statuer que sommairement sur ce cas (article 2, section 2.1.3 des Statuts). Le Conseil réexamine la décision initiale afin de mieux comprendre le processus de modération de contenu, de réduire les erreurs et d’accroître l’équité pour les personnes qui utilisent Facebook et Instagram.

Signification des cas

Ces cas mettent en lumière trois instances pour lesquelles Meta n’a pas été en mesure de mettre efficacement en application ses mesures contre le discours haineux et l’intimidation et le harcèlement, car elle a laissé en ligne des publications en infraction, malgré les signalements déposés par ses utilisateurs. Deux des publications ont été vues de nombreuses fois. De telles erreurs de modération ayant entraîné une mise en application insuffisante peuvent nuire aux personnes qui font partie de groupes dotés de caractéristiques protégées et contribuer à un environnement de discrimination. Le Conseil a contraint Meta à faire du discours haineux contre les groupes marginalisés une priorité stratégique.

En 2022, le Conseil a recommandé à Meta de « clarifier le Standard de la communauté relatif aux discours haineux et les instructions fournies aux examinateurs, expliquer que les références implicites aux groupes protégés sont elles aussi interdites par la politique lorsque ces références sont comprises assez facilement » (recommandation n° 1 sur le Dessin animé de Knin), à propos duquel Meta a signalé une mise en application partielle.

Décision

Le Conseil a annulé les décisions initiales de Meta de laisser les trois publications sur la plateforme. Le Conseil reconnaît que Meta a corrigé son erreur initiale une fois que le Conseil a porté ces cas à l’attention de l’entreprise.

Retour aux décisions de cas et aux avis consultatifs politiques