Décision sur plusieurs affaires
Déclarations ciblant les populations australiennes aborigènes
1 août 2024
Un utilisateur a fait appel des décisions de Meta de conserver deux publications Facebook, toutes deux partagées par une seule personne, qui réagissent à des articles de journaux par des commentaires ciblant la population aborigène d’Australie.
2 cas inclus dans ce lot
FB-CRZUPEP1
Cas de discours haineux sur Facebook
FB-XJP78ARB
Cas de discours haineux sur Facebook
Les décisions sommaires concernent les cas pour lesquels Meta est revenue sur sa décision initiale après que le Conseil les a portés à l’attention de l’entreprise. Elles contiennent des informations relatives aux erreurs reconnues par Meta. Elles sont approuvées par une partie du Conseil (et pas par l’ensemble de ses membres), n’impliquent pas de commentaires publics et n’ont pas valeur de précédent pour le Conseil. Les décisions sommaires exercent une influence directe sur les décisions de Meta en assurant la transparence quant à ses corrections et en identifiant les domaines dans lesquels Meta pourrait améliorer son application des politiques.
Résumé
Un utilisateur a fait appel des décisions de Meta de conserver deux publications Facebook, toutes deux partagées par une seule personne, qui réagissent à des articles de journaux par des commentaires ciblant la population aborigène d’Australie. Après que le Conseil a porté ces appels à l’attention de Meta, l’entreprise est revenue sur ses décisions initiales et a supprimé les deux publications.
À propos des cas
Entre décembre 2023 et janvier 2024, un utilisateur australien a partagé deux publications Facebook sur la population australienne aborigène. La première publication comprend un lien qui redirige vers un article sur les efforts déployés par un conseil territorial aborigène pour acheter un parc dans la banlieue de Sydney. La légende de la publication appelle la population aborigène à « bugger off to the desert where they actually belong » (dégager et à retourner dans le désert d’où elle vient). La seconde publication partage un article à propos d’une poursuite en voiture dans le Nord-Est de l’Australie. La légende de la publication appelle les « Aboriginal ratbags » (chiens aborigènes) à aller en prison et à recevoir « 100 strokes of the cane » (100 coups de canne).
La politique de Meta sur les discours haineux interdit les déclarations qui favorisent ou défendent la ségrégation ou l’exclusion de personnes sur la base de leur origine ethnique. Meta proscrit tout particulièrement le contenu qui appelle explicitement à « expulser certains groupes » et le contenu qui favorise le « refus de l’accès à des lieux (physiques ou virtuels) ». La politique prohibe également les « insultes ciblées » et les « généralisations indiquant l’infériorité », notamment les accusations de « déficiences mentales » à l’encontre d’une personne ou d’un groupe de personnes sur la base de leur(s) caractéristique(s) protégée(s).
Après que le Conseil a porté ce cas à l’attention de Meta, l’entreprise a déterminé que les deux éléments de contenu enfreignaient sa politique sur les discours haineux et que sa décision initiale de conserver les deux publications était injustifiée. L’entreprise a ensuite supprimé le contenu de Facebook.
Meta a expliqué au Conseil que la publication appelait à l’exclusion des personnes australiennes aborigènes du parc et que la phrase « bugger off to the desert where they actually belong » (dégager et retourner dans le désert d’où elles viennent) qui leur fait référence est un exemple d’insultes ciblées à l’encontre de membres d’un groupe protégé. En outre, Meta a reconnu que le terme « ratbag » (chien) était une insulte dont les significations incluaient, entre autres, « personne stupide » en anglais d’Australie. Il enfreint ainsi la politique de Meta sur les discours haineux qui interdit les déclarations qui qualifient les membres d’un groupe aux caractéristiques protégées de personnes aux capacités mentales inférieures.
Autorité et champ de compétence du Conseil
Le Conseil jouit de l’autorité nécessaire pour examiner les décisions de Meta à la suite d’appels interjetés par les utilisateurs ayant signalé le contenu qui a été laissé sur la plateforme (article 2, section 1 de la Charte ; article 3, section 1 des Statuts).
Lorsque Meta reconnaît avoir commis une erreur et revient sur sa décision dans un cas soumis à l’examen du Conseil, ce dernier peut sélectionner ce cas pour un résumé de la décision (article 2, section 2.1.3 des Statuts). Le Conseil réexamine la décision initiale afin de mieux comprendre le processus de modération de contenu, de réduire les erreurs et d’accroître l’équité pour les personnes qui utilisent Facebook, Instagram et Threads.
Signification des cas
Le Conseil a souligné à plusieurs reprises à quel point il était important de prendre des mesures appropriées en cas de discours haineux à l’encontre de groupes qui ont été victimes de discriminations au cours de leur histoire et qui le sont encore aujourd’hui (décisions Insultes en Afrique du Sud et Publication en polonais ciblant les personnes trans). En outre, le Conseil s’inquiète sérieusement de voir que les pratiques de modération de Meta peuvent affecter de manière disproportionnée les Premières Nations. Dans sa décision Collier de wampum, le Conseil a fait remarquer que, même si les erreurs étaient inévitables, « les types d’erreurs, ainsi que les personnes ou les communautés qui en font les frais, reflètent des choix de conception qui doivent constamment être évalués et examinés ». Dans ce cas-là, le Conseil a souligné à quel point il était important que Meta surveille l’exactitude de ses pratiques de modération en matière de discours haineux non seulement de manière générale, mais aussi en prêtant une attention particulière aux erreurs de modération dans les « sous-catégories de contenu où des décisions incorrectes ont une incidence considérable sur les droits de l’homme ». Le Conseil a expliqué que, dès lors, « il incombe à Meta de démontrer qu’elle a fait preuve de diligence raisonnable en matière de droits de l’homme pour s’assurer que ses systèmes fonctionnent de manière équitable et qu’ils n’exacerbent pas l’oppression historique et continue ».
En ce qui concerne les appels à l’exclusion, le Conseil a recommandé à Meta de « reformuler [sa] valeur de “sécurité” afin de refléter que les discours en ligne peuvent créer un risque pour la sécurité physique des personnes et le droit à la vie, en plus des risques d’intimidation, d’exclusion et de réduction au silence » (recommandation n°1 du cas Crimes présumés à Raya Kobo). La mise en œuvre de cette recommandation est attestée par des informations publiées.
Décision
Le Conseil annule la décision initiale de Meta de conserver le contenu. Le Conseil reconnaît que Meta a corrigé ses erreurs initiales une fois qu’il a porté ces cas à l’attention de l’entreprise.
Retour aux décisions de cas et aux avis consultatifs politiques