Le Conseil de surveillance annule la décision initiale de Meta : Cas 2021-012-FB-UA

Le 28 octobre 2021, il a été annoncé que Facebook s’appellerait désormais Meta. Dans ce texte, Meta fait référence à l’entreprise, et Facebook continue de faire référence au produit et aux politiques liées à l’application spécifique.

Le Conseil de surveillance a annulé la décision initiale de Meta de supprimer une publication Facebook d’un artiste autochtone nord-américain qui avait été retirée en vertu du Standard de la communauté de Facebook en matière de discours haineux. Le Conseil a estimé que le contenu bénéficie de la tolérance instaurée dans la politique en matière de discours haineux, car il vise à sensibiliser le public aux crimes historiques perpétrés à l’encontre des peuples autochtones d’Amérique du Nord.

À propos du cas

En août 2021, un utilisateur de Facebook a publié une photo d’un collier de wampum accompagnée d’une description rédigée en anglais. Un collier de wampum est une forme d’art indigène : des perles issues de coquillages sont tissées pour créer des images, témoignant d’histoires et d’accords passés. Sur le collier apparaissait une série de représentations qui, selon l’auteur, s’inspiraient de « the Kamloops story » (l’histoire de Kamloops), une référence aux tombes anonymes découvertes en mai 2021 sur le site d’un ancien pensionnat autochtone en Colombie-Britannique, au Canada.

Le texte donne le titre de l’œuvre, « Kill the Indian/Save the Man » (Tuez l’Indien/Sauvez l’homme), et identifie l’utilisateur comme son créateur. L’utilisateur décrit la série d’images représentées sur le collier : « Theft of the Innocent, Evil Posing as Saviours, Residential School/Concentration Camp, Waiting for Discovery, Bring Our Children Home » (le vol d’innocents, le diable se présentant en bon samaritain, le pensionnat/camp de concentration, l’attente de la découverte, et le retour des enfants à la maison). Dans sa publication, l’utilisateur expose la signification de son œuvre ainsi que l’histoire des colliers de wampum et leur rôle de vecteur d’éducation. L’utilisateur indique que le collier n’a pas été facile à créer tant il était ému de raconter ce qu’il s’était passé à Kamloops. Il s’excuse de l’éventuelle peine que l’œuvre pourrait provoquer chez les survivants de Kamloops, en notant que son « sole purpose is to bring awareness to this horrific story » (seul but est de sensibiliser le monde à cette histoire atroce).

Les systèmes automatisés de Meta ont identifié le contenu comme potentiellement en infraction du Standard de la communauté de Facebook en matière de discours haineux le lendemain de sa publication. Après un examen manuel, le contenu a été considéré comme en infraction et supprimé le jour même. L’utilisateur a fait appel de cette décision auprès de Meta, ce qui a donné lieu à un second examen manuel, lequel a également estimé que le contenu était en infraction. Au moment de sa suppression, le contenu avait été vu plus de 4 000 fois et partagé plus de 50 fois. Le contenu n’a pas été signalé par des personnes utilisant la plate-forme.

À la suite de la sélection de ce cas par le Conseil, Meta a reconnu que la suppression de ce contenu constituait une « erreur de mise en application » et l’a restauré le 27 août. L’entreprise a toutefois attendu le 30 septembre pour informer l’utilisateur de la restauration, deux jours après la demande du Conseil de lui fournir le contenu des messages envoyés à l’utilisateur. Meta a expliqué que la notification tardive était due à une erreur humaine.

Principales observations

Meta reconnaît que sa décision initiale de supprimer le contenu était contraire aux Standards de la communauté de Facebook et constituait une « erreur de mise en application ». Le Conseil estime que ce contenu est un exemple clair de « contre-discours », où le discours haineux est employé pour résister à l’oppression et à la discrimination.

L’introduction de la politique de Facebook en matière de discours haineux explique que le contre-discours est autorisé si l’intention est clairement indiquée. Le contenu de la publication montre clairement qu’il ne s’agit pas d’un discours haineux. L’œuvre retrace les faits qui se sont déroulés à Kamloops et la légende qui l’accompagne explique sa signification. L’expression « Tuez l’Indien» peut certes constituer un discours haineux si elle est prise isolément. Toutefois, dans son contexte, elle attire l’attention sur des actes spécifiques de haine et de discrimination et les condamne.

Le Conseil évoque sa décision 2020-005-FB-UA dans un cas impliquant une citation d’un dignitaire nazi. Des leçons similaires peuvent être tirées de ce cas sur la manière dont l’intention peut être évaluée par d’autres indicateurs que les propos directs, comme le contenu et la signification d’une citation, le moment et le pays de publication, ou encore la nature des réactions et des commentaires suscités par la publication.

Dans ce cas, le Conseil a estimé qu’il n’était pas nécessaire que l’utilisateur indique expressément qu’il faisait de la sensibilisation pour que la publication soit reconnue comme un contre-discours. Dans les questions internes fréquemment posées, destinées à l’équipe de modération, le Conseil a fait observer qu’une déclaration d’intention claire ne suffirait pas toujours à modifier le sens d’une publication qui constitue un discours haineux. L’équipe de modération est tenue de procéder par déduction pour évaluer l’intention. Elle ne doit pas se baser uniquement sur des déclarations explicites.

Deux membres de l’équipe de modération ont conclu que cette publication constituait un discours haineux. Meta n’a pas été en mesure de fournir de raisons spécifiques expliquant pourquoi cette erreur s’est produite deux fois.

La décision du Conseil de surveillance

Le Conseil de surveillance a annulé la décision initiale de Meta de supprimer le contenu.

En guise d’avis consultatif en matière de politiques, le Conseil recommande à Meta :

  • D’informer les individus en temps utile de toute mesure prise par l’entreprise au sujet du contenu sur lequel porte leur appel. Le cas échéant, y compris en cas d’erreur de mise en application comme celle-ci, la notification à l’individu doit mentionner que la mesure découle du processus d’examen du Conseil de surveillance.
  • D’étudier dans quelle mesure la précision de l’examen est affectée lorsque l’équipe de modération du contenu est informée qu’il s’agit d’un second examen et qu’elle sait donc que la décision initiale a été contestée.
  • De procéder à une évaluation de la précision de l’examen en se concentrant sur la tolérance instaurée dans la politique en matière de discours haineux, qui couvre l’expression artistique et les propos sur les atteintes aux droits de la personne (p. ex., les condamnations, les sensibilisations, les emplois autoréférentiels et les utilisations valorisantes). Cette évaluation doit également analyser en quoi la localisation d’un membre de l’équipe d’examen influence la capacité de l’équipe de modération à évaluer avec précision le discours haineux et le contre-discours provenant de la même région ou de régions différentes. Meta doit partager les résultats de cette évaluation avec le Conseil, y compris la manière dont les résultats permettront d’améliorer les opérations de mise en application et l’élaboration de politiques. L’entreprise doit également indiquer si elle prévoit d’effectuer régulièrement des évaluations de la précision des examens sur la base de cette tolérance. Le Conseil invite également Meta à partager publiquement les résumés des résultats de ces évaluations dans ses mises à jour trimestrielles de transparence pour démontrer que l’entreprise a respecté cette recommandation.

Pour en savoir plus :

Pour lire l’intégralité de la décision sur le cas, cliquez ici.

Pour lire un résumé des commentaires publics relatifs à ce cas, cliquez sur la pièce jointe ci-dessous.

Retour Aux Actualités