Renversé
Collier de wampum
Le Conseil de surveillance a annulé la décision initiale de Meta visant à supprimer une publication Facebook d’un artiste autochtone nord-américain qui avait été retirée en vertu du Standard de la communauté sur les discours haineux.
Résumé du cas
Remarque : Le 28 octobre 2021, il a été annoncé que le groupe Facebook s’appellerait désormais Meta. Dans ce texte, Meta fait référence au groupe, et Facebook continue de faire référence au produit et aux politiques liées à l’application spécifique.
Le Conseil de surveillance a annulé la décision initiale de Meta visant à supprimer une publication Facebook d’un artiste autochtone nord-américain qui avait été retirée en vertu du Standard de la communauté sur les discours haineux. Le Conseil a estimé que le contenu est couvert par les autorisations de la politique en matière de discours haineux, car il vise à sensibiliser le public aux crimes historiques perpétrés à l’encontre des peuples autochtones d’Amérique du Nord.
À propos du cas
En août 2021, un utilisateur de Facebook a publié une photo d’un collier de wampum, accompagnée d’une description rédigée en anglais. Un collier de wampum est une forme d’art autochtone qui tisse des perles issues de coquillages pour créer des images, témoignant d’histoires et d’accords passés. Sur le collier apparaissait une série de représentations qui, selon l’auteur, s’inspiraient de « l’histoire de Kamloops », une référence aux tombes anonymes découvertes en mai 2021 sur le site d’un ancien pensionnat autochtone en Colombie-Britannique, au Canada.
Le texte donne le titre de l’œuvre, « Kill the Indian/Save the Man » (« Tuez l’Indien/Sauvez l’Homme »), et identifie l’utilisateur comme son créateur. L’utilisateur décrit la série d’images représentées sur le collier : « Theft of the Innocent, Evil Posing as Saviours, Residential School / Concentration Camp, Waiting for Discovery, Bring Our Children Home » (« Le vol d’innocents, le diable se présentant en bon samaritain, le pensionnat/camp de concentration, l’attente de la découverte, et le retour des enfants à la maison »). Dans sa publication, l’utilisateur expose la signification de son œuvre ainsi que l’histoire des colliers de wampum et leur rôle de vecteur d’éducation. L’utilisateur indique que le collier n’a pas été facile à créer tant il était ému de raconter ce qu’il s’était passé à Kamloops. Il s’excuse de l’éventuelle peine que l’œuvre pourrait provoquer chez les survivants de Kamloops, en notant que son « seul but est de sensibiliser le monde à cette histoire atroce ».
Les systèmes automatisés de Meta ont identifié le contenu comme potentiellement en infraction du Standard de la communauté sur les discours haineux le lendemain de sa publication. Après un examen manuel, le contenu a été considéré comme en infraction et supprimé le jour même. L’utilisateur a fait appel de cette décision auprès de Meta, ce qui a donné lieu à un second examen manuel, lequel a également estimé que le contenu était en infraction. Au moment de sa suppression, le contenu avait été vu plus de 4 000 fois et partagé plus de 50 fois. Aucun utilisateur n’a signalé le contenu.
À la suite de la sélection de ce cas par le Conseil, Meta a reconnu que la suppression de ce contenu constituait une « erreur de mise en application » et l’a restauré le 27 août. Meta n’a toutefois pas informé l’utilisateur de la restauration jusqu’au 30 septembre, deux jours après que le Conseil lui a demandé de lui fournir le contenu des messages envoyés à l’utilisateur. L’entreprise a expliqué que la notification tardive était due à une erreur humaine.
Principales observations
Meta reconnaît que sa décision initiale visant à supprimer le contenu était contraire aux Standards de la communauté Facebook et constituait une « erreur de mise en application ». Le Conseil estime que ce contenu est un exemple clair de « contre-discours », où le discours haineux est employé pour résister à l’oppression et à la discrimination.
L’introduction de la politique de Facebook en matière de discours haineux explique que les contre-discours sont autorisés si l’intention de l’utilisateur est clairement indiquée. Il appert du contenu de la publication qu’il ne s’agit pas d’un discours haineux. L’œuvre retrace les faits qui se sont déroulés à Kamloops et la légende qui l’accompagne explique sa signification. L’expression « Tuez l’Indien» peut certes constituer un discours haineux si elle est prise isolément. Toutefois, dans son contexte, elle attire l’attention sur des actes spécifiques de haine et de discrimination, et les condamne.
Le Conseil évoque sa décision 2020-005-FB-UA dans un cas impliquant une citation d’un dignitaire nazi. Des leçons similaires peuvent être tirées de ce cas sur la manière dont l’intention peut être évaluée par d’autres indicateurs que les propos directs, comme le contenu et la signification d’une citation, le moment et le pays de publication, ou encore la nature des réactions et des commentaires suscités par la publication.
En l’espèce, le Conseil a estimé qu’il n’était pas nécessaire que l’utilisateur indique expressément qu’il faisait de la sensibilisation pour que la publication soit reconnue comme un contre-discours. Dans les « Questions fréquemment posées » internes destinées aux modérateurs, le Conseil a fait observer qu’une déclaration d’intention claire ne suffirait pas toujours pour modifier le sens d’une publication qui constitue un discours haineux. Les modérateurs sont tenus de procéder par déduction pour évaluer l’intention. Ils ne doivent pas se baser uniquement sur des déclarations explicites.
Deux modérateurs ont conclu que cette publication représentait un discours haineux. Meta n’a pas été en mesure de fournir des raisons spécifiques qui expliqueraient pourquoi cette erreur s’est produite deux fois.
Décision du Conseil de surveillance
Le Conseil de surveillance a annulé la décision initiale de Meta visant à supprimer le contenu.
En guise d’avis consultatif en matière de politiques, le Conseil recommande à Meta de :
- D’informer les utilisateurs en temps utile de toute mesure prise par l’entreprise au sujet du contenu sur lequel porte leur appel. Le cas échéant, y compris en cas d’erreur de mise en application comme celle-ci, la notification à l’utilisateur doit mentionner que la mesure découle du processus d’examen du Conseil de surveillance.
- D’étudier dans quelle mesure le taux de précision de l’examen est affecté lorsque les modérateurs de contenu sont informés qu’ils effectuent un second examen, si bien qu’ils savent que la décision initiale a été contestée.
- De procéder à une évaluation de la précision de l’examen en se concentrant sur les autorisations de la politique en matière de discours haineux qui couvrent l’expression artistique et les propos sur les infractions aux droits de l’homme (p. ex. les condamnations, les sensibilisations, les emplois autoréférentiels et les utilisations valorisantes). Cette évaluation devrait également analyser spécifiquement l’incidence de l’origine d’un examinateur sur la capacité des modérateurs à évaluer avec précision les discours haineux et les contre-discours provenant de la même région ou non. Meta devrait partager les résultats de cette évaluation avec le Conseil, en ce compris la manière dont les résultats permettront d’améliorer les opérations de mise en application et l’élaboration des politiques. L’entreprise devrait également indiquer si elle prévoit d’effectuer régulièrement des évaluations de la précision des examens sur la base de ces autorisations. Le Conseil invite également Meta à partager publiquement les résumés des résultats de ces évaluations dans ses mises à jour trimestrielles de transparence pour démontrer qu’elle a respecté cette recommandation.
*Les résumés de cas fournissent une présentation du cas et n’ont pas valeur de précédent.
Décision complète sur le cas
1. Résumé de la décision
Le Conseil de surveillance a annulé la décision initiale de Meta visant à supprimer une publication d’un artiste autochtone nord-américain qui incluait une image de son œuvre accompagnée de son titre, qui cite un exemple historique de discours haineux. Meta a reconnu que la publication relevait de l’une des autorisations du Standard de la communauté Facebook sur les discours haineux, car elle visait clairement à sensibiliser le public aux crimes historiques perpétrés à l’encontre des peuples autochtones en Amérique du Nord.
2. Description du cas
Début août 2021, un utilisateur de Facebook a publié une photo d’un collier de wampum, accompagnée d’une description rédigée en anglais. Un collier de wampum est une forme d’art autochtone qui tisse des perles issues de coquillages pour créer des images, témoignant d’histoires et d’accords passés. Sur le collier apparaissait une série de représentations qui, selon l’auteur, s’inspiraient de « l’histoire de Kamloops », une référence aux tombes anonymes découvertes en mai 2021 sur le site d’un ancien pensionnat autochtone en Colombie-Britannique, au Canada.
Le texte donne le titre de l’œuvre, « Kill the Indian/Save the Man » (« Tuez l’Indien/Sauvez l’Homme »), et identifie l’utilisateur comme son créateur. L’utilisateur fournit ensuite une liste de phrases correspondant à la série d’images représentées sur le collier : « Theft of the Innocent, Evil Posing as Saviours, Residential School / Concentration Camp, Waiting for Discovery, Bring Our Children Home » (« Le vol d’innocents, le diable se présentant en bon samaritain, le pensionnat/camp de concentration, l’attente de la découverte, et le retour des enfants à la maison »). Dans sa publication, l’utilisateur expose la signification de son œuvre ainsi que l’histoire des colliers de wampum et leur rôle de vecteur d’éducation. L’utilisateur indique que le collier n’a pas été facile à créer tant il était ému de raconter ce qu’il s’était passé à Kamloops. Il ajoute que cette histoire ne peut plus être cachée au public et qu’il espère que le collier contribuera à éviter que cette situation ne se reproduise. Il conclut sa publication en s’excusant pour l’éventuelle peine que l’œuvre pourrait provoquer chez les survivants du pensionnat, en précisant que son « seul but est de sensibiliser le monde à cette histoire atroce ».
Les systèmes automatisés de Meta ont identifié le contenu comme potentiellement en infraction du Standard de la communauté Facebook sur les discours haineux le lendemain de sa publication. Après un examen manuel, le contenu a été considéré comme en infraction et supprimé le jour même. L’utilisateur a fait appel de cette décision auprès de Meta, ce qui a donné lieu à un second examen manuel, lequel a également estimé que le contenu était en infraction. Au moment de sa suppression, le contenu avait été vu plus de 4 000 fois et partagé plus de 50 fois. Aucun utilisateur n’a signalé le contenu. À la suite de la sélection de ce cas par le Conseil, Meta a reconnu que la suppression de ce contenu constituait une « erreur de mise en application » et l’a restauré le 27 août. Meta n’a toutefois pas informé l’utilisateur de la restauration jusqu’au 30 septembre, deux jours après que le Conseil lui a demandé de lui fournir le contenu des messages envoyés à l’utilisateur. L’entreprise a expliqué que la notification tardive était due à une erreur humaine. Le message n’informait pas l’utilisateur que son contenu avait été restauré à la suite de son appel auprès du Conseil et de la sélection de ce cas par le Conseil.
Un commentaire public de l’Association on American Indian Affairs (commentaire public 10208) souligne que la citation utilisée comme titre de l’œuvre d’art est de Richard Henry Pratt, un officier de l’armée qui a fondé le premier pensionnat indien fédéral aux États-Unis d’Amérique. Cette phrase résume les politiques qui se cachaient derrière la fondation des pensionnats visant à « civiliser » les peuples autochtones et à « éradiquer tous les vestiges de la culture indienne ». Des politiques similaires ont été adoptées au Canada et ont été considérées comme un génocide culturel par la Commission de vérité et de réconciliation du Canada.
La référence de l’utilisateur aux faits qui se sont déroulés à « Kamloops » se rapporte au pensionnat indien de Kamloops, un ancien pensionnat autochtone en Colombie-Britannique, au Canada. En mai 2021, les dirigeants autochtones de Tk’emlúps te Secwépemc ont annoncé la découverte de tombes anonymes à Kamloops. Les autorités ont confirmé la présence de 200 sépultures probables dans la région.
Le gouvernement canadien estime qu’au moins 150 000 enfants autochtones sont passés par des pensionnats avant que le dernier ne ferme en 1997. Les enfants autochtones étaient souvent arrachés à leur famille et il leur était interdit d’exprimer tout aspect de la culture autochtone. Les pensionnats recouraient à des châtiments corporels durs et violents. Le personnel commettait ou tolérait des abus sexuels ainsi que des actes de violence graves à l’encontre de nombreux élèves. Les élèves souffraient de malnutrition, les locaux étaient mal chauffés et mal nettoyés, et de nombreux enfants sont morts de tuberculose et d’autres maladies sans bénéficier de soins médicaux minimaux. La Commission de vérité et de réconciliation a conclu qu’au moins 4 100 élèves sont morts pendant qu’ils fréquentaient ces pensionnats, la plupart de maltraitance ou de négligence, d’autres de maladie ou d’accident.
3. Autorité et champ d’application
Le Conseil jouit de l’autorité nécessaire pour examiner la décision de Meta à la suite d’un appel interjeté par l’utilisateur dont le contenu a été supprimé (article 2, section 1 de la Charte ; article 3, section 1 des Statuts). Le Conseil peut confirmer ou annuler la décision de Meta, et ce, de manière contraignante pour l’entreprise (article 4 ; article 3, section 5 de la Charte). Les décisions du Conseil peuvent inclure des avis consultatifs en matière de politiques avec des recommandations non contraignantes auxquelles Meta doit répondre (article 4 ; article 3, section 4 de la Charte).
Lorsque le Conseil sélectionne des cas comme celui-ci, où Meta reconnaît par la suite qu’elle a commis une erreur, le Conseil examine la décision initiale dans le but de mieux comprendre pourquoi des erreurs se produisent et de formuler des observations ou des recommandations qui peuvent contribuer à réduire les erreurs et à améliorer la procédure régulière. Après la décision du Conseil sur le cas Symptômes du cancer du sein et nudité (section 3 du 2020-004-IG-UA), le Conseil a adopté un processus qui permet à Meta d’identifier toute erreur de mise en application avant qu’un cas ne soit attribué à un panel (cf. page 30 des rapports de transparence). Il est inutile que dans ces cas, Meta concentre uniquement sa justification sur sa décision revue, en expliquant ce qui aurait dû arriver au contenu de l’utilisateur, tout en invitant le Conseil à confirmer que cette décision est la décision « ultime » de l’entreprise. Outre expliquer pourquoi la décision contre laquelle l’utilisateur a fait appel était erronée, le Conseil suggère que Meta précise comment l’erreur s’est produite et pourquoi le processus d’examen interne de l’entreprise n’a pas permis de l’identifier ou de la corriger. Le Conseil continuera à fonder ses examens sur les décisions faisant l’objet des appels des utilisateurs.
4. Standards pertinents
Le Conseil de surveillance a pris les éléments suivants en considération dans sa décision :
I.Standards de la communauté Facebook :
Les Standards de la communauté Facebook définissent les discours haineux comme « une attaque directe contre des personnes fondée sur ce que nous appelons des caractéristiques protégées : l’origine ethnique, l’origine nationale, le handicap, la religion, la caste, l’orientation sexuelle, le sexe, l’identité de genre et les maladies graves ». Au « niveau 1 », les contenus interdits incluent les « discours violents ou les appels à la violence sous forme de contenu écrit ou visuel ». Le Standard de la communauté comprend également des autorisations permettant d’identifier les contenus non violents :
Nous reconnaissons que les utilisateurs partagent parfois des contenus incluant un discours haineux de quelqu’un d’autre pour le condamner ou sensibiliser les autres à son égard. Dans d’autres cas, des discours qui pourraient enfreindre nos standards peuvent être utilisés de manière autoréférentielle ou de manière valorisante. Nos politiques sont conçues pour permettre ce type de discours, mais nous demandons aux utilisateurs d’indiquer clairement leur intention. Nous nous réservons le droit de supprimer le contenu concerné lorsque l’intention n’est pas claire.
II. Valeurs de Meta :
Les valeurs de Meta sont détaillées dans l’introduction des Standards de la communauté de Facebook. La « liberté d’expression » y est décrite comme « primordiale » :
L’objectif de nos Standards de la communauté a toujours été de créer un espace d’expression et de donner une voix aux personnes. […] Nous souhaitons que les personnes puissent s’exprimer ouvertement sur les sujets qui comptent pour elles, même si d’autres peuvent marquer leur désaccord ou y trouveraient à redire.
Meta limite la liberté d’expression au profit de quatre valeurs, dont deux sont en l’espèce pertinentes :
La « sécurité » : Nous nous engageons à faire de Facebook un endroit sûr. Les formes d’expression qui menacent les autres peuvent les intimider, les exclure ou les réduire au silence, et ne sont pas autorisées sur Facebook.
La « dignité » : Nous pensons que chacun mérite les mêmes droits et la même dignité. Nous attendons de chaque personne qu’elle respecte la dignité d’autrui et qu’elle ne harcèle pas ni ne rabaisse pas les autres.
III. Normes relatives aux droits de l’homme :
Les Principes directeurs relatifs aux entreprises et aux droits de l’homme des Nations unies (PDNU), soutenus par le Conseil des droits de l’homme des Nations unies en 2011, établissent un cadre de travail volontaire pour les responsabilités relatives aux droits de l’homme des entreprises privées. En 2021, Meta a annoncé l’entrée en vigueur de sa Politique d’entreprise relative aux droits de l’homme, dans laquelle elle a réaffirmé son engagement à respecter les droits de l’homme conformément aux PDNU. L’analyse du Conseil sur les responsabilités de Meta en matière des droits de l’homme dans le cas présent s’est appuyée sur les normes des droits de l’homme suivantes :
- La liberté d’expression : l’article 19 du Pacte international relatif aux droits civils et politiques (PIDCP) ; l’observation générale n° 34, Comité des droits de l’homme, 2011. l’article 5 de la Convention internationale sur l’élimination de toutes les formes de discrimination raciale (CIEDR) ; le rapport du rapporteur spécial des Nations unies sur les discours haineux, A/74/486, 2019 ; le rapport du rapporteur spécial des Nations unies sur la modération des contenus sur Internet, A/HRC/38/35, 2018.
- Égalité et non-discrimination : l’article 2, paragraphe 1 et l’article 26 (PIDCP) ; l’article 2 de la CIEDR ; l’observation générale n° 35, Comité pour l’élimination de la discrimination raciale, 2013.
- Droits culturels : l’article 27 du PIDCP ; l’article 15 du Pacte international relatif aux droits économiques, sociaux et culturels (PIDESC) ; le rapport de la rapporteuse spéciale des Nations unies dans le domaine des droits culturels sur la liberté d’expression artistique et de création, A/HRC/23/34, 2013.
- Droits des peuples autochtones : l’article 7, paragraphe 2 ; l’article 8 paragraphe 1 ; et l’article 19 de la Déclaration des Nations unies sur les droits des peuples autochtones.
5. Déclaration de l’utilisateur
Dans son appel auprès du Conseil, l’utilisateur a déclaré que sa publication mettait en valeur une œuvre d’art traditionnelle documentant l’histoire et qu’elle n’était en rien un discours haineux. Il a ajouté que cette histoire « méritait de la visibilité ». Quant à la suppression de sa publication par Meta, il a déclaré qu’il s’agissait d’une « censure ».
6. Explication de la décision de Meta
Meta a déclaré au Conseil que la phrase « Tuez l’Indien » constituait une attaque de niveau 1 en vertu du Standard de la communauté Facebook sur les discours haineux, lequel interdit les « discours violents » ciblant des personnes sur la base d’une caractéristique protégée, en ce compris l’origine ethnique. L’entreprise a toutefois reconnu que la suppression du contenu était une erreur, car la politique autorise le partage du discours haineux d’autrui pour « le condamner ou y sensibiliser ». Elle a noté que l’utilisateur avait indiqué dans sa publication que son intention était de sensibiliser à l’histoire atroce de Kamloops.
Meta a souligné que la phrase « Tuez l’Indien/Sauvez l’Homme » trouve son origine dans l’assimilation forcée des enfants autochtones. En sensibilisant à l’histoire de Kamloops, l’utilisateur conscientisait également le public à l’assimilation forcée dans les pensionnats. En réponse à une question du Conseil, Meta a précisé d’un examinateur de contenu n’aurait pas eu besoin de connaître cette histoire pour appliquer correctement la politique. La publication de l’utilisateur indiquait qu’il souhaitait sensibiliser le public à une histoire atroce. Par conséquent, un examinateur pouvait raisonnablement conclure que la publication sensibilisait au discours haineux qu’elle citait.
Meta a informé le Conseil qu’aucun utilisateur n’avait signalé le contenu en l’espèce. Meta utilise des classificateurs de machine learning formés pour détecter automatiquement des infractions potentielles aux Standards de la communauté Facebook. En l’espèce, deux classificateurs ont automatiquement identifié la publication comme un possible discours haineux. Le premier classificateur, qui a analysé le contenu, n’était pas certain que la publication enfreigne le Standard de la communauté. Un autre classificateur a toutefois déterminé, sur la base d’une série de signaux contextuels, que la publication pouvait être largement partagée et vue par de nombreuses personnes. Étant donné le préjudice potentiel pouvant résulter de la diffusion à grande échelle d’un discours haineux, le système de Meta a automatiquement envoyé la publication pour un examen manuel.
En réponse aux questions du Conseil, Meta a précisé qu’un examinateur résidant en Asie-Pacifique a estimé que la publication constituait un discours haineux et l’a supprimée de la plateforme. L’utilisateur a fait appel, à la suite de quoi un second examinateur d’Asie-Pacifique a analysé le contenu et a également déterminé qu’il s’agissait d’un discours haineux. Meta a confirmé au Conseil que les modérateurs n’enregistrent pas les justifications des décisions relatives aux contenus individuels.
7.Soumissions de tierces parties
Le Conseil de surveillance a pris en considération huit commentaires publics relatifs à ce cas :quatre provenant des États-Unis et du Canada, deux d’Europe, un d’Afrique subsaharienne et un d’Asie-Pacifique et d’Océanie. Les soumissions portaient sur des thèmes tels que la signification de la citation sur laquelle l’utilisateur a basé le titre de son œuvre, le contexte du recours à des pensionnats en Amérique du Nord et la manière dont la modération du contenu de Meta influe sur la liberté artistique et les droits d’expression des personnes d’identité ou d’origine autochtone.
Pour lire les commentaires publics soumis pour ce cas, veuillez cliquer ici.
8.Analyse du Conseil de surveillance
Le Conseil s’est demandé si ce contenu devait être restauré à travers trois prismes : les Standards de la communauté Facebook, les valeurs de Meta et ses responsabilités en matière de droits de l’homme.
8.1 Respect des Standards de la communauté
Meta a reconnu que sa décision initiale visant à supprimer le contenu était contraire aux Standards de la communauté Facebook et constituait une « erreur de mise en application ». Le Conseil estime qu’il ne fait aucun doute que le contenu n’est pas un discours haineux en l’espèce. Ce contenu est un exemple clair de « contre-discours », où le discours haineux est employé ou réapproprié dans la lutte contre l’oppression et la discrimination.
Le Standard de la communauté sur les discours haineux autorise expressément les « contenus incluant un discours haineux de quelqu’un d’autre pour le condamner ou sensibiliser les autres à son égard ». Deux modérateurs ont néanmoins conclu que cette publication représentait un discours haineux. Meta n’a pas été en mesure de fournir des raisons spécifiques qui expliqueraient pourquoi cette erreur en particulier s’est produite deux fois.
Dans le cas de la citation nazie (2020-005-FB-UA), le Conseil a noté que le contexte dans lequel une citation est utilisée joue un rôle important dans la compréhension de sa signification. En l’espèce, le contenu et la signification de la citation, le moment et le pays de publication, ainsi que la nature des réactions et des commentaires suscités indiquaient clairement que l’utilisateur n’avait pas l’intention de faire l’éloge d’une personnalité désignée comme haineuse.
Le Conseil estime qu’il n’était pas nécessaire que l’utilisateur indique expressément qu’il faisait de la sensibilisation pour que l’intention et la signification de la publication soient claires. L’œuvre représentée retrace les faits qui se sont déroulés à Kamloops et la légende qui l’accompagne explique sa signification. L’expression « Tuez l’Indien» peut certes constituer un discours haineux si elle est prise isolément. Toutefois, l’évaluation du contenu dans son ensemble montre clairement que la phrase est employée pour sensibiliser à la haine et à la discrimination, et les condamner. Le contenu utilisait des guillemets pour distinguer la phrase haineuse du titre, qui était, dans sa version intégrale, « Tuez l’Indien/Sauvez l’Homme ». Cet élément aurait dû inciter l’examinateur à approfondir ses recherches. La manière dont l’utilisateur a raconté l’histoire de Kamloops et dont il a expliqué la signification culturelle du collier de wampum montre clairement qu’il s’identifie aux victimes d’actes de discrimination et de violence, et non à leurs auteurs. Son récit condamne expressément les évènements découverts à Kamloops. Les réactions et les commentaires suscités par la publication indiquent nettement que l’intention de condamner et de sensibiliser a été comprise par l’audience de l’utilisateur.
Le Conseil note que les « Questions fréquemment posées » internes à Facebook, qui font partie des directives données aux modérateurs, indiquent à ces derniers de privilégier la suppression des contenus reprenant un discours haineux lorsque l’intention de l’utilisateur n’est pas claire. Les Questions fréquemment posées précisent également qu’une déclaration d’intention claire ne suffit pas toujours pour modifier le sens d’une publication qui constitue un discours haineux. Ces directives internes fournissent des instructions limitées aux modérateurs sur la manière dont ils peuvent distinguer correctement les discours haineux des contre-discours qui en citent pour les condamner ou y sensibiliser. À la connaissance du Conseil, il n’existe pas de directive sur la manière d’évaluer la preuve de l’intention dans un contenu artistique citant ou utilisant des propos haineux, ou dans un contenu discutant de violations des droits de l’homme lorsque ce contenu est couvert par les autorisations de la politique.
8.2 Respect des valeurs de Meta
Le Conseil estime que la décision initiale visant à supprimer le contenu était incompatible avec les valeurs de « liberté d’expression » et de « dignité » de Meta et ne servait pas la valeur de « sécurité ». Bien que limiter la diffusion des discours haineux sur la plateforme s’inscrive dans le droit fil des valeurs de Meta, le Conseil constate avec préoccupation que les processus de modération de Meta ne sont pas en mesure d’identifier et de protéger directement les personnes confrontées à la marginalisation ou à la discrimination qui souhaitent s’exprimer par le biais de contre-discours.
Meta a affirmé son engagement de soutien envers les contre-discours :
En tant que communauté, plateforme sociale et point de ralliement de l’expérience humaine partagée, Facebook soutient les initiatives essentielles de contre-discours en appliquant des politiques de contenu strictes et en travaillant avec les communautés locales, les décideurs, les spécialistes et les acteurs du changement pour répandre les initiatives de contre-discours dans le monde entier.
Meta affirme que la liberté d’expression constitue la valeur la plus importante de l’entreprise. Les œuvres d’art qui cherchent à mettre en lumière l’horreur des atrocités passées et à sensibiliser le public à leurs conséquences durables font partie des formes les plus importantes et les plus puissantes de la valeur de liberté d’expression, en particulier pour les groupes marginalisés qui s’expriment sur leur propre culture et s’efforcent de faire connaître leur histoire. Le contre-discours n’est pas qu’une forme de liberté d’expression. Il s’agit également d’un outil essentiel pour les cibles des discours haineux qui leur permet de protéger leur dignité et de riposter contre les comportements oppressifs, discriminatoires et dégradants. Meta doit s’assurer que ses politiques de contenu et ses pratiques de modération tiennent compte de cette forme d’expression et la protègent.
Informer un utilisateur dont l’intention est de sensibiliser le public à des atrocités de masse que ses propos ont été supprimés pour discours haineux constitue un affront à sa dignité. Cette accusation, en particulier lorsqu’elle est confirmée par Meta en appel, peut conduire à de l’autocensure.
8.3 Respect des responsabilités de Meta en matière des droits de l’homme
Le Conseil conclut que la suppression de cette publication était contraire aux responsabilités de Meta en matière de droits de l’homme en tant qu’entreprise. Meta s’est engagée à respecter les droits de l’homme en vertu des Principes directeurs des Nations unies relatifs aux entreprises et aux droits de l’homme (PDNU). Sa Politique d’entreprise relative aux droits de l’homme indique que ceci inclut le Pacte international relatif aux droits civils et politiques (PIDCP).
Il s’agit du premier cas du Conseil sur l’expression artistique ainsi que du premier cas où l’utilisateur s’identifie comme une personne autochtone. Il fait partie des nombreux cas que le Conseil a sélectionnés où l’utilisateur cherchait à attirer l’attention sur de graves violations des droits de l’homme.
Liberté d’expression (article 19 du PIDCP)
Les normes internationales des droits de l’homme soulignent la valeur de l’expression politique (Comité des droits de l’homme, observation générale n° 34, paragraphe 38). Le champ de protection de ce droit est précisé à l’article 19, paragraphe 2 du PIDCP, lequel accorde une mention spéciale à l’expression « sous forme artistique ». La Convention internationale sur l’élimination de toutes les formes de discrimination raciale (CIEDR) prévoit également une protection contre la discrimination dans l’exercice du droit à la liberté d’expression (article 5) et le Comité chargé de vérifier la conformité des États a souligné l’importance de ce droit pour ce qui est d’aider « les groupes vulnérables à rétablir l’équilibre des forces dans la société » et de proposer « des points de vue différents ou opposés » dans les discussions (recommandation générale n° 35 du CEDR, paragraphe 29).
L’art est souvent politique et les normes internationales reconnaissent le rôle unique et puissant de cette forme de communication dans la remise en cause du statu quo (rapporteuse spéciale des Nations unies dans le domaine des droits culturels, A/HRC/23/34, paragraphes 3 et 4). Internet et les plateformes de médias sociaux telles que Facebook et Instagram en particulier, revêtent une valeur particulière pour les artistes, qui peuvent ainsi toucher de nouvelles et de plus grandes audiences. Leurs sources de revenus peuvent dépendre de l’accès aux plateformes sociales qui dominent Internet.
Toute personne a droit à la liberté d’expression sans discrimination (article 19, paragraphe 2 du PIDCP). Le Conseil a reçu des soumissions selon lesquelles le droit des peuples autochtones à un consentement libre, préalable et éclairé lorsque les États adoptent des mesures législatives ou administratives les concernant implique que Meta a la responsabilité de consulter ces communautés lorsqu’elle élabore ses politiques de contenu (commentaire public 10240, Groupe des droits des minorités, voir aussi l’article 19 de la Déclaration des Nations unies sur les droits des peuples autochtones). Le rapporteur des Nations unies sur la liberté d’opinion et d’expression a soulevé une préoccupation similaire dans le contexte des responsabilités des plateformes des médias sociaux (A/HRC/38/35, paragraphe 54).
Le contenu en l’espèce engage plusieurs autres droits, en ce compris les droits des personnes appartenant à des minorités nationales, ethniques ou linguistiques de jouir, en commun avec les autres membres de leur groupe, de leur propre vie culturelle (article 27 du PIDCP), ainsi que du droit de participer à la vie culturelle et de profiter de l’art (article 15 du PIDESC). L’art de la création d’un collier de wampum visant à témoigner des atrocités commises en matière de droits de l’homme et de leur héritage permanent, ainsi qu’à sensibiliser à cet égard, est protégé par l’article 6(c) de la Déclaration des Nations unies sur les défenseurs des droits de l’homme, tout comme le droit à la vérité sur les atrocités (Ensemble des Nations unies pour lutter contre l’impunité). La Déclaration des Nations unies sur les droits des peuples autochtones reconnaît expressément que le transfert forcé d’enfants peut constituer un acte de violence et de génocide (article 7, paragraphe 2) et prévoit une protection spécifique contre l’assimilation forcée et la destruction culturelle (article 8, paragraphe 1).
L’article 19 du PIDCP exige que lorsque des limitations de la liberté d’expression sont imposées par un État, celles-ci doivent remplir des critères de légalité, d’objectif légitime ainsi que de nécessité et de proportionnalité (article 19, paragraphe 3, PIDCP). Le rapporteur spécial des Nations unies sur la liberté d’expression a encouragé les entreprises de médias sociaux à s’inspirer de ces principes lorsqu’elles modèrent l’expression en ligne, tout en sachant que la réglementation de l’expression à grande échelle par des entreprises privées peut susciter des préoccupations particulières à ce contexte (A/HRC/38/35, paragraphes 45 et 70). Le Conseil a eu recours au test tripartite basé sur l’article 19 du PIDCP dans toutes ses décisions à ce jour.
I. Légalité (clarté et accessibilité des règles)
Le Standard de la communauté sur les discours haineux autorise expressément les contenus qui condamnent les discours haineux ou sensibilisent le public. Cette composante de la politique est suffisamment claire et accessible pour que l’utilisateur puisse comprendre les règles et agir en conséquence (observation générale n° 34, paragraphe 25). La norme de légalité requiert également que les règles qui limitent la liberté d’expression « énoncent des règles suffisamment précises pour permettre aux personnes chargées de leur application d’établir quelles formes d’expression sont légitimement restreintes et quelles formes d’expression le sont indûment » (Ibid.). L’incapacité de deux modérateurs à évaluer correctement l’application des autorisations de la politique à ce contenu indique que des directives internes supplémentaires à l’attention des modérateurs peuvent être requises.
II. Objectif légitime
Toute restriction étatique de la liberté d’expression doit poursuivre l’un des objectifs légitimes énoncés dans l’article 19, paragraphe 3 du PIDCP. Dans ses soumissions au Conseil, Meta a régulièrement évoqué les objectifs de cette liste pour justifier les mesures qu’elle a prises pour supprimer le discours. Le Conseil a précédemment reconnu que le Standard de la communauté Facebook poursuit l’objectif légitime de protéger les droits d’autrui. Ces droits comprennent le droit à l’égalité et à la non-discrimination, le droit à la liberté d’expression et le droit à l’intégrité physique.
III. Nécessité et proportionnalité
L’erreur manifeste en l’espèce signifie que la suppression n’était de toute évidence pas nécessaire, ce que Meta a accepté. Le Conseil craint qu’une erreur aussi nette puisse indiquer des problèmes plus profonds de proportionnalité dans les processus d’examen manuel automatisés de Meta. Toutes les restrictions de la liberté d’expression « doivent être appropriées pour remplir leur fonction de protection, elles doivent constituer le moyen le moins perturbateur parmi ceux qui pourraient permettre d’obtenir le résultat recherché » (observation générale n° 34, paragraphe 34). Le fait que le système de modération du contenu de Meta réponde ou non aux exigences de nécessité et de proportionnalité dépend largement de son efficacité à supprimer les discours haineux réels en réduisant le nombre de détections et de suppressions erronées.
Chaque publication supprimée à tort porte atteinte à la liberté d’expression. Le Conseil reconnaît que les erreurs sont inévitables, tant pour les humains que pour les machines. Le discours haineux et les réponses apportées seront toujours spécifiques au contexte, mais leurs limites ne sont pas toujours claires. Toutefois, les types d’erreurs, ainsi que les personnes ou les communautés qui en font les frais, reflètent des choix de conception qui doivent constamment être évalués et examinés. Ceci nécessite une enquête plus approfondie sur les causes profondes de l’erreur en l’espèce et une évaluation plus large de l’efficacité de la modération des contre-discours.
Étant donné l’importance que revêt l’art critique des artistes autochtones dans la lutte contre la haine et l’oppression, le Conseil s’attend à ce que Meta soit particulièrement sensible au risque d’une suppression injustifiée du contenu en l’espèce et de contenus similaires sur Facebook et Instagram. Il ne suffit pas d’évaluer les performances de la mise en application par Meta de l’intégralité du Standard de la communauté Facebook sur les discours haineux. Un système performant en moyenne pourrait obtenir des résultats médiocres dans des sous-catégories de contenu où des décisions incorrectes ont une incidence considérable sur les droits de l’homme. Il est possible que les types d’erreurs qui se sont produites en l’espèce soient rares, mais le Conseil note que les membres des groupes marginalisés ont soulevé des préoccupations au sujet du taux et des conséquences des suppressions faussement positives depuis plusieurs années. Les erreurs commises en l’espèce montrent qu’il incombe à Meta de démontrer qu’elle a fait preuve de diligence raisonnable en matière de droits de l’homme pour s’assurer que ses systèmes fonctionnent de manière équitable et qu’ils n’exacerbent pas l’oppression historique et continue (principe 17 des PDNU).
Meta évalue régulièrement la précision de ses systèmes de mise en application dans le traitement des discours haineux. Cette évaluation n’est pas divisée en évaluations de la précision qui mesurent spécifiquement la capacité de Meta à distinguer les discours haineux des contenus autorisés les condamnant ou y sensibilisant.
Les processus existants de Meta comprennent également des mécanismes ad hoc pour identifier les tendances d’erreurs et rechercher leurs causes profondes, ce qui nécessite toutefois de grands échantillons de contenu pour mesurer les performances du système. Le Conseil a demandé si Meta avait spécifiquement évalué la performance de ses systèmes d’examen quant à l’analyse précise des contre-discours qui constituent une expression artistique et les contre-discours qui sensibilisent aux violations des droits de l’homme. Meta a indiqué au Conseil qu’elle n’avait pas entrepris de recherches spécifiques sur les conséquences des suppressions faussement positives sur l’expression artistique ou l’expression des personnes d’identité ou d’origine autochtone.
L’entreprise a informé le Conseil des obstacles au lancement de telles évaluations, en ce compris l’absence d’un système permettant d’automatiser la collecte d’un échantillon de contenu soumis aux autorisations de la politique. Cette absence s’explique par le fait que les examinateurs marquent le contenu comme étant en infraction ou non et ne sont pas tenus d’indiquer si le contenu qui n’est pas en infraction fait l’objet d’une autorisation de la politique. Un échantillon de contre-discours soumis à ces autorisations devrait alors être recueilli manuellement.
Bien que le Conseil ait été enthousiasmé par le niveau de détail fourni sur la manière dont Meta évalue la performance lors d’une séance de questions-réponses organisée à la demande du Conseil, il est manifeste que davantage d’investissements sont nécessaires pour évaluer la précision de la mise en application des autorisations de la politique en matière de discours haineux et pour tirer des leçons des tendances des erreurs. Sans disposer d’informations supplémentaires sur les décisions de conception de Meta et sur les performances de ses systèmes manuels et automatisés, il est difficile pour le Conseil ou Meta d’évaluer la proportionnalité de l’approche actuelle de Meta en matière de discours haineux.
Lorsqu’il s’agit de déterminer s’il est nécessaire et proportionné d’utiliser les outils spécifiques de machine learning en l’espèce pour détecter automatiquement les discours haineux potentiels, il est essentiel de comprendre la précision de ces outils. Les classificateurs de machine learning impliquent toujours un équilibre entre les taux de faux positifs et de faux négatifs. Plus un classificateur est sensible, plus il est susceptible d’identifier correctement les cas de discours haineux, mais aussi de signaler à tort des contenus qui ne constituent pas des discours haineux. Des classificateurs formés autrement et des modèles différents varient dans leur utilité et leur efficacité pour diverses tâches. Pour un modèle donné, il peut être fait usage de différents seuils qui reflètent un jugement sur l’importance relative d’éviter différents types d’erreurs. La probabilité et la gravité des erreurs devraient également éclairer les décisions relatives au déploiement d’un classificateur, notamment pour savoir s’il peut agir immédiatement ou s’il doit subir une approbation manuelle, et connaître les garanties qui sont mises en place.
Meta a expliqué que la publication concernée en l’espèce a été envoyée pour examen par ses systèmes automatisés parce qu’elle était susceptible d’avoir une grande audience. Cette approche peut limiter la diffusion des contenus nuisibles, mais elle risque également d’augmenter le risque que des œuvres d’art puissantes luttant contre la haine soient supprimées à tort. Meta a déclaré au Conseil qu’elle évaluait régulièrement le taux de faux positifs par rapport à un ensemble de décisions prises par des examinateurs experts. L’entreprise a également noté qu’il était possible d’évaluer la précision des modèles de machine learning particuliers qui étaient pertinents en l’espèce et qu’elle conserve les informations sur les prédictions de ses classificateurs pendant au moins 90 jours. Le Conseil a demandé des informations qui lui permettraient d’évaluer les performances du classificateur ainsi que la pertinence des seuils que Meta a utilisés en l’espèce. Meta a informé le Conseil qu’elle ne pouvait pas lui remettre les informations demandées, car elle ne disposait pas de suffisamment de temps pour les préparer. Toutefois, l’entreprise a indiqué qu’elle étudiait la possibilité de communiquer ces informations dans de futurs cas.
L’examen manuel peut fournir deux garanties importantes sur le fonctionnement des classificateurs de Meta : d’abord avant la suppression de la publication, puis en cas d’appel. Les erreurs commises en l’espèce indiquent que les directives données par Meta aux modérateurs pour évaluer les contre-discours sont peut-être insuffisantes. Bon nombre de raisons ont pu contribuer au fait que des modérateurs manuels aient pris deux fois la mauvaise décision en l’espèce. Le Conseil craint que les examinateurs ne disposent peut-être pas des ressources suffisantes en termes de temps ou de formation pour éviter le type d’erreur constaté en l’espèce, en particulier en ce qui concerne les contenus autorisés par la politique (notamment la « condamnation » des discours haineux et la « sensibilisation » à cet égard).
En l’espèce, les deux examinateurs étaient basés en Asie-Pacifique. Meta n’a pas été en mesure d’indiquer au Conseil si le taux de précision des examinateurs était différent de celui des modérateurs évaluant de potentiels discours haineux qui ne résident pas dans la région d’où le contenu provient. Le Conseil note la complexité de l’évaluation des discours haineux ainsi que la difficulté de comprendre le contexte et l’histoire locale, en particulier si l’on tient compte du volume de contenu que les modérateurs examinent chaque jour. Il est envisageable que les modérateurs qui ont évalué le contenu en l’espèce ne disposaient pas de beaucoup d’expérience sur l’oppression des peuples autochtones en Amérique du Nord. Les directives devraient inclure des instructions claires pour évaluer le contenu dans son intégralité et aider les modérateurs à évaluer plus précisément possible le contexte pour identifier toute preuve d’intention ou de signification.
Dans sa décision sur le cas du meme aux deux boutons (2021-005-FB-UA), le Conseil a recommandé que Meta permette aux utilisateurs d’indiquer dans leur appel que le contenu relève de l’une des autorisations du Standard de la communauté Facebook sur les discours haineux. À l’heure actuelle, lorsqu’un utilisateur fait appel de l’une des décisions de Meta soumise à un examen manuel, l’examinateur n’est pas informé que l’utilisateur a contesté une décision précédente et ne connaît pas le résultat de l’examen antérieur. Si Meta a indiqué au Conseil qu’elle pensait que cette information est susceptible de biaiser l’examen, le Conseil se demande si elle pourrait au contraire augmenter la probabilité d’une prise de décision plus nuancée. Cette question pourrait être testée de manière empirique par Meta. Les résultats seraient utiles pour évaluer la proportionnalité des mesures spécifiques que Meta a décidé d’adopter.
En vertu des PDNU, Meta a la responsabilité de faire preuve d’une diligence raisonnable en matière de droits de l’homme (principe 17). Il s’agit notamment de lutter contre la discrimination et d’identifier les éventuels effets négatifs de ma modération du contenu sur l’expression artistique et l’expression politique des peuples autochtones. Meta doit en outre déterminer comment elle compte prévenir et atténuer ces effets négatifs, et comment elle va rendre compte des efforts fournis à cet égard. Le Conseil s’engage à surveiller les performances de Meta et s’attend à ce que l’entreprise donne la priorité aux risques pour les groupes marginalisés et fournisse des preuves d’amélioration continues.
9.Décision du Conseil de surveillance
Le Conseil de surveillance a annulé la décision initiale de Meta visant à supprimer le contenu.
10. Avis consultatif sur la politique
Mise en application
1. D’informer les utilisateurs en temps utile de toute mesure prise par l’entreprise au sujet du contenu sur lequel porte leur appel. Le cas échéant, y compris en cas d’erreur de mise en application comme celle-ci, la notification à l’utilisateur doit mentionner que la mesure découle du processus d’examen du Conseil de surveillance. Meta est tenue partager les messages envoyés à l’utilisateur lorsque les mesures du Conseil ont une incidence sur les décisions qui font l’objet d’un appel de la part de l’utilisateur afin de démontrer qu’elle s’est conformée à cette recommandation. Ces mesures doivent être prises dans tous les cas rectifiés à l’étape d’éligibilité du processus du Conseil.
2. Étudier les conséquences de la modification de l’approche du second examen sur la précision et la productivité de l’examinateur. Le Conseil demande en particulier une évaluation du taux de précision lorsque les modérateurs de contenu sont informés qu’ils effectuent un second examen, si bien qu’ils savent que la décision initiale a été contestée. Cette expérience devrait idéalement inclure la possibilité pour les utilisateurs de fournir un contexte pertinent susceptible d’aider les examinateurs à évaluer leur contenu, conformément aux recommandations précédentes du Conseil. Meta doit partager les résultats de ces évaluations de précision avec le Conseil et les résumer dans son rapport trimestriel de transparence au Conseil pour démontrer qu’elle s’est conformée à cette recommandation.
3. Procéder à des évaluations de précision en se concentrant sur les autorisations de la politique en matière de discours haineux qui couvrent l’expression artistique et les propos sur les infractions aux droits de l’homme (p. ex. les condamnations, les sensibilisations, les emplois autoréférentiels et les utilisations valorisantes). Cette évaluation devrait également analyser spécifiquement l’incidence de l’origine d’un examinateur sur la capacité des modérateurs à évaluer avec précision les discours haineux et les contre-discours provenant de la même région ou non. Le Conseil comprend que cette analyse nécessitera probablement la constitution d’échantillons appropriés et étiquetés avec précision des contenus pertinents. Meta doit partager les résultats de cette évaluation avec le Conseil, en ce compris la manière dont ces résultats permettront d’améliorer les opérations de mise en application et l’élaboration des politiques. L’entreprise doit également indiquer si elle prévoit d’effectuer régulièrement des évaluations de la précision des examens sur la base de ces autorisations, ainsi que résumer les résultats dans son rapport trimestriel de transparence au Conseil pour démontrer qu’elle s’est conformée à cette recommandation.
*Note de procédure :
Les décisions du Conseil de surveillance sont préparées par des panels de cinq membres et approuvées par une majorité du Conseil. Elles ne représentent pas nécessairement les opinions personnelles de tous ses membres.
Pour la décision sur ce cas, des recherches indépendantes ont été commandées au nom du Conseil. Un institut de recherche indépendant, dont le siège se trouve à l’université de Göteborg et mobilisant une équipe de plus 50 spécialistes en science sociale sur six continents ainsi que 3 200 spécialistes nationaux du monde entier, et Duco Advisers, un cabinet de conseil spécialisé dans la convergence entre la géopolitique, la confiance, la sécurité et la technologie, ont apporté leur expertise sur le contexte socio-politico-culturel.
Retour aux décisions de cas et aux avis consultatifs politiques