Renversé

Bot au Myanmar

Le Conseil de surveillance a annulé la décision de Facebook visant à supprimer une publication en birman en vertu de son Standard de la communauté sur les discours haineux.

Type de décision

Standard

Politiques et sujets

Sujet
Liberté d’expression, Politique
Norme communautaire
Discours incitant à la haine

Régions/Pays

Emplacement
Myanmar

Plate-forme

Plate-forme
Facebook

Résumé du cas

Le Conseil de surveillance a annulé la décision de Facebook visant à supprimer une publication en birman en vertu de son Standard de la communauté sur les discours haineux. Le Conseil a estimé que la publication ne ciblait pas le peuple chinois, mais l’État chinois. Elle employait en particulier des injures pour désigner la politique du gouvernement chinois à Hong Kong dans le cadre d’une discussion politique sur le rôle du gouvernement chinois au Myanmar.

À propos du cas

En avril 2021, un utilisateur de Facebook semblant se trouver au Myanmar a publié un contenu en birman sur son journal. La publication discutait des moyens de limiter le financement de l’armée du Myanmar à la suite du coup d’État survenu le 1er février 2021 dans le pays. Elle proposait que les recettes fiscales soient versées au Comité représentant l’Assemblée de l’Union (CRPH), un groupe de législateurs opposés au coup d’État. La publication a été vue environ un demi-million de fois et n’a été signalée par aucun utilisateur de Facebook.

Facebook a traduit la partie prétendument en infraction de la publication de l’utilisateur par « Hong Kong people, because the fucking Chinese tortured them, changed their banking to UK, and now (the Chinese) they cannot touch them » (« Puisque ces connards de Chinois les ont torturés, les habitants de Hong Kong ont transféré leurs opérations bancaires au Royaume-Uni et maintenant ils (les Chinois) ne peuvent plus rien faire contre eux »). Facebook a supprimé cette publication en vertu de son Standard de la communauté sur les discours haineux. Ce dernier interdit les contenus qui ciblent une personne ou un groupe de personnes sur la base de leur origine ethnique ou nationale en utilisant « des expressions ou des termes injurieux avec l’intention d’insulter ».

Les quatre examinateurs de contenu qui ont analysé la publication ont tous convenu qu’elle enfreignait les règles de Facebook. Dans son appel au Conseil, l’utilisateur a déclaré qu’il avait publié ce contenu pour « freiner un régime militaire brutal ».

Principales observations

Ce cas met en lumière l’importance que revêt le contexte dans la mise en application des politiques sur les discours haineux, ainsi que la nécessité de protéger les discours politiques. Ce point est particulièrement pertinent au Myanmar, étant donné le coup d’État survenu en février 2021 et le rôle clé de Facebook en tant que moyen de communication dans ce pays.

La publication employait l’expression birmane « $တရုတ်, » (ou « sout ta-yote »), que Facebook a traduite en anglais par « fucking Chinese » (« connards de Chinois »). D’après Facebook, le mot « ta-yote » « est considéré culturellement et linguistiquement comme pouvant se rapporter tant à la République de Chine qu’au peuple chinois ». L’entreprise a affirmé qu’étant donné la nature de ce mot et le fait que l’utilisateur « n’a pas clairement indiqué que le terme se rapportait au pays ou au gouvernement chinois », elle a estimé que « l’utilisateur faisait à tout le moins référence au peuple chinois ». À ce titre, Facebook a supprimé la publication en vertu de son Standard de la communauté sur les discours haineux.

Puisqu’en birman, le même mot est utilisé pour désigner à la fois l’État et ses ressortissants, le contexte est essentiel pour comprendre l’intention de l’auteur. Plusieurs facteurs ont convaincu le Conseil que l’utilisateur ne visait pas le peuple chinois, mais bien l’État.

La partie de la publication qui enfreignait prétendument les règles de Facebook qualifie la politique financière pratiquée par la Chine à Hong Kong de « torture » ou de « persécution », et non les actions des personnes ou des Chinois au Myanmar. Les deux traducteurs du Conseil ont indiqué qu’en l’espèce, le mot « ta-yote » se rapportait à un État. Interrogés sur la possibilité d’une ambiguïté à cet égard, ils n’ont émis aucun doute. Les traducteurs du Conseil ont également déclaré que la publication contenait des termes couramment employés par le gouvernement du Myanmar et l’ambassade de Chine pour s’adresser l’un à l’autre. Par ailleurs, aucun utilisateur n’a signalé la publication alors que cette dernière a été vue par un demi-million de personnes et partagée plus de 6 000 fois. Les commentaires publics ont également décrit le ton général de la publication comme une discussion politique.

Étant donné que la publication ne ciblait pas des personnes sur la base de leur origine ethnique ou nationale, mais visait un État, le Conseil a estimé qu’elle n’enfreignait pas le Standard de la communauté Facebook sur les discours haineux.

Décision du Conseil de surveillance

Le Conseil de surveillance annule la décision de Facebook visant à supprimer le contenu et demande à ce que la publication soit restaurée.

Dans un avis consultatif sur la politique, le Conseil recommande à Facebook de :

  • S’assurer que ses standards internes de mise en application sont disponibles dans la langue dans laquelle les modérateurs de contenu examinent le contenu. S’il est nécessaire d’établir des priorités, Facebook doit d’abord se concentrer sur les contextes où les risques pour les droits de l’homme sont plus sérieux.

*Les résumés de cas fournissent une présentation du cas et n’ont pas valeur de précédent.

Décision complète sur le cas

1. Résumé de la décision

Le Conseil de surveillance a annulé la décision de Facebook visant à supprimer un contenu en vertu de son Standard de la communauté sur les discours haineux. Le Conseil a en effet estimé que la publication ne constituait en aucun cas un discours haineux.

2. Description du cas

En avril 2021, un utilisateur de Facebook semblant se trouver au Myanmar a publié un contenu en birman sur son journal. La publication discutait des moyens de limiter le financement de l’armée du Myanmar à la suite du coup d’État survenu le 1er février 2021 dans le pays. Elle proposait que les recettes fiscales soient versées au Comité représentant l’Assemblée de l’Union (CRPH), un groupe de législateurs opposés au coup d’État. La publication a été vue environ 500 000 fois, a reçu près de 6 000 réactions et a été partagée approximativement 6 000 fois. Aucun utilisateur de Facebook ne l’a signalée.

Facebook a traduit la partie prétendument en infraction de la publication de l’utilisateur par « Hong Kong people, because the fucking Chinese tortured them, changed their banking to UK, and now (the Chinese) they cannot touch them » (« Puisque ces connards de Chinois les ont torturés, les habitants de Hong Kong ont transféré leurs opérations bancaires au Royaume-Uni et maintenant ils (les Chinois) ne peuvent plus rien faire contre eux »). Facebook a supprimé le contenu en tant que discours haineux de « niveau 2 » en vertu de son Standard de la communauté sur les discours haineux le lendemain de sa publication. Ce dernier interdit les contenus qui ciblent une personne ou un groupe de personnes sur la base de leur origine ethnique ou nationale en utilisant « des expressions ou des termes injurieux avec l’intention d’insulter ».

Selon Facebook, un repartage de la publication a été « automatiquement sélectionné dans un échantillon et envoyé pour examen manuel dans le cadre d’une formation de classificateur ». Facebook crée ainsi des ensembles de données contenant des exemples de contenus légaux et en infraction pour entraîner ses procédés automatiques de mise en application et de détection afin de prédire si le contenu concerné enfreint les politiques de Facebook. L’examinateur a estimé que la publication partagée enfreignait le Standard de la communauté Facebook sur les discours haineux. Si l’objectif de ce procédé était de créer des ensembles de contenus visant à entraîner le classificateur, la publication partagée a été supprimée après avoir été considérée en infraction.

Puisqu’il a été considéré que ce contenu partagé enfreignait les règles de Facebook, un « bot d’action administratif » a automatiquement identifié la publication originale en vue d’un examen. Facebook a expliqué que le bot d’action administratif est un compte Facebook interne qui n’effectue aucune évaluation de contenu, mais réalise « une série d’actions à travers le système de mise en application basé sur des décisions prises par des examinateurs ou l’automatisation ». Deux examinateurs ont alors analysé la publication originale et tous deux ont estimé qu’il s’agissait d’un discours haineux de « niveau 2 ». Le contenu a été supprimé. L’utilisateur a fait appel de la suppression auprès de Facebook, à la suite de quoi quatre examinateurs ont confirmé la décision initiale. Selon Facebook, « les examinateurs de contenu étaient en l’espèce tous membres d’une équipe de révision birmane chez Facebook ». L’utilisateur a alors fait appel auprès du Conseil de surveillance.

3. Autorité et champ d’application

Le Conseil jouit de l’autorité nécessaire pour examiner la décision de Facebook à la suite d’un appel interjeté par l’utilisateur dont la publication a été supprimée (article 2, section 1 de la Charte ; article 2, section 2.1 des Statuts). Le Conseil peut maintenir ou annuler cette décision (article 3, section 5 de la Charte). Les décisions du Conseil sont contraignantes et peuvent inclure des avis consultatifs sur la politique ainsi que des recommandations. Ces recommandations ne sont pas contraignantes, mais Facebook est tenue d’y répondre (article 3, section 4 de la Charte). Le Conseil est un organe de réclamation indépendant qui traite les litiges de manière transparente et sur la base de principes.

4. Standards pertinents

Le Conseil de surveillance a pris les éléments suivants en considération dans sa décision :

I. Standards de la communauté Facebook

Les Standards de la communauté Facebook définissent le discours haineux comme « une attaque directe contre des personnes fondée sur ce que nous appelons des caractéristiques protégées : l’origine ethnique, l’origine nationale, le handicap, la religion, la caste, l’orientation sexuelle, le sexe, l’identité de genre et les maladies graves ». Les contenus interdits de « niveau 2 » incluent les injures, définies comme « des expressions ou des termes injurieux avec l’intention d’insulter, notamment, sans s’y limiter : enculé, salope, fils de pute ».

II. Valeurs de Facebook

Les valeurs de Facebook sont détaillées dans l’introduction des Standards de la communauté. La liberté d’expression y est décrite comme « primordiale » :

L’objectif de nos Standards de la communauté a toujours été de créer un espace d’expression et de donner une voix aux personnes. […] Nous souhaitons que les personnes puissent s’exprimer ouvertement sur les sujets qui comptent pour elles, même si d’autres peuvent marquer leur désaccord ou y trouveraient à redire.

Facebook limite la liberté d’expression au profit de quatre valeurs, dont deux sont en l’espèce pertinentes :

La sécurité : Nous nous engageons à faire de Facebook un endroit sûr. Les formes d’expression qui menacent les autres peuvent les intimider, les exclure ou les réduire au silence, et ne sont pas autorisées sur Facebook.

La dignité : Nous pensons que chacun mérite les mêmes droits et la même dignité. Nous attendons de chaque personne qu’elle respecte la dignité d’autrui et qu’elle ne harcèle ni ne rabaisse les autres.

III. Normes relatives aux droits de l’homme :

Les Principes directeurs relatifs aux entreprises et aux droits de l’homme des Nations Unies (PDNU), soutenus par le Conseil des droits de l’homme des Nations Unies en 2011, établissent un cadre de travail volontaire pour les responsabilités relatives aux droits de l’homme des entreprises privées. En 2021, Facebook a annoncé l’entrée en vigueur de sa Politique d’entreprise relative aux droits de l’homme, dans laquelle elle a réaffirmé son engagement à respecter les droits de l’homme conformément aux PDNU. L’analyse du Conseil sur ce cas s’est appuyée sur les normes de droits de l’homme suivantes :

  1. La liberté d’expression : l’article 19 du Pacte international relatif aux droits civils et politiques (PIDCP), l’observation générale n° 34 du Comité des droits de l’homme,2011 ;
  2. Responsabilité des entreprises : Entreprises, droits humains et régions touchées par des conflits : vers une action renforcée (A/75/212), Groupe de travail des Nations unies sur la question des droits de l’homme et des sociétés transnationales et autres entreprises.

5. Déclaration de l’utilisateur

Dans son appel au Conseil, l’utilisateur a déclaré avoir publié ce contenu pour « freiner un régime militaire brutal » et donner des conseils aux dirigeants démocratiques au Myanmar. Il a également réaffirmé la nécessité de limiter le financement du régime militaire du Myanmar. L’utilisateur s’est présenté comme un « activiste » et a émis l’hypothèse que les informateurs du régime militaire du Myanmar aient signalé sa publication. Il a également déclaré qu’une personne « qui comprend la langue birmane » devrait examiner sa publication.

6. Explication de la décision de Facebook

Facebook a supprimé le contenu en tant qu’attaque de « niveau 2 » en vertu de son Standard de la communauté sur les discours haineux, en particulier pour avoir enfreint sa politique interdisant les propos injurieux envers des personnes sur la base de leur origine ethnique ou nationale. D’après l’entreprise, le contenu prétendument en infraction était considéré comme une attaque envers le peuple chinois.

Il contenait l’expression « $တရုတ်, » en langue birmane (ou « sout ta-yote »), que l’équipe régionale de Facebook a traduite en anglais par « fucking Chinese » (« connards de Chinois »). L’équipe régionale de Facebook a en outre précisé que « $ » peut être utilisé comme abréviation de « စောက » ou « sout », qui se traduit par « connard ». D’après l’équipe de Facebook, le mot « ta-yote » « est considéré culturellement et linguistiquement comme pouvant se rapporter tant à la République de Chine qu’au peuple chinois ». Facebook a communiqué au Conseil les instructions internes confidentielles pertinentes qu’elle fournit à ses modérateurs, ou les standards internes de mise en application, sur la distinction entre les termes qui visent les personnes sur la base de caractéristiques protégées et les concepts associés aux caractéristiques protégées.

Dans la justification de sa décision, Facebook a également indiqué qu’à la suite du coup d’État de février 2021, « des rapports ont fait état d’un sentiment anti-chinois croissant » au Myanmar et que « plusieurs Chinois ont été blessés, piégés ou tués dans l’incendie présumé criminel d’une usine de vêtements financée par la Chine à Yangon, au Myanmar ». En réponse à une question du Conseil, Facebook a déclaré qu’elle n’avait eu aucun contact avec le régime militaire du Myanmar au sujet de cette publication.

L’entreprise a affirmé qu’étant donné la nature du mot « ta-yote » et le fait que l’utilisateur « n’a pas clairement indiqué que le terme se rapportait au pays ou au gouvernement chinois », elle a estimé que « l’utilisateur faisait à tout le moins référence au peuple chinois ». Par conséquent, Facebook a indiqué que la suppression de la publication était conforme à son Standard de la communauté sur les discours haineux.

En outre, l’entreprise a indiqué que la suppression était conforme à ses valeurs de dignité et de sécurité par rapport à sa valeur de liberté d’expression. Selon Facebook, les propos injurieux envers le peuple chinois « peuvent causer du tort à ces personnes » et sont « dégradants, déshumanisants et dévalorisants pour leur dignité individuelle ».

L’entreprise a également soutenu que sa décision était conforme aux normes internationales des droits de l’homme. Elle a affirmé que sa décision respectait les exigences de la législation internationale des droits de l’homme en matière de légalité, d’objectif légitime, ainsi que de nécessité et de proportionnalité. Selon Facebook, sa politique était « facilement accessible » dans ses Standards de la communauté et « le choix des mots de l’utilisateur tombait entièrement sous le coup de l’interdiction d’employer des termes injurieux ». Par ailleurs, la décision de supprimer le contenu était légitime afin de protéger « les droits d’autrui de tout préjudice et discrimination ». Enfin,cette décision de suppression était « nécessaire et proportionnée », car « l’accumulation de contenus contenant des propos injurieux envers le peuple chinois “crée un environnement où les actes de violence sont plus susceptibles d’être tolérés et de reproduire de la discrimination dans une société” », citant la décision 2021-002-FB-UA du Conseil relative à Zwarte Piet. Facebook a déclaré que ces deux cas étaient similaires, car « tous deux impliquent des discours haineux envers des personnes sur la base de leur origine ethnique ».

7. Soumissions de tierces parties

Le Conseil de surveillance a reçu 10 commentaires publics en rapport avec ce cas. Cinq provenaient d’Asie-Pacifique et d’Océanie, en particulier du Myanmar, et les cinq autres des États-Unis et du Canada. Le Conseil a reçu des commentaires de parties prenantes, notamment de défenseurs des droits de l’homme et d’organisations de la société civile, portant sur la liberté d’expression et les discours haineux au Myanmar.

Ces soumissions abordaient notamment les questions suivantes : Quelles traduction et analyse peut-on faire du terme « sout ta-yote » ? Le contenu constitue-t-il une attaque envers la Chine ou envers le peuple chinois ? La publication représentait-elle un discours politique devant être protégé dans le contexte du conflit au Myanmar ? Existe-t-il un sentiment anti-chinois croissant au Myanmar depuis le coup d’État de février 2021 ? Quelles relations la Chine et le régime militaire du Myanmar entretiennent-ils ? En quoi consistent les pratiques de modération du contenu de Facebook, en particulier l’utilisation, l’entraînement et l’audit des outils d’automatisation de Facebook pour les contenus en langue birmane ?

Pour lire les commentaires publics soumis pour ce cas, veuillez cliquer ici.

8. Analyse du Conseil de surveillance

Le présent cas souligne l’importance du contexte dans la mise en application des politiques de contenu destinées à protéger les utilisateurs des discours haineux tout en respectant les discours politiques. Ce point est particulièrement pertinent au Myanmar, étant donné le coup d’État survenu en février 2021 et l’importance de Facebook en tant que moyen de communication. Le Conseil a examiné la question de la restauration de ce contenu sous trois angles : les Standards de la communauté Facebook, les valeurs de l’entreprise et ses responsabilités en matière de droits de l’homme.

8.1 Respect des Standards de la communauté

Le Conseil a estimé que la restauration de ce contenu est conforme au Standard de la communauté Facebook sur les discours haineux. La politique de Facebook interdit les « termes injurieux avec l’intention d’insulter » qui ciblent une personne sur la base de son origine ethnique ou nationale. Le Conseil conclut que la publication ne visait pas des personnes, mais plutôt la politique du gouvernement chinois à Hong Kong, dans le cadre d’une discussion sur le rôle du gouvernement chinois au Myanmar.

Outre des commentaires publics, le Conseil a demandé deux traductions du texte. L’une a été effectuée par un locuteur birman situé au Myanmar, tandis que l’autre a été prise en charge par un locuteur birman établi en dehors du Myanmar. Tant les commentaires publics que les traducteurs du Conseil ont indiqué qu’en birman, le même mot est employé pour désigner les États et leurs ressortissants. Par conséquent, le contexte est déterminant pour comprendre le sens voulu. Ce point est particulièrement pertinent dans l’application de la politique de Facebook sur les discours haineux. Au moment où le contenu a été supprimé, le Standard de la communauté sur les discours haineux précisait qu’il interdisait les attaques envers des personnes sur la base de leur origine nationale, mais n’interdisait pas les attaques envers les pays.

Le Conseil a pris en compte divers facteurs pour décider que cette publication ne ciblait pas les personnes chinoises sur la base de leur origine ethnique ou nationale. Premièrement, la publication au sens large suggère des moyens de limiter l’engagement financier envers le régime militaire et de fournir un soutien financier au CRPH. Deuxièmement, la partie prétendument en infraction de la publication qualifie la politique financière pratiquée par la Chine à Hong Kong de « torture » ou de « persécution », et non les actions des personnes ou des Chinois au Myanmar. Troisièmement, si l’absence de signalement d’une publication largement partagée n’indique pas toujours qu’elle n’est pas en infraction, plus de 500 000 personnes ont vu le contenu et plus de 6 000 utilisateurs l’ont partagé sans que personne ne le signale. Quatrièmement, les deux traducteurs consultés par le Conseil ont affirmé que bien que le même terme soit employé pour désigner un État et ses ressortissants, seul l’État était ici concerné. Interrogés sur la possibilité d’une ambiguïté à cet égard, ils n’ont émis aucun doute. Cinquièmement, les deux traducteurs ont déclaré que la publication contenait des termes couramment employés par le gouvernement du Myanmar et l’ambassade de Chine pour s’adresser l’un à l’autre. Enfin, les commentaires publics ont généralement noté que la nature de la publication était dans l’ensemble essentiellement une discussion politique.

Par conséquent, étant donné que les injures ne ciblaient pas des personnes sur la base de leur origine ethnique ou nationale, mais visaient un État, le Conseil conclut qu’elles n’enfreignent pas le Standard de la communauté Facebook sur les discours haineux. Il est essentiel de veiller à ce que les interdictions de cibler les personnes sur la base de caractéristiques protégées ne soient pas interprétées de manière à protéger les gouvernements ou les institutions de toute critique. Le Conseil reconnaît que les discours anti-chinois incitant à la haine constituent un problème sérieux, mais cette publication se rapporte à l’État chinois.

Le Conseil n’est pas d’accord avec l’argument de Facebook selon lequel sa décision de supprimer le contenu suivait la justification du Conseil dans sa décision sur le cas 2021-002-FB-UA (pour lequel le Conseil a confirmé la suppression de représentations de personnes portant le blackface). Dans ce cas, Facebook disposait d’une règle interdisant les représentations de personnes en blackface et le Conseil a autorisé Facebook à appliquer cette règle aux contenus comprenant des représentations de Zwarte Piet en blackface. Dans le cas présent en revanche, le contexte de la publication indique que les propos tenus n’enfreignaient en aucun cas les règles de Facebook.

Au cours des délibérations du Conseil sur ce cas, Facebook a mis à jour son Standard de la communauté sur les discours haineux pour fournir davantage d’informations sur la manière dont elle interdit les « concepts » liés aux caractéristiques protégées dans certaines circonstances. La nouvelle règle précise que Facebook « demande du contexte et/ou des informations supplémentaires » pour la mise en application de ses politiques et que les utilisateurs ne doivent pas publier « de contenu attaquant des concepts, des institutions, des idées, des pratiques ou des croyances en lien avec des caractéristiques protégées, susceptibles de contribuer à des blessures physiques imminentes, de l’intimidation ou de la discrimination envers des personnes associées aux caractéristiques protégées concernées ».

Étant donné que cette règle ne faisait pas partie du Standard de la communauté lorsque Facebook a supprimé le contenu et que Facebook n’a pas fait valoir au Conseil qu’elle l’avait supprimé en vertu de cette mise à jour, le Conseil n’a pas analysé l’application de cette politique au cas présent. Le Conseil note toutefois que les « concepts, institutions, idées, pratiques ou croyances » pourraient couvrir un très large éventail d’expressions, en ce compris les discours politiques.

8.2 Respect des valeurs de Facebook

Le Conseil conclut que la restauration du contenu est conforme aux valeurs de Facebook. Bien que les valeurs de Facebook de « dignité » et de « sécurité » soient essentielles, en particulier dans le contexte du coup d’État survenu au Myanmar en février 2021, le contenu ne présentait aucun risque pour ces valeurs susceptible de justifier la supplantation de la valeur de « liberté d’expression ». Le Conseil a également estimé que la publication contenait un discours politique, lequel est essentiel à la valeur de « liberté d’expression ».

8.3 Respect des responsabilités de Facebook en matière des droits de l’homme

Le Conseil conclut que la restauration du contenu est conforme aux responsabilités d’entreprise de Facebook en matière de droits de l’homme. Facebook s’est engagée à respecter les droits de l’homme en vertu des Principes directeurs des Nations unies relatifs aux entreprises et aux droits de l’homme (PDNU). Sa Politique d’entreprise relative aux droits de l’homme indique que ceci inclut le Pace international relatif aux droits civils et politiques (PIDCP).

L’article 19 du PIDCP prévoit une large protection de la liberté d’expression. Cette protection est « particulièrement élevée » pour les expressions et les débats politiques, y compris en ce qui concerne les institutions politiques (Observation générale n° 34, paragraphe 38). L’article 19 exige des restrictions imposées par l’État sur la liberté d’expression pour satisfaire au test tripartite de la légalité, la légitimité et la nécessité et la proportionnalité. Le Conseil conclut que les actions de Facebook n’ont pas satisfait à ses responsabilités en tant qu’entreprise en vertu de ce test.

I. Légalité (clarté et accessibilité des règles)

Le principe de légalité consacré par la législation internationale des droits de l’homme exige que les règles utilisées par les États pour limiter la liberté d’expression soient claires et accessibles (Observation générale n° 34, paragraphe 25). Les règles qui limitent la liberté d’expression doivent également « énoncer des règles suffisamment précises pour permettre aux personnes chargées de leur application d’établir quelles formes d’expression sont légitimement restreintes et quelles formes d’expression le sont indûment » (Observation générale n° 34, paragraphe 25).

Le Standard de la communauté sur les discours haineux interdit les propos injurieux qui ciblent des personnes sur la base de leur origine ethnique ou nationale. Facebook a indiqué au Conseil qu’en raison des difficultés rencontrées pour « déterminer l’intention de l’auteur, Facebook considère que l’expression “connards de Chinois” fait à la fois référence aux Chinois et au pays ou au gouvernement chinois, à moins que l’utilisateur ne fournisse du contexte supplémentaire indiquant qu’il ne désigne que le pays ou le gouvernement ». Cette politique de suppression par défaut ne figure pas dans le Standard de la communauté.

Le Conseil conclut que l’utilisateur a fourni davantage de contexte indiquant que la publication faisait référence à un État ou un pays, comme le révèle l’analyse du Conseil sur le Standard de la communauté sur les discours haineux (section 8.1 ci-dessus). Plusieurs examinateurs de Facebook sont parvenus à une conclusion différente de celle des traducteurs du Conseil, des personnes qui ont soumis des commentaires publics et vraisemblablement de la plupart des plus de 500 000 utilisateurs qui ont vu la publication sans la signaler. Cette divergence pousse le Conseil à s’interroger sur l’adéquation des instructions, des ressources et des formations internes de Facebook fournies aux modérateurs de contenu.

Puisqu’il a conclu que l’utilisateur n’avait pas enfreint la politique de Facebook sur les discours haineux, le Conseil ne se prononce pas sur le fait que la politique non publique de suppression par défaut enfreint le principe de légalité. Toutefois, le Conseil note avec préoccupation que cette politique de suppression par défaut lorsque des propos injurieux peuvent être interprétés comme visant des personnes ou un État n’est pas clairement indiquée dans les Standards de la communauté En règle générale, Facebook devrait rendre publiques ses instructions internes qui modifient l’interprétation des Standards de la communauté publics.

II. Objectif légitime

Toute restriction étatique de la liberté d’expression doit poursuivre l’un des objectifs légitimes énoncés dans le PIDCP. Les « droits d’autrui » en font partie. Facebook estime que sa politique sur les discours haineux vise à protéger les utilisateurs de toute discrimination. Le Conseil reconnaît qu’il s’agit d’un objectif légitime.

III. Nécessité et proportionnalité

Le principe de nécessité et de proportionnalité de la législation internationale des droits de l’homme requiert que les restrictions de la liberté d’expression soient «  appropriées pour remplir leur fonction de protection, elles doivent constituer le moyen le moins perturbateur parmi ceux qui pourraient permettre d’obtenir le résultat recherché et elles doivent être proportionnées à l’intérêt à protéger » ( Observation générale n° 34, paragraphe 34). En l’espèce, sur la base de son interprétation du contenu, le Conseil a estimé que la limitation de la publication ne remplirait pas une fonction de protection.

Les PDNU indiquent que les entreprises doivent faire preuve de diligence raisonnable en matière de droits de l’homme afin d’évaluer les incidences de leurs activités (PDNU 17) et reconnaître que le risque de violations est plus élevé dans les zones touchées par des conflits (PDNU 7). Le groupe de travail des Nations unies sur la question des droits de l’homme et des sociétés transnationales et autres entreprises a noté que la responsabilité de diligence des entreprises devrait la plus grande complexité et le risque de préjudice dans certains scénarios. (A/75/212, paragraphes 41-49). De même, dans la décision sur le cas 2021-001-FB-FBR, le Conseil a recommandé que Facebook « alloue des ressources et une expertise adéquates à l’évaluation des risques de préjudice que présentent les comptes influents à l’échelle mondiale », reconnaissant que l’entreprise devrait accorder une attention particulière aux régions présentant des risques plus importants.

En l’espèce, le Conseil a estimé que ces responsabilités accrues ne devraient pas conduire à une suppression par défaut, car les enjeux sont de tailles, que du contenu nuisible soit laissé en ligne ou que du contenu ne présentant peu ou pas de risque de préjudice soit supprimé. Si les préoccupations de Facebook sur les discours haineux au Myanmar sont fondées, l’entreprise doit également veiller tout particulièrement à ne pas supprimer les critiques ou les expressions politiques, en l’occurrence une marque de soutien envers un gouvernement démocratique.

Le Conseil a constaté que la politique de Facebook consistant à présumer que les propos injurieux mentionnant une origine nationale (en l’espèce « $တရုတ်, ») visent à la fois les États et les personnes peut conduire à une mise en application disproportionnée dans certains contextes linguistiques, comme celui-ci, où le même mot est utilisé pour les deux. Le Conseil a également noté que l’incidence de cette suppression s’étendait au-delà du cas, car Facebook a indiqué que la publication était utilisée dans le cadre d’une formation pour classificateurs en tant qu’exemple de contenu qui enfreint le Standard de la communauté sur les discours haineux.

Compte tenu de ce qui précède, les normes internationales des droits de l’homme plaident en faveur de la restauration du contenu sur Facebook.

9. Décision du Conseil de surveillance

Le Conseil de surveillance a annulé la décision de Facebook visant à supprimer le contenu et demande qu’il soit restauré. En vertu de la Charte du Conseil, Facebook est tenue d’appliquer cette décision aux contextes parallèles et de désigner ce contenu comme légal s’il est utilisé dans le cadre de la formation de classificateurs.

10. Recommandation de politique

Facebook doit s’assurer que ses standards internes de mise en application sont disponibles dans la langue dans laquelle les modérateurs de contenu examinent le contenu. S’il est nécessaire d’établir des priorités, Facebook doit d’abord se concentrer sur les contextes où les risques pour les droits de l’homme sont plus sérieux.

*Note de procédure :

Les décisions du Conseil de surveillance sont préparées par des panels de cinq membres et approuvées par une majorité du Conseil. Elles ne représentent pas nécessairement les opinions personnelles de tous ses membres.

Pour la décision sur ce cas, des recherches indépendantes ont été commandées au nom du Conseil. Un institut de recherche indépendant, dont le siège se trouve à l’université de Göteborg et mobilisant une équipe de plus 50 experts en science sociale sur six continents ainsi que 3200 experts nationaux du monde entier, a fourni son expertise sur le contexte socio-politico-culturel. L’entreprise Lionbridge Technologies, LLC, dont les spécialistes parlent couramment plus de 350 langues et travaillent dans 5000 villes du monde entier, a fourni son expertise linguistique.

Retour aux décisions de cas et aux avis consultatifs politiques