Confirmé
Insultes en Afrique du Sud
28 septembre 2021
Le Conseil de surveillance a confirmé la décision de Facebook visant à supprimer une publication discutant de la société sudafricaine en vertu de son Standard de la communauté sur les discours haineux.
Résumé du cas
Le Conseil de surveillance a confirmé la décision de Facebook visant à supprimer une publication discutant de la société sudafricaine en vertu de son Standard de la communauté sur les discours haineux. Le Conseil a estimé que la publication contenait une insulte qui, au regard du contexte sudafricain, intimidait, excluait et dégradait les personnes ciblées.
À propos du cas
En mai 2021, un utilisateur de Facebook a publié en anglais dans un groupe public dont l’objectif serait, d’après ses propres dires, d’éveiller les esprits. Les photos de profil et de couverture Facebook de l’utilisateur représentent toutes deux une personne noire. La publication abordait les différentes formes de racisme en Afrique du Sud et affirmait que depuis 1994, la pauvreté, le problème des sans-abris et la non-propriété s’étaient accentués pour les personnes noires dans le pays.
Elle indiquait que les personnes blanches détenaient et contrôlaient la majorité des richesses, et que si des personnes noires fortunées étaient à la tête de certaines entreprises, elles n’en avaient pas le contrôle. Elle affirmait également que si « vous pensez » partager des quartiers, une langue et des écoles avec des personnes blanches, c’est que vous « vous en remettez aux blancs » et donc que vous « devriez vous faire soigner ». La publication se terminait par les termes anglais « “[y]ou are” a “sophisticated slave,” “a clever black,” “’n goeie kaffir” or “House nigger” » (ci-après rédigés « k***ir » et « n***er ») (« vous êtes un esclave moderne, un noir intelligent, un bon négro ou un nègre domestique »).
Principales observations
Facebook a supprimé le contenu en vertu de son Standard de la communauté sur les discours haineux pour avoir enfreint sa politique interdisant l’utilisation d’insultes envers des personnes sur la base de leur origine ethnique ou nationale. L’entreprise a indiqué que les termes « k***ir » et « n***er » figuraient tous deux sur la liste des insultes interdites par Facebook sur le marché subsaharien.
Le Conseil a estimé que la suppression de ce contenu était conforme au Standard de la communauté Facebook sur les discours haineux. Après évaluation des commentaires publics et des recherches d’experts, il a conclu que les termes « k***ir » et « n***er » possèdent tous deux un usage discriminatoire et que « k***ir » constitue un mot particulièrement haineux et néfaste dans le contexte sudafricain.
Le Conseil partage l’avis de Facebook selon lequel le contenu ne sensibilisait pas à l’utilisation du terme « k***ir » ni ne la condamnait et n’utilisait pas non plus le terme de manière autoréférentielle ou valorisante. Par conséquent, aucune exception au Standard de la communauté de l’entreprise sur les discours haineux ne s’appliquait en l’espèce.
Si la publication de l’utilisateur abordait des thèmes socio-politico-économiques pertinents et délicats en Afrique du Sud, l’utilisateur a racialisé cette critique en employant la terminologie la plus dure du pays.
Dans le contexte sudafricain, l’insulte « k***ir » contribue à l’humiliation, à l’exclusion et à l’atteinte des personnes ciblées. L’utilisation d’insultes racistes sur la plateforme devait être prise au sérieux par Facebook, en particulier dans un pays toujours aux prises avec l’héritage de l’apartheid.
Le Conseil préconise davantage de transparence concernant la liste d’insultes de Facebook. L’entreprise devrait fournir de plus amples informations sur cette liste, en ce compris sur la manière dont elle est appliquée dans les différents marchés et sur les raisons pour lesquelles elle reste confidentielle.
Le Conseil exhorte également Facebook à renforcer l’équité procédurale de la mise en application de sa politique sur les discours haineux en émettant la recommandation suivante. Les utilisateurs pourraient ainsi comprendre pourquoi Facebook a supprimé leur contenu et adapter leur comportement à l’avenir.
Décision du Conseil de surveillance
Le Conseil de surveillance a confirmé la décision de Facebook visant à supprimer la publication.
Dans un avis consultatif sur la politique, le Conseil recommande à Facebook de :
- d’informer les utilisateurs de la règle spécifique du Standard de la communauté sur les discours haineux qui a été enfreinte dans la langue qu’ils utilisent sur Facebook, tel que recommandé dans la décision sur le cas 2020-003-FB-UA (Arméniens en Azerbaïdjan) et la décision sur le cas 2021-002-FB-UA (Représentation de Zwarte Piet). Par exemple, en l’espèce, l’utilisateur aurait dû être informé qu’il avait enfreint l’interdiction de proférer des insultes. Le Conseil a pris note de la réponse de Facebook à la deuxième recommandation de la décision sur le cas 2021-002-FB-UA, laquelle décrit un nouveau classificateur qui devrait être en mesure d’informer en langue anglaise les utilisateurs Facebook que leur contenu a enfreint la règle sur les insultes. Le Conseil attend de Facebook qu’elle fournisse des informations confirmant la mise en œuvre pour les utilisateurs anglophones ainsi que des renseignements sur le calendrier de mise en œuvre pour les utilisateurs des autres langues.
*Les résumés de cas fournissent une présentation du cas et n’ont pas valeur de précédent.
Décision complète sur le cas
1. Résumé de la décision
Le Conseil de surveillance a confirmé la décision de Facebook visant à supprimer une publication discutant de la société sudafricaine en vertu de son Standard de la communauté sur les discours haineux, lequel interdit l’utilisation d’insultes.
2. Description du cas
En mai 2021, un utilisateur de Facebook a publié en anglais dans un groupe public dont l’objectif serait, d’après ses propres dires, d’éveiller les esprits. Les photos de profil et de couverture Facebook de l’utilisateur représentent toutes deux une personne noire. La publication abordait les différentes formes de racisme en Afrique du Sud et affirmait que depuis 1994, la pauvreté, le problème des sans-abris et la non-propriété s’étaient accentués pour les personnes noires en Afrique du Sud. Elle indiquait que les personnes blanches détenaient et contrôlaient la majorité des richesses, et que si des personnes noires fortunées étaient à la tête de certaines entreprises, elles n’en avaient pas le contrôle. Elle affirmait également que si « vous pensez » partager des quartiers, une langue et des écoles avec des personnes blanches, c’est que vous « vous en remettez aux blancs » et donc que vous « devriez vous faire soigner ». La publication se terminait par les termes anglais « “[y]ou are” a “sophisticated slave,” “a clever black,” “’n goeie kaffir” or “House nigger” » (ci-après rédigés « k***ir » et « n***er ») (« vous êtes un esclave moderne, un noir intelligent, un bon négro ou un nègre domestique »).
La publication a été vue plus de 1 000 fois, a reçu moins de 5 commentaires et a bénéficié de plus de 10 réactions. Elle a été partagée plus de 40 fois. La publication a été signalée par un utilisateur de Facebook pour avoir enfreint le Standard de la communauté Facebook sur les discours haineux. D’après Facebook, l’utilisateur qui a publié le contenu, l’utilisateur qui a signalé le contenu et « tous les utilisateurs qui ont réagi au contenu, qui l’ont commenté ou qui l’ont partagé » possèdent des comptes situés en Afrique du Sud.
La publication est restée sur la plateforme pendant environ un jour. À la lumière de l’examen d’un modérateur, Facebook a supprimé la publication en vertu de sa politique relative aux discours haineux. Le Standard de la communauté Facebook sur les discours haineux interdit tout contenu qui « décrit ou cible négativement des personnes par des insultes, où les insultes sont définies comme des mots intrinsèquement offensants ou utilisés pour insulter des personnes » sur la base de leur origine ethnique ou nationale. Facebook a signalé que si l’interdiction de proférer des insultes est mondiale, la désignation des insultes sur sa liste interne est propre aux marchés. Les termes « k***ir » et « n***er » figurent tous deux sur la liste des insultes interdites par Facebook sur le marché subsaharien.
Facebook a indiqué à l’utilisateur que sa publication enfreignait le Standard de la communauté Facebook sur les discours haineux. L’entreprise a affirmé que ce message expliquait que ce Standard interdisait entre autres les propos haineux, les insultes et les réclamations sur le coronavirus. L’utilisateur a fait appel de la décision auprès de Facebook et, à la lumière d’un second examen effectué par un modérateur, Facebook a confirmé que la publication était en infraction. L’utilisateur a alors fait appel auprès du Conseil de surveillance.
3. Autorité et champ d’application
Le Conseil jouit de l’autorité nécessaire pour examiner la décision de Facebook à la suite d’un appel interjeté par l’utilisateur dont la publication a été supprimée (article 2, section 1 de la Charte ; article 2, section 2.1 des Statuts). Le Conseil peut confirmer ou annuler cette décision, et ce de manière contraignante pour Facebook (article 3, section 5 de la Charte). Les décisions du Conseil peuvent inclure des avis consultatifs sur les politiques avec des recommandations non contraignantes auxquelles Facebook doit répondre (article 3, section 4 de la Charte). Le Conseil est un organe de réclamation indépendant qui traite les litiges de manière transparente et sur la base de principes.
4. Standards pertinents
Le Conseil de surveillance a pris les éléments suivants en considération dans sa décision :
I. Standards de la communauté Facebook
Les Standards de la communauté Facebook définissent le discours haineux comme « une attaque directe contre des personnes fondée sur ce que nous appelons des caractéristiques protégées : l’origine ethnique, l’origine nationale, le handicap, la religion, la caste, l’orientation sexuelle, le sexe, l’identité de genre et les maladies graves ». Au « niveau 3 », les contenus interdits désignent tout contenu qui « décrit ou cible négativement des personnes par des insultes, où les insultes sont définies comme des mots intrinsèquement offensants ou utilisés pour insulter des personnes sur la base des caractéristiques ci-dessus ».
II. Valeurs de Facebook
Les valeurs de Facebook sont détaillées dans l’introduction des Standards de la communauté. La liberté d’expression y est décrite comme « primordiale » :
L’objectif de nos Standards de la communauté a toujours été de créer un espace d’expression et de donner une voix aux personnes. […] Nous souhaitons que les personnes puissent s’exprimer ouvertement sur les sujets qui comptent pour elles, même si d’autres peuvent marquer leur désaccord ou y trouveraient à redire.
Facebook limite la liberté d’expression au profit de quatre valeurs, dont deux sont en l’espèce pertinentes :
La sécurité : Nous nous engageons à faire de Facebook un endroit sûr. Les formes d’expression qui menacent les autres peuvent les intimider, les exclure ou les réduire au silence, et ne sont pas autorisées sur Facebook.
La dignité : Nous pensons que chacun mérite les mêmes droits et la même dignité. Nous attendons de chaque personne qu’elle respecte la dignité d’autrui et qu’elle ne harcèle ni ne rabaisse les autres.
III. Normes relatives aux droits de l’homme :
Les Principes directeurs relatifs aux entreprises et aux droits de l’homme des Nations unies (UNGP), soutenus par le Conseil des droits de l’homme des Nations unies en 2011, établissent un cadre de travail volontaire pour les responsabilités relatives aux droits de l’homme des entreprises privées. En 2021, Facebook a annoncé l’entrée en vigueur de sa Politique d’entreprise relative aux droits de l’homme, dans laquelle elle a réaffirmé son engagement à respecter les droits de l’homme conformément aux PDNU. L’analyse du Conseil sur ce cas s’est appuyée sur les normes de droits de l’homme suivantes :
- La liberté d’expression : l’article 19 du Pacte international relatif aux droits civils et politiques (PIDCP) ; l’observation générale n° 34, Comité des droits de l’homme, 2011 ; l’article 5 de la Convention internationale sur l’élimination de toutes les formes de discrimination raciale (CIEDR) ; le rapport du rapporteur spécial des Nations unies sur les discours haineux, A/74/486, 2019 ; le rapport du rapporteur spécial des Nations unies sur la modération des contenus sur Internet, A/HRC/38/35, 2018.
- Égalité et non-discrimination : l’article 2, paragraphe 1 et l’article 26 (PIDCP) ; l’article 2 de la CIEDR ; l’observation générale n° 35, Comité pour l’élimination de la discrimination raciale, 2013.
5. Déclaration de l’utilisateur
Dans son appel auprès du Conseil, l’utilisateur a souligné que les personnes devraient pouvoir partager différents points de vue sur la plateforme et « prendre part à un débat sain et courtois. » Il a ajouté qu’il « n’avait incité à la haine d’aucun groupe ni demandé à ce que ses membres soient maltraités de quelque manière que ce soit par des membres d’un groupe différent ». Il a affirmé qu’au contraire, sa publication « encourageait les membres d’un certain groupe à effectuer une introspection et à revoir leurs priorités et leurs comportements ». En outre, selon lui, rien dans la publication ni « dans son esprit ou dans son intention » ne fait la promotion du discours haineux. Il a ajouté qu’il était regrettable que Facebook ne soit pas en mesure de lui dire quelle partie de la publication constitue un discours haineux.
6. Explication de la décision de Facebook
Facebook a supprimé le contenu en vertu du Standard de la communauté sur les discours haineux, notamment pour avoir enfreint sa politique interdisant l’utilisation d’insultes envers des personnes sur la base de leur origine ethnique ou nationale. Dans la justification de sa décision, Facebook a indiqué qu’elle interdisait les contenus contenant des insultes intrinsèquement offensantes et utilisées pour insulter, à moins que l’utilisateur ne démontre clairement que le contenu« a été partagé pour condamner cette insulte, en discuter ou sensibiliser à cette dernière, ou que ladite insulte est utilisée de manière autoréférentielle ou valorisante ». Facebook a souligné que ces exceptions ne s’appliquaient pas en l’espèce.
L’entreprise a indiqué que la publication s’adressait aux « Noirs intelligents » et que cette expression « était employée pour critiquer les Sud-africains noirs considérés comme “empressés de paraître incroyablement malins ou intelligents” ». Facebook a également affirmé que la publication utilisait les termes « k***ir » et « n***er », lesquels figurent tous deux sur sa liste confidentielle d’insultes interdites. D’après Facebook, le mot « k***ir » est considéré comme « le qualificatif le plus chargé d’Afrique du Sud » et était historiquement utilisé par les Blancs d’Afrique du Sud « comme terme péjoratif pour désigner les Noirs ». L’entreprise a ajouté que ce terme « n’avait jamais été récupéré par la communauté noire ». Elle a également indiqué que le terme « n***er » était tout aussi « extrêmement offensant en Afrique du Sud », mais qu’il a été « récupéré par la communauté noire pour être utilisé dans un sens positif ».
Facebook a également déclaré que, dans le cadre du processus visant à déterminer si un mot ou une phrase constitue une insulte, il doit être recommandé par ses parties prenantes internes ou externes. L’entreprise a précisé qu’elle s’était entretenue avec les parties prenantes qui ont confirmé la nécessité de l’exception de la politique sur les discours haineux, laquelle autorise l’emploi d’insultes lorsqu’elles sont « utilisées de manière autoréférentielle ou valorisante ». D’après Facebook, les parties prenantes externes s’accordent généralement à dire qu’il est important de « permettre aux personnes d’employer une insulte récupérée de manière valorisante », mais qu’il est également essentiel que Facebook ne « devine, ni décide, ni recueille des données sur l’appartenance des utilisateurs à une caractéristique protégée » pour décider si l’emploi d’une insulte enfreint ses politiques. Dans sa réponse au Conseil, l’entreprise a confirmé que les parties prenantes externes comprenaient sept experts ou organisations d’Amérique du Nord, seize d’Europe, trente du Moyen-Orient, deux d’Afrique, six d’Amérique latine et un de la région d’Asie-Pacifique/Inde.
Elle a conclu que bien que sa photo de profil représente une personne noire, l’utilisateur « ne s’identifie pas aux insultes ou ne soutient pas qu’elles devraient être reconsidérées ou récupérées ». Selon Facebook, « les insultes de la publication sont utilisées de manière offensante pour attaquer » les personnes noires qui vivent parmi les personnes blanches. Par conséquent, Facebook a indiqué que la suppression de la publication était conforme à son Standard de la communauté sur les discours haineux.
En outre, l’entreprise a indiqué que la suppression était conforme à ses valeurs de dignité et de sécurité par rapport à sa valeur de liberté d’expression. Selon Facebook, les insultes de la publication ont été employées « pour attaquer des personnes d’une manière nuisible et contraire aux valeurs de Facebook ». Facebook se réfère à cet égard à la décision du Conseil sur le cas 2020-003-FB-UA.
L’entreprise a également soutenu que sa décision était conforme aux normes internationales des droits de l’homme. Elle a affirmé que sa décision respectait les exigences de la législation internationale des droits de l’homme selon lesquelles les limitations de la liberté d’expression doivent respecter les principes de légalité, d’objectif légitime, ainsi que de nécessité et de proportionnalité. Selon Facebook, sa politique était « facilement accessible » dans ses Standards de la communauté et « le choix des mots de l’utilisateur tombait entièrement sous le coup de l’interdiction de proférer des insultes ». En outre, la décision visant à supprimer le contenu était légitime pour protéger « les droits d’autrui contre tout préjudice et toute discrimination », et conforme à l’exigence de l’article 20, paragraphe 2 du PIDCP destinée à interdire les discours prônant tout « appel à la haine nationale, raciale ou religieuse qui constitue une incitation à la discrimination, à l’hostilité ou à la violence ». Enfin, Facebook a déclaré que sa décision visant à supprimer le contenu était « nécessaire et proportionnée pour limiter les préjudices » causés envers les membres de la communauté noire et « les autres personnes ayant assisté au discours haineux », évoquant les « Recommandations pour réduire les discours haineux en ligne »de l’Institut israélien de la démocratie et de Yad Vashem et l’article « Words That Wound: A Tort Action for Racial Insults, Epithets, and Name-Calling » de Richard Delgado.
7. Soumissions de tierces parties
Le Conseil de surveillance a reçu six commentaires publics en rapport avec ce cas. Trois de ces commentaires ont été envoyés d’Afrique subsaharienne, en particulier d’Afrique du Sud, un du Moyen-Orient et d’Afrique du Nord, un d’Asie-Pacifique et d’Océanie, et un des États-Unis et du Canada. Le Conseil a reçu des commentaires de parties prenantes, notamment d’universitaires et d’organisations de la société civile, portant sur la liberté d’expression et les discours haineux en Afrique du Sud.
Les soumissions portaient sur des thèmes tels que l’analyse des termes « Noirs intelligents », « n***er » et « k***ir », la qualification des termes « n***er » et « k***ir » comme discours haineux, l’identité de l’utilisateur et du signaleur ainsi que son impact sur la perception de la publication, et l’applicabilité des exceptions de la politique de Facebook sur les discours haineux.
Pour lire les commentaires publics soumis pour ce cas, veuillez cliquer ici.
8. Analyse du Conseil de surveillance
Le Conseil a examiné la question de la restauration de ce contenu sous trois angles : les Standards de la communauté Facebook, les valeurs de l’entreprise et ses responsabilités en matière de droits de l’homme.
8.1 Respect des Standards de la communauté
Le Conseil estime que la suppression de ce contenu est conforme au Standard de la communauté Facebook sur les discours haineux. L’emploi du terme « k***ir » dans la publication de l’utilisateur a enfreint le Standard de la communauté sur les discours haineux et aucune exception de la politique n’était d’application.
Le Standard de la communauté sur les discours haineux interdit les attaques fondées sur des caractéristiques protégées. Ceci inclut tout « contenu qui décrit ou cible négativement des personnes par des insultes, où les insultes sont définies comme des mots intrinsèquement offensants ou utilisés pour insulter des personnes sur la base des caractéristiques ci-dessus ». Facebook considère les termes « k***ir » et « n***er » comme des insultes racistes. Après évaluation des commentaires publics et des recherches d’experts, il a conclu que les insultes possèdent toutes deux un usage discriminatoire et que « k***ir » constitue un mot particulièrement haineux et néfaste dans le contexte sudafricain.
Internet est un réseau mondial et le contenu publié sur Facebook par un utilisateur dans un certain contexte peut circuler et causer des préjudices dans d’autres contextes. Dans le même temps, la liste confidentielle de Facebook sur les insultes interdites est divisée par marchés pour tenir compte du fait que les termes ont une signification différente et peuvent avoir diverses incidences dans certaines situations. Le Conseil constate qu’il a déjà statué sur l’emploi du terme « kafir » dans sa décision sur le cas 2020-007-FB-FBR,, dans le cadre duquel il avait ordonné la restauration du contenu. Dans ce cas, Facebook n’avait pas traité le terme comme une insulte, mais avait plutôt désigné les « non-croyants » comme le groupe cible d’une prétendue « menace voilée » en vertu de la politique sur la violence et l’incitation. Le mot écrit avec un seul « f » employé dans ce cas en Inde possède la même origine arabe que le terme sudafricain rédigé avec deux « f ». Ceci illustre toute la difficulté rencontrée par Facebook au moment d’appliquer une interdiction générale de mots donnés à l’échelle internationale, alors que certains termes similaires ou identiques dans la même langue ou des langues différentes peuvent avoir diverses significations et poser des risques différents selon leur utilisation contextuelle.
Le Conseil constate que la publication visait un groupe de Sudafricains noirs. Il note en outre que la critique de l’utilisateur portait sur les prétendus statuts et privilèges économiques, éducatifs et professionnels de ce groupe. Dans sa déclaration au Conseil, l’utilisateur a indiqué qu’il ne ciblait pas des personnes sur la base de leur origine ethnique et qu’il n’incitait pas non plus à la haine ou à la discrimination envers ces personnes. Quelques membres du Conseil ont trouvé cet argument convaincant. Toutefois, l’utilisateur a opté pour la terminologie la plus sévère possible en Afrique du Sud pour racialiser cette critique. L’emploi du terme « k***ir » avec le préfixe « bon » en afrikaans possède une association historique claire qui revêt une importance considérable en Afrique du Sud. Le Conseil estime que l’utilisation du mot « k***ir » dans ce contexte ne peut être dissociée de sa signification préjudiciable et discriminatoire.
Facebook a déclaré au Conseil qu’elle examinait sa liste d’insultes chaque année. En ce qui concerne la présence du terme « k***ir » sur la liste, Facebook a indiqué s’être entretenue avec des organisations de la société civile sudafricaine en 2019. Dans le cadre de cette réunion, les parties prenantes ont déclaré à Facebook que le terme « k***ir » « est utilisé pour dénigrer et rabaisser une personne noire en la considérant comme inférieure et méprisable ». Pour s’acquitter de ses responsabilités en matière de droits de l’homme lors de l’élaboration et de la révision de ses politiques, en compris la liste d’insultes, Facebook doit consulter les groupes potentiellement concernés ainsi que d’autres parties prenantes, en ce compris des experts en droits de l’homme.
Facebook prévoit quatre exceptions à sa politique sur les insultes, lesquelles figurent dans la justification de la politique du Standard de la communauté sur les discours haineux : « Nous reconnaissons que les utilisateurs partagent parfois des contenus incluant un discours haineux de quelqu’un d’autre pour le condamner ou sensibiliser les autres à son égard. Dans d’autres cas, des discours qui pourraient enfreindre nos standards peuvent être utilisés de manière autoréférentielle ou de manière valorisante. » La majorité du Conseil estime que les exceptions de Facebook ne s’appliquaient pas en l’espèce. En effet, le contenu ne condamnait pas l’emploi du mot « k***ir », ne sensibilisait pas à cet égard et n’était pas utilisé de manière valorisante. Le Conseil a également estimé que le contenu n’avait pas été publié de manière autoréférentielle, bien que quelques membres aient considéré que cette exception aurait dû s’appliquer, car il exprime des critiques à l’encontre de certains membres privilégiés du groupe ciblé. Il a toutefois conclu qu’aucun propos de la publication ne laissait entendre que l’utilisateur se considérait comme faisant partie du groupe cible. En outre, l’emploi des mots « vous » et « votre » dans la publication éloignait l’utilisateur du groupe cible.
Par conséquent, le Conseil estime que Facebook a agi conformément à son Standard de la communauté sur les discours haineux en décidant de supprimer ce contenu.
8.2 Respect des valeurs de Facebook
Le Conseil reconnaît que la « liberté d’expression » constitue une valeur primordiale de Facebook et que Facebook souhaite que les utilisateurs de la plateforme puissent s’exprimer librement. Toutefois, les valeurs de Facebook comprennent aussi la « sécurité » et la « dignité ».
Le Conseil estime que la valeur de « liberté d’expression » revêt une importance particulière pour le discours politique sur l’égalité raciale et socio-économique en Afrique du Sud. Les arguments relatifs à la répartition des richesses, à la division raciale et à l’inégalité sont extrêmement pertinents, en particulier dans une société qui, selon de nombreuses personnes, se trouve toujours en transition de l’apartheid vers une plus grande égalité. Les personnes ciblées par les insultes peuvent également voir leur « liberté d’expression » affectée, car leur emploi peut les faire taire et les empêcher de participer à Facebook.
Le Conseil considère également que les valeurs de « dignité » et de « sécurité » sont d’une importance capitale dans ce contexte. Le Conseil estime que l’emploi de l’insulte « k***ir » dans le contexte sudafricain peut être dégradant, excluant et préjudiciable pour les personnes ciblées par l’insulte (voir par exemple les pages 12 et 13 de l’article 2019 PeaceTech Lab and Media Monitoring Africa’s Lexicon of Hateful Terms). La mention d’insultes racistes sur la plateforme devrait être prise au sérieux par Facebook, en particulier dans un pays toujours aux prises avec l’héritage de l’apartheid.
Il est pertinent que dans ce contexte, l’utilisateur ait choisi de proférer une insulte particulièrement incendiaire en Afrique du Sud. Il lui était possible de participer à des discussions politiques et socio-économiques sur Facebook en faisant appel aux émotions de son audience sans faire référence à cette insulte. Tout ceci justifiait de supplanter la « liberté d’expression » de l’utilisateur pour protéger la « liberté d’expression », la « dignité » et la « sécurité » des autres personnes.
8.3 Respect des responsabilités de Facebook en matière des droits de l’homme
Le Conseil conclut que la suppression du contenu est conforme aux responsabilités d’entreprise de Facebook en matière de droits de l’homme. Facebook s’est engagée à respecter les droits de l’homme en vertu des Principes directeurs des Nations unies relatifs aux entreprises et aux droits de l’homme (PDNU). Sa Politique d’entreprise relative aux droits de l’homme indique que ceci inclut le Pace international relatif aux droits civils et politiques (PIDCP).
L’article 19 du PIDCP prévoit une large protection de la liberté d’expression. Cette protection est « particulièrement élevée » pour les expressions et les débats politiques (observation générale n° 34, paragraphe 38). La Convention internationale sur l’élimination de toutes les formes de discrimination raciale (CIEDR) protège également la liberté d’expression (article 5) et le Comité chargé de vérifier la conformité des États a souligné l’importance du droit d’aider « les groupes vulnérables à rétablir l’équilibre des forces dans la société » et de proposer « des points de vue différents ou opposés » dans les discussions (recommandation générale n° 35 du CEDR, paragraphe 29). Dans le même temps, le Conseil a confirmé les décisions de Facebook visant à limiter le contenu, lesquelles répondent au test tripartite de l’article 19 du PIDCP garantissant la légalité, la légitimité, ainsi que la nécessité et la proportionnalité. Le Conseil a conclu que les actions de Facebook n’ont pas satisfait à ses responsabilités en vertu de ce test.
I. Légalité (clarté et accessibilité des règles)
Le principe de légalité consacré par la législation internationale des droits de l’homme exige que les règles utilisées par les États pour limiter la liberté d’expression soient claires et accessibles (observation générale n° 34, paragraphe 25). Le Comité des droits de l’homme a en outre observé que les règles « ne peuvent pas conférer aux personnes chargées de leur application un pouvoir illimité de décider de la restriction de la liberté d’expression » (observation générale n° 34, paragraphe 25). Dans certains cas, les concepts Facebook de « offensants par nature » et « insultants » peuvent être trop subjectifs et remettre en question la légalité (A/74/486, paragraphe 46, voir également A/HRC/38/35, paragraphe 26). En outre, il peut y avoir des situations où une insulte possède plusieurs significations ou peut être employée de manières qui ne seraient pas considérées comme une « attaque ».
Le Conseil a demandé à Facebook comment elle appliquait sa liste d’insultes spécifiques à un marché et si l’apparition d’une insulte sur une liste de marché signifie qu’elle ne peut pas être utilisée à l’échelle internationale. Facebook a répondu que son « interdiction de proférer des insultes a une portée mondiale, mais la désignation des insultes est spécifique aux marchés, car l’entreprise reconnaît que les variations culturelles et linguistiques font en sorte que des termes injurieux à certains endroits peuvent ne pas l’être dans d’autres ». Le Conseil a réitéré sa question initiale. Facebook a alors répondu que « si un terme apparaît sur une liste d’insultes spécifique à un marché, la politique sur les discours haineux interdit son utilisation dans ce marché. Le terme pourrait être utilisé ailleurs avec une signification différente. Si tel est le cas, Facebook évaluerait indépendamment s’il conviendrait de l’ajouter à la liste d’insultes de l’autre marché ». Le Conseil ignore toujours comment Facebook met en application son interdiction de proférer des insultes à l’échelle internationale. Le Conseil ne sait pas comment les processus de mise en application de Facebook visant à identifier et à supprimer les contenus en infraction fonctionnent au niveau mondial pour les termes spécifiques au marché, comment les marchés sont définis, et quand et comment cette évaluation indépendante a lieu.
En l’espèce, comme indiqué précédemment, les sources consultées par le Conseil s’accordent à dire que le terme « k***ir » est largement perçu comme le qualificatif racial le plus chargé d’Afrique du Sud. Puisque l’expression tombe sans ambiguïté sous le coup de l’interdiction, Facebook s’est acquittée de sa responsabilité de légalité en l’espèce.
Le Conseil prend note de sa décision sur le cas 2021-010-FB-UA et de sa recommandation selon laquelle Facebook devrait fournir des exemples illustratifs de sa politique d’insultes dans les Standards de la communauté accessibles au public (recommandation n° 1). Le Conseil préconise davantage de transparence concernant la liste d’insultes et continue d’examiner comment Facebook pourrait fournir aux utilisateurs des informations suffisamment claires tout en respectant les droits à l’égalité et à la non-discrimination. Une minorité des membres du Conseil estime que Facebook devrait publier sa liste d’insultes pour qu’elle soit accessible à tous les utilisateurs. Une majorité estime que le Conseil devrait mieux comprendre la procédure et les critères d’établissement de la liste ainsi que la manière dont elle est spécifiquement appliquée, les risques éventuels liés à la publication, notamment les comportements stratégiques visant à contourner les infractions liées aux insultes, et le fait que certains termes s’accumulent avec un effet néfaste. Facebook devrait contribuer à cette discussion en publiant davantage d’informations sur la liste d’insultes, les processus de désignation et de révision, son application au niveau mondial, par marché ou par langue, et les raisons pour lesquelles elle reste confidentielle.
II. Objectif légitime
Toute restriction étatique de la liberté d’expression doit poursuivre l’un des objectifs légitimes énoncés dans le PIDCP. Les « droits d’autrui » en font partie. Le Conseil a précédemment indiqué que l’interdiction de proférer des insultes « vise à protéger les droits à l’égalité et à la non-discrimination des personnes (article 2, paragraphe 1 du PIDCP) [et] à exercer leur liberté d’expression sur la plateforme sans être harcelé ou menacé (article 19 du PIDCP) », entre autres droits (décision sur le cas 2020-003-FB-UA). Il réaffirme qu’il s’agit d’objectifs légitimes.
III. Nécessité et proportionnalité
Le principe de nécessité et de proportionnalité de la législation internationale des droits de l’homme requiert que les restrictions de la liberté d’expression soient « appropriées pour remplir leur fonction de protection, elles doivent constituer le moyen le moins perturbateur parmi ceux qui pourraient permettre d’obtenir le résultat recherché et elles doivent être proportionnées à l’intérêt à protéger » (observation générale n° 34, paragraphe 34). En l’espèce, le Conseil a décidé que la suppression du contenu était appropriée pour remplir une fonction de protection. Il a également formulé une recommandation de politique à Facebook sur l’amélioration de la mise en application de son Standard de la communauté sur les discours haineux.
Le Standard de la communauté Facebook sur les discours haineux interdit certaines expressions discriminatoires, en ce compris les insultes, en l’absence de tout critère stipulant que l’expression incite à des actes violents ou discriminatoires. Bien que de telles interdictions soulèveraient des inquiétudes si elles étaient imposées à plus grande échelle par un gouvernement (A/74/486, paragraphe 48), en particulier si elles étaient mises en application par le biais de sanctions criminelles ou civiles, le rapporteur spécial indique que les entités engagées dans la modération de contenu comme Facebook peuvent réguler de tels propos :
L’ampleur et la complexité de la lutte contre l’expression de la haine présentent des défis à long terme et peuvent entraîner des entreprises à restreindre une telle expression même si elle n’est pas clairement associée à des résultats négatifs (car la promotion de la haine est associée à l’incitation dans l’article 20(2) du PIDCP). Les entreprises doivent cependant exprimer les bases de ces restrictions et démontrer la nécessité et la proportionnalité de toute action relative au contenu. (A/HRC/38/35, paragraphe 28).
En l’espèce, le contexte historique et social était crucial, car comme le Conseil le constate, l’utilisation du mot « k***ir » est étroitement liée à la discrimination et à l’histoire de l’apartheid en Afrique du Sud. Le Conseil a également abordé le statut de l’intervenant et son intention. Le Conseil reconnaît qu’il se peut dans certains cas que l’identité raciale de l’intervenant soit pertinente pour l’analyse de l’incidence du contenu. Il prend note des préoccupations du rapporteur spécial selon lesquelles une mise application incohérente de la politique sur le discours haineux peut pénaliser « les minorités tout en renforçant la position des groupes dominants ou puissants », dans la mesure ou le harcèlement et les abus restent en ligne, tandis que les « critiques de phénomènes racistes et de structures de pouvoir » peuvent être supprimées (A/HRC/38/35, paragraphe 27). Bien que l’on puisse tirer des conclusions sur l’utilisateur à partir d’une photo de profil, le Conseil note qu’il n’est généralement pas possible de confirmer si les photos de profil représentent les responsables du contenu. En outre, il a évoqué les préoccupations exprimées par les parties prenantes concernant la tentative de Facebook de déterminer l’identité raciale des utilisateurs. Le Conseil a reconnu que la collecte ou la conservation par Facebook de données sur l’identité raciale présumée des utilisateurs pose de graves problèmes de protection de la vie privée. En ce qui concerne l’intention, alors que l’utilisateur a déclaré qu’il souhaitait encourager l’introspection, la publication contenait une insulte raciale aux implications historiques lourdes pour critiquer certains Sud-Africains noirs.
Il s’agissait d’une décision complexe pour le Conseil. Elle aboutit à la suppression d’une expression traitant de thèmes socio-politico-économiques pertinents et délicats en Afrique du Sud. Ces discussions sont importantes et un certain degré de provocation devrait être toléré dans ces débats sur Facebook. Toutefois, le Conseil estime que, compte tenu des informations analysées dans les paragraphes précédents, la décision de Facebook visant à supprimer le contenu était appropriée. Il émet également une recommandation de politique selon laquelle Facebook devrait donner la priorité à l’amélioration de l’équité procédurale envers les utilisateurs concernant la mise en application de sa politique sur les discours haineux, afin que ces derniers puissent comprendre plus clairement les raisons de la suppression du contenu et qu’ils aient la possibilité d’envisager d’adapter leur comportement en conséquence.
9. Décision du Conseil de surveillance
Le Conseil de surveillance a confirmé la décision de Facebook de supprimer le contenu.
10. Recommandation de politique
Mise en application
Afin de garantir l’équité procédurale pour les utilisateurs, Facebook devrait :
- informer les utilisateurs de la règle spécifique du Standard de la communauté sur les discours haineux qui a été enfreinte dans la langue qu’ils utilisent sur Facebook, tel que commandé dans la décision sur le cas 2020-003-FB-UA (Arméniens en Azerbaïdjan) et la décision sur le cas 2021-002-FB-UA (Représentation de Zwarte Piet). Par exemple, en l’espèce, l’utilisateur aurait dû être informé qu’il avait enfreint l’interdiction de proférer des insultes. Le Conseil a pris note de la réponse de Facebook à la deuxième recommandation de la décision sur le cas 2021-002-FB-UA, laquelle décrit un nouveau classificateur qui devrait être en mesure d’informer en langue anglaise les utilisateurs Facebook que leur contenu a enfreint la règle sur les insultes. Le Conseil attend de Facebook qu’elle fournisse des informations confirmant la mise en œuvre pour les utilisateurs anglophones ainsi que des renseignements sur le calendrier de mise en œuvre pour les utilisateurs des autres langues.
*Note de procédure :
Les décisions du Conseil de surveillance sont préparées par des panels de cinq membres et approuvées par une majorité du Conseil. Elles ne représentent pas nécessairement les opinions personnelles de tous ses membres.
Pour la décision sur ce cas, des recherches indépendantes ont été commandées au nom du Conseil. Un institut de recherche indépendant, dont le siège se trouve à l’université de Göteborg et mobilisant une équipe de plus 50 experts en science sociale sur six continents ainsi que 3200 experts nationaux du monde entier, a fourni son expertise sur le contexte socio-politico-culturel. L’entreprise Lionbridge Technologies, LLC, dont les spécialistes parlent couramment plus de 350 langues et travaillent dans 5000 villes du monde entier, a fourni son expertise linguistique.
Retour aux décisions de cas et aux avis consultatifs politiques