Renversé

Manifestations en Colombie

Le Conseil de surveillance a annulé la décision de Facebook visant à supprimer une publication diffusant une vidéo de manifestants colombiens critiquant le président du pays, Ivan Duque.

Type de décision

Standard

Politiques et sujets

Sujet
Liberté d’expression, Manifestations, Organismes communautaires
Norme communautaire
Discours incitant à la haine

Régions/Pays

Emplacement
Colombie

Plate-forme

Plate-forme
Facebook

Résumé du cas

Le Conseil de surveillance a annulé la décision de Facebook visant à supprimer une publication diffusant une vidéo de manifestants colombiens critiquant le président du pays, Ivan Duque. Dans cette vidéo, les manifestants emploient un terme considéré comme une injure en vertu du Standard de la communauté Facebook sur les discours haineux. Après avoir évalué la valeur d’intérêt public de ce contenu, le Conseil a estimé que Facebook aurait dû appliquer l’intérêt médiatique en l’espèce.

À propos du cas

En mai 2021, la page Facebook d’un organe de presse régional colombien a partagé la publication d’une autre page Facebook sans ajouter de légende. Le cas présent concerne cette publication partagée. La publication originale contient une courte vidéo d’une manifestation se déroulant en Colombie et encadrant des personnes qui marchent derrière une bannière sur laquelle on peut lire « SOS COLOMBIA ».

Les manifestants chantent en espagnol et s’adressent au président colombien au sujet de la réforme fiscale récemment proposée par le gouvernement colombien. Les chants scandés qualifient une fois le président de « hijo de puta » et lui intiment une fois « deja de hacerte el marica en la tv ». Facebook a traduit ces expressions par « fils de pute » et « arrête de faire le pédé à la télé ». La vidéo s’accompagne d’un texte rédigé en espagnol témoignant de l’admiration envers les manifestants. La publication partagée a été vue environ 19 000 fois. Moins de cinq utilisateurs l’ont signalée à Facebook.

Principales observations

Facebook a supprimé ce contenu, car il contenait le terme « marica » (écrit « m**ica » dans la suite du présent document). Le Standard de la communauté Facebook violé sur les discours haineux n’autorise pas les contenus qui « décrivent ou ciblent négativement des personnes par des injures » sur la base de caractéristiques protégées comme l’orientation sexuelle. Facebook a fait observer que bien que l’intérêt médiatique puisse en théorie s’appliquer à ce type de contenu, il ne peut être valable que si les modérateurs de contenu qui l’examinent à l’origine décident de le soumettre à un examen supplémentaire de l’équipe de politique de contenu de Facebook. Ce n’est pas le cas en l’espèce. Le Conseil constate également que Facebook ne publie pas ses critères d’escalade.

Le terme « m**ica » a été qualifié d’injure par Facebook, car il est intrinsèquement offensant et utilisé comme qualification insultante et discriminatoire principalement à l’encontre des hommes homosexuels. Bien que le Conseil reconnaisse qu’aucune exception actuellement reprise dans le Standard de la communauté Facebook sur les discours haineux ne permette l’utilisation d’injures pouvant contribuer à créer un environnement intimidant et excluant pour les personnes LGBT, il estime que l’entreprise aurait dû appliquer l’intérêt médiatique en l’espèce.

L’intérêt médiatique exige de Facebook qu’elle évalue l’intérêt public d’autoriser une expression donnée par rapport au risque de préjudice lié à l’autorisation d’un contenu en infraction. Dans ce cadre, Facebook prend en compte la nature du discours ainsi que le contexte spécifique au pays, comme son organisation politique et la liberté de la presse.

En évaluant la valeur d’intérêt public de ce contenu, le Conseil note qu’il a été publié durant de vastes manifestations organisées contre le gouvernement colombien à un moment important de l’histoire politique du pays. Bien que les manifestants semblent utiliser l’injure délibérément, elle n’est employée qu’une seule fois parmi de nombreuses autres expressions et le chant se concentre essentiellement sur des critiques formulées à l’encontre du président du pays.

Le Conseil constate par ailleurs que, dans un environnement où les possibilités d’expression sont limitées, les médias sociaux ont offert une plateforme permettant à tous, en ce compris aux journalistes, de partager des informations sur les manifestations. L’application de l’intérêt médiatique en l’espèce signifie que seuls les contenus nuisibles exceptionnels et limités sont autorisés.

Décision du Conseil de surveillance

Le Conseil de surveillance annule la décision de Facebook visant à supprimer le contenu et demande à ce que la publication soit restaurée.

Dans un avis consultatif sur la politique, le Conseil recommande à Facebook de :

  • Publier des exemples illustratifs de la liste des injures considérées comme en infraction en vertu de son Standard de la communauté sur les discours haineux, en ce compris des cas limites comprenant des termes susceptibles d’être nuisibles dans certains contextes, mais pas dans d’autres.
  • Établir un lien entre l’explication succincte de l’intérêt médiatique reprise dans l’introduction des Standards de la communauté et l’explication plus détaillée de l’application de cette politique dans l’Espace modération de Facebook. L’entreprise devrait compléter cette explication au moyen d’exemples illustratifs tirés de divers contextes, en ce compris le signalement de manifestations à grande échelle.
  • Élaborer et publier des critères clairs destinés aux examinateurs de contenu afin qu’ils puissent soumettre à un examen supplémentaire les contenus d’intérêt public susceptibles d’enfreindre les Standards de la communauté, mais qui pourraient relever de l’intérêt médiatique. Ces critères devraient couvrir les contenus relatifs aux grandes manifestations sur des questions politiques.
  • Notifier tous les utilisateurs qui ont signalé un contenu jugé en infraction, mais laissé sur la plateforme pour des raisons d’intérêt public, car l’intérêt médiatique a été appliqué à la publication.

*Les résumés de cas fournissent une présentation du cas et n’ont pas valeur de précédent.

Décision complète sur le cas

1. Résumé de la décision

Le Conseil de surveillance a annulé la décision de Facebook visant à supprimer une publication Facebook diffusant une vidéo de manifestants colombiens critiquant le président colombien, Ivan Duque. Dans la vidéo, les manifestants emploient un terme qualifié par Facebook d’injure enfreignant son Standard de la communauté sur les discours haineux, car il s’agit d’une attaque directe contre des personnes sur la base de leur orientation sexuelle. Le Conseil a estimé que, bien que le retrait soit à première vue conforme au Standard de la communauté sur les discours haineux (c.-à-d. que le contenu semblait de prime abord enfreindre le Standard), l’intérêt médiatique aurait dû être appliqué en l’espèce pour maintenir le contenu sur la plateforme.

2. Description du cas

En mai 2021, la page Facebook d’un organe de presse régional colombien a partagé la publication d’une autre page Facebook sans ajouter de légende. Le cas présent concerne cette publication partagée. La publication originale contient une courte vidéo (initialement partagée sur TikTok) d’une manifestation se déroulant en Colombie et encadrant des personnes qui marchent derrière une bannière sur laquelle on peut lire « SOS COLOMBIA ». Les manifestants chantent en espagnol et s’adressent au président colombien au sujet de la réforme fiscale récemment proposée par le gouvernement colombien. Les chants scandés qualifient une fois le président de « hijo de puta » et lui intiment une fois « deja de hacerte el marica en la tv ». Facebook a traduit ces expressions par « fils de pute » et « arrête de faire le pédé à la télé ». La vidéo de 22 secondes s’accompagne d’un texte rédigé en espagnol témoignant de l’admiration envers les manifestants.

La publication partagée a été vue environ 19 000 fois et partagée plus de 70 fois. Moins de cinq utilisateurs ont signalé ce contenu. À la lumière d’un examen manuel, Facebook a supprimé la publication partagée en vertu de sa politique relative aux discours haineux. En effet, dans son Standard de la communauté sur les discours haineux, Facebook prévoit de supprimer tout contenu qui « décrit ou cible négativement des personnes par des injures, où les injures sont définies comme des mots intrinsèquement offensants ou utilisés pour insulter des personnes » sur la base de caractéristiques protégées, notamment l’orientation sexuelle. Le terme « marica » (ci-après écrit « m**ica ») figure sur la liste des injures interdites établie par Facebook. L’utilisateur qui a diffusé la publication partagée a fait appel de la décision de Facebook. Après examen manuel, Facebook a maintenu sa décision initiale de supprimer le contenu. Facebook a également supprimé la publication originale de la plateforme.

3. Autorité et champ d’application

Le Conseil jouit de l’autorité nécessaire pour examiner la décision de Facebook à la suite d’un appel interjeté par l’utilisateur dont la publication a été supprimée (article 2, section 1 de la Charte ; article 2, section 2.1 des Statuts). Le Conseil peut maintenir ou annuler cette décision (article 3, section 5 de la Charte).

Les décisions du Conseil sont contraignantes et peuvent inclure des avis consultatifs sur la politique ainsi que des recommandations. Ces recommandations ne sont pas contraignantes, mais Facebook est tenue d’y répondre (article 3, section 4 de la Charte).

4. Standards pertinents

Le Conseil de surveillance a pris les éléments suivants en considération dans sa décision :

I. Standards de la communauté Facebook :

Dans la justification de la politique du Standard de la communauté sur les discours haineux, Facebook indique que les discours haineux ne sont pas autorisés sur la plateforme parce qu’ils « créent un environnement intimidant et excluant, et peuvent, dans certains cas, faire l’apologie de la violence hors ligne ».

Le Standard de la communauté définit les discours haineux comme une « attaque directe contre des personnes, plutôt que contre des concepts ou des institutions, fondée sur ce que nous appelons des caractéristiques protégées : l’origine ethnique, l’origine nationale, le handicap, la religion, la caste, l’orientation sexuelle, le sexe, l’identité de genre, et les maladies graves ». Il interdit tout contenu qui « décrit ou cible négativement des personnes par des injures, où les injures sont définies comme des mots intrinsèquement offensants ou utilisés pour insulter des personnes sur la base des caractéristiques ci-dessus ».

II. Valeurs de Facebook :

Les valeurs de Facebook sont détaillées dans l’introduction des Standards de la communauté. La « liberté d’expression » y est décrite comme « primordiale » :

L’objectif de nos Standards de la communauté a toujours été de créer un espace d’expression et de donner une voix aux personnes. […] Nous souhaitons que les personnes puissent s’exprimer ouvertement sur les sujets qui comptent pour elles, même si d’autres peuvent marquer leur désaccord ou y trouveraient à redire.

Facebook limite la « liberté d’expression » au service de quatre valeurs, la plus pertinente en l’espèce étant la « dignité ».

La « dignité » : Nous pensons que chacun mérite les mêmes droits et la même dignité. Nous attendons de chaque personne qu’elle respecte la dignité d’autrui, et qu’elle ne harcèle pas ni ne rabaisse pas les autres.

III. Normes relatives aux droits de l’homme :

Les Principes directeurs relatifs aux entreprises et aux droits de l’homme des Nations Unies (PDNU), soutenus par le Conseil des droits de l’homme des Nations Unies en 2011, établissent un cadre de travail volontaire pour les responsabilités relatives aux droits de l’homme des entreprises privées. L’analyse du Conseil sur les responsabilités de Facebook en matière des droits de l’homme dans le cas présent s’est appuyée sur les normes des droits de l’homme suivantes :

  • Le droit à la liberté d’opinion et d’expression : l’article 19 du Pacte international relatif aux droits civils et politiques (PIDCP), l’observation générale n° 34 du Comité des droits de l’homme, 2011 ; les rapports du Rapporteur spécial des Nations unies sur la liberté d’opinion et d’expression : A/HRC/38/35 (2018) et A/74/486 (2019).
  • Le droit à la non-discrimination : l’article 2, paragraphe 1 et l’article 26 du PIDCP ; l’observation générale n° 18, Comité des droits de l’homme 1989) ; la résolution 32/2 du Conseil des droits de l’homme des Nations unies sur la protection contre la violence et la discrimination liées à l’orientation sexuelle et l’identité de genre, 2016 ; les rapports d’un spécialiste indépendant des Nations unies sur la protection contre la violence et la discrimination liées à l’orientation sexuelle et l’identité de genre : A/HRC/35/36 (2017) et A/HRC/38/43 (2018).
  • Le droit de réunion pacifique : l’article 21 du PIDCP, l’observation générale n° 37, Comité des droits de l’homme, 2020 ; le rapport A/HRC/41/41 (2019) du rapporteur spécial des Nations unies sur la liberté de réunion pacifique et la liberté d’association.

5. Déclaration de l’utilisateur

L’utilisateur, qui s’avère être l’administrateur de la page sur laquelle le contenu a été publié, a interjeté appel en espagnol auprès du Conseil. Dans son appel, il indique être un journaliste rendant compte des actualités locales de sa province. Il affirme que le contenu a été publié par une autre personne qui a pris son téléphone, mais que ce contenu n’avait toutefois pas pour but de porter préjudice et montrait des manifestations en temps de crise. L’utilisateur déclare que son objectif est de respecter les politiques de Facebook et indique que cette suppression a entraîné des pénalités sur son compte.

Il affirme en outre que le contenu présente des jeunes qui manifestent dans le cadre de la liberté d’expression et de la manifestation pacifique, et que ces jeunes s’expriment sans violence et réclament des droits en employant un langage typique. Il se dit également préoccupé par la répression des manifestations par le gouvernement.

6. Explication de la décision de Facebook

Facebook a supprimé ce contenu au motif qu’il contenait le terme « m**ica » et enfreignait par conséquent le Standard de la communauté Facebook sur les discours haineux, lequel interdit tout « contenu qui décrit ou cible négativement des personnes par des injures, où les injures sont définies comme des mots intrinsèquement offensants ou utilisés pour insulter des personnes sur la base des caractéristiques ci-dessus [p. ex. une caractéristique protégée] ». Le terme « m**ica » figure sur la liste des injures interdites établie par Facebook, car il cible des personnes sur la base de leur orientation sexuelle.

Facebook indique que l’utilisation d’injures à l’encontre de dirigeants politiques ou de personnalités publiques n’admet aucune exception. Par ailleurs, Facebook fait observer que « le fait que l’intervenant ou la cible soient des membres du groupe de caractéristiques protégées attaqué n’a pas d’importance. Étant donné que les injures constituent des termes intrinsèquement offensants pour un groupe défini par sa caractéristique protégée, l’utilisation d’injures n’est pas autorisée, à moins que l’utilisateur n’ait clairement démontré que l’injure a été partagée pour condamner, discuter ou sensibiliser à cette dernière, ou qu’elle est utilisée de manière autoréférentielle ou à des fins d’émancipation ».

En ce qui concerne l’application éventuelle de l’intérêt médiatique à ce contenu, Facebook a expliqué que cet intérêt médiatique ne peut être appliqué que si les modérateurs de contenu qui examinent initialement e contenu décident de le soumettre à un examen supplémentaire de l’équipe de politique de contenu de Facebook, en l’espèce, le contenu n’a pas été soumis à un examen supplémentaire. Le Conseil constate que Facebook ne rend pas ses critères d’escalade accessible au public. Il indique que « l’intérêt médiatique pourrait en théorie s’appliquer à ce type de contenu ». Toutefois, en l’espèce, la valeur d’intérêt public ne l’emporte pas sur le risque de préjudice lié au fait d’autoriser un contenu présentant une qualification intrinsèquement offensante et insultante à rester sur la plateforme Facebook.

7. Soumissions de tierces parties

Le Conseil de surveillance a reçu 18 commentaires publics en rapport avec ce cas. Cinq commentaires sont issus d’Asie-Pacifique et d’Océanie, un d’Europe, sept d’Amérique latine et des Caraïbes, un du Moyen-Orient et d’Afrique du Nord, et quatre des États-Unis et du Canada.

Les soumissions portent sur les sujets suivants : les multiples significations et utilisations du terme « m**ica » en Colombie, les inquiétudes résultant de la suppression de Facebook d’un contenu journalistique, la censure des médias en Colombie et l’analyse du respect du contenu des Standards de la communauté.

Pour lire les commentaires publics soumis pour ce cas, veuillez cliquer ici.

8. Analyse du Conseil de surveillance

Le Conseil a examiné la question de la restauration de ce contenu sous trois angles : les Standards de la communauté Facebook, les valeurs de l’entreprise et ses responsabilités en matière de droits de l’homme.

8.1 Respect des Standards de la communauté

Le Conseil estime que, bien que la décision de Facebook visant à supprimer le contenu soit à première vue conforme à son Standard de la communauté sur les discours haineux (c.-à-d. que le contenu semblait de prime abord enfreindre le Standard), l’intérêt médiatique aurait dû être appliqué en l’espèce pour autoriser le contenu à rester sur la plateforme.

Le terme « m**ica » a été qualifié d’injure par Facebook, car il est intrinsèquement offensant et utilisé comme qualification insultante et discriminatoire principalement à l’encontre des hommes homosexuels. Comme indiqué à la section 6, Facebook a expliqué au Conseil que ni l’orientation sexuelle ni le statut de personnalité publique de la cible ne sont pertinents pour la mise en application de cette politique. Étant donné que les injures discriminatoires sont intrinsèquement offensantes, l’usage d’injures n’est pas autorisé, sauf exceptions prévues par la politique. Ces exceptions permettent le partage d’injures afin de condamner, de discuter ou de sensibiliser aux discours haineux, ou lorsqu’elles sont utilisées de manière autoréférentielle ou à des fins d’émancipation.

Le Conseil a demandé l’avis de spécialistes et les commentaires publics ont confirmé que le terme « m**ica » avait plusieurs significations et pouvait être utilisé sans intention discriminatoire. Il est toutefois admis que ses origines sont homophobes, essentiellement à l’encontre des hommes homosexuels, même si son usage a évolué pour devenir vraisemblablement courant en Colombie pour désigner une personne à la manière des termes « ami » ou « mec » et comme une insulte équivalente à « stupide », « bête » ou « idiot ». Le Conseil note que cette évolution ou cette normalisation ne signifient pas nécessairement que l’usage du terme soit devenu moins préjudiciable pour les hommes homosexuels, car cette utilisation occasionnelle peut continuer à marginaliser les personnes et les communautés lesbiennes, gay, bisexuelles et transgenres (LGBT) en les associant à des caractéristiques négatives.

Il comprend les raisons pour lesquelles Facebook a désigné ce terme comme une injure et reconnaît qu’aucune exception actuellement citée dans le Standard de la communauté sur les discours haineux ne s’applique expressément pour permettre son utilisation sur la plateforme. Le Conseil estime toutefois que l’intérêt médiatique aurait dû être appliqué pour autoriser ce contenu à rester sur la plateforme.

Facebook a communiqué davantage d’informations publiques sur l’intérêt médiatique en réponse aux recommandations du Conseil dans le cas 2021-001-FB-FBR. Cet intérêt exige de l’entreprise qu’elle évalue l’intérêt public d’une expression donnée par rapport au risque de préjudice lié à l’autorisation d’un contenu en infraction sur la plateforme. Facebook affirme tenir compte des circonstances propres à chaque pays, de la nature du discours, en ce compris s’il porte sur la gouvernance ou la politique, et de l’organisation politique du pays, en ce compris la liberté de la presse. L’intérêt médiatique ne s’applique pas en fonction de l’identité de l’intervenant en qualité de journaliste ou de média, ou simplement parce que le sujet est d’actualité.

Plusieurs facteurs contextuels sont pertinents pour évaluer l’intérêt public dans ce contenu. Il a été publié dans le cadre de nombreuses manifestations organisées à l’encontre du gouvernement colombien. Le chant scandé dans la vidéo avait essentiellement pour but de critiquer le président. Bien que les manifestants semblent utiliser le terme injurieux délibérément, la manifestation n’avait pas vocation à être discriminatoire. L’injure a été employée une fois parmi de nombreux autres propos. Lorsqu’il apparaît qu’un utilisateur partage une séquence pour sensibiliser aux manifestations et témoigner son soutien à la cause défendue, et non pour insulter des personnes sur la base de caractéristiques protégées ou inciter à la discrimination ou à la violence, l’exception médiatique est tout particulièrement applicable.

Le Conseil souligne que l’application de l’intérêt médiatique en l’espèce ne devrait pas être interprétée comme un soutien aux propos tenus par les manifestants. Il reconnaît que le terme employé par les manifestants dans cette vidéo est offensant pour les hommes homosexuels, y compris en Colombie, et que son utilisation pourrait créer un risque de préjudice. Autoriser de telles injures sur la plateforme peut contribuer à un environnement intimidant et excluant pour les personnes LGBT et, dans certains cas, faire l’apologie de la violence hors ligne. Ce langage n’a pas de valeur intrinsèque d’intérêt public. L’intérêt public consiste plutôt à autoriser sur la plateforme des expressions liées à un tournant de l’histoire politique de la Colombie.

Le Conseil constate également que les médias sociaux ont joué un rôle important en offrant une plateforme permettant à tous, y compris aux journalistes, de partager des informations sur les manifestations dans un environnement où les commentaires publics et les rapports de spécialistes suggèrent que le paysage médiatique gagnerait à se diversifier. Autoriser le contenu en appliquant l’intérêt médiatique signifie que seuls les contenus nuisibles exceptionnels et limités sont autorisés. L’intérêt médiatique ne devrait pas être interprété comme une autorisation générale permettant aux discours haineux de rester sur la plate-forme

8.2 Respect des valeurs de Facebook

Le Conseil estime que la restauration du contenu est conforme aux valeurs de Facebook. Facebook cite la « dignité » comme l’une de ses valeurs. Le Conseil partage l’inquiétude de Facebook selon laquelle autoriser la prolifération d’injures haineuses sur la plateforme peut occasionner un préjudice moral pour les membres des communautés ciblées par ces injures. Il reconnaît également que l’usage de l’insulte dans ce cas spécifique peut être dégradant et préjudiciable pour les membres de la communauté LGBT.

Dans le même temps, Facebook a indiqué que la « liberté d’expression » ne fait pas seulement partie de ses valeurs, mais constitue une valeur « primordiale ». Le partage de contenus diffusant de nombreuses manifestations à l’encontre d’un dirigeant politique représente la valeur de « liberté d’expression » à son paroxysme, en particulier dans un environnement où les possibilités d’expression politique sont limitées. L’application de l’intérêt médiatique à la politique sur les injures dans ce contexte, le partage d’informations au sujet de manifestations politiques à l’encontre d’un dirigeant national, permet à Facebook d’honorer son engagement primordial envers la « liberté d’expression » sans sacrifier son engagement légitime envers la « dignité ».

8.3 Respect des responsabilités de Facebook en matière des droits de l’homme

Le Conseil estime que la restauration du contenu est conforme aux responsabilités d’entreprise de Facebook en matière de droits de l’homme. Facebook s’est engagée à respecter les droits de l’homme en vertu des Principes directeurs des Nations unies relatifs aux entreprises et aux droits de l’homme (PDNU). Sa Politique d’entreprise relative aux droits de l’homme indique que ceci inclut le Pace international relatif aux droits civils et politiques (PIDCP).

La liberté d’expression et de réunion pacifique (articles 19 et 21 du PIDCP)

L’article 19 du PIDCP prévoit une large protection de la liberté d’expression. Cette protection est « particulièrement élevée » pour les « débats publics concernant des personnalités du domaine public et politique qui sont tenus dans une société démocratique » (observation générale n° 34, paragraphe 34). L’article 21 du PIDCP offre une protection similaire à la liberté de réunion pacifique, les réunions avec un message politique bénéficient d’une protection renforcée (observation générale n° 37, paragraphes 32 et 49), et s’étend à la protection d’activités associées organisées en ligne (ibid., paragraphes 6 et 34). Le Comité des droits de l’homme a en outre souligné le rôle des journalistes, des défenseurs des droits de l’homme, des observateurs électoraux et des autres personnes qui surveillent ces réunions ou qui en rendent compte, en ce compris en ce qui concerne la conduite des agents de police (ibid., paragraphes 30 et 94). L’interférence avec les communications en ligne sur ces réunions a été interprétée comme une entrave au droit à la liberté de réunion pacifique (ibid., paragraphe 10).

L’article 19 exige que lorsque des limitations de la liberté d’expression sont imposées par un État, celles-ci doivent remplir des critères de légalité, d’objectif légitime ainsi que de nécessité et de proportionnalité (article 19, paragraphe 3, PIDCP).

Facebook a reconnu sa responsabilité de respecter les standards des droits internationaux de l’homme en vertu des PDNU. Sur la base du cadre des PDNU, le Rapporteur spécial des Nations Unies sur la liberté d’opinion et d’expression a appelé les entreprises de réseaux sociaux à veiller à ce que leurs règles en matière de contenu se fondent sur les critères de l’article 19, paragraphe 3 du PIDC (voir A/HRC/38/35, paragraphes 45 et 70). Le Conseil a examiné si la suppression de la publication aurait été justifiée au regard du test tripartite sur les limitations de la liberté d’expression en vertu de l’article 19, conformément aux engagements de Facebook en matière de droits de l’homme.

I. Légalité (clarté et accessibilité des règles)

Le principe de légalité consacré par la législation internationale des droits de l’homme exige que les règles utilisées pour limiter la liberté d’expression soient claires, précises, accessibles publiquement et non discriminatoires (observation générale n° 34, paragraphes 25 et 26). Le Comité des droits de l’homme a en outre observé que les règles « ne peuvent pas conférer aux personnes chargées de leur application un pouvoir illimité de décider de la restriction de la liberté d’expression » (observation générale n° 34, paragraphe 25).

Bien que le Standard de la communauté Facebook sur les discours haineux précise que les injures liées à des caractéristiques protégées sont interdites, la liste spécifique des termes que Facebook a désignés comme des injures dans différents contextes n’est pas accessible au public. Étant donné que le terme « m**ica » peut être utilisé de différentes manières, il n’est peut-être pas clair pour les utilisateurs que ce terme contrevient à l’interdiction de Facebook en matière d’injures. Facebook devrait publier de plus amples informations sur cette liste d’injures pour permettre aux utilisateurs d’adapter leur comportement en conséquence. À cet égard, le Conseil a formulé une recommandation de politique ci-dessous.

Dans le cas 2021-001-FB-FBR, le Conseil a recommandé que l’entreprise informe davantage les utilisateurs afin de les aider à comprendre et à évaluer les procédés et critères d’application de l’intérêt médiatique. En réponse, Facebook a publié davantage d’informations dans son Espace modération et a indiqué qu’à partir de 2022, elle commencerait à communiquer régulièrement des mises à jour sur le nombre de fois où cet intérêt médiatique a été appliqué dans les rapports d’application des Standards de la communauté. Toutefois, cette ressource de l’Espace modération n’est pas associée à l’explication plus limitée de l’intérêt médiatique disponible dans l’introduction aux Standards de la communauté. Bien que le Conseil prenne acte de l’engagement de fournir davantage d’informations dans les rapports d’application, ceci ne fournira pas de renseignements aux utilisateurs qui publient ou voient les contenus relevant de l’intérêt médiatique.

Dans le cas 2020-003-FB-UA, le Conseil a recommandé à Facebook de donner plus de détails aux utilisateurs sur les parties spécifiques de la politique sur les discours haineux que leur contenu avait enfreinte, afin qu’ils puissent adapter leur comportement en conséquence. Le Conseil souligne qu’il convient d’opérer une distinction dans le cas présent. Le cas 2020-003-FB-UA concernait un contenu initialement créé par l’utilisateur lui-même et qui pouvait être facilement modifié après notification, tandis que le cas présent porte sur un contenu représentant un évènement public. Le Conseil comprend toutefois qu’il est essentiel que les utilisateurs reçoivent des informations claires sur les raisons pour lesquelles leur contenu a été supprimé de manière générale. Le Conseil apprécie la mise à jour fournie par Facebook en juillet 2021 sur les efforts engagés par l’entreprise pour mettre en œuvre cette recommandation qui, lorsqu’elle sera déployée dans toutes les langues, devrait donner davantage d’informations aux utilisateurs dont le contenu a été supprimé pour usage d’injures. Le Conseil encourage Facebook à fournir des délais plus clairs pour la mise en œuvre de cette recommandation dans d’autres langues que l’anglais.

II. Objectif légitime

Toute limitation de la liberté d’expression doit poursuivre l’un des objectifs légitimes énoncés dans le PIDCP, lesquels incluent les « droits d’autrui ». La politique problématique dans ce cas-ci cherche, de manière tout à fait légitime, à protéger les droits d’autrui (Observation générale n° 34, paragraphe 28) à l’égalité et à la protection contre la violence et la discrimination basées sur l’orientation sexuelle et l’identité de genre (article 2, paragraphe 1 et article 26 du PIDCP ; Comité des droits de l’homme des Nations Unies, Toonen c. Australie (1992) et Observation générale n° 37, paragraphe 25 ; la résolution 32/2 du Conseil des droits de l’homme des Nations unies sur la protection contre la violence et la discrimination liées à l’orientation sexuelle et l’identité de genre).

III. Nécessité et proportionnalité

Toutes les restrictions de la liberté d’expression « doivent être appropriées pour remplir leur fonction de protection, elles doivent constituer le moyen le moins perturbateur parmi ceux qui pourraient permettre d’obtenir le résultat recherché » (observation générale n° 34, paragraphe 34).

Le Conseil estime qu’il n’était pas nécessaire ni proportionné de supprimer le contenu en l’espèce. Comme abordé à la section 8.1, le Conseil reconnaît que le fait d’autoriser des injures homophobes à rester sur la plateforme peut porter atteinte aux droits des personnes LGBT. Toutefois, le contexte joue un rôle crucial dans l’évaluation de la proportionnalité de la suppression du contenu. Le rapporteur spécial des Nations unies sur la liberté d’expression a déclaré, à propos des discours haineux, qu’une « exception est possible, dans certains cas après une évaluation plus approfondie du contexte, lorsque le contenu visé doit être protégé, par exemple dans le cas d’un discours politique » (A/74/486, paragraphe 47(d)).

Compte tenu du contexte politique de la Colombie, du fait que cette manifestation s’adressait à une personnalité politique et du rôle essentiel joué par les médias sociaux dans le partage d’informations sur les manifestations dans ce pays, le Conseil estime que la suppression de ce contenu n’était pas proportionnée pour atteindre l’objectif de protection des droits à la non-discrimination et à l’égalité des personnes LGBT.

La liberté de réunion pacifique

Pour une minorité des membres du Conseil, il est également important d’évaluer la limitation du contenu en l’espèce dans le cadre de ses répercussions sur le droit à la liberté de réunion pacifique. Les journalistes et les autres observateurs jouent un rôle primordial dans l’amplification de l’expression collective et du pouvoir associatif de manifestations en diffusant des séquences de ces évènements en ligne. Ces actes sont protégés par l’article 21 du PIDCP (observation générale n° 37, paragraphe 34).

La minorité de membres estime que l’évaluation des limitations du droit à la réunion pacifique est essentiellement similaire au test d’évaluation des limitations du droit à la liberté d’expression. Les limitations du droit à la liberté de réunion pacifique doivent être étroitement définies et répondre aux exigences de légalité, d’objectif légitime et de nécessité et proportionnalité (ibid., paragraphes 8 et 36). Le rapporteur spécial des Nations unies sur la liberté de réunion pacifique et la liberté d’association a également appelé les entreprises engagées dans la modération de contenu à suivre la législation internationale des droits de l’homme (cf. A/HRC/41/41, paragraphe 19), soulignant « l’influence considérable de Facebook » (ibid., paragraphe 4). Le Comité des droits de l’homme a fait observer que la propriété privée des plateformes de communication devrait éclairer une compréhension contemporaine du cadre juridique que l’article 21 du PIDCP requiert (op. cit., paragraphes 10 et 34) .

L’analyse tripartite précitée, à laquelle la minorité de membres adhère, conduit à une autre conclusion minoritaire selon laquelle la suppression du contenu par Facebook en l’espèce a porté atteinte au droit à la liberté de réunion pacifique et la limitation n’était pas justifiée.

9. Décision du Conseil de surveillance

Le Conseil de surveillance a annulé la décision de Facebook visant à supprimer le contenu et demande que la publication soit restaurée.

10. Avis consultatif sur la politique

Les recommandations suivantes sont numérotées et le Conseil demande à Facebook de fournir une réponse individuelle à chacune d’entre elles telles en l’état.

Politique de contenu

Afin d’apporter davantage de précisions aux utilisateurs sur ses règles en matière de discours haineux et sur la manière dont l’intérêt médiatique est appliqué, Facebook devrait :

1. Publier des exemples illustratifs de la liste d’injures qu’elle a désignées comme enfreignant son Standard de la communauté sur les discours haineux. Ces exemples devraient être repris dans le Standard de la communauté et inclure des cas limites impliquant ces termes qui peuvent être préjudiciables dans certains contextes, mais pas dans d’autres, tout en décrivant les cas où leur utilisation serait en infraction. Facebook devrait informer les utilisateurs que ces exemples ne constituent pas une liste exhaustive.

2. Établir un lien entre l’explication succincte de l’intérêt médiatique reprise dans l’introduction des Standards de la communauté et l’explication plus détaillée de l’Espace modération de Facebook sur l’application de cette politique. L’entreprise devrait compléter cette explication au moyen d’exemples illustratifs tirés de divers contextes, en ce compris le signalement de manifestations à grande échelle.

Mise en application

Afin de se prémunir contre la suppression injustifiée de contenus d’intérêt public et de garantir la communication d’informations adéquates aux utilisateurs qui signalent ces contenus, Facebook devrait :

3. Élaborer et publier des critères clairs destinés aux examinateurs de contenu afin qu’ils puissent soumettre à un examen supplémentaire les contenus d’intérêt public susceptibles d’enfreindre les Standards de la communauté, mais qui pourraient relever de l’intérêt médiatique. Ces critères devraient couvrir les contenus représentant de grandes manifestations sur des questions politiques, en particulier dans des contextes où les États sont accusés de violer les droits de l’homme et où le maintien d’une trace publique de ces évènements revêt une importance accrue.

4. Notifier tous les utilisateurs qui ont signalé un contenu jugé en infraction, mais laissé sur la plateforme pour des raisons d’intérêt public, car l’intérêt médiatique a été appliqué à la publication. Cette notification devrait comporter un lien vers l’explication de l’intérêt médiatique disponible dans l’Espace modération.

*Note de procédure :

Les décisions du Conseil de surveillance sont préparées par des panels de cinq membres et approuvées par une majorité du Conseil. Elles ne représentent pas nécessairement les opinions personnelles de tous ses membres.

Pour la décision sur ce cas, des recherches indépendantes ont été commandées au nom du Conseil. Un institut de recherche indépendant, dont le siège se trouve à l’université de Göteborg et mobilisant une équipe de plus 50 spécialistes en science sociale sur six continents ainsi que 3 200 spécialistes nationaux du monde entier, a fourni son expertise sur le contexte socio-politico-culturel. L’entreprise Lionbridge Technologies, LLC, dont les spécialistes parlent couramment plus de 350 langues et travaillent dans 5000 villes du monde entier, a fourni son expertise linguistique.

Retour aux décisions de cas et aux avis consultatifs politiques