Confirmé

Arméniens d’Azerbaïdjan

Le Conseil de surveillance a confirmé la décision de Facebook de supprimer un poste contenant une insulte humiliante qui enfreignait le Standard de la communauté en matière de discours haineux sur Facebook.

Type de décision

Standard

Politiques et sujets

Sujet
Culture, Discrimination, Religion
Norme communautaire
Discours incitant à la haine

Régions/Pays

Emplacement
Arménie, Azerbaïdjan

Plate-forme

Plate-forme
Facebook

Cette décision est également disponible en arménien, azéri et russe.

Որոշման ամբողջական տարբերակը հայերենով կարդալու համար սեղմեք այստեղ.

Qərarın tam mətnini oxumaq üçün bura klikləyin.

Чтобы прочесть полное решение на русском языке, нажмите здесь.

Résumé du cas

Le Conseil de surveillance a confirmé la décision de Facebook de supprimer un poste contenant une insulte humiliante qui enfreignait le Standard de la communauté en matière de discours haineux sur Facebook.

À propos de ce cas

En novembre 2020, un utilisateur a publié du contenu qui incluait des photos historiques décrites comme montrant des églises à Bakou, en Azerbaïdjan. Le texte d’accompagnement en russe prétendait que les Arméniens avait construit Bakou et que cette héritage, y compris les églises, a été détruit. L’utilisateur a utilisé le terme « тазики » (« taziks ») pour décrire les Azéris, qui selon l’utilisateur, sont des nomades et n’ont aucune histoire comparé aux Arméniens.

Dans sa publication, l’utilisateur a inclus des hashtags appelant à la fin de l’agression et du vandalisme azéris. Un autre hashtag appelait à la reconnaissance de l’Artsakh, le nom arménien de la région du Haut-Karabagh, qui est au centre d’un conflit entre l’Arménie et l’Azerbaïdjan. La publication a été visionnée plus de 45 000 fois et est apparue pendant le récent conflit armé entre les deux pays.

Principales observations

Facebook a supprimé la publication, car elle enfreignait son Standard de la communauté en matière de discours haineux, affirmant que la publication utilisé une insulte pour décrire un groupe de personnes sur la base d’une caractéristique protégée (l’origine nationale).

La publication utilisait le terme « тазики » (« taziks ») pour décrire les azéris. Bien que ce mot puisse être traduit littéralement du russe comme « cuvette », il peut également être compris comme un jeu de mots avec le mot russe « азики » (« aziks »), un terme dégradant pour les Azéris qui figure sur la liste interne d’insultes de Facebook. Une analyse linguistique indépendante commandée par le Conseil confirme la compréhension de Facebook du mot « тазики » comme une insulte déshumanisante attaquant l’origine nationale.

Le contexte dans lequel le terme a été utilisé montre clairement qu’il a été utilisé pour déshumaniser sa cible. Le Conseil est donc d’avis que la publication enfreignait les Standards de la communauté Facebook.

Le Conseil a également estimé que la décision de Facebook de supprimer le contenu était conforme aux valeurs de l’entreprise. Bien que Facebook fasse de la « liberté d’expression » sa valeur primordiale, les valeurs de l’entreprise incluent aussi la « sécurité » et la « dignité ».

De septembre à novembre 2020, les combats sur le territoire du Haut-Karabagh, que les deux pays se disputent, a causé la mort de plusieurs milliers de personnes. Le contenu en question a été publié peu de temps avant un cessez-le-feu.

Tenant compte de la nature déshumanisante de l’insulte et du danger que de tels propos ne dégénèrent en violence physique, Facebook a été autorisé dans ce cas précis à faire prévaloir la « sécurité » et la « dignité » des personnes sur la « liberté d’expression » de l’utilisateur.

Une majorité des membres du Conseil a estimé que la suppression de cette publication était conforme au droit international des droits de l’homme en matière de limitation de la liberté d’expression.

Le Conseil était d’avis qu’il est évident pour les utilisateurs qu’utiliser le terme « тазики » pour décrire les Azéris serait considéré comme déshumanisant pour un groupe appartenant à une certaine nationalité, et que Facebook avait un objectif légitime à supprimer la publication.

La majorité des membres du Conseil ont également vu la suppression de la publication par Facebook comme nécessaire et proportionnée pour protéger les droits de tiers. Les insultants déshumanisantes peuvent créer un environnement de discrimination et de violence qui peut réduire d’autres utilisateurs au silence. Durant un conflit armé, les risques pour les droits à l’égalité, la sécurité et potentiellement, la vie des personnes sont particulièrement élevés.

Bien que la majorité des membres du Conseil ont estimé que ces risques rendaient la réponse de Facebook proportionnée, une minorité d’entre eux pensaient que l’action de Facebook ne répondaient pas aux standards internationaux et n’était pas proportionnée. Une minorité était d’avis que Facebook aurait dû considérer des mesures de mise en application autres que la suppression.

La décision du Conseil de surveillance

Le Conseil confirme la décision de Facebook de supprimer le contenu.

Dans un avis consultatif sur la politique, le Conseil recommande à Facebook de :

  • garantir que les raisons de toute mise en application des Standards de la communauté à leur encontre soient toujours communiqués aux utilisateurs, y compris la règle spécifique que Facebook fait appliquer. Dans ce cas, l’utilisateur était informé du fait que la publication enfreignait les Standards de la communauté Facebook en matière de discours haineux, mais n’avait pas été averti du fait que cette suppression était due à la présence d’une insulte attaquant l’origine nationale. Le manque de transparence de Facebook pouvait laisser croire que sa décision de supprimer le contenu était due à un désaccord avec la vue exprimée par l’utilisateur.

*Les résumés de cas fournissent une présentation du cas et n’ont pas valeur de précédent.

Décision complète sur le cas

1. Résumé de la décision

Le Conseil de surveillance a confirmé la décision de Facebook de supprimer la publication d’un utilisateur sur la prétendue destruction d’églises en Azerbaïdjan, car elle enfreignait le Standard de la communauté en matière de discours haineux.

Une analyse indépendante commandée par le Conseil confirme l’évaluation de Facebook disant que la publication contient une insulte humiliant l’origine nationale azérie, ce qui enfreint les Standards de la communauté. Bien que la publication consistait en un discours politique, Facebook a été autorisé à protéger la sécurité et la dignité des utilisateurs en supprimant la publication, plus particulièrement dans le contexte d’un conflit armé en cours entre l’Arménie et l’Azerbaïdjan.

La suppression de la publication était également conforme au droit international des droits de l’homme, qui autorisent l’adaptation de certaines restrictions de l’expression dont l’objectif est de protéger les droits de tiers.

Le Conseil recommande également à Facebook de donner plus de détails sur la raison pour laquelle les publications ont été supprimées afin de fournir davantage de clarté et d’avertir les utilisateurs.

2. Description du cas

En novembre 2020, un utilisateur a publié du contenu qui incluait des photos historiques décrites comme montrant des églises à Bakou, en Azerbaïdjan. Le texte d’accompagnement en russe prétendait que les Arméniens avait construit Bakou et que cette héritage, y compris les églises, a été détruit. L’utilisateur a utilisé le terme « т.а.з.и.к.и » (« taziks ») pour décrire les azéris, qui selon l’utilisateur, sont des nomades et n’ont aucune histoire comparé aux Arméniens. « Tazik », qui signifie « cuvette » en russe, semble avoir été utilisé dans cette publication comme un jeu de mots avec le mot « azik », un terme dégradant pour les Azéris.

Dans sa publication, l’utilisateur a inclus des hashtags appelant à la fin de l’agression et du vandalisme azéris. Un autre hashtag appelait à la reconnaissance de l’Artsakh, le nom arménien de la région du Haut-Karabagh, qui est au centre d’un conflit entre l’Arménie et l’Azerbaïdjan. La publication a été visionnée plus de 45 000 fois et est apparue pendant le récent conflit armé entre les deux pays. Facebook a supprimé la publication, car elle enfreignait ses Standards de la communauté en matière de discours haineux. L’utilisateur a soumis une demande d’examen au Conseil de surveillance.

3. Autorité et champ d’application

Le Conseil peut examiner la décision de Facebook en vertu de l’article 2 (Autorité responsable de l’examen) de la Charte du Conseil et peut confirmer ou annuler cette décision en vertu de l’article 3, section 5 (Procédures d’examen : résolution) de la Charte. Facebook n’a pas soumis de raison pour l’exclusion du contenu comme l’exige l’article 2, section 1.2.1 (contenu indisponible pour l’examen par le Conseil) des Statuts du Conseil, ni indiqué qu’il considère le cas comme étant inéligible en vertu de l’article 2, section 1.2.2 (Obligations légales) des Statuts.

4. Standards pertinents

Le Conseil de surveillance a pris les éléments suivants en considération dans sa décision :

I. Standards de la communauté Facebook :

Le Standard de la communauté de Facebook en matière de discours haineux définit ce concept comme « une attaque directe fondée sur ce que nous appelons des caractéristiques protégées, à savoir l’origine ethnique, l’origine nationale, la religion, l’orientation sexuelle, la caste, le sexe, le genre, l’identité sexuelle et les maladies graves ou les handicaps ». Le contenu interdit inclut le « contenu qui décrit ou cible négativement des personnes par des injures, celles-ci étant définies comme des mots couramment utilisés pour insulter ».

La justification de la politique de Facebook stipule que de tels propos ne sont pas autorisés « parce qu’ils créent une atmosphère d’intimidation et d’exclusion, et peuvent aboutir à des violences dans le monde réel ».

II. Valeurs de Facebook :

Les valeurs de Facebook pertinentes dans ce cas sont détaillées dans l’introduction aux Standards de la communauté. La première est la « liberté d’expression », qui est décrite comme « primordiale » :

L’objectif de nos Standards de la communauté a toujours été de créer un espace d’expression et de donner une voix aux personnes. […] Nous souhaitons que les personnes puissent s’exprimer ouvertement sur les sujets qui comptent pour elles, même si d’autres peuvent marquer leur désaccord ou y trouveraient à redire.

Facebook limite « la liberté d’expression » au profit de quatre autres valeurs. Le Conseil considère que deux de ces valeurs sont pertinentes pour cette décision :

la sécurité :Nous nous engageons à faire de Facebook un endroit sûr. Les formes d’expression menaçantes peuvent intimider, exclure ou réduire au silence et ne sont pas autorisées sur Facebook.

Dignité : Nous pensons que chacun mérite les mêmes droits et la même dignité. Nous attendons de chaque personne qu’elle respecte la dignité d’autrui et qu’elle ne harcèle ni ne rabaisse les autres.

III. Normes relatives aux droits de l’homme prises en considération par le Conseil :

Les Principes directeurs relatifs aux entreprises et aux droits de l’homme des Nations unies (UNGP), soutenus par le Conseil des droits de l’homme des Nations unies en 2011, établissent un cadre de travail volontaire pour les responsabilités relatives aux droits de l’homme des entreprises privées. Le Groupe de travail des Nations Unies sur les droits de l’homme et les sociétés transnationales, chargé de la surveillance de la mise en œuvre des UNGP, s’est penché sur leur applicabilité dans les situations conflictuelles (A/75/212, 2020). Sur la base des UNGP, les normes internationales relatives aux droits de l’homme suivantes ont été prises en considération pour ce cas :

  • Le droit à la liberté d’expression : les articles 19 et 20 du Pacte international relatif aux droits civils et politiques (PIDCP), tels qu’interprétés par l’Observation générale n° 34 du Comité des droits de l’homme (2011) (Observation générale n° 34) ; les rapports du Rapporteur spécial des Nations unies sur la liberté d’opinion et d’expression : A/69/335 (2014) ; A/HRC/38/35 (2018) ; A/73/348 (2018), A/74/486 (2019) et A/HRC/44/49 (2020) ainsi que le Plan d’action de Rabat, HCDH, (2012) ;
  • Le droit à la non-discrimination : les articles 2 et 26 du PIDCP ; les articles 1, 4 et 5 de la Convention internationale sur l’élimination de toutes les formes de discrimination raciale (CIEDR) tels qu’interprétés par le Comité d’élimination de la discrimination raciale, Observation générale n° 35 (2013) (OG35) ;
  • Le droit à la vie : l’article 6 du PIDCP, tel qu’interprété par l’Observation générale n° 36, Comité des droits de l’homme (2018) (OG36) ;
  • Le droit à la sécurité de sa personne : l’article 9, paragraphe 1 du PIDCP, tel qu’interprété par l’Observation générale n° 35, paragraphe 9, Comité des droits de l’homme (2014).

5. Déclaration de l’utilisateur

Dans sa déclaration au Conseil, l’utilisateur a prétendu que sa publication n’était pas un discours haineux, mais avait pour intention de démontrer la destruction de l’héritage culturel et religieux de Bakou. Il a également affirmé que la publication avait seulement été retirée parce les utilisateurs azéris qui « haïssent l’Arménie et les Arméniens » signalent le contenu publié par les Arméniens ».

6. Explication de la décision de Facebook

Facebook a supprimé la publication, car elle enfreignait son Standard de la communauté en matière de discours haineux, affirmant que la publication utilisé une insulte pour décrire une personne ou un groupe de personnes sur la base d’une caractéristique protégée (l’origine nationale). Facebook a indiqué avoir supprimé le contenu, car le terme « тазики » (« taziks ») avait été utilisé pour décrire les Azéris. Ce mot peut être traduit littéralement du russe par « cuvette », mais peut également être compris comme un jeu de mots avec le mot « азики » (« aziks ») - Facebook a expliqué au Conseil que ce mot figure sur sa liste interne d’injures, qui est dressée après avoir consulté des experts et des organisations de la société civile régionales. Après avoir évalué la totalité de la publication et le contexte dans lequel elle a été publiée, Facebook a déterminé que l’utilisateur avait publié ce terme dans le but d’insulter les Azéris.

7. Soumissions de parties tierces

Le Conseil de surveillance a reçu 35 commentaires publics en rapport avec ce cas. Deux des commentaires soumis provenaient d’Asie centrale et du Sud, six avaient été écrits depuis l’Europe et 24 avaient été rédigés depuis les États-Unis et le Canada.

Les soumissions couvraient les thèmes suivants : l’utilisation d’insultes et de termes dégradants qui enfreignent les Standards de la communauté ; la précision factuelle des allégations de la publication ; le fait de savoir si la publication constitue une discussion historique ou politique légitime ; ainsi que l’importance d’évaluer la situation contextuelle, y compris le conflit du Haut-Karabagh.

8. Analyse du Conseil de surveillance

8.1 Respect des Standards de la communauté

La publication de l’utilisateur enfreignait le Standard de la communauté Facebook en matière de discours haineux. Le Standard de la communauté interdit explicitement l’utilisation d’insultes basées sur l’origine nationale ou ethnique. Le Conseil a commandé une analyse linguistique indépendante qui soutient la compréhension de Facebook de ce terme comme étant une insulte. Le rapport linguistique confirme que la publication implique une connexion entre « тазики », soit « cuvette » et « азики », soit un terme souvent utilisé pour décrire les Azéris de façon dégradante.

Il peut y avoir des cas où des mots qui sont dégradants dans un contexte peuvent être plus anodins, ou même donner plus de pouvoir, dans un autre. Le Standard de la communauté Facebook en matière de discours haineux reconnaît que, dans certains cas, « des mots ou des termes qui pourraient autrement enfreindre [ses] standards sont utilisés de manière autoréférentielle ou pour acquérir du pouvoir ». Le contexte dans lequel « тазики » a été utilisé dans cette publication montre cependant clairement qu’en associant les Azéris à des cuvettes, le terme a été utilisé afin de déshumaniser sa cible.

8.2 Conformité avec les valeurs de Facebook

Le Conseil estime que la suppression était conforme aux valeurs de « sécurité » et de « dignité » de Facebook qui, dans ce cas, ont prévalu sur la valeur de « liberté d’expression ».

Les valeurs de Facebook donnent priorité à la « liberté d’expression », car les utilisateurs de la plateforme doivent pouvoir s’exprimer librement. Cependant, les valeurs de Facebook incluent aussi la « sécurité » et la « dignité ». Des propos autrement protégés peuvent faire l’objet de restrictions lorsque laisser ce contenu et d’autres publications similaires sur la plateforme rend Facebook moins sûr et fragilise dans le même temps la dignité et l’égalité des personnes. L’interdiction d’utiliser des insultes ciblant l’origine nationale de Facebook a pour but d’empêcher les utilisateurs de poster du contenu fait pour réduire au silence, exclure, harceler ou déshonorer d’autres utilisateurs. Si elle n’est pas contrée, une accumulation de ce type de contenu peut créer un environnement dans lequel des actes de discrimination et de violence sont plus probables.

Dans ce cas, Facebook a été autorisé à traiter l’utilisation d’une insulte comme une interférence grave avec les valeurs de « sécurité » et de « dignité ». Le conflit entre l’Arménie et l’Azerbaïdjan, pays voisins du Caucase du Sud, ne date pas d’hier. Plus récemment, de septembre à novembre 2020, les combats sur le territoire du Haut-Karabagh, que les deux pays se disputent, a causé la mort de plusieurs milliers de personnes. Le contenu en question avait été publié sur Facebook peu de temps avant que le cessez-le-feu n’entre en vigueur. Ce contexte était particulièrement pertinent selon le Conseil. Bien que le langage pointé puisse faire partie des interactions humaines, surtout dans des situations de conflit, le danger de la prolifération d’insultes déshumanisantes qui dégénérerait en actes de violence est pris au sérieux par Facebook.

8.3 Conformité avec les normes relatives aux droits de l’homme

  1. Liberté d’expression (article 19 du PIDCP)

Facebook a reconnu ses responsabilités relatives aux droits de l’homme en vertu des Principes directeurs relatifs aux entreprises et aux droits de l’homme des Nations unies et a indiqué que l’entreprise s’appuyait sur du matériel faisant autorité comme le PIDCP et le Plan d’action de Rabat lorsqu’elle prenait des décisions sur le contenu, notamment dans des situations de conflit armé.

Le Conseil partage l’avis du Rapporteur spécial des Nations unies sur la liberté d’expression disant que même si « les entreprises ne sont pas soumises aux mêmes devoirs que les gouvernements, leur influence est néanmoins telle qu’elle doit les initier à se poser les mêmes questions qu’eux quant à la protection de la liberté d’expression de leurs utilisateurs » (A/74/486, paragraphe 41). La tâche principale du Conseil est de clarifier la nature de ces questions et de juger si les réponses de Facebook relève du domaine requis par les Principes directeurs des Nations unies.

Le point de départ du Conseil est que la portée de la liberté d’expression est large. En effet, l’article 19, paragraphe 2 du PIDCP offre une protection élevée de l’expression des thèmes politiques et de la discussion autour d’allégations historiques, y compris lorsqu’elles se rapportent à des sites religieux et à l’héritage culturel des peuples. Cette protection reste inchangée lorsque ces allégations peuvent être inexactes ou contestées, et même lorsqu’elles sont insultantes. L’article 19, paragraphe 3 du PIDCP exige que la liberté d’expression soit limitée pour satisfaire au test tripartite de la légalité, la légitimité et la nécessité et la proportionnalité.

Une majorité du Conseil a estimé que la suppression par Facebook de cette publication de la plateforme satisfaisait à ce test.

a. Légalité

Pour satisfaire au critère de « légalité », toute règle imposant une restriction de l’expression doit être claire et accessible. Les individus doivent disposer de suffisamment d’informations pour déterminer si et comment leurs propos peuvent être limités de manière à pouvoir adapter leur comportement en conséquence. Ce critère protège d’une censure arbitraire (Observation générale n° 34, paragraphe 25).

Le Standard de la communauté Facebook en matière de discours haineux stipule que les « insultes » sont interdites et qu’elles sont définies comme des « mots qui sont par nature offensants et utilisés comme insultes » par rapport à un certain nombre de « caractéristiques protégées », y compris l’origine ethnique et nationale.

Dans le cas présent, le Conseil a considéré que le critère de légalité était satisfait. Il peut y avoir des situations où une insulte possède plusieurs significations ou peut être employée de façons qui ne seraient pas considérées comme une « attaque ». Dans des situations plus litigieuses, les concepts de « offensants par nature » et « insultants » peuvent être considérés comme étant trop subjectifs et remettre en question la légalité (A/74/486, paragraphe 46). L’application de la règle dans ce cas ne permettait pas ce doute. Le choix des mots de l’utilisateur relevait directement de l’interdiction de tenir des propos déshumanisants, que le Conseil estime clairement indiquée et facilement accessible aux utilisateurs. L’utilisation du terme « т.а.з.и.к.и », associant une identité nationale à un objet inanimé sale, peut totalement être qualifié d’« insulte ».

Bien que la compréhension subjective des règles de l’utilisateur ne soit pas déterminante pour la légalité, le Conseil indique que l’utilisateur a tenté de cacher l’insulte aux yeux des outils de détection automatique en plaçant un signe de ponctuation entre chaque lettre. Cela tend à confirmer que l’utilisateur était conscient d’utiliser des mots interdits par Facebook.

b. Légitimité

Toute restriction de la liberté d’expression doit également poursuivre « un objectif légitime ». Ces objectifs sont repris dans le PIDCP et incluent l’objectif de protection « des droits de tiers » (Observation générale n° 34, paragraphe 28). L’interdiction des insultes par Facebook vise à protéger les droits des personnes à l’égalité et à la non-discrimination (article 2, paragraphe 1, PIDCP), à exercer leur liberté d’expression sur la plateforme sans être harcelées ou menacées (article 19, PIDCP), à protéger le droit à la sécurité de la personne contre les préjudices prévisibles et intentionnels (article 9, PIDCP, Observation générale n° 35, paragraphe 9), et, y compris le droit à la vie (article 6, PIDCP).

c. Proportionnalité et nécessité

L’exigence de nécessité et de proportionnalité impose à Facebook de démontrer que sa restriction de la liberté d’expression était nécessaire pour gérer la menace, en l’occurrence la menace au droit de tiers, et que cette restriction n’était pas trop importante (Observation générale n° 34, paragraphe 34). Le Conseil indique que le droit international des droits de l’homme interdit « l’expression d’insultes, de moqueries ou de calomnies à l’égard de personnes ou de groupes, ou la justification de la haine, du mépris ou de la discrimination » si une telle expression « s’apparente clairement à de l’incitation à la haine ou à la discrimination » basée sur l’origine ethnique, la couleur de peau, l’origine ou l’origine nationale (A/74/486, paragraphe 17 ; OG35, paragraphe 13).

Le Standard de la communauté de Facebook en matière de discours haineux interdit certaines expressions discriminatoires, y compris les insultes, en l’absence de tout critère stipulant que l’expression incite à des actes violents ou discriminatoires. Bien que de telles interdictions soulèveraient des inquiétudes si elles étaient imposées à plus grande échelle par un gouvernement (A/74/486, paragraphe 48), en particulier si elles étaient mises en application par le biais de sanctions criminelles ou civiles, le rapporteur spécial indique que les entités engagées dans la modération de contenu comme Facebook peuvent réguler de tels propos :

L’ampleur et la complexité de la lutte contre l’expression de la haine présentent des défis à long terme et peuvent entraîner des entreprises à restreindre une telle expression même si elle n’est pas clairement associée à des résultats négatifs (car la promotion de la haine est associée à l’incitation dans l’article 20(2) du PIDCP). Les entreprises doivent cependant exprimer les bases de ces restrictions et démontrer la nécessité et la proportionnalité de toutes actions relatives au contenu. A/HRC/38/35, paragraphe 28).

Une majorité des membres du Conseil ont estimé que l’insulte utilisée dans le cas présent était haineuse et déshumanisante. Bien qu’elle ne constituait pas une incitation, la publication présentait néanmoins un potentiel pour des résultats négatifs. Le contexte est essentiel. Le Conseil accueille favorablement l’explication de Facebook qui désigne ce terme comme une insulte après avoir consulté des organisations de la société civile et des experts locaux qui sont conscients de son usage contextuel. La majorité des membres du Conseil a indiqué que la publication, lorsqu’elle était lue dans son ensemble, montrait clairement que le choix d’une insulte par l’utilisateur n’était pas accidentel, mais central pour l’argument de l’utilisateur affirmant que le groupe ciblé était inférieur. En outre, la publication en question a été largement diffusée au plus fort d’un conflit armé entre l’État d’un utilisateur et l’État dont les citoyens sont attaqués par la publication. L’utilisation de termes déshumanisants dans ce contexte peut avoir des effets en ligne, y compris la création d’un environnement discriminatoire qui fragilise la liberté de tiers à s’exprimer. Le risque d’expressions haineuses et déshumanisantes qui s’accumule et se diffuse sur une plateforme et entraîne des actions hors ligne ayant un impact sur le droit à la sécurité de la personne et potentiellement à la vie est particulièrement prononcé dans des situations de conflits armés. Dans ce cas particulier, une majorité des membres du Conseil estiment que la présence de ces risques et les responsabilités relatives aux droits de l’homme de Facebook d’éviter d’y contribuer impliquaient que l’entreprise avait le droit de supprimer l’insulte.

De plus, le Conseil était d’avis que la suppression constituait un moyen proportionné. Des interventions moins sévères, comme des étiquettes, des écrans d’avertissement ou d’autres mesures visant à réduire la diffusion, n’auraient pas offert la même protection. Élément remarquable : Facebook n’a pas pris de mesures plus sévères pourtant à sa disposition, comme la suspension du compte de l’utilisateur, malgré le fait que celui-ci semblait republier du contenu offensant à plusieurs reprises. Cela illustre que nonobstant la suppression de cet élément de contenu spécifique, l’utilisateur avait toujours la liberté de prendre part à des discussions sur les mêmes thèmes dans les limites des Standards de la communauté.

Une minorité des membres du Conseil estimaient que la suppression de la publication par Facebook n’était pas proportionnée sur la base du fait que les risques mentionnés par la majorité était trop vagues et n’étaient pas prévisibles. Les autres solutions de mise en application moins intrusives auraient donc du être prises en considération. Les exemples incluent le placement d’un écran d’avertissement ou de sensibilité sur le contenu, ce qui réduit sa viralité, mais aussi la promotion de contre-messages, voire d’autres techniques. Selon cette minorité, supprimer la totalité de la publication parce une insulte y a été utilisée a entraîné la suppression de propos sur un sujet d’intérêt public et la nécessité ainsi que la proportionnalité de cette restriction n’a pas été constatée.

Un autre avis minoritaire était que la référence à un objet inanimé était offensante, mais pas déshumanisante. Selon ce dernier avis, l’insulte n’aurait pas contribué à une action militaire ou violente.

9. Décision du Conseil de surveillance

9.1 La décision du Conseil de surveillance

Le Conseil confirme la décision de Facebook de supprimer la publication de l’utilisateur.

9.2 Avis consultatif sur la politique

Le Conseil recommande à Facebook de :

  • garantir que les raisons de toute mise en application des Standards de la communauté à leur encontre soient toujours communiqués aux utilisateurs, y compris la règle spécifique que Facebook fait appliquer. Ce faisant, Facebook encouragerait une expression conforme à ses Standards de la communauté plutôt que d’adopter une posture antagoniste envers les utilisateurs. Dans ce cas, l’utilisateur était informé du fait que la publication enfreignait les Standards de la communauté en matière de discours haineux, mais n’avait pas été averti du fait que la publication enfreignait le standard, car elle contenait une insulte ciblant l’origine nationale. Facebook satisfait au principe de légalité dans le cas présent, mais son manque de transparence pouvait laisser croire que l’entreprise avait décidé de supprimer la publication, car l’utilisateur abordait un sujet controversé ou exprimé un point de vue avec lequel Facebook n’était pas d’accord.

*Note de procédure :

Les décisions du Conseil de surveillance sont préparées par des panels de cinq membres et doivent être acceptées par une majorité du Conseil. Elles ne représentent pas nécessairement les opinions personnelles de tous ses membres.

Pour la décision sur ce cas, des recherches indépendantes ont été commandées au nom du Conseil. Un institut de recherche indépendant, dont le siège se trouve à l’université de Göteborg et mobilisant une équipe de plus 50 experts en science sociale sur six continents ainsi que 3200 experts nationaux du monde entier, a fourni son expertise sur le contexte socio-politico-culturel. L’entreprise Lionbridge Technologies, LLC, dont les spécialistes parlent couramment 350 langues et travaillent dans 5000 villes du monde entier, a fourni son expertise linguistique.

Retour aux décisions de cas et aux avis consultatifs politiques