Renversé

Meme aux deux boutons

Le Conseil de surveillance a annulé la décision de Facebook de supprimer un commentaire en vertu de son Standard de la communauté relatif au discours haineux.

Type de décision

Standard

Politiques et sujets

Sujet
Humour, Liberté d’expression, Politique
Norme communautaire
Contenu cruel et insensible

Régions/Pays

Emplacement
États-Unis

Plate-forme

Plate-forme
Facebook

Veuillez noter que cette décision est disponible à la fois en turc (via l’onglet « Langue », auquel vous pouvez accéder dans le menu situé en haut de l’écran) et en arménien (via ce lien).

Որոշման ամբողջական տարբերակը հայերենով կարդալու համար սեղմեք այստեղ.

Résumé du cas

Le Conseil de surveillance a annulé la décision de Facebook de supprimer un commentaire en vertu de son standard de la communauté relatif au discours haineux. Une majorité du Conseil a estimé que ce commentaire était couvert par l’exception de Facebook sur les contenus qui sensibilisent à la haine ou condamnent cette dernière.

À propos du cas

Le 24 décembre 2020, un utilisateur de Facebook aux États-Unis a publié un commentaire incluant une adaptation du meme « lutte au quotidien », également appelé le meme aux deux boutons. Cette adaptation représentait le dessin en deux parties du meme aux deux boutons original, le visage du personnage de bande dessinée ayant toutefois été remplacé par un drapeau turc. Le personnage a la main droite posée sur sa tête et semble transpirer. Au-dessus de lui, la partie supérieure du mème représente deux boutons rouges accompagnés des légendes suivantes en anglais : « Le génocide arménien est un mensonge » et « Les Arméniens étaient des terroristes qui l’ont bien mérité ».

Alors qu’un modérateur de contenu a estimé que le mème enfreignait le standard de la communauté de Facebook relatif au discours haineux, un autre a trouvé qu’il enfreignait le standard de la communauté relatif au contenu cruel et indélicat. Facebook a supprimé le commentaire en vertu de son standard de la communauté relatif au contenu cruel et indélicat et en a informé l’utilisateur.

Après que l’utilisateur a fait appel, Facebook a toutefois estimé que le contenu aurait dû être supprimé en vertu de son standard de la communauté relatif au discours haineux. L’entreprise n’a pas informé l’utilisateur qu’elle maintenait sa décision en vertu d’un autre standard de la communauté.

Principales observations

Facebook a déclaré qu’elle avait supprimé le commentaire parce que la phrase « Les Arméniens étaient des terroristes qui l’ont bien mérité » affirmait que les Arméniens était des criminels en raison de leur nationalité et de leur ethnicité. Selon l’entreprise, cette affirmation enfreint son standard de la communauté relatif au discours haineux.

Facebook a également déclaré que le mème n’était pas couvert par une exception autorisant les utilisateurs à partager du contenu à caractère haineux afin de sensibiliser à la haine ou de condamner cette dernière. L’entreprise a affirmé que le personnage de bande dessinée pouvait aussi bien être interprété comme une condamnation des deux légendes reprises dans le mème que comme une adhésion à leur message.

La majorité du Conseil a toutefois estimé que le contenu était couvert par cette exception. Si le meme aux deux boutons oppose deux options, ce n’est pas pour leur apporter du soutien, mais pour mettre en évidence d’éventuelles contradictions. Ainsi, elle a jugé que l’utilisateur avait partagé le mème afin de condamner le gouvernement turc et de sensibiliser aux efforts fournis par ce dernier pour nier le génocide arménien tout en justifiant ces atrocités historiques. La majorité du Conseil a pris note d’un commentaire public qui suggérait que le mème « ne se moquait pas des victimes du génocide, mais du discours négationniste communément répandu à l’heure actuelle en Turquie qui prétend à la fois que le génocide n’a pas eu lieu et que ses victimes ont mérité ce qui leur était arrivé ». La majorité du Conseil a également pensé que le contenu pouvait être couvert par l’exception de Facebook en matière de satire, qui n’est pas reprise dans les Standards de la communauté.

Cependant, une minorité du Conseil a estimé qu’il n’était pas suffisamment évident que l’utilisateur avait partagé le contenu pour critiquer le gouvernement turc. Puisqu’une partie du contenu tombait dangereusement dans la généralisation au sujet des Arméniens, cette minorité a jugé qu’il enfreignait le standard de la communauté relatif au discours haineux.

Dans cette affaire, le Conseil a fait remarquer que Facebook avait informé l’utilisateur qu’il avait enfreint son standard de la communauté relatif au contenu cruel et indélicat alors que l’entreprise avait fondé sa décision sur le standard de la communauté relatif au discours haineux. Le Conseil s’est également demandé avec inquiétude si les modérateurs de Facebook disposaient du temps et des ressources nécessaires pour examiner les contenus à caractère satirique.

Décision du Conseil de surveillance

Le Conseil de surveillance a annulé la décision de Facebook de supprimer le contenu et demande que le commentaire soit restauré.

Dans un avis consultatif sur la politique, le Conseil recommande à Facebook de :

  • Tenir les utilisateurs informés du standard de la communauté appliqué par l’entreprise. Si Facebook détermine que le contenu publié par un utilisateur enfreint un autre standard de la communauté que celui qui avait été initialement invoqué, l’utilisateur devrait avoir la possibilité de faire une nouvelle fois appel.
  • Ajouter l’exception en matière de satire, non actuellement à la disposition des utilisateurs, dans le langage public de son standard de la communauté relatif au discours haineux.
  • Adopter des procédures permettant de modérer correctement le contenu satirique tout en prenant en compte les éléments de contexte pertinents. Cela consiste notamment à donner aux modérateurs de contenu les accès et le temps nécessaires pour contacter et consulter les équipes d’exploitation locales de Facebook afin qu’ils puissent se faire une idée du contexte.
  • Permettre aux utilisateurs d’indiquer dans leur appel que leur contenu est couvert par l’une des exceptions à la politique relative au discours haineux. Cela concerne notamment les exceptions en matière de contenu satirique ainsi que les cas où les utilisateurs partagent du contenu à caractère haineux afin de sensibiliser à la haine et de la condamner.
  • S’assurer que l’examen manuel est accordé en priorité aux appels fondés sur des exceptions aux politiques.

*Les résumés de cas fournissent une présentation du cas et n’ont pas valeur de précédent.

Décision complète sur le cas

1. Résumé de la décision

Le Conseil de surveillance a annulé la décision de Facebook visant à supprimer un contenu en vertu de son Standard de la communauté sur les discours haineux. Une majorité du Conseil a estimé que les deux cases de bande dessinée, sous la forme d’un mème satirique, étaient couvertes par l’exception au standard de la communauté relatif au discours haineux, une exception qui concerne le contenu sensibilisant à la haine et la condamnant.

2. Description du cas

Le 24 décembre 2020, un utilisateur de Facebook aux États-Unis a publié un commentaire incluant une adaptation du meme « lutte au quotidien », également appelé le meme aux deux boutons. Un mème est un élément multimédia, à caractère souvent humoristique, qui se diffuse rapidement sur Internet. Cette adaptation représentait le dessin en deux parties du mème original, le visage du personnage de bande dessinée ayant toutefois été remplacé par le drapeau turc. Le personnage a la main droite posée sur sa tête et semble transpirer. Au-dessus de lui, la partie supérieure du mème représente deux boutons rouges accompagnés des légendes suivantes en anglais : « Le génocide arménien est un mensonge » et « Les Arméniens étaient des terroristes qui l’ont bien mérité ». Le mème était précédé d’un emoji pensif.

Le commentaire a été partagé sur une page Facebook publique qui se décrit comme un lieu de discussion sur des sujets religieux d’un point de vue séculier. Il répondait à une publication qui contenait l’image d’une personne vêtue d’un niqab ainsi que le texte superposé en anglais : « Tous les prisonniers ne sont pas derrière les barreaux. » Au moment où le commentaire a été supprimé, la publication originale comptait 260 vues, 423 réactions et 149 commentaires. Un utilisateur au Sri Lanka a signalé le commentaire pour infraction au standard de la communauté relatif au discours haineux.

Facebook a supprimé le mème le 24 décembre 2020. Dans un court laps de temps, deux modérateurs de contenu ont examiné le commentaire en regard des politiques de l’entreprise et ont tiré des conclusions différentes. Le premier a conclu que le mème enfreignait la politique de Facebook en matière de discours haineux tandis que le second a déterminé qu’il violait sa politique relative au contenu cruel et indélicat. Le contenu a été supprimé et consigné dans les systèmes de Facebook conformément à cette seconde décision. Sur cette base, Facebook a informé l’utilisateur que son commentaire « allait à l’encontre de notre standard de la communauté relatif au contenu cruel et indélicat ».

Après que l’utilisateur a fait appel, Facebook a maintenu sa décision, mais a estimé que le contenu aurait dû être supprimé en vertu de sa politique en matière de discours haineux. Selon Facebook, la légende « Les Arméniens étaient des terroristes qui l’ont bien mérité » enfreignait spécifiquement l’interdiction de contenus qui qualifient de criminels (y compris de terroristes) toutes les personnes répondant à une caractéristique protégée. Aucun autre élément du contenu, y compris l’affirmation selon laquelle le génocide arménien est un mensonge, n’a été jugé comme étant en infraction. Facebook n’a pas informé l’utilisateur qu’elle maintenait sa décision de supprimer le contenu en vertu d’un autre standard de la communauté.

L’utilisateur a fait appel auprès du Conseil de surveillance le 24 décembre 2020.

Enfin, dans cette décision, le Conseil a fait référence aux atrocités commises envers le peuple arménien à partir de 1915 sous le terme « génocide » étant donné qu’il est communément utilisé pour décrire les massacres et les déportations de masse subis par les Arméniens et que c’est sous ce terme que le contenu examiné y fait référence. Le Conseil ne jouit pas de l’autorité nécessaire pour qualifier de telles atrocités d’un point de vue légal et cette qualification n’est pas le sujet de cette décision.

3. Autorité et champ d’application

Le Conseil jouit de l’autorité nécessaire pour examiner la décision de Facebook à la suite d’un appel interjeté par l’utilisateur dont la publication a été supprimée (article 2, section 1 de la Charte ; article 2, section 2.1 des Statuts). Le Conseil peut maintenir ou annuler cette décision (article 3, section 5 de la Charte). Les décisions du Conseil sont contraignantes et peuvent inclure des avis consultatifs sur la politique ainsi que des recommandations. Ces recommandations ne sont pas contraignantes, mais Facebook est tenue d’y répondre (article 3, section 4 de la Charte). Le Conseil est un organe de réclamation indépendant qui traite les litiges de manière transparente et sur la base de principes.

4. Standards pertinents

Le Conseil de surveillance a pris les éléments suivants en considération dans sa décision :

I. Standards de la communauté Facebook

Les Standards de la communauté Facebook définissent le discours haineux comme « une attaque directe contre des personnes fondée sur ce que nous appelons des caractéristiques protégées : l’origine ethnique, l’origine nationale, le handicap, la religion, la caste, l’orientation sexuelle, le sexe, l’identité de genre et les maladies graves ». Sous « Niveau 1 », le contenu interdit (« ne publiez pas ») comprend le contenu ciblant une personne ou un groupe de personnes sur la base d’une caractéristique protégée avec :

  • « un discours ou des images déshumanisants sous forme de comparaisons, de généralisations ou de déclarations (écrites ou visuelles) sur le comportement se rapportant à [… des] criminels (y compris, mais sans s’y limiter, les « voleurs », les « braqueurs de banque » ou le fait de dire que « tous/toutes les [caractéristiques protégées ou caractéristiques quasi protégées] sont des “criminels”) »
  • un discours « se moqu[ant] du concept d’incitation à la haine, d’un évènement particulier de cette nature ou de victimes de ce type d’actes, même s’il s’agit d’une image ne montrant aucune personne réelle »
  • un discours « ni[ant] ou déform[ant] des informations concernant l’Holocauste ».

Néanmoins, Facebook autorise les « contenus incluant un discours haineux de quelqu’un d’autre pour le condamner ou sensibiliser les autres à son égard ». Conformément à la justification du standard de la communauté relatif au discours haineux, « des discours qui pourraient enfreindre nos standards peuvent être utilisés de manière autoréférentielle ou de manière valorisante. Nos politiques sont conçues pour permettre ce type de discours, mais nous demandons aux utilisateurs d’indiquer clairement leur intention. Nous nous réservons le droit de supprimer le contenu concerné lorsque l’intention n’est pas claire. »

En outre, le Conseil a pris note du standard de la communauté de Facebook relatif au contenu cruel et indélicat, qui interdit tout contenu « ciblant des victimes de préjudices physiques ou émotionnels graves », y compris les « tentatives explicites de se moquer de victimes […] qui prennent souvent la forme de mèmes et de GIF. » Cette politique interdit les contenus (« ne publiez pas ») qui incluent « des remarques sadiques ainsi que toute représentation visuelle ou écrite de personnes réelles subissant un décès prématuré ».

II. Valeurs de Facebook

Les valeurs de Facebook sont détaillées dans l’introduction des Standards de la communauté. La liberté d’expression y est décrite comme « primordiale » :

L’objectif de nos Standards de la communauté a toujours été de créer un espace d’expression et de donner une voix aux personnes. […] Nous souhaitons que les personnes puissent s’exprimer ouvertement sur les sujets qui comptent pour elles, même si d’autres peuvent marquer leur désaccord ou y trouveraient à redire.

Facebook limite la liberté d’expression au profit de quatre valeurs, dont deux sont en l’espèce pertinentes :

La sécurité : Nous nous engageons à faire de Facebook un endroit sûr. Les formes d’expression qui menacent les autres peuvent les intimider, les exclure ou les réduire au silence, et ne sont pas autorisées sur Facebook.

La dignité : Nous pensons que chacun mérite les mêmes droits et la même dignité. Nous attendons de chaque personne qu’elle respecte la dignité d’autrui et qu’elle ne harcèle ni ne rabaisse les autres.

II. Normes relatives aux droits de l’homme :

Les Principes directeurs relatifs aux entreprises et aux droits de l’homme des Nations Unies (PDNU), soutenus par le Conseil des droits de l’homme des Nations Unies en 2011, établissent un cadre de travail volontaire pour les responsabilités relatives aux droits de l’homme des entreprises privées. En 2021, Facebook a annoncé l’entrée en vigueur de sa Politique en matière des droits de l’homme, dans laquelle l’entreprise s’engage à respecter les droits conformément aux UNGP. L’analyse du Conseil sur ce cas s’est appuyée sur les normes de droits de l’homme suivantes :

  1. La liberté d’expression : l’article 19 du Pacte international relatif aux droits civils et politiques (PIDCP), observation générale n° 34 du Comité des droits de l’homme,2011 ; les rapports du Rapporteur spécial des Nations unies sur la liberté d’opinion et d’expression : A/HRC/35/22/Add.3 (2017), A/HRC/41/35/Add.2 (2019), A/HRC/38/35 (2018), A/74/486 (2019) et A/HRC/44/49/Add.2 (2020) ; le Plan d’action de Rabat, HCDH, (2013).
  2. Le droit à la non-discrimination : l’article 2, paragraphe 1 du PIDCP ; Les articles 1 et 2 de la Convention internationale sur l’élimination de toutes les formes de discrimination raciale (CIEDR).
  3. Le droit à être informé dans le cadre de l’accès à la justice : l’article 14, paragraphe 3(a) du PIDCP ; Observation générale n° 32, Comité des droits de l’homme (2007).

5. Déclaration de l’utilisateur

Dans son appel auprès du Conseil, l’utilisateur a déclaré que les « événements historiques ne devraient pas être censurés ». Il a fait remarquer que son commentaire ne visait pas à offenser, mais à souligner « l’ironie qui entoure un événement historique en particulier ». L’utilisateur a noté que « Facebook avait peut-être mal interprété ce commentaire comme une attaque ». Il a également déclaré que, même si le contenu évoquait « la religion et la guerre », il ne s’agissait pas d’un sujet controversé. Jugeant Facebook et ses règles trop restrictives, l’utilisateur a soutenu que « [l]’humour, comme beaucoup de choses, était subjectif et qu’un élément offensant pour une personne pouvait être considéré comme drôle par une autre. »

6. Explication de la décision de Facebook

Facebook a expliqué qu’elle avait supprimé le commentaire assimilé à une attaque de niveau 1 en vertu de son standard de la communauté relatif au discours haineux, plus précisément pour infraction à sa politique interdisant les contenus qui affirment que tous les membres partageant une caractéristique protégée sont des criminels, y compris des terroristes. Selon Facebook, même si la première légende du mème « Le génocide arménien est un mensonge » était une généralisation négative, elle n’attaquait pas directement les Arméniens et n’enfreignait donc pas les Standards de la communauté de l’entreprise. Facebook a estimé que la seconde légende « Les Arméniens étaient des terroristes qui l’ont bien mérité » attaquait directement les Arméniens en affirmant qu’ils étaient des criminels sur base de leur ethnie et de leur nationalité. Cette affirmation enfreignait la politique de l’entreprise en matière de discours haineux.

Pour justifier sa décision, Facebook a évalué si l’exception prévue pour les contenus partageant des discours haineux à des fins de sensibilisation ou de condamnation devait être appliquée dans ce cas-ci. Facebook a fait valoir que le mème n’était pas couvert par cette exception puisque l’utilisateur n’avait pas clairement marqué son intention de condamner le discours haineux. Spécifiquement, Facebook a expliqué au Conseil que le personnage en sueur du mème pouvait aussi bien être interprété comme une condamnation des légendes que comme une adhésion à leur message. Facebook a également expliqué que sa politique en matière de discours haineux prévoyait auparavant une exception pour l’humour. L’entreprise a précisé avoir supprimé cette exception pour donner suite à un rapport de l’audit sur les droits civiques (juillet 2020) ainsi que dans le cadre du développement de sa politique. Dans sa réponse au Conseil, Facebook a affirmé « qu’établir une définition de ce qui peut être perçu comme de l’humour était irréalisable dans le cadre des procédures de modération à l’échelle de l’entreprise ». Toutefois, Facebook a révélé dans le rapport de l’audit sur les droits civiques qu’elle avait restreint l’exception à la satire, que l’entreprise définit comme un contenu qui « inclut l’utilisation de l’ironie, l’exagération, la dérision et/ou l’absurdité dans le but d’exposer ou de critiquer des personnes, des comportements ou des opinions, en particulier dans le cadre de problématiques politiques, religieuses ou sociales. Son objectif est d’attirer l’attention sur des problèmes sociétaux plus vastes et d’émettre des critiques à leur sujet. » Cette exception n’est pas reprise dans ses Standards de la communauté. Elle semble se distinguer de l’exception prévue pour les contenus qui incluent un discours haineux pour le condamner ou sensibiliser à son égard.

Facebook a également précisé que le contenu n’enfreignait pas sa politique en matière de contenu cruel ou indélicat, qui interdit les « tentatives explicites de se moquer des victimes », y compris par le biais de mèmes, parce qu’il ne représentait ni ne nommait aucune victime réelle.

En outre, l’entreprise a indiqué que la suppression du contenu était conforme à ses valeurs de dignité et de sécurité par rapport à sa valeur de liberté d’expression. Selon Facebook, tout contenu qui qualifie de terroristes les Arméniens « est un affront à leur dignité, peut être perçu comme humiliant ou déshumanisant et peut même engendrer des risques de persécution et de violence hors ligne ».

L’entreprise a également soutenu que sa décision était conforme aux normes internationales des droits de l’homme. Facebook a déclaré que (a) sa politique était « facilement accessible » dans les Standards de la communauté, (b) la décision de supprimer le contenu était légitime en vue de protéger « les droits d’autrui contre les préjudices et la discrimination » et (c) sa décision de supprimer le contenu était « proportionnée et nécessaire pour limiter les préjudices à l’encontre des Arméniens ». Afin de s’assurer que ses restrictions en matière de liberté d’expression étaient proportionnées, Facebook a fait valoir que sa politique relative au discours haineux ne s’appliquait qu’à « un ensemble limité de généralisations ».

7. Soumissions de tierces parties

Le Conseil de surveillance a reçu 23 commentaires publics en rapport avec ce cas. Quatre commentaires provenaient d’Europe, un du Moyen-Orient et d’Afrique du Nord, et dix-huit des États-Unis et du Canada.

Le Conseil a entendu les commentaires de parties directement liées à des questions d’intérêt dans le cadre de cette affaire. Celles-ci incluaient un descendant de victimes du génocide arménien, des organisations qui étudient la nature, les causes et les conséquences des génocides ainsi qu’un ancien modérateur de contenu.

Les soumissions ont notamment abordé les thèmes suivants : la signification et l’utilisation du meme « lutte au quotidien », également appelé meme aux deux boutons, tel qu’il a été adapté par l’utilisateur dans ce cas-ci ; la question de savoir si le contenu constituait une critique politique du gouvernement turc et de son négationnisme du génocide arménien ; la question de savoir si le contenu se moquait des victimes du génocide arménien ; et la manière dont les standards de la communauté de Facebook relatifs au contenu cruel et indélicat ainsi qu’au discours haineux étaient pertinents dans ce cas-ci.

Pour lire les commentaires publics soumis pour ce cas, veuillez cliquer ici.

8. Analyse du Conseil de surveillance

Le Conseil a examiné la question de la restauration de ce contenu sous trois angles : les Standards de la communauté Facebook, les valeurs de l’entreprise et ses responsabilités en matière de droits de l’homme.

8.1 Respect des Standards de la communauté

Le Conseil a analysé chacune des deux légendes en vertu des Standards de la communauté Facebook avant d’examiner l’effet provoqué par la juxtaposition desdites légendes dans la version du meme « lutte au quotidien » ou meme aux deux boutons.

8.1.1. Analyse de la légende « Le génocide arménien est un mensonge »

Le Conseil a pris note du fait que Facebook n’avait pas estimé que cette légende enfreignait son standard de la communauté relatif au discours haineux. Facebook applique son standard de la communauté relatif au discours haineux en identifiant (i) une « attaque directe » et (ii) une « caractéristique protégée » sur laquelle se fonde l’attaque directe. La justification de la politique cite « les discours déshumanisants » comme un exemple d’attaque. L’origine ethnique et l’origine nationale sont reprises dans la liste des caractéristiques protégées.

Dans la section « ne publiez pas » de sa politique en matière de discours haineux, Facebook interdit les discours « se moqu[ant] du concept d’incitation à la haine, d’un évènement particulier de cette nature ou de victimes de ce type d’actes, même s’il s’agit d’une image ne montrant aucune personne réelle ». Une majorité du Conseil a toutefois noté que l’intention de l’utilisateur n’était pas de se moquer des victimes des événements auxquels la légende fait référence, mais d’utiliser ce mème en guise de satire pour critiquer le gouvernement lui-même. Pour la minorité du Conseil, l’intention de l’utilisateur n’était pas suffisamment claire. L’utilisateur aurait pu partager le contenu pour marquer son adhésion, plutôt que son opposition, à la légende.

Dans ce cas-ci, Facebook a informé l’utilisateur que son contenu enfreignait le standard de la communauté relatif au contenu cruel et indélicat. En vertu de cette politique, Facebook interdit les « tentatives explicites de se moquer de victimes [de préjudices physiques ou émotionnels graves], y compris les contenus qui incluent « des remarques sadiques ainsi que toute représentation visuelle ou écrite de personnes réelles subissant un décès prématuré ». Sans toutefois en tenir compte, le Conseil a pris note de l’explication de Facebook selon laquelle cette politique n’est pas applicable à ce cas-ci dans la mesure où le mème ne représente pas ni ne nomme pas les victimes des événements auxquels la légende fait référence.

Dans la section « ne publiez pas » de sa politique en matière de discours haineux, Facebook interdit également les discours « ni[ant] ou déform[ant] des informations concernant l’Holocauste ». Le Conseil a pris note de l’explication de l’entreprise selon laquelle cette politique ne s’applique pas au génocide arménien ni aux autres génocides et se fonde sur « la consultation d’experts externes, la montée bien documentée de l’antisémitisme à l’échelle mondiale et l’étendue alarmante de l’ignorance en ce qui concerne l’Holocauste ».

8.1.2. Analyse de la légende « Les Arméniens étaient des terroristes qui l’ont bien mérité »

Le Conseil a pris note du fait que Facebook avait estimé que cette légende enfreignait son standard de la communauté relatif au discours haineux. La section « ne publiez pas » de ce standard de la communauté relatif au discours haineux interdit les « discours ou images déshumanisants sous forme de comparaisons, de généralisations ou de déclarations (écrites ou visuelles) sur le comportement ». Cette politique cite les discours qui dépeignent le groupe ciblé comme des « criminels ». Le Conseil a estimé que le terme « terroristes » entrait dans cette catégorie.

8.1.3 Analyse de l’association des légendes dans le mème

Le Conseil est d’avis qu’il est nécessaire d’évaluer le contenu dans son ensemble, y compris l’effet de la juxtaposition de ces légendes dans un mème bien connu. L’un des objectifs habituels du meme « lutte au quotidien », ou meme aux deux boutons, est d’opposer deux options différentes afin de mettre en évidence d’éventuelles contradictions ou d’autres connotations plutôt que de marquer un quelconque soutien aux options présentées.

Selon la majorité du Conseil, l’exception à la politique en matière de discours haineux est cruciale. Cette exception autorise les utilisateurs à « partager des contenus incluant un discours haineux de quelqu’un d’autre pour le condamner ou sensibiliser les autres à son égard ». Elle stipule également : « Nos politiques sont conçues pour permettre ce type de discours, mais nous demandons aux utilisateurs d’indiquer clairement leur intention. Nous nous réservons le droit de supprimer le contenu concerné lorsque l’intention n’est pas claire. » La majorité des membres a fait remarquer que le contenu pouvait également être couvert par l’exception de l’entreprise en matière de satire, qui n’est pas accessible par le public.

Évaluant le contenu dans son ensemble, la majorité du Conseil a jugé que l’intention de l’utilisateur était claire. Il a partagé le mème pour son caractère satirique afin de condamner le gouvernement turc et sensibiliser aux efforts fournis par ce dernier pour nier le génocide arménien tout en justifiant ces mêmes atrocités historiques. L’intention de l’utilisateur n’était pas de se moquer des victimes de ces événements, ni de prétendre que ces victimes étaient des criminels ou que les atrocités étaient justifiées. La majorité du Conseil a tenu compte de la position du gouvernement turc à l’égard du génocide subi par les Arméniens à partir de 1915 ( République de Turquie, ministère des Affaires étrangères ) ainsi que de l’histoire entre la Turquie et l’Arménie. Dans ce contexte, elle a estimé que le visage en sueur du personnage de bande dessinée remplacé par un drapeau turc ainsi que le rapport direct entre le contenu et le génocide signifiaient que l’utilisateur avait partagé le mème pour critiquer la position du gouvernement turc à ce sujet. Cette conclusion est corroborée par l’utilisation de l’emoji pensif, souvent utilisé de manière sarcastique, pour accompagner le mème. La majorité du Conseil a pris note du commentaire public « PC-10007 » (disponible dans la section 7 ci-dessus), qui suggérait que « ce mème, comme il a été décrit, ne se moque pas des victimes du génocide, mais du discours négationniste communément répandu à l’heure actuelle en Turquie qui prétend à la fois que le génocide n’a pas eu lieu et que ses victimes ont mérité ce qui leur était arrivé ». Il serait donc abusif de supprimer ce commentaire au nom de la protection des Arméniens, alors que la publication constitue une critique du gouvernement turc, en soutien aux Arméniens.

Dès lors, la majorité du Conseil a estimé que, considéré dans son ensemble, le contenu était couvert par l’exception au standard de la communauté de Facebook relatif au discours haineux. Pour la minorité du Conseil, l’intention de l’utilisateur en l’absence de contexte spécifique n’était pas suffisamment claire pour que l’on puisse conclure que le contenu a été partagé pour son caractère satirique afin de critiquer le gouvernement turc. En outre, elle a estimé que l’utilisateur n’était pas parvenu à exprimer correctement ce que l’humour supposé était censé exprimer. Puisqu’une partie du contenu tombe dangereusement dans la généralisation au sujet des Arméniens, cette minorité a jugé qu’il enfreignait le standard de la communauté relatif au discours haineux.

8.2 Respect des valeurs de Facebook

Une majorité du Conseil a estimé que la restauration du contenu était conforme aux valeurs de Facebook. Le Conseil a tenu compte de la sensibilité de la communauté arménienne à l’égard des déclarations relatives aux atrocités subies en masse par les Arméniens à partir de 1915, ainsi que le long combat mené par cette communauté afin d’obtenir justice pour ces atrocités et d’obtenir la reconnaissance du génocide. Toutefois, la majorité du Conseil n’a pu établir la preuve que le mème en question constituait un risque pour les valeurs de dignité et de sécurité qui puisse justifier la restriction de la liberté d’expression. La majorité a également fait remarquer que Facebook faisait régulièrement référence à la sécurité sans pour autant expliquer comment cette valeur pouvait s’appliquer dans ce cas-ci.

Une minorité du Conseil a jugé que, même si la satire devait être protégée, comme la majorité l’a justement noté, les légendes reprises dans le commentaire portaient préjudice à l’estime de soi des personnes dont les ancêtres ont été victimes de génocide. La minorité a également estimé que les légendes souillaient l’honneur des personnes massacrées et étaient dangereuses dans la mesure où elles peuvent accroître le risque de discrimination et de violence à l’encontre des Arméniens. Cela justifiait la restriction de la liberté d’expression en vue de protéger les valeurs de sécurité et de dignité.

8.3 Respect des responsabilités de Facebook en matière des droits de l’homme

Liberté d’expression (article 19 du PIDCP)

L’article 19, paragraphe 2 du PIDCP offre une protection étendue à l’expression d’idées « de toutes sortes », y compris tout « discours politique » sous forme écrite et non verbale, ainsi que « l’expression culturelle et artistique ». Le Comité des droits de l’homme des Nations unies a clairement indiqué que la protection de l’article 19 s’étend à l’expression pouvant être considérée comme « profondément offensante » (Observation générale n° 34, paragraphes 11 et 12).

Dans ce cas-ci, le Conseil a estimé que la bande dessinée, sous la forme d’un mème satirique, défendait une opinion sur une problématique d’ordre politique : la position du gouvernement turc à l’égard du génocide arménien. Le Conseil a fait remarquer que les « bandes dessinées qui clarifient des opinions politiques » et les « mèmes qui se moquent de personnalités politiques » pouvaient être considérées comme des formes d’expression artistique protégées par le droit international en matière des droits de l’homme (Rapporteur spécial des Nations Unies sur la liberté d’expression, rapport A/HRC/44/49/Add.2, paragraphe 5). Le Conseil a également souligné que le PIDCP accorde « une importance particulière » à l’expression sans entraves d’opinions concernant des personnalités publiques du domaine politique et des institutions publiques (Observation générale n° 34, paragraphe 38).

Le Conseil a également fait remarquer que les lois interdisant de manière générale l’expression d’opinions erronées ou d’interprétations incorrectes de faits historiques – ces interdictions étant souvent justifiées par des références aux discours incitant à la haine – sont souvent incompatibles avec l’article 19 du PIDCP, sauf si lesdites opinions ou interprétations constituent une incitation à l’hostilité, à la discrimination ou à la violence en vertu de l’article 20 du PIDCP (Observation générale n° 34, paragraphe 29 ; Rapporteur spécial des Nations Unies sur la liberté d’expression, rapport A/74/486, paragraphe 22).

Si le droit à la liberté d’expression est fondamental, il n’est pas absolu. Il peut être restreint, mais les restrictions doivent remplir des critères de légalité, d’objectif légitime ainsi que de nécessité et de proportionnalité (article 19, paragraphe 3 du PIDCP). Facebook devrait chercher à aligner ses politiques de modération de discours incitant à la haine sur ces principes (Rapporteur spécial des Nations Unies sur la liberté d’expression, rapport A/74/486, paragraphe 58(b)).

I. Légalité

Toute règle restreignant la liberté d’expression doit être claire, précise et accessible par le public (observation générale 34, paragraphe 25). Les individus doivent disposer de suffisamment d’informations pour déterminer si et comment leurs propos peuvent être limités de manière à pouvoir adapter leur comportement en conséquence. Les Standards de la communauté Facebook autorisent les utilisateurs à partager « des contenus incluant un discours haineux de quelqu’un d’autre pour le condamner ou sensibiliser les autres à son égard », mais demandent aux utilisateurs « d’indiquer clairement leur intention ». En outre, le Conseil a également fait valoir que Facebook avait supprimé de sa politique en matière de discours haineux une exception relative à l’humour à la suite d’un audit sur les droits civiques réalisé en juillet 2020. Si cette exception a été supprimée, l’entreprise a quand même conservé une exception restreinte pour la satire, dont il n’est actuellement pas question dans le standard de la communauté relatif au discours haineux.

De plus, le Conseil a fait remarquer que Facebook avait incorrectement informé l’utilisateur qu’il avait enfreint son standard de la communauté relatif au contenu cruel et indélicat alors que l’entreprise avait fondé sa décision sur sa politique relative au discours haineux. Le Conseil a estimé qu’il n’était pas suffisamment clair aux yeux des utilisateurs que le standard de la communauté relatif au contenu cruel et indélicat ne s’appliquait qu’au contenu représentant ou nommant les victimes de préjudices.

En outre, le Conseil a jugé que Facebook aiderait les utilisateurs à respecter ses règlements si l’entreprise les informait correctement des raisons pour lesquelles des mesures avaient été prises à l’encontre de leur contenu. Ceci est lié à la question de la légalité, puisque le manque d’informations pertinentes à disposition des utilisateurs dont le contenu est supprimé « crée un ensemble de normes secrètes, incompatible avec les valeurs de clarté, de spécificité et de prévisibilité, » qui peut nuire à la « capacité des individus à contester des mesures de modération ou à donner suite à des réclamations relatives à leur contenu ». (Rapporteur spécial des Nations Unies sur la liberté d’expression, rapport A/HCR/38/35, paragraphe 58). L’approche appliquée dans ce cas-ci par Facebook pour informer l’utilisateur n’a donc pas réussi le test de la légalité.

II. Objectif légitime

Toute restriction de la liberté d’expression doit également poursuivre « un objectif légitime ». Le Conseil reconnaît que la restriction poursuivait l’objectif légitime de protéger les droits d’autrui (Observation générale n° 34, paragraphe 28). Il s’agit notamment des droits à l’égalité et à la non-discrimination, y compris sur la base de l’origine ethnique et de l’origine nationale (article 2, paragraphe 1 du PIDCP ; articles 1 et 2 de la CIEDR).

Le Conseil a également réitéré les conclusions tirées dans sa décision 2021-002-FB-UA que « restreindre la liberté d’expression dans le seul but de protéger les individus contre des offenses ne constitue pas un objectif légitime (Rapporteur spécial des Nations Unies sur la liberté d’expression, rapport A/74/486, paragraphe 24), car la valeur que le droit international des droits de l’homme accorde à la liberté d’expression sans entrave est élevée (Observation générale n° 34, paragraphe 38). »

III. Nécessité et proportionnalité

Toutes les restrictions de la liberté d’expression « doivent être appropriées pour remplir leur fonction de protection, elles doivent constituer le moyen le moins perturbateur parmi ceux qui pourraient permettre d’obtenir le résultat recherché et elles doivent être proportionnées à l’intérêt à protéger » (observation générale 34, paragraphe 34).

Le Conseil a évalué si la suppression du contenu était nécessaire pour protéger les droits des Arméniens à l’égalité et à la non-discrimination. Le Conseil a noté que la liberté d’expression faisait actuellement l’objet de restrictions substantielles en Turquie, ce qui avait des effets disproportionnés sur les minorités ethniques vivant dans le pays, notamment sur les Arméniens. Dans un rapport sur sa mission en Turquie en 2016, le Rapporteur spécial des Nations Unies sur la liberté d’expression a jugé que la censure était appliquée dans « tous les secteurs fondamentaux de la vie démocratique : les médias, les établissements pédagogiques, le pouvoir judiciaire et les tribunaux, l’administration gouvernementale, la sphère politique et les vastes espaces en ligne de l’ère numérique » (Rapporteur spécial des Nations Unies sur la liberté d’expression, rapport A/HRC/35/22/Add.3, paragraphe 7). Dans un rapport de suivi publié en 2019, le Rapporteur spécial des Nations Unies a mentionné que la situation ne s’était pas améliorée (Rapporteur spécial des Nations Unies sur la liberté d’expression, rapport A/HRC/41/35/Add.2, paragraphe 26).

Les autorités turques ont spécifiquement ciblé les propos dénonçant les atrocités commises par l’Empire ottoman à l’encontre des Arméniens à partir de 1915. Dans une lettre d’allégation conjointe, un certain nombre de procédures spéciales des Nations Unies ont mentionné que l’article 301 du Code pénal turc semble constituer « un effort délibéré pour bloquer l’accès à la vérité au sujet de ce qui semble être une politique de violence dirigée à l’encontre de la communauté arménienne de Turquie » et « le droit des victimes à obtenir justice et réparation ». Le Conseil a également pris note de l’assassinat, en 2007, de Hrant Dink, un journaliste d’origine arménienne qui a publié un certain nombre d’articles sur l’identité des citoyens turcs d’origine arménienne. Dans l’un de ces articles, Dink a abordé la non-reconnaissance du génocide et la manière dont cela affectait l’identité des Arméniens. Dink avait précédemment été reconnu coupable par les tribunaux turcs de dévaloriser « l’identité turque » dans ses écrits. En 2010, la Cour européenne des droits de l’homme a conclu que le verdict de l’affaire Dink et l’incapacité des autorités turques à prendre des mesures appropriées pour protéger sa vie constituaient une violation de sa liberté d’expression (voir Cour européenne des droits de l’homme, Dink c. Turquie, paragraphe 139).

Une majorité du Conseil a conclu qu’en empiétant sur la liberté d’expression de l’utilisateur, Facebook avait commis une erreur. La suppression du commentaire ne protégerait pas les droits des Arméniens à l’égalité et à la non-discrimination. L’utilisateur ne marquait pas son adhésion aux légendes contradictoires du mème, mais les attribuait plutôt au gouvernement turc. Il a fait cela pour condamner la position intéressée et contradictoire du gouvernement et pour sensibiliser à cet égard. La majorité a estimé que les effets de la satire seraient moindres si les utilisateurs devaient indiquer explicitement leur intention, comme cela aurait été le cas avec ce mème. Le fait que le meme « lutte au quotidien », ou meme aux deux boutons, est habituellement utilisé pour son caractère humoristique – même si le sujet était sérieux dans ce cas-ci – a également contribué à la décision de la majorité.

La majorité a également fait remarquer que le contenu avait été partagé en anglais sur une page Facebook dont les abonnés sont issus de plusieurs pays. Même si le mème pourrait être mal interprété par certains utilisateurs de Facebook, la majorité a estimé qu’il n’accroît pas le risque pour les Arméniens d’être sujets à de la discrimination et de la violence, en particulier parce que le contenu est destiné à un public international. Elle a jugé qu’il était dans l’intérêt du public de porter cette problématique importante devant une audience internationale.

En outre, le Conseil a trouvé qu’il n’était pas proportionné de supprimer des informations sans raison. La suppression de contenu qui sert le public et est relatif à une question d’intérêt public nécessite des arguments particulièrement probants pour être proportionnée. À cet égard, le Conseil a émis des doutes quant à la capacité des modérateurs de contenu de Facebook à examiner ce mème et d’autres publications similaires à caractère satirique. Les sous-traitants doivent suivre des procédures adéquates et disposer du temps, des ressources et de l’assistance nécessaires pour évaluer correctement les contenus satiriques et leur contexte respectif.

Même si elle partage l’avis de la majorité quant à la nécessité de protéger la satire sur la plateforme, la minorité du conseil n’a pas jugé que le contenu en question était satirique. Selon cette dernière, il est possible que l’utilisateur adhère aux légendes présentées dans le mème et qu’il fasse ainsi preuve de discrimination à l’encontre des Arméniens. Aussi la minorité a-t-elle jugé que les critères de proportionnalité et de nécessité avaient été remplis dans ce cas-ci. Dans sa décision 2021-002-FB-UA, le Conseil a pris note de la position de Facebook selon laquelle le contenu représentant le blackface serait supprimé à moins que l’utilisateur n’indique clairement son intention de condamner cette pratique ou de sensibiliser à cet égard. La minorité du Conseil a estimé qu’à l’instar de la décision susmentionnée, l’intention de l’utilisateur devait être rendue explicite lorsque le caractère satirique du contenu n’était pas clair, comme c’est le cas dans cette affaire. La minorité a conclu que, même si la satire joue sur l’ambiguïté, aucun doute ne devrait subsister quant à la cible de l’attaque : le gouvernement turc ou le peuple arménien, dans ce cas-ci.

Droit à être informé (article 14, paragraphe 3(a) du PIDCP)

Le Conseil a estimé qu’en omettant d’informer correctement l’utilisateur de la règle spécifique qui avait été enfreinte, Facebook avait impliqué le droit d’être informé dans le cadre de l’accès à la justice (article 14, paragraphe 3(a) du PIDCP). Lorsqu’elle restreint la liberté d’expression d’un utilisateur, Facebook doit respecter le processus en vigueur et aviser correctement l’utilisateur de la raison pour laquelle cette décision a été prise, y compris en corrigeant cet avis si la raison change (Observation générale n° 32, paragraphe 31). Dans ce cas-ci, Facebook a failli à cette responsabilité.

9. Décision du Conseil de surveillance

Le Conseil de surveillance a annulé la décision de Facebook visant à supprimer le contenu et demande qu’il soit restauré.

10. Avis consultatif sur la politique

Les recommandations suivantes sont numérotées et le Conseil demande à Facebook de fournir une réponse individuelle à chacune d’entre elles telles en l’état :

Aviser clairement et précisément les utilisateurs

Pour rendre ses politiques et leur mise en application plus accessibles aux utilisateurs, Facebook devrait :

1. Prendre les mesures techniques nécessaires pour s’assurer que les avis aux utilisateurs fassent référence au standard de la communauté appliqué par l’entreprise. Si Facebook détermine que (i) le contenu n’enfreint pas le standard de la communauté initialement communiqué à l’utilisateur et que (ii) le contenu enfreint un autre standard de la communauté, l’utilisateur devrait en être informé correctement et bénéficier d’une nouvelle occasion de faire appel. L’utilisateur devrait toujours avoir accès aux bonnes informations avant de contacter le Conseil.

2. Ajouter l’exception en matière de satire, qui n’est actuellement pas accessible aux utilisateurs, à la partie accessible au public de son standard de la communauté relatif au discours haineux.

Mettre en place les outils adéquats pour gérer les problèmes liés à la satire

Pour améliorer l’exactitude avec laquelle ses politiques de modération de contenu sont appliquées et en faire profiter ses utilisateurs, Facebook devrait :

3. S’assurer que les procédures adéquates sont mises en place pour évaluer correctement les contenus satiriques et leur contexte respectif. Cela nécessite notamment de fournir aux modérateurs de contenu : (i) la possibilité de contacter les équipes d’exploitation locales de Facebook afin de recueillir les informations culturelles et le contexte pertinents ; et (ii) suffisamment de temps pour consulter les équipes d’exploitation locales et pour procéder à l’évaluation. Facebook doit s’assurer que ses politiques à l’attention des modérateurs de contenu encouragent ces derniers à se renseigner davantage ou à faire remonter le cas lorsqu’un modérateur n’est pas certain qu’un mème est satirique ou non.

Permettre aux utilisateurs de communiquer si leur contenu est couvert par les exceptions aux politiques

Afin d’améliorer l’exactitude des examens réalisés par Facebook au cours des appels, l’entreprise devrait :

4. Permettre aux utilisateurs d’indiquer dans leur appel que leur contenu est couvert par l’une des exceptions à la politique relative au discours haineux. Cela concerne notamment les exceptions en matière de contenu satirique ainsi que les cas où les utilisateurs partagent du contenu à caractère haineux afin de sensibiliser à la haine et de la condamner.

5. S’assurer que l’examen manuel est accordé en priorité aux appels fondés sur des exceptions aux politiques.

*Note de procédure :

Les décisions du Conseil de surveillance sont préparées par des panels de cinq membres et approuvées par une majorité du Conseil. Elles ne représentent pas nécessairement les opinions personnelles de tous ses membres.

Pour la décision sur ce cas, des recherches indépendantes ont été commandées au nom du Conseil. Un institut de recherche indépendant, dont le siège se trouve à l’université de Göteborg et mobilisant une équipe de plus 50 experts en science sociale sur six continents ainsi que 3200 experts nationaux du monde entier, a fourni son expertise sur le contexte socio-politico-culturel. L’entreprise Lionbridge Technologies, LLC, dont les spécialistes parlent couramment plus de 350 langues et travaillent dans 5000 villes du monde entier, a fourni son expertise linguistique.

Retour aux décisions de cas et aux avis consultatifs politiques