Renversé

Réappropriation de mots arabes

Le Conseil de surveillance a annulé la décision initiale de Meta de supprimer une publication Instagram qui, selon l’utilisateur, comprenait des images de mots arabes pouvant être utilisés pour dénigrer les hommes au « effeminate mannerisms » (comportement efféminé).

Type de décision

Standard

Politiques et sujets

Sujet
Communautés marginalisées, Égalité des sexes et des genres, LGBT
Norme communautaire
Discours incitant à la haine

Régions/Pays

Emplacement
Égypte, Liban, Maroc

Plate-forme

Plate-forme
Instagram

Le Conseil de surveillance a annulé la décision initiale de Meta de supprimer une publication Instagram qui, selon l’utilisateur, comprenait des images de mots arabes pouvant être utilisés pour dénigrer les hommes au « effeminate mannerisms » (comportement efféminé). Le contenu était couvert par une exception à la politique de Meta relative au discours haineux et n’aurait pas dû être supprimé.

À propos du cas

En novembre 2021, un compte Instagram public, qui se décrit comme un espace de discussion centré sur les récits queers dans la culture arabe, a publié une série de photos au format carrousel (une seule publication Instagram pouvant contenir jusqu’à dix images décrites par une seule légende). Écrite à la fois en arabe et en anglais, la légende explique que chaque image montre un mot différent pouvant être utilisé pour dénigrer les hommes au « effeminate mannerisms » (comportement efféminé) dans le monde arabophone, notamment les termes « zamel », « foufou » et « tante »/« tanta ». L’utilisateur a expliqué que sa publication avait pour objectif « to reclaim [the] power of such hurtful terms » (de se réapproprier [la] force de ces mots blessants).

Dans un premier temps, Meta a supprimé le contenu pour violation de sa politique en matière de discours haineux, mais l’a restauré après que l’utilisateur a fait appel de cette décision. Lorsque la publication a été signalée par un autre utilisateur, Meta l’a de nouveau supprimée pour violation de sa politique relative au discours haineux. Selon Meta, avant que le Conseil ne sélectionne le cas, le contenu a fait l’objet d’une remontée pour être une nouvelle fois examiné en interne ; cet examen a permis de déterminer que la publication ne violait en fait pas la politique de l’entreprise en matière de discours haineux. Meta a ensuite restauré le contenu sur Instagram. Meta a expliqué que ses décisions initiales de supprimer le contenu étaient fondées sur l’examen répété des images sur lesquelles étaient écrits les termes « z***l » et « t***e »/« t***a ».

Principales observations

Le Conseil estime que la suppression du contenu est une erreur évidente qui va à l’encontre de la politique de Meta en matière de discours haineux. Bien que la publication contienne des insultes, le contenu est couvert par une exception accordée au discours utilisé « de manière autoréférentielle ou de manière valorisante », ainsi que par une exception qui permet de citer le discours haineux pour « le condamner ou sensibiliser les autres à son égard ». Les déclarations de l’utilisateur, selon lesquelles il n’a pas « condone or encourage the use » (approuvé ni encouragé l’utilisation) des insultes en question et son objectif était « to reclaim [the] power of such hurtful terms » (de se réapproprier [la] force de ces termes blessants), auraient dû alerter le modérateur sur la possibilité d’appliquer une exception.

Dans les pays restreignant leur liberté d’expression, les membres de la communauté LGBTQIA+ ne disposent souvent que des médias sociaux pour s’exprimer en toute liberté. La surmodération des discours tenus par les utilisateurs issus de groupes minoritaires représente un grand danger pour leur liberté d’expression. Ainsi, le Conseil s’inquiète de voir que Meta applique de manière incohérente les exceptions à sa politique sur les discours haineux lorsque la liberté d’expression de groupes marginalisés est concernée.

Les erreurs commises dans ce cas-ci, causées par trois modérateurs qui ont déterminé que le contenu violait la politique relative au discours haineux, indiquent que Meta n’a peut-être pas fourni suffisamment d’instructions aux modérateurs évaluant les références aux termes dénigrants. Le Conseil est préoccupé par le fait que les examinateurs ne disposent peut-être pas des ressources suffisantes, en ce qui concerne leurs capacités ou leurs formations, pour prévenir le type d’erreurs commises dans ce cas-ci.

Le fait que Meta fournit actuellement aux modérateurs des instructions en anglais sur la manière d’examiner des contenus qui ne sont pas publiés dans cette langue représente un défi majeur. Pour aider les modérateurs à mieux évaluer les contenus auxquels appliquer des exceptions lorsque ces derniers comportent des insultes, le Conseil recommande à Meta de faire traduire ses instructions à usage interne dans les dialectes arabes parlés par ses modérateurs.

En outre, le Conseil estime que Meta doit chercher à obtenir de manière régulière l’avis des minorités nationales et culturelles ciblées par les insultes afin de pouvoir établir des listes nuancées d’injures et expliquer correctement à ses modérateurs comment appliquer les exceptions de sa politique en la matière. Meta doit également faire preuve de plus de transparence sur la manière dont elle crée, applique et audite les listes d’insultes propres aux différents marchés.

Décision du Conseil de surveillance

Le Conseil de surveillance a annulé la décision initiale de Meta visant à supprimer le contenu.

En guise d’avis consultatif en matière de politiques, le Conseil recommande à Meta de :

  • Faire traduire ses Standards internes d’application et ses Questions connues dans les dialectes arabes parlés par ses modérateurs de contenu. Cela pourrait réduire la surmodération dans les régions arabophones, car les modérateurs seraient mieux à même d’évaluer si une exception doit s’appliquer à une publication donnée contenant des insultes.
  • Publier une explication claire de la manière dont elle établit ses listes d’insultes en fonction des marchés. Cette explication doit inclure les procédures et les critères de sélection des insultes et des pays associés à chaque liste spécifique à un marché.
  • Publier une explication claire de la manière dont elle applique ses listes d’insultes en fonction des marchés. Cette explication doit inclure les procédures et les critères suivis pour déterminer avec précision quand et où l’interdiction d’insulter sera appliquée, si l’interdiction s’appliquera aux contenus publiés dans la région en question, aux contenus publiés en dehors de la région en question mais s’y rapportant, et/ou aux contenus liés à tous les utilisateurs de la région en question, quelle que soit l’origine géographique de la publication.
  • Publier une explication claire de la manière dont elle audite ses listes d’insultes en fonction des marchés. Cette explication doit inclure les procédures et les critères suivis pour supprimer des insultes des listes établies par Meta en fonction des marchés ou pour les y conserver.

*Les résumés de cas fournissent une présentation du cas et n’ont pas valeur de précédent.

Décision complète sur le cas

1.Résumé de la décision

Le Conseil de surveillance annule la décision initiale de Meta de supprimer la publication Instagram d’un compte consacré aux « récits queers dans la culture populaire et l’histoire arabes ». Le contenu est couvert par une exception à la politique de Meta en matière de discours haineux, puisqu’il signale l’utilisation négative d’insultes homophobes, la condamne et en discute tout en employant ces insultes dans un contexte expressément positif.

2. Description du cas et contexte

En novembre 2021, un compte Instagram public, qui s’identifie comme un espace de discussion centré sur les récits queers dans la culture arabe, a publié une série de photos au format carrousel (une seule publication Instagram pouvant contenir jusqu’à dix images décrites par une seule légende). Écrite à la fois en arabe et en anglais, la légende explique que chaque image montre un mot différent pouvant être utilisé pour dénigrer les hommes au « effeminate mannerisms » (comportement efféminé) dans le monde arabophone, notamment les termes « zamel », « foufou » et « tante »/« tanta ». L’utilisateur a indiqué dans la légende qu’il ne veut pas « condone or encourage the use of these words » (approuver ni encourager l’utilisation de ces mots), mais expliquer qu’il a été victime de l’une de ces insultes et que la publication avait pour objectif « to reclaim [the] power of such hurtful terms » (de se réapproprier [la] force de ces termes blessants). Les spécialistes externes auxquels le Conseil a fait appel ont confirmé que les termes cités dans la publication servent souvent d’insultes.

Le contenu a été consulté quelque 9000 fois et a fait l’objet d’une trentaine de commentaires et d’environ 2000 réactions. Dans les trois heures qui ont suivi la publication du contenu, quelqu’un l’a signalée pour cause de « nudité ou activités sexuelles d’adultes », et quelqu’un d’autre pour « sollicitation sexuelle ». Chaque signalement a été traité séparément par différents modérateurs humains. Aucune mesure n’a été prise par le modérateur qui a examiné le premier signalement, mais celui qui a examiné le second signalement a supprimé le contenu pour violation de la politique de Meta en matière de discours haineux. L’utilisateur a fait appel de cette décision, et un troisième modérateur a restauré le contenu sur la plateforme. Une fois le contenu restauré, une autre personne l’a signalé pour « discours haineux », et un autre modérateur a procédé à un quatrième examen, aboutissant à une nouvelle suppression. L’utilisateur a fait appel une seconde fois et, après un cinquième examen, un autre modérateur a confirmé la décision de supprimer le contenu. Après que Meta a informé l’utilisateur de cette décision, celui-ci a fait appel auprès du Conseil de surveillance. Meta a ensuite confirmé que tous les modérateurs ayant examiné le contenu parlaient l’arabe couramment.

Meta a expliqué que les décisions initiales de retirer le contenu étaient fondées sur l’examen répété des images sur lesquelles étaient écrits les termes « z***l » et « t***e »/« t***a ». En réponse à une question du Conseil, Meta a également fait remarquer qu’elle considérait qu’un autre terme utilisé dans la publication, « moukhanath », était une insulte.

Selon Meta, après que l’utilisateur a fait appel auprès du Conseil, mais avant que celui-ci ne sélectionne le cas, le contenu a fait l’objet d’une remontée indépendante pour être une nouvelle fois examiné en interne ; cet examen a permis de déterminer que la publication ne violait pas la politique en matière de discours haineux. Le contenu a donc été restauré sur la plateforme.

3. Champ d’application et autorité du Conseil de surveillance

Le Conseil jouit de l’autorité nécessaire pour examiner la décision de Meta à la suite d’un appel interjeté par l’utilisateur dont le contenu a été supprimé (article 2, section 1 de la Charte ; article 3, section 1 des Statuts).

Le Conseil peut confirmer ou annuler la décision de Meta (article 3, section 5 de la Charte), et ce, de manière contraignante pour l’entreprise (article 4 de la Charte). Meta doit également évaluer la possibilité d’appliquer la décision à un contenu identique dans un contexte parallèle (article 4 de la Charte). Les décisions du Conseil peuvent inclure des avis consultatifs sur la politique avec des recommandations non contraignantes auxquelles Meta doit répondre (article 3, section 4 ; article 4 de la Charte).

Lorsque le Conseil sélectionne des cas comme celui-ci, où Meta reconnaît qu’elle a commis une erreur, le Conseil examine la décision initiale dans le but de mieux comprendre pourquoi des erreurs se produisent et de formuler des observations ou des recommandations qui peuvent contribuer à réduire le nombre d’erreurs et à améliorer la procédure régulière.

4.Sources d’autorité

Le Conseil de surveillance a pris les sources d’autorité suivantes en considération :

I.Décisions du Conseil de surveillance :

Les décisions du Conseil les plus pertinentes dans ce cas-ci incluent les éléments suivants :

  • La « Décision relative au collier de wampum » (2021-012-FB-UA) : Dans ce cas-là, le Conseil a souligné l’importance de protéger la liberté d’expression des groupes marginalisés et a fait remarquer que Meta devait s’assurer de ne pas supprimer de contenu couvert par une exception à la politique en matière de discours haineux.
  • La « Décision relative aux insultes en Afrique du Sud » (2021-011-FB-UA) : Dans ce cas-là, le Conseil a estimé que Meta devait faire preuve de plus de transparence sur les procédures et les critères utilisés pour établir ses listes d’insultes. Le Conseil a également recommandé à Meta d’améliorer en priorité l’équité de ses procédures d’application de la politique relative au discours haineux afin que les utilisateurs puissent mieux comprendre pourquoi le contenu est supprimé.
  • La « Décision relative aux bots au Myanmar » (2021-007-FB-UA) : Dans ce cas-là, le Conseil a souligné l’importance du contexte pour évaluer si du contenu était couvert par les exceptions de la politique en matière de discours haineux.

Le Conseil se réfère également aux recommandations émises dans les décisions suivantes : La « Décision relative à l’isolement d’Öcalan » (2021-006-IG-UA), la « Décision relative au meme aux deux boutons » (2021-005-FB-UA) et la « Décision relative à la nudité et aux symptômes du cancer du sein » (2020-004-IG-UA).

II. Règles de Meta relatives au contenu :

Ce cas implique les Règles de la communauté Instagram et les Standards de la communauté Facebook. L’Espace modération de Meta indique que « Facebook et Instagram partagent des politiques de contenu. Cela signifie que si un contenu est jugé en infraction sur Facebook, il est aussi jugé en infraction sur Instagram. »

Les Règles de la communauté Instagram stipulent ce qui suit :

Nous souhaitons encourager une communauté positive et diversifiée. Nous supprimons tout contenu qui comporte des menaces ou des discours haineux… Il n’est jamais acceptable d’encourager la violence ou d’attaquer quiconque en raison de sa couleur de peau, de son origine ethnique, de sa nationalité, de son sexe, de son genre, de son identité de genre, de son orientation sexuelle, de son affiliation religieuse, de handicaps ou d’états pathologiques. Nous pouvons autoriser la publication de discours haineux lorsqu’elle vise à les remettre en cause ou à sensibiliser le public. Dans ces cas-là, nous vous demandons d’indiquer clairement vos intentions.

Les Standards de la communauté Facebook définissent les discours haineux comme « une attaque directe contre des personnes fondée sur ce que nous appelons des caractéristiques protégées : l’origine ethnique, l’origine nationale, le handicap, la religion, la caste, l’orientation sexuelle, le genre, l’identité de genre, et les maladies graves ». Meta distingue trois niveaux d’attaques. La section sur les insultes de la politique en matière de discours haineux interdit tout « contenu qui décrit ou cible négativement des personnes par des injures, où les injures sont définies comme des mots intrinsèquement offensants ou utilisés pour insulter des personnes sur la base des caractéristiques ci-dessus ». Le niveau trois interdit également les contenus ciblant les personnes par des appels à la ségrégation et à l’exclusion.

Pour justifier sa Politique, Meta fournit les explications suivantes :

Nous reconnaissons que les utilisateurs partagent parfois des contenus incluant un discours haineux de quelqu’un d’autre pour le condamner ou sensibiliser les autres à son égard. Dans d’autres cas, des discours qui pourraient enfreindre nos standards peuvent être utilisés de manière autoréférentielle ou de manière valorisante. Nos politiques sont conçues pour permettre ce type de discours, mais nous demandons aux utilisateurs d’indiquer clairement leur intention. Nous nous réservons le droit de supprimer le contenu concerné lorsque l’intention n’est pas claire.

III. Valeurs de Meta :

Les valeurs de Meta sont détaillées dans l’introduction des Standards de la communauté Facebook, et la liberté d’expression y est considérée comme « primordiale ».

L’objectif de nos Standards de la communauté a toujours été de créer un espace d’expression et de donner une voix aux personnes. […] Nous souhaitons que les personnes puissent s’exprimer ouvertement sur les sujets qui comptent pour elles, même si d’autres peuvent marquer leur désaccord ou y trouveraient à redire.

Meta limite la liberté d’expression au profit de quatre valeurs, dont deux sont en l’espèce pertinentes :

La sécurité : Nous nous engageons à faire de Facebook un endroit sûr. Les formes d’expression qui menacent les autres peuvent les intimider, les exclure ou les réduire au silence, et ne sont pas autorisées sur Facebook.

La dignité : Nous pensons que chacun mérite les mêmes droits et la même dignité. Nous attendons de chaque personne qu’elle respecte la dignité d’autrui, et qu’elle ne harcèle pas ni ne rabaisse pas les autres.

IV. Normes internationales relatives aux droits de l’homme :

Les Principes directeurs relatifs aux entreprises et aux droits de l’homme des Nations Unies (PDNU), soutenus par le Conseil des droits de l’homme des Nations Unies en 2011, établissent un cadre de travail volontaire pour les responsabilités relatives aux droits de l’homme des entreprises privées. En 2021, Meta a annoncé l’entrée en vigueur de sa Politique d’entreprise relative aux droits de l’homme, dans laquelle elle a réaffirmé son engagement à respecter les droits de l’homme conformément aux PDNU. L’analyse des responsabilités de Meta en matière des droits de l’homme effectuée par le Conseil dans le cas présent s’est appuyée sur les normes des droits de l’homme suivantes, appliquées dans la section 8 de cette décision :

  • Les droits à la liberté d’opinion et d’expression : l’article 19 du Pacte international relatif aux droits civils et politiques (PIDCP), l’observation générale n° 34 du Comité des droits de l’homme, 2011 ; la communication 488/1992 (Toonen c. Australie) du Comité des droits de l’homme, 1992 ; la résolution 32/2 du Conseil des droits de l’Homme, 2016 ; les rapports du Rapporteur spécial des Nations unies sur la liberté d’opinion et d’expression : A/HRC/38/35 (2018) et A/74/486 (2019) ; le rapport du Haut-Commissaire des Nations Unies aux droits de l’homme : A/HRC/19/41 (2011).
  • Le droit à la non-discrimination : l’article 2, paragraphe 1 et l’article 26 du PIDCP.

5. Soumissions de l’utilisateur

Dans sa déclaration au Conseil, l’utilisateur a décrit son compte comme un espace « de célébration de la culture queer arabe ». D’après lui, son compte est un « espace sûr ». Toutefois, à mesure que le nombre de ses abonnés augmente, il est de plus en plus la cible de trolls homophobes qui écrivent des commentaires abusifs et signalent les publications en masse.

L’utilisateur a expliqué que son intention, en publiant ce contenu, était de faire honneur aux « effeminate men and boys » (hommes et garçons efféminés) dans la société arabe, qui sont souvent dénigrés par les propos désobligeants mis en évidence dans la publication. Il a poursuivi en disant qu’il s’efforçait de se réapproprier ces mots dénigrants utilisés à leur encontre pour y faire résistance et s’en émanciper. Il affirme également avoir été clair, dans le contenu de la publication, qu’il n’approuvait pas ni n’encourageait pas l’utilisation des mots repris sur les images en tant qu’insultes. En outre, l’utilisateur a indiqué qu’il estimait que son contenu était conforme aux règles de Meta en matière de contenu, qui permettent spécifiquement l’utilisation de termes autrement interdits lorsqu’ils sont utilisés de manière autoréférentielle ou de manière valorisante.

6. Soumissions de Meta

Dans sa justification, Meta a expliqué que le contenu avait été initialement supprimé en vertu de sa politique relative au discours haineux, puisque le contenu contient un mot qui figure sur la liste d’insultes interdites par Meta, car il s’agit d’un « terme dénigrant pour les personnes homosexuelles ». Meta a finalement annulé sa décision initiale et restauré le contenu puisque l’utilisation du mot en question était couverte par les exceptions accordées par Meta aux « contenus condamnant une insulte ou un discours haineux, traitant de l’utilisation d’injures (notamment le signalement de cas où elles ont été utilisées) ou débattant de leur emploi acceptable ou non ». Meta a reconnu que le contexte indiquait que l’utilisateur attirait l’attention sur la nature blessante du mot et qu’il n’enfreignait donc pas la politique de la plateforme.

En réponse aux questions posées par le Conseil sur la pertinence du contexte lorsque Meta applique des exceptions à sa politique en matière de discours haineux, l’entreprise a déclaré que « les discours haineux et les insultes sont autorisés » lorsqu’ils sont tournés en ridicule, condamnés, discutés, signalés ou utilisés de manière autoréférentielle et qu’il incombe à l’utilisateur d’expliquer clairement son intention lorsqu’il mentionne une insulte.

En réponse à une autre question du Conseil, Meta a déclaré qu’elle « n’a pas émis d’hypothèses » sur les raisons pour lesquelles le contenu avait été supprimé à tort, étant donné que les modérateurs de contenu ne consignent pas le motif de leurs décisions.

Au total, le Conseil a posé 17 questions à Meta : l’entreprise a répondu de manière exhaustive à 16 d’entre elles et n’a répondu que partiellement à une question.

7. Commentaires publics

Le Conseil a reçu trois commentaires publics en rapport avec ce cas. L’un des commentaires a été publié aux États-Unis et au Canada, un autre au Moyen-Orient et en Afrique du Nord, et le dernier en Amérique latine et dans les Caraïbes.

Les soumissions abordaient les thèmes suivants : la sécurité de la communauté LGBT sur les plateformes principales de médias sociaux, la prise en compte du contexte local lors de l’application de la politique relative au discours haineux et l’évolution de la signification des mots arabes.

Pour lire les commentaires publics soumis pour ce cas, veuillez cliquer ici.

Par ailleurs, dans le cadre de ses efforts continus pour impliquer des parties prenantes, les membres du Conseil ont organisé des discussions informatives et enrichissantes avec des organisations qui travaillent en faveur de la liberté d’expression et des droits de la communauté LGBTQIA+, y compris des locuteurs arabes. Ces discussions ont mis en évidence leurs préoccupations, notamment : la difficulté de déclarer qu’une insulte a été définitivement réappropriée et qu’elle est désormais universellement inoffensive alors que le terme en question peut encore être perçu comme une insulte par certaines audiences, quelle que soit l’intention de l’orateur ; les problèmes causés par le fait que les groupes de défense de la communauté LGBTQIA+ et les communautés non anglophones n’ont que peu contribué aux politiques de contenu ; et les risques engendrés par une modération de contenu qui ne tient pas suffisamment compte du contexte.

8.Analyse du Conseil de surveillance

Le Conseil a examiné la question de la restauration de ce contenu sous trois angles : Les règles relatives au contenu de Meta, les valeurs de l’entreprise et ses responsabilités en matière de droits de l’homme.

Le Conseil a sélectionné ce cas-ci parce que la surmodération des discours tenus par les utilisateurs issus de groupes minoritaires persécutés représente un danger majeur et généralisé pour leur liberté d’expression. Les espaces de discussion en ligne sont particulièrement importants pour les groupes qui font l’objet de persécutions, et les médias sociaux doivent prêter une attention toute particulière pour protéger les droits de ces groupes. Ce cas-ci fait également état des difficultés rencontrées par Meta lorsqu’elle cherche à protéger les minorités des discours haineux tout en essayant de créer un espace où ces minorités peuvent s’exprimer pleinement, y compris en se réappropriant des insultes blessantes.

8.1 Respect des règles relatives au contenu de Meta

I.Règles relatives au contenu

Le Conseil estime que, même s’il contient des insultes, le contenu n’est pas haineux, car il est couvert par une exception à la politique en matière de discours haineux pour les mots « utilisés de manière autoréférentielle ou de manière valorisante » ainsi que par l’exception en cas citation de discours haineux « pour le condamner ou sensibiliser les autres à son égard ».

Dans ses décisions relatives au « collier de wampum » et au « meme aux deux boutons », le Conseil a fait remarquer qu’un utilisateur ne devait pas nécessairement déclarer son intention de manière explicite dans sa publication pour répondre aux critères de l’exception à la politique en matière de discours haineux. Il suffit que l’utilisateur explique clairement, dans le contexte de la publication, qu’il utilise des termes haineux d’une manière autorisée par la politique.

Néanmoins, dans ce cas-ci, l’utilisateur a indiqué dans son contenu qu’il ne veut pas « condone or encourage » (approuver ni encourager) l’utilisation des insultes en question à des fins blessantes, mais que la publication était au contraire « an attempt to resist and challenge the dominant narrative » (une tentative de résister au discours dominant et de le remettre en question) et « to reclaim the power of such hurtful terms » (pour se réapproprier la force de ces termes blessants). Bien que les déclarations d’intention claires ne soient pas toujours nécessaires ou suffisantes pour légitimer l’utilisation ou la citation de discours haineux, elles doivent attirer l’attention du modérateur sur le fait qu’une exception peut éventuellement s’appliquer. Dans ce cas-ci, le Conseil estime que la déclaration d’intention couplée au contexte indique clairement que le contenu est couvert par l’exception, sans ambiguïté possible.

Malgré cela, Meta a initialement supprimé le contenu après que trois modérateurs ont déterminé qu’il enfreignait la politique relative au discours haineux. Bien que toute une série de raisons peut expliquer le fait que de multiples modérateurs ne parviennent pas à classifier le contenu correctement, Meta n’a pas été en mesure de fournir des explications claires sur l’origine des erreurs puisque l’entreprise n’exige pas des modérateurs qu’ils consignent le raisonnement qui les a conduits à prendre leurs décisions. Comme le fait remarquer la décision relative au « collier de wampum », les types d’erreurs et les personnes ou communautés qui en subissent les conséquences reflètent les choix de conception liés aux systèmes de modération de contenu sur la plateforme qui risquent de nuire aux droits à la liberté d’expression des membres de groupes persécutés. Lorsque Meta constate des cas de surmodération récurrents liés à un groupe persécuté ou marginalisé, comme c’est le cas ici, il serait approprié de chercher à comprendre le raisonnement qui a conduit aux décisions de modération et d’envisager la modification des règles en la matière, ou une amélioration des formations ou de la supervision liées auxdites règles, dans la mesure nécessaire pour prévenir les cas de surmodération qui nuisent aux membres des groupes dont les droits à la liberté d’expression sont particulièrement mis à mal.

II.Mise en application

En réponse aux questions du Conseil, Meta a expliqué que le contenu avait uniquement été restauré sur la plateforme parce qu’il avait fait l’objet d’une remontée par un employé de Meta, qui souhaitait le soumettre à un examen plus approfondi. « Faire l’objet d’une remontée pour examen » signifie que la publication est envoyée à une équipe interne chez Meta plutôt que d’être soumise à un examen à grande échelle, souvent externalisé. Dans ce cas-ci, il a fallu qu’un employé de Meta prenne connaissance de la suppression du contenu et qu’il soumette un formulaire web en interne pour attirer l’attention sur le problème. En plus de se fier à la chance, de telles procédures ne permettent d’identifier des erreurs que pour les contenus auxquels le personnel de Meta est lui-même exposé. En conséquence, les contenus qui ne sont pas rédigés en anglais, qui ne sont pas publiés sur des comptes suivis par de nombreux abonnés aux États-Unis ou qui sont créés par et pour des groupes peu représentés au sein de Meta sont beaucoup moins susceptibles d’être remarqués, signalés et examinés plus en détail.

Dans le cadre des activités de sensibilisation du Conseil, les parties prenantes lui ont expliqué que l’application opportune des exceptions à la politique relative au discours haineux nécessitait un degré d’expertise en la matière ainsi qu’une connaissance de la situation sur le terrain que Meta ne possède peut-être pas ou qu’elle n’est pas toujours en mesure de mettre à profit. À moins que Meta ne cherche régulièrement à obtenir les opinions des groupes minoritaires locaux ciblés par des insultes, le Conseil craint que l’entreprise ne soit pas en mesure d’établir des listes d’insultes nuancées et de donner des instructions correctes à ses modérateurs sur la manière dont les exceptions à la politique relative aux insultes doivent être appliquées.

8.2 Respect des valeurs de Meta

Le Conseil estime que la décision initiale visant à supprimer le contenu était incompatible avec les valeurs de « liberté d’expression » et de « dignité » de Meta et qu’elle ne servait pas la valeur de « sécurité ». Même s’il est cohérent, du point de vue des valeurs de Meta, d’empêcher l’utilisation d’insultes maltraitant les utilisateurs de ses plateformes, le Conseil s’inquiète de voir que Meta n’applique pas de manière cohérente les exceptions à ses politiques en faveur de la liberté d’expression des groupes marginalisés.

Dans ce cas-ci, la valeur qui cherche à promouvoir la liberté d’expression des membres d’un groupe marginalisé est de la plus haute importance. Meta a raison d’essayer de limiter l’utilisation d’insultes dénigrantes ou intimidantes, ainsi que d’autoriser les personnes qui cherchent de bonne foi à priver ces termes de leur effet négatif en se les réappropriant.

Le Conseil reconnaît que la circulation des insultes affecte la dignité. En particulier lorsque les insultes sont utilisées pour blesser ou en l’absence d’indices contextuels signifiant qu’elles ne sont pas utilisées pour blesser, les insultes peuvent intimider, contrarier ou offenser les utilisateurs d’une façon qui restreint leur liberté d’expression en ligne. Lorsque des indices contextuels clairs indiquent que l’insulte est mentionnée pour être dénoncée, à des fins de sensibilisation, ou de manière autoréférentielle ou valorisante, la valeur de dignité ne nécessite pas que le mot soit supprimé de la plateforme. Au contraire, la surmodération de contenu qui ignore les exceptions affecte particulièrement les minorités et les groupes marginalisés. Comme le recommande le Conseil dans sa décision relative au « meme aux deux boutons », Meta doit s’assurer que ses modérateurs disposent des ressources nécessaires et soient encadrés en suffisance pour qu’ils puissent évaluer correctement les éléments de contexte pertinents. Il est important que les modérateurs soient à même de distinguer les références autorisées aux insultes et les utilisations non autorisées d’insultes afin de protéger la dignité et la liberté d’expression des utilisateurs, en particulier celles des communautés marginalisées.

Comme la dignité et la sécurité des communautés marginalisées sont plus à risque sur les médias sociaux, ces plateformes ont davantage de responsabilités pour les protéger. Dans sa décision relativeau « collier de wampum », le Conseil a déjà recommandé à Meta d’évaluer l’exactitude avec laquelle les exceptions à la politique en matière de discours haineux sont appliquées. Cette exactitude peut être améliorée par la formation des modérateurs afin qu’ils puissent identifier le contenu impliquant des communautés discriminées et recevoir des instructions pour évaluer soigneusement si les exceptions à la politique relative au discours haineux s’appliquent. Une évaluation du contenu, ainsi que des indices contextuels correspondants, doit être le facteur qui déclenche l’application de ces exceptions.

En ce qui concerne la sécurité, le Conseil fait également remarquer l’importance particulière des espaces en ligne sûrs et d’une modération de contenu attentive aux communautés menacées et marginalisées. Les membres de la communauté LGBTQIA+ arabophones, en particulier dans la région Moyen-Orient et Afrique du Nord, sont exposés à un certain danger lorsqu’ils s’expriment ouvertement en ligne. Meta doit trouver un équilibre entre la nécessité de fournir des espaces bénéfiques pour la liberté d’expression et celle de s’assurer de ne pas modérer à outrance et de réduire au silence les personnes qui font déjà l’objet de censure et d’oppression. Bien que le Conseil reconnaisse la complexité de la modération en la matière, en particulier à grande échelle, il est vital que les plateformes investissent les ressources requises pour modérer correctement le contenu.

8.3 Respect des responsabilités de Meta en matière des droits de l’homme

Le Conseil conclut que la décision initiale de Meta de supprimer le contenu n’était pas conforme aux responsabilités en matière des droits de l’homme qui lui incombe en tant qu’entreprise. Meta s’est engagée à respecter les droits de l’homme en vertu des Principes directeurs des Nations unies relatifs aux entreprises et aux droits de l’homme (PDNU). La Politique d’entreprise relative aux droits de l’homme de Meta indique que ceci inclut le Pacte international relatif aux droits civils et politiques (PIDCP).

1. Liberté d’expression (article 19 du PIDCP)

L’article 19 du PIDCP accorde une protection étendue de la liberté d’expression, y compris aux discussions consacrées aux droits de l’homme et à la liberté d’expression qui peuvent être considérées comme « profondément offensante » (Observation générale 34, paragraphe 11). Toute personne a droit à la liberté d’expression sans discrimination sur la base du « sexe » ou de « toute autre situation » (article 2, paragraphe 1 du PIDCP). Ceci inclut l’orientation sexuelle et l’identité de genre ( Toonen c. Australie (1992) ; A/HRC/19/41, paragraphe 7).

Cette publication est liée à d’importants enjeux sociaux en rapport avec la discrimination des personnes LGBTQIA+. Le Haut-Commissaire des Nations Unies aux droits de l’homme a fait part de son inquiétude quant aux restrictions de la liberté d’expression découlant des limitations discriminatoires de la défense des droits de la communauté LGBTQIA+ (A/HRC/19/41, paragraphe 65).

En vertu de l’article 19, lorsqu’un État impose des limitations à la liberté d’expression, celles-ci doivent remplir des critères de légalité, d’objectif légitime ainsi que de nécessité et de proportionnalité (article 19, paragraphe 3, PIDCP). Sur la base du cadre des PDNU, le Rapporteur spécial des Nations Unies sur la liberté d’opinion et d’expression a appelé les entreprises de réseaux sociaux à veiller à ce que leurs règles en matière de contenu se fondent sur les critères de l’article 19, paragraphe 3 du PIDC ( A/HRC/38/35, paragraphes 45 et 70).

I. Légalité (clarté et accessibilité des règles)

Le critère de légalité stipule que toute limitation de la liberté d’expression doit être accessible et suffisamment claire pour fournir des indications sur ce qui est autorisé et ce qui ne l’est pas.

Dans le cas « Nudité et symptômes du cancer du sein » (2020-004-IG-UA, Recommandation n° 9), le cas « Isolement d’Öcalan » (2021-006-IG-UA, Recommandation n° 10) et l’Avis consultatif en matière de politiques à propos du partage d’informations privées sur le lieu de résidence (Recommandation n° 9), le Conseil a recommandé à Meta de préciser aux utilisateurs d’Instagram que les Standards de la communauté Facebook s’appliquent à Instagram aussi bien qu’à Facebook, à quelques exceptions près. Dans l’Avis consultatif en matière de politiques, le Conseil a recommandé à Meta de faire cela dans un délai de 90 jours. Le Conseil prend note de la réponse de Meta à l’Avis consultatif en matière de politiques, dans laquelle Meta indique que, même si cette recommandation était mise en place dans son intégralité, Meta travaille encore à l’élaboration de Règles de la communauté Instagram plus complètes et claires au sujet de leur relation avec les Standards de la communauté Facebook, et qu’elle ne peut pas respecter le délai de 90 jours. Ayant renouvelé cette recommandation à plusieurs reprises, le Conseil estime que Meta a eu suffisamment de temps pour préparer ces modifications. La relation ambiguë qui existe entre les Règles de la communauté Instagram et les Standards de la communauté Facebook continue d’être source de confusion pour les utilisateurs des plateformes de Meta. À l’heure actuelle, même si les Règles de la communauté Instagram redirigent vers le standard de la communauté Facebook relatif au discours haineux, il n’est pas indiqué clairement que la totalité de ce standard, y compris l’interdiction et les exceptions applicables aux insultes, s’applique à Instagram. L’une des priorités absolues du Conseil reste la mise à jour complète, régulière et opportune des Règles de la communauté Instagram.

En ce qui concerne l’élaboration de la liste d’insultes, le Conseil renouvelle l’argument avancé dans le cas « Insultes en Afrique du Sud » ( 2021-011-FB-UA), selon lequel Meta doit être plus transparente à propos des procédures et des critères appliqués pour dresser cette liste. Dans ce cas-là, Meta a expliqué qu’elle établissait des listes d’insultes pour chaque marché sur la base « de l’analyse et de l’approbation fournies par les partenaires pertinents en interne, comme les équipes en charge des processus, des marchés et de l’élaboration des politiques de contenu ». Meta a également déclaré que ses spécialistes en marchés auditaient la liste d’insultes tous les ans, chaque terme étant évalué d’un point de vue quantitatif et qualitatif, afin de différencier « les mots qui, même utilisés seuls, sont intrinsèquement offensants des mots qui ne le sont pas ». Le Conseil ne sait pas exactement quand cet examen annuel a lieu, mais Meta a audité le mot « z***l » après que le Conseil a sélectionné ce cas-ci. À la suite de cet audit, ce mot a été retiré de la liste d’insultes « Marché arabe », mais figure encore sur la liste d’insultes « Marché maghrébin ». Le Conseil ignore si cet audit a été effectué dans le cadre de procédures habituelles ou si un examen ad hoc a eu lieu en réponse à la sélection de ce cas-ci par le Conseil. De manière plus générale, le Conseil ne sait pas en quoi consistent les évaluations quantitative et qualitative qui font partie des examens annuels.

Les utilisateurs n’ont aucune information sur les procédures et les critères suivis lors de l’élaboration de la liste d’insultes et de la délimitation des marchés, y compris en ce qui concerne leurs aspects géographiques et linguistiques. Sans ces informations, il est possible que les utilisateurs aient du mal à évaluer quels mots peuvent être considérés comme des insultes sur la seule base de la définition fournie dans la politique relative au discours haineux, qui s’appuie sur des concepts subjectifs tels que le caractère offensant et blessant inhérent des mots ( A/74/486, paragraphe 46 ; voir également A/HRC/38/35, paragraphe 26).

À propos de la manière dont la liste d’insultes est élaborée, Meta a déclaré dans le cas « Insultes en Afrique du Sud » ( 2021-011-FB-UA) que « la liste interdit les insultes au niveau mondial, mais les insultes sont déterminées en fonction des marchés ». L’entreprise a expliqué que « [si] un terme figure sur une liste d’insultes spécifique à un marché, la politique sur les discours haineux interdit son utilisation dans ce marché ». L’explication de Meta est source de confusion, car elle ne précise pas si ses pratiques de modération, qui peuvent s’appliquer au monde entier, signifient que les insultes spécifiques à un marché sont également interdites à l’échelle mondiale. Meta a expliqué qu’elle définissait un marché comme « l’association de pays et de langue(s)/dialecte(s) » et que « la division entre… le[s] marché[s] était principalement basée sur l’association de la langue/du dialecte et du pays de publication du contenu ». Les modérateurs de contenu de Meta sont « associés à leur marché sur la base de leurs compétences linguistiques et culturelles ainsi que de leur connaissance du marché ». Selon Meta, ce contenu concernait la liste d’insultes des marchés arabe et maghrébin. La publication a été redirigée vers ces marchés « compte tenu d’un ensemble de signaux tels que la localisation, la langue et le dialecte détectés dans le contenu, le type de contenu ainsi que le type de signalement ». Le Conseil ne dispose pas des informations suffisantes pour comprendre comment les multiples signaux permettent de déterminer les marchés concernés par une publication donnée, et si une publication contenant un mot qualifié d’insulte sur un marché donné serait supprimée uniquement si le contenu est lié audit marché ou si elle serait supprimée dans le monde entier. Le standard de la communauté lui-même n’explique pas ce processus.

Meta doit fournir des explications exhaustives sur la manière dont les insultes sont régulées sur la plateforme. La politique actuelle comporte plusieurs zones d’ombre, y compris la question de savoir si les insultes répréhensibles dans des régions données sont supprimées de la plateforme uniquement lorsqu’elles sont publiées dans lesdites régions ou lorsqu’elles sont consultées dans lesdites régions, ou indépendamment du fait qu’elles sont publiées ou consultées. Meta doit également expliquer comment elle gère les mots qui sont considérés comme des insultes dans certains cas de figure, mais qui, dans d’autres cas de figure, sont également porteurs d’un tout autre sens qui n’enfreint aucune des politiques de Meta.

La structure du standard de la communauté relatif au discours haineux peut également prêter à confusion. Bien que l’interdiction des insultes soit mentionnée sous l’en-tête des discours haineux de niveau trois, le Conseil estime qu’il est difficile de savoir si l’interdiction concerne le niveau trois, puisque les insultes ne ciblent pas nécessairement les gens à des fins de ségrégation ou d’exclusion, ce qui est le sujet principal dans le reste de ce niveau.

II.Objectif légitime

Toute limitation de la liberté d’expression doit poursuivre l’un des objectifs légitimes énoncés dans le PIDCP, lesquels incluent les « droits d’autrui ». La politique problématique dans ce cas-ci cherche, de manière tout à fait légitime, à protéger les droits d’autrui ( Observation générale n° 34, paragraphe 28) à l’égalité et à la protection contre la violence et la discrimination basées sur l’orientation sexuelle et l’identité de genre (article 2, paragraphe 1 et article 26 du PIDCP ; Comité des droits de l’homme des Nations Unies, Toonen c. Australie (1992) ; la résolution 32/2 du Conseil des droits de l’homme des Nations Unies sur la protection contre la violence et la discrimination basées sur l’orientation sexuelle et l’identité de genre).

III. Nécessité et proportionnalité

Le principe de nécessité et de proportionnalité stipule que les restrictions de la liberté d’expression soient « appropriées pour remplir leur fonction de protection, elles doivent constituer le moyen le moins perturbateur parmi ceux qui pourraient permettre d’obtenir le résultat recherché ; [et] elles doivent être proportionnées à l’intérêt à protéger » ( Observation générale n° 34, paragraphe 34).

Il n’était pas nécessaire de supprimer le contenu dans ce cas-ci, puisque sa suppression était une erreur manifeste non conforme à l’exception accordée par Meta à ses politiques en matière de discours haineux. La suppression ne constituait pas non plus le moyen le moins perturbateur pour obtenir le résultat recherché puisque, lors de chaque examen à l’origine de la suppression, le carrousel entier de 10 images a été supprimé pour violation présumée de la politique alors que l’insulte problématique ne figurait que sur une seule de ces images. Même si une image du carrousel avait inclus des insultes inadmissibles et non couvertes par une exception, la suppression de la totalité du carrousel n’aurait pas été proportionnelle.

Meta a expliqué au Conseil qu’elle « considère que la publication est en infraction lorsque n’importe laquelle de ses images viole les Standards de la communauté » et que « Meta n’a pas la possibilité de supprimer une seule image d’une publication qui en contient plusieurs sur Instagram, comme elle peut le faire sur Facebook ». Meta a déclaré qu’une mise à jour de l’outil de modération du contenu avait été proposée en vue de permettre aux examinateurs de supprimer uniquement l’image en infraction dans un carrousel, mais que la mise à jour n’avait pas été traitée en priorité. Le Conseil estime que cette explication n’est pas très claire et que le fait de ne pas accorder la priorité à cette mise à jour risque d’entraîner une surmodération systématique du contenu lorsque des carrousels entiers sont supprimés alors qu’une partie de ceux-ci seulement est jugée être en infraction. Le Conseil fait également remarquer que, lorsqu’un utilisateur publie la même série d’images sur Facebook et Instagram, la différence de traitement sur les deux plateformes pourrait engendrer des résultats incohérents qui ne sont justifiés par aucune différence significative de politique : si l’une des images est en infraction, la totalité du carrousel sera supprimée sur Instagram, mais pas sur Facebook.

2.Non-discrimination

Étant donné l’importance, pour la communauté LGBTQIA+, de se réapproprier des termes dénigrants pour lutter contre la discrimination, le Conseil s’attend à ce que Meta soit particulièrement sensible au risque d’une suppression injustifiée du contenu en l’espèce et de contenus similaires sur Facebook et Instagram. Comme le faisait remarquer le Conseil dans sa décision relative au « collier de wampum » ( 2021-012-FB-UA) en ce qui concerne la liberté d’expression artistique des personnes indigènes, il n’est pas suffisant d’évaluer les performances globales de Meta en matière de modération dans le cadre de la politique sur le discours haineux de Facebook, leurs effets sur des groupes marginalisés donnés doivent être pris en considération. En vertu des PDNU, « les entreprises devraient accorder une attention particulière aux incidences spécifiques sur les droits de l’homme des individus appartenant à des groupes ou des populations qui peuvent être plus exposés que d’autres à la vulnérabilité ou à la marginalisation » (PDNU, principes 18 et 20). Dans les pays restreignant leur liberté d’expression, les membres de la communauté LGBTQIA+ ne disposent souvent que des médias sociaux pour s’exprimer en toute liberté. C’est particulièrement vrai sur Instagram, où les Règles de la communauté permettent aux utilisateurs de ne pas utiliser leur véritable nom. Le Conseil fait remarquer que les utilisateurs de Facebook ne jouissent pas des mêmes libertés en vertu des Standards de la communauté. Pour Meta, il serait important de montrer que l’entreprise a fait preuve d’une diligence raisonnable en matière de droits de l’homme afin d’assurer que ses systèmes fonctionnent équitablement et qu’ils ne contribuent pas à la discrimination (PDNU, principe 17). Le Conseil fait remarquer que Meta évalue régulièrement la précision de ses systèmes de modération de contenu dans le traitement des discours haineux (décision relative au « collier de wampum »). Néanmoins, ces évaluations ne sont pas divisées en évaluations de la précision spécifique avec laquelle Meta est à même de différencier les discours haineux inacceptables des contenus autorisés qui tentent de se réapproprier des termes dénigrants.

Les erreurs commises en l’espèce indiquent que les instructions données par Meta aux modérateurs pour évaluer les références aux termes dénigrants sont peut-être insuffisantes. Le Conseil craint que les examinateurs ne disposent peut-être pas des ressources suffisantes, en ce qui concerne leurs capacités ou leur formation, pour éviter le type d’erreur constaté en l’espèce, en particulier en ce qui concerne les contenus autorisés en vertu des exceptions aux politiques. Dans ce cas-ci, Meta a informé le Conseil que les Questions connues et les Standards internes d’application sont disponibles en anglais uniquement « afin d’assurer l’application standardisée au niveau mondiale » de ses politiques et que « tous les modérateurs de contenu parlent couramment l’anglais ». Dans sa décision relative aux « bots au Myanmar » ( 2021-007-FB-UA, le Conseil a recommandé à Meta de s’assurer que ses Standards internes d’application sont disponibles dans la langue des contenus examinés par les modérateurs. Meta n’a pas donné suite à cette recommandation, argumentant une nouvelle fois dans sa réponse que ses modérateurs de contenu parlent couramment l’anglais. Le Conseil constate que le fait de fournir aux modérateurs des instructions en anglais sur la manière de modérer des contenus qui ne sont pas publiés en anglais représente un défi majeur. Les Standards internes d’application et les Questions connues sont souvent fondés sur des structures linguistiques propres à l’anglais américain qui ne s’appliquent pas forcément aux autres langues telles que l’arabe.

Dans sa décision relative au « collier de wampum » ( 2021-012-FB-UA, Recommandation n° 3), le Conseil a recommandé à Meta d’effectuer des évaluations de précision centrées sur les exceptions à la politique en matière de discours haineux qui couvrent les discussions sur les violations des droits de l’homme (par exemple, condamnation, sensibilisation, utilisation autoréférentielle ou valorisante) ; Meta devrait également partager les résultats de ces évaluations, y compris la manière dont lesdits résultats influenceront les améliorations à apporter aux opérations de modération de contenu et d’élaboration des politiques. Le Conseil a émis cette recommandation, car il comprend que les coûts de la surmodération de la liberté d’expression relative aux violations des droits de l’homme sont particulièrement élevés. Le Conseil prend note des inquiétudes de Meta quant à la faisabilité de ces évaluations, notamment en raison (a) du manque de catégories spécifiques, dans ses politiques, pour les exceptions dans les domaines tels que les violations des droits de l’homme et (b) du manque d’échantillons de contenu facilement identifiables, couverts par les exceptions à la politique sur le discours haineux. Le Conseil estime que ces défis peuvent être surmontés, étant donné que Meta pourrait se concentrer sur l’analyse des exceptions existantes en matière de discours haineux et accorder la priorité à l’identification d’échantillons de contenu. Le Conseil encourage Meta à s’engager à appliquer la recommandation formulée dans le cas du « collier de wampum » ( 2021-012-FB-UA) et souhaite que Meta fasse les mises à jour nécessaires lors de son prochain rapport trimestriel.

9. Décision du Conseil de surveillance

Le Conseil de surveillance a annulé la décision initiale de Meta visant à supprimer le contenu.

10. Avis consultatif sur la politique

Mise en application

1. Meta doit faire traduire les Standards internes d’application et les Questions connues en arabe standard moderne. Cela pourrait réduire la surmodération dans les régions arabophones, car les modérateurs seraient mieux à même d’évaluer si une exception doit s’appliquer à une publication donnée contenant des insultes. Le Conseil fait remarquer que Meta n’a pas donné suite à la recommandation formulée dans le cas relatif aux « bots au Myanmar » (2021-007-FB-UA) et que Meta devrait s’assurer que ses Standards internes d’application sont disponibles dans la langue des contenus examinés par les modérateurs. Le Conseil considérera que cette recommandation a été appliquée lorsque Meta l’informera que la traduction en arabe standard moderne est terminée.

Transparence

2. Meta doit publier une explication claire de la manière dont elle établit ses listes d’insultes propres aux marchés. Cette explication doit inclure les procédures et les critères de sélection des insultes et des pays associés à chaque liste spécifique à un marché. Le Conseil considérera que cette recommandation a été appliquée lorsque les informations auront été publiées dans l’Espace modération.

3. Meta doit publier une explication claire de la manière dont elle applique ses listes d’insultes propres aux marchés. Cette explication doit inclure les procédures et les critères suivis pour déterminer avec précision quand et où l’interdiction d’insulter sera appliquée, si l’interdiction s’appliquera aux contenus publiés dans la région en question, aux contenus publiés en dehors de la région en question mais s’y rapportant, et/ou aux contenus liés à tous les utilisateurs de la région en question, quelle que soit l’origine géographique de la publication. Le Conseil considérera que cette recommandation a été appliquée lorsque les informations auront été publiées dans l’Espace modération de Meta.

4. Meta doit publier une explication claire de la manière dont elle audite ses listes d’insultes propres aux marchés. Cette explication doit inclure les procédures et les critères suivis pour supprimer des insultes des listes spécifiques aux marchés de Meta ou pour les y conserver. Le Conseil considérera que cette recommandation a été appliquée lorsque les informations auront été publiées dans l’Espace modération de Meta.

* Note de procédure :

Les décisions du Conseil de surveillance sont préparées par des panels de cinq membres et approuvées par une majorité du Conseil. Elles ne représentent pas nécessairement les opinions personnelles de tous ses membres.

Pour la décision sur ce cas, des recherches indépendantes ont été commandées au nom du Conseil. Un institut de recherche indépendant, dont le siège se trouve à l’université de Göteborg et mobilisant une équipe de plus 50 spécialistes en sciences sociales sur six continents ainsi que 3 200 spécialistes nationaux du monde entier. Duco Advisers, une société de conseil qui se concentre sur les recoupements entre la géopolitique, la confiance, la sécurité et la technologie, a également prêté assistance au Conseil. L’entreprise Lionbridge Technologies, LLC, dont les spécialistes parlent couramment plus de 350 langues et travaillent dans 5000 villes du monde entier, a fourni son expertise linguistique.

Retour aux décisions de cas et aux avis consultatifs politiques