Renversé

Commentaire sur la politique kényane impliquant une insulte interdite

Le Conseil de surveillance a annulé la décision initiale de Meta de supprimer un commentaire sur la politique kényane qui comprenait le terme « tugeges ».

Type de décision

Standard

Politiques et sujets

Sujet
Élections, Liberté d’expression, Politique
Norme communautaire
Discours incitant à la haine

Régions/Pays

Emplacement
Kenya

Plate-forme

Plate-forme
Facebook

Résumé

Le Conseil de surveillance a annulé la décision initiale de Meta de supprimer un commentaire sur la politique kényane qui comprenait le terme « tugeges ». Bien que le commentaire décrive de manière négative un certain groupe d’électeurs kényans, il ne crée pas en soi d’atmosphère d’exclusion et d’intimidation discriminatoires. Lorsque ce contenu a été publié, le terme n’aurait pas dû être considéré comme une insulte. Ce cas montre comment Meta a supprimé un discours politique et nui au débat public en se montrant trop sévère.

À propos du cas

L’ancien premier ministre du Kenya Raila Odinga était candidat à la présidence de l’Union africaine en février 2025. Avant l’élection, un utilisateur Facebook a publié une image de Rigathi Gachagua, ancien vice-président du Kenya. Le texte sur l’image décrit le soutien apporté par M. Gachagua à la nomination de M. Odinga. Dans la légende, l’utilisateur indique que M. Gachagua (issu de l’ethnie kikuyu) n’a choisi de soutenir M. Odinga (originaire de l’ethnie luo) que pour accroître sa popularité auprès des Luos.

Un autre utilisateur a commenté la publication initiale pour s’en moquer, affirmant qu’elle s’adressait aux « tugeges » (c’est-à-dire « Kikuyus attardés »), une référence directe aux partisans de M. Gachagua.

À l’époque, Meta considérait que le terme « tugeges » était une insulte au titre du standard de la communauté relatif à la conduite haineuse. Un système automatique a supprimé le commentaire du second utilisateur, dont le compte a, par ailleurs, été frappé d’une pénalité. Meta a cependant supprimé le terme de sa liste d’insultes en juillet 2025 lorsque le Conseil a posé des questions à son propos. L’entreprise a également restauré le commentaire et annulé la pénalité à l’encontre de l’utilisateur le mois suivant.

Principales conclusions

Le Conseil encourage Meta à réfléchir judicieusement avant de bannir des mots. Le terme « tugeges » ne répond pas à la définition d’une insulte selon Meta. La manière dont ce mot était utilisé lors des élections de 2022 au Kenya aurait pu justifier son ajout à la liste d’insultes à ce moment-là. Toutefois, sa signification a rapidement évolué, ce qui a soulevé des questions sur l’opportunité de son ajout en janvier 2024. Lorsque ce contenu a été publié, « tugeges » n’aurait pas dû être considéré comme une insulte.

Bien que ce terme puisse être méprisant à l’égard d’une ethnie, de nombreuses personnes l’utilisent pour critiquer ceux qui font preuve d’une loyauté politique aveugle. D’autres dialectes kényans sont dotés de mots équivalents, qui ressortissent en général à la critique politique. La Coalition nationale kényane sur la liberté d’expression et la modération de contenu n’a pas trouvé que ce terme relevait du discours haineux. Des spécialistes et des commentaires publics soulignent le fait que les connotations ethniques méprisantes du terme ne sont pas fixes et que ce dernier revêt différentes significations idiomatiques. Meta aurait dû en tenir compte, ce qui montre à quel point il est important que l’entreprise fasse intervenir des parties prenantes locales pour établir et auditer ses listes d’insultes.

Les délibérations dans ce cas-ci incluaient également des discussions sur ce que Meta peut mettre en place pour que ses utilisateurs continuent à disposer d’un moyen d’agir lorsque leur contenu est susceptible d’enfreindre la politique relative à la conduite haineuse. Ainsi, le Conseil recommande à Meta d’implémenter dans ses produits une fonctionnalité pour les potentielles violations de la politique sur la conduite haineuse.

Décision du Conseil de surveillance

Le Conseil a annulé la décision initiale de Meta de supprimer le contenu.

Le Conseil recommande à Meta ce qui suit :

  • Donner aux utilisateurs la possibilité de corriger eux-mêmes leurs erreurs, comme ce fut le cas à la suite de la recommandation n° 6 dans la décision Manifestations pro-Navalny en Russie, qui prévoit d’informer un utilisateur lorsque sa publication contient une expression ou un terme interdit afin de lui permettre de la corriger. Si cette option n’est plus disponible, Meta devrait proposer une autre solution comparable sur ses produits.
  • Le Conseil réitère également une recommandation formulée dans l’une de ses décisions précédentes, que Meta s’est engagée à mettre en œuvre, ce qu’elle est en train de faire :
  • Lorsque Meta révise ses listes d’insultes, elle doit veiller à procéder à un large engagement externe des parties prenantes concernées.

* Les résumés de cas donnent un aperçu des cas et n’ont pas valeur de précédent.

Décision complète sur le cas

1. Description du cas et contexte

À l’approche des élections à la présidence de l’Union africaine en février 2025, un utilisateur Facebook a publié une image, avec un texte en superposition, de l’ancien vice-président kényan Rigathi Gachagua en train de marquer son soutien à la nomination de Raila Odinga à cette fonction. Dans une légende, l’utilisateur indique que M. Gachagua (issu de l’ethnie kikuyu) ne soutenait M. Odinga (originaire de l’ethnie luo) que pour accroître sa popularité auprès des Luos. Un second utilisateur, identifié dans la publication initiale, a commenté celle-ci en se moquant de la réaction de son auteur à la déclaration de M. Gachagua, affirmant que cette dernière visait les « tugeges », une référence aux partisans de M. Gachagua. Ce second utilisateur a précisé que la marque de soutien de M. Gachagua s’adressait à une audience externe, et non aux Kényans.

Un outil de détection proactif de Meta a identifié et supprimé le commentaire de cet utilisateur parce qu’il contient le terme « tugeges », en infraction au standard de la communauté relatif à la conduite haineuse. Meta considère que ce mot est une insulte depuis janvier 2024. À l’époque, l’entreprise avait indiqué que le terme signifiait « Kikuyu attardé ». Meta a supprimé le commentaire et a appliqué une pénalité standard à l’encontre de l’utilisateur. Celui-ci a fait appel de la décision de Meta de supprimer son commentaire, mais le modérateur qui l’a examiné a confirmé la décision de l’entreprise. L’auteur de la publication a alors fait appel auprès du Conseil de surveillance. En juillet 2025, en réponse à des questions du Conseil sur l’ajout de ce terme à sa liste d’insultes, Meta l’en a supprimé. Par conséquent, le contenu a été restauré et la pénalité qui frappait l’utilisateur a été levée. L’utilisateur a été informé de la restauration de son contenu et du fait que cette décision avait été prise après que le Conseil avait examiné son cas.

Le Conseil a tenu compte du contexte suivant pour prendre sa décision.

Le Kenya est une démocratie pluripartite où les partis et responsables politiques s’appuient souvent sur l’origine ethnique des électeurs et les allégeances intergroupes pour glaner des voix pendant les élections. Parmi les individus dont il est question dans la publication, M. Odinga jouit d’un soutien significatif auprès de la communauté luo. L’actuel président, William Ruto, est issu de la communauté kalendjin, le troisième plus grand groupe ethnique du Kenya, tandis que M. Gachagua vient de la communauté kikuyu, le plus grand groupe ethnique du pays. Le président Ruto et M. Gachagua se sont associés pour remporter l’élection présidentielle de 2022 ; le second a alors occupé le poste de vice-président jusqu’à sa destitution en 2024.

L’imbrication des questions d’ordre politique et ethnique fait l’objet de nombreux débats publics au Kenya et est sujette à controverses. L’incitation à la haine ethnique et à la violence entre communautés, en particulier en période d’élections, est une source d’inquiétude. Les violences qui ont secoué le pays après les élections de 2008 et ont causé la mort de 1200 personnes ainsi que le déplacement forcé de centaines de milliers d’individus sont le résultat de nombreux facteurs complexes, mais ont en partie été attisées par les discours haineux et l’incitation à la haine sur la base de l’origine ethnique. Des accidents similaires ont eu lieu après l’élection présidentielle de 2017. L’agence pour la cohésion sociale de la Commission nationale kényane pour la cohésion et l’intégration (NCIC, de l’anglais National Cohesion and Integration Commission), a mis en garde contre le recours aux discours haineux sur les plateformes de réseaux sociaux, y compris de la part de responsables politiques tels que M. Gachagua lorsqu’il laisse entendre que l’élection présidentielle de 2027 pourrait engendrer de la violence. En septembre 2023, pour faire taire des rumeurs, la NCIC a déclaré qu’elle n’envisageait nullement de bannir le mot « tugeges », qu’elle ne considère pas comme un discours haineux, mais elle a mis en garde en juin 2024 contre l’utilisation de ce terme en référence aux partisans d’une idéologie politique différente, étant donné que le mot « blesse, méprise et déshumanise les gens ». Le terme n’a toutefois pas été ajouté à son lexique de mots haineux.

En juin 2024, de nombreux jeunes kényans sont descendus dans les rues après que le gouvernement a proposé une forte hausse des impôts. Ces manifestations se sont finalement transformées en appels plus larges à ce que le gouvernement rende des comptes, jusqu’à transcender les allégeances ethniques. En juin 2025, la jeunesse kényane a de nouveau organisé des protestations, cette fois pour exiger la démission du président Ruto et marquer son mécontentement par rapport à son gouvernement. Les forces de l’ordre ont réagi en réprimant violemment les manifestations, y compris en ouvrant le feu sur les participants, ce qui a causé la mort de plusieurs personnes, des blessures et des arrestations. En juillet 2025, le président Ruto a accusé l’opposition, dont fait désormais partie M. Gachagua, de planifier sa destitution, ce que ce dernier a démenti.

2. Soumissions de l’utilisateur

L’auteur du commentaire a déclaré au Conseil qu’il n’avait pas insulté, menacé, ni employé de mots abusifs. Il a indiqué qu’il s’agissait d’un simple commentaire politique « exprimé avec civilité » et que sa suppression par Meta était injuste.

3. Politiques de Meta relatives au contenu et soumissions

I. Politiques de Meta relatives au contenu

Standard de la communauté relative à la conduite haineuse

Conformément à la politique relative à la conduite haineuse, Meta supprime le contenu qui « décrit ou cible négativement des personnes par des injures ». Meta définit la conduite haineuse comme « une attaque directe contre des personnes, plutôt que contre des concepts ou des institutions », fondée sur des caractéristiques protégées, comme l’origine ethnique ou le handicap, entre autres. Les insultes sont « des mots qui créent intrinsèquement une atmosphère d’exclusion et d’intimidation à l’encontre de personnes sur la base d’une caractéristique protégée, souvent parce que ces mots renvoient à une discrimination, une oppression et une violence historiques. ».

Comme indiqué dans la justification de la politique en matière de conduite haineuse, Meta pense « que les personnes s’expriment et interagissent plus librement lorsqu’elles ne se sentent pas attaquées en fonction de leur identité ». La justification de la politique précise également les cas dans lesquels une insulte peut être utilisée : pour la condamner, la signaler ou l’utiliser « de manière auto-référentielle » ou valorisante. Meta autorise de telles utilisations lorsque l’intention de l’auteur est univoque.

II. Soumissions de Meta

Meta a initialement supprimé le contenu pour violation de la règle sur les injures incluse dans le standard de la communauté relatif à la conduite haineuse. Le terme « tugege » était considéré comme une insulte au moment de la publication, et Meta a estimé que son utilisation n’était couverte par aucune des exceptions prévues.

Meta a ajouté ce mot à sa liste d’insultes pour les marchés swahilis en janvier 2024 après que le mot a gagné en popularité lors de l’élection présidentielle de 2022 au Kenya. Il y a été ajouté conformément à la procédure habituelle de Meta. Selon une analyse qualitative et quantitative réalisée à l’époque, l’entreprise a conclu que le terme signifiait « Kikuyu attardé » et qu’il constituait le pluriel de « kagege », un terme kikuyu qui décrit « une personne à un tel point désorientée qu’elle regarde le monde bouche bée, l’air absent ». Ce mot est dérivé de « gega », qui signifie « regarder fixement d’un air perplexe ». Les équipes régionales et responsables des politiques de Meta ont jugé que le mot était utilisé pour s’en prendre aux Kikuyus sur la base de leur origine ethnique.

Lorsqu’elle a annoncé apporter des changements à ses politiques le 7 janvier 2025, Meta a indiqué que les infractions à sa politique en matière de conduite haineuse seraient traitées comme des « violations de politique moins graves » et que l’entreprise ne se fierait plus autant aux systèmes automatisés pour sanctionner ces violations. Ainsi, l’entreprise s’appuiera sur « des signalements d’utilisateurs et d’autres signaux externes » pour complémenter ses classificateurs de détection des éventuelles infractions. Elle reste susceptible de recourir aux classificateurs pour supprimer de manière proactive le contenu en infraction lorsqu’il est détecté sans examen manuel. Dans les pays en crise (qu’ils soient ou non repris dans son Protocole de politique de crise, « PPC »), Meta continuera de détecter et de supprimer de manière proactive les violations de la politique sur la conduite haineuse sans faire appel aux signalements d’utilisateurs ni à d’autres signaux externes.

Au moment de la publication du contenu, Meta a déployé des mesures de détection et de suppression proactives des infractions à la politique sur la conduite haineuse au Kenya dans le cadre de ses efforts d’intégrité plus larges en vue de l’élection présidentielle de 2027, compte tenu du fait que certains candidats sont déjà en campagne. Meta justifie ces mesures par les nombreuses tensions ethniques qui règnent habituellement en période d’élections au Kenya ainsi que par le fait que la politique est fortement marquée par les affiliations tribales, bien que l’entreprise n’ait pas considéré que le pays était en crise au titre du PPC lors de l’élection à la présidence de l’Union africaine. Dans la décision Règles de vote de la Commission électorale australienne, Meta a informé le Conseil que son système automatisé pouvait être configuré pour détecter du contenu de manière proactive et qu’il le plaçait dans une file d’attente en vue d’un examen manuel ou qu’il le supprimait automatiquement.

Dans ce cas-ci, Meta a utilisé son système automatisé pour identifier et supprimer le contenu en question pour violation de sa politique en matière de conduite haineuse. Le système automatisé détecte l’utilisation d’insultes présentes dans les listes de Meta pour les marchés swahilis dans le cadre de son initiative de recherche ciblée qui répond à la hausse des tensions politiques et qui est basée sur l’évaluation interne de Meta des risques qui pèsent en dehors de ses plateformes. Ce système de détection et de suppression du contenu en infraction continuera de fonctionner jusqu’à l’élection présidentielle de 2027 ; Meta évaluera ensuite s’il y a lieu d’interrompre ce programme ou de le poursuivre.

En juin 2025, en délibérant sur ce cas-ci, le Conseil a posé des questions à Meta sur l’ajout du terme « tugeges » à sa liste d’insultes. En effet, les parties prenantes et les experts mandatés par le Conseil ont indiqué que le terme avait différentes significations idiomatiques dans les discours politiques kényans et qu’il ne constituait pas systématiquement une attaque fondée sur l’origine ethnique. Cette conclusion a poussé Meta à approfondir ses recherches, à réévaluer cet ajout en collaboration avec ses équipes internes responsables des politiques publiques et à supprimer le terme de sa liste d’insultes en juillet 2025. Meta a estimé que le mot était désormais utilisé aussi pour « cibler les responsables politiques sur la base de leurs rôles en tant que personnalités politiques », et non sur celle de leurs caractéristiques protégées. Meta a confirmé que le contenu en question dans ce cas-ci avait été restauré et que la pénalité imposée à l’utilisateur avait été levée le 23 juillet 2025, soit cinq mois après la publication du contenu.

Meta effectue des audits complets de sa liste d’insultes dans le cadre de ses pratiques habituelles pour s’assurer que la signification des termes interdits est toujours d’actualité. La fréquence de ces audits dépend de la manière dont Meta alloue ses ressources, notamment dont elle affecte ses experts régionaux. Outre ces audits, les équipes régionales et responsables des politiques de contenu de Meta révisent également les demandes pertinentes d’ajout ou de suppression de termes, si cela s’avère nécessaire. L’audit de cette année, qui inclut les marchés swahilis, a débuté en juillet après que le terme « tugeges » a été supprimé de la liste d’insultes à la suite du cas présent, et devrait être terminé en septembre.

Le Conseil a posé des questions sur l’ajout du terme « tugeges » à la liste d’insultes et sa suppression subséquente de ladite liste, sur les mesures prises pour modérer le contenu potentiellement en infraction, sur la manière dont l’entreprise audite sa liste d’insultes et sur la détection proactive des discours potentiellement haineux dans le cadre des efforts d’intégrité électorale fournis par Meta depuis qu’elle a annoncé les changements apportés à ses pratiques de modération en janvier dernier. Meta a répondu à toutes les questions.

4. Commentaires publics

Le Conseil de surveillance a reçu quatre commentaires publics répondant aux critères de soumission. Deux des commentaires ont été soumis depuis l’Afrique subsaharienne, et deux autres d’Asie centrale et du Sud. Pour consulter les commentaires publics soumis accompagnés d’un consentement à la publication, cliquez ici.

Les soumissions traitaient des thèmes suivants : les utilisations idiomatiques du terme « tugeges » ; la manière dont les systèmes de modération automatisés ne prennent pas en compte les nuances linguistiques et le contexte ; et la façon dont ces systèmes de modération des discours haineux pouvaient entraîner une application trop stricte ou trop laxiste des règles de l’entreprise.

5. Analyse du Conseil de surveillance

Le Conseil a sélectionné ce cas-ci pour aider Meta à trouver un juste milieu entre son engagement à respecter la liberté d’expression et sa volonté d’appliquer aux insultes sa politique relative à la conduite haineuse dans les pays traditionnellement secoués par les tensions ethniques. Le Conseil a analysé la décision de Meta dans le cas présent et l’a comparée à ses politiques relatives au contenu, à ses valeurs et à ses responsabilités en matière de droits humains. Il a également évalué les implications de ce cas-ci sur l’approche plus globale de la gouvernance du contenu par Meta.

5.1 Respect des politiques de Meta relatives au contenu

Le Conseil estime que le contenu dans ce cas-ci n’enfreint pas la politique en matière de conduite haineuse puisque l’utilisation du terme « tugeges » ne répond pas à la définition d’« insulte » fournie par Meta.

Il reconnaît que le terme était considéré comme une insulte lorsque Meta a supprimé le contenu, et que les systèmes automatisés et les modérateurs humains de l’entreprise ont suivi les consignes internes pour supprimer le contenu. Compte tenu des nombreuses tensions ethniques qui ont secoué le Kenya et du risque aggravé de violence au moment des élections, la vigilance dont a fait preuve l’entreprise en supprimant un discours haineux était conforme à ses procédures et à sa liste d’insultes à ce moment-là. Toutefois, l’utilisation du terme interdit en question a rapidement évolué, ce qui a soulevé des questions sur l’opportunité de son ajout aux listes de Meta en janvier 2024. Au moment où ce contenu a été publié, et sans doute même au début de l’année 2024 lorsqu’il a été qualifié d’insulte pour la première fois, il n’aurait pas dû être considéré comme tel.

Dans ce cas-ci, l’auteur du commentaire a utilisé le terme « tugeges » pour discuter de la situation politique qui entoure la nomination à la présidence de l’Union africaine et faire part de critiques en la matière. Bien que le commentaire décrive négativement les partisans de M. Gachagua, le mot ne crée pas en lui-même d’atmosphère d’exclusion et d’intimidation discriminatoires, et n’est donc pas une insulte. Les commentaires publics soumis ont fait remarquer à quel point il était important que les pratiques de modération de contenu tiennent compte du contexte et des nuances des discours politiques au Kenya afin de prévenir une surmodération (cf. PC-31266, PC-31269, PC-31270, PC-31272).

Les experts consultés par le Conseil ont confirmé que, pendant l’élection présidentielle de 2022, le terme « tugeges » avait été largement utilisé pour désigner les électeurs kikuyus dont certains pensaient qu’ils votaient sans vraiment tenir compte des conséquences de leurs votes. Bien que le mot puisse être méprisant à l’égard de l’origine ethnique dans certaines circonstances, il revêt également depuis quelques années une connotation plus large et désigne désormais les individus, peu importe leur origine ethnique, qui votent sans vraiment s’interroger sur leurs opinions et allégeances politiques. De nombreuses personnes utilisent ce terme pour critiquer une loyauté politique aveugle ou un manque de discernement, sans pour autant le faire avec haine, même dans les situations où la loyauté politique et l’origine ethnique sont liées. Les experts ont fait remarquer que d’autres dialectes kényans étaient dotés de mots équivalents, ce qui montre qu’il n’est pas rare d’utiliser de tels termes pour discuter de politique ou exprimer des critiques politiques au Kenya. Le Conseil note qu’en juin 2024, la NCIC a mis en garde contre l’utilisation de ce mot dans les discours politiques parce qu’il « blesse, méprise et déshumanise les gens », mais qu’elle n’était pas allée jusqu’à le qualifier de discours haineux ou à suggérer son interdiction. Selon la Coalition nationale kényane sur la liberté d’expression et la modération de contenu, l’utilisation de mots kikuyus n’est pas inhabituelle dans les discours politiques et l’incapacité de Meta à distinguer les discours haineux des commentaires d’ordre politique protégés peut entraver la liberté d’expression (PC-31272). Global Initiative on Tech and Human Rights, une association à but non lucratif basée au Kenya, a déclaré que l’utilisation du mot dans ce cas-ci était satirique et visait à « critiquer des gesticulations politiques et la crédulité perçue chez certains partisans politiques », au lieu de dénigrer d’autres personnes sur la base de leur origine ethnique (PC-31266).

Le Conseil note que Meta a désormais adopté une approche différente en matière de suppression automatisée (que Meta qualifie de « proactive ») des infractions à la politique sur la conduite haineuse depuis son annonce de janvier 2025, sauf dans les pays en crise où la suppression automatisée est toujours d’actualité. Le Conseil a déjà recommandé par le passé à Meta de mettre au point un protocole qui lui permettrait de réagir aux préjudices propres à une crise ou à un conflit (cf. p. ex., Bureau des affaires de communication du Tigré, Vidéo explicite au Soudan, Suspension de l’ancien président américain Trump), ainsi que d’améliorer ses mesures d’intégrité, même en dehors des périodes électorales (Discours d’un général brésilien). Dans sa décision Manifestations pro-Navalny en Russie, le Conseil a également recommandé à Meta d’envisager des mesures pour informer rapidement les utilisateurs qu’un mot ou une phrase de leur publication enfreignait peut-être la politique de Meta sur les déclarations à caractère négatif.

Compte tenu du contexte au Kenya, le Conseil comprend pourquoi Meta a choisi de déployer ses systèmes de détection et de suppression automatisés des discours haineux bien avant l’élection présidentielle de 2027. Il est important que Meta n’attende pas qu’une crise éclate (p. ex., qu’une situation tourne à la violence) pour prendre des mesures de précaution afin de s’assurer du respect de sa politique en matière de conduite haineuse. Le Conseil reconnaît également le bien-fondé de la justification de Meta d’appliquer par défaut et de manière proactive sa politique relative à la conduite haineuse dans les pays en crise. Les conflits armés qui se prolongent méritent peut-être d’être qualifiés de crises à long terme afin que Meta déploie des mesures de suppression proactive du contenu en infraction, en plus des mesures de détection proactive. Toutefois, le Conseil encourage Meta à faire preuve de prudence vis-à-vis de telles approches, car celles-ci peuvent augmenter le risque de retraits injustifiés à grande échelle. La prudence doit également être de mise en ce qui concerne l’utilisation générale de systèmes automatisés, car ceux-ci peuvent intervenir trop souvent et nuire à la liberté d’expression, en particulier dans le cadre d’élections, comme ce fut le cas ici.

5.2 Respect des responsabilités de Meta en matière de droits humains

Le Conseil estime que la suppression du contenu de la plateforme n’était pas conforme aux responsabilités de Meta en matière de droits humains.

Liberté d’expression (article 19 du PIDCP)

L’article 19 du Pacte international relatif aux droits civils et politiques (PIDCP) prévoit une large protection de la liberté d’expression, notamment dans le cadre de la politique, des affaires publiques et des droits humains (Observation générale n° 34, paragraphes 11 et 12). Il accorde une « importance particulière » à la protection du « débat public concernant des personnalités publiques du domaine politique et des institutions publiques », en tant qu’élément essentiel à la conduite d’affaires publiques (Observation générale n° 34, paragraphes 38 et 20 ; cf. également l’Observation générale n° 25, paragraphes 12 et 25) et protège l’expression qui peut être considérée comme « profondément offensante » (Observation générale n° 34, 2011, paragraphe 11).

Lorsque des restrictions de la liberté d’expression sont imposées par un État, elles doivent remplir des critères de légalité, d’objectif légitime, ainsi que de nécessité et de proportionnalité (article 19, paragraphe 3 du PIDCP). Ces exigences sont souvent reprises sous l’intitulé « test tripartite ». Le Conseil s’appuie sur ce test afin d’interpréter les responsabilités de Meta en matière de droits humains conformément aux Principes directeurs relatifs aux entreprises et aux droits de l’homme des Nations unies (ONU), que Meta elle-même s’est engagée à respecter dans sa Politique relative aux droits humains. Le Conseil utilise ce test à la fois pour la décision relative au contenu en cours d’examen et pour ce que cela dit de l’approche plus large de Meta en matière de gouvernance du contenu. Comme l’a déclaré le Rapporteur spécial de l’ONU sur la liberté d’expression, même si « les entreprises ne sont pas soumises aux mêmes devoirs que les gouvernements, leur influence est néanmoins telle qu’elle doit les inciter à se poser les mêmes questions qu’eux quant à la protection de la liberté d’expression de leurs utilisateurs » (A/74/486, paragraphe 41).

I. Légalité (clarté et accessibilité des règles)

Le principe de légalité prévoit que les règles qui limitent la liberté d’expression soient accessibles, claires et suffisamment précises pour permettre à un individu d’adapter son comportement en conséquence (Observation générale n° 34, paragraphe 25). En outre, ces règles « ne peu[ven]t pas conférer aux personnes chargées de [leur] application un pouvoir illimité de décider de la restriction de la liberté d’expression » et doivent « énoncer des règles suffisamment précises pour permettre aux personnes chargées de leur application d’établir quelles formes d’expression sont légitimement restreintes et quelles formes d’expression le sont indûment » (Ibid). Le Rapporteur spécial des Nations Unies sur la liberté d’expression a déclaré que lorsqu’elles s’appliquent aux acteurs privés, les règles régissant le discours en ligne devaient être claires et précises (A/HRC/38/35, paragraphe 46). Les personnes qui utilisent les plateformes de Meta doivent pouvoir accéder aux règles et les comprendre, et les équipes d’examen de contenu doivent disposer de consignes claires sur leur application.

Telle qu’elle s’applique au contenu dans ce cas-ci, la règle sur les insultes prévue dans le standard de la communauté en matière de conduite haineuse est suffisamment claire. Le Conseil salue la plus grande transparence dont Meta fait preuve par rapport à son processus d’ajout des insultes à ses listes comme conséquence directe de la mise en œuvre par l’entreprise des recommandations du Conseil (cf. p. ex., Réappropriation de mots arabes, Différend politique à l’approche des élections turques, Critique des politiques d’immigration de l’UE et des immigrants).

II. Objectif légitime

Par ailleurs, toute restriction de la liberté d’expression doit au minimum répondre à l’un des objectifs légitimes énumérés dans le PIDCP, qui incluent la protection des droits d’autrui (article 19, paragraphe 3 du PIDCP). Le Conseil a déjà reconnu par le passé que le standard de la communauté en matière de conduite haineuse poursuivait l’objectif légitime de protéger les droits d’autrui (Publications affichant le drapeau sud-africain de la période de l’apartheid ; article 2 du paragraphe 1, PIDCP ; articles 2 et 5 de la Convention internationale sur l’élimination de toutes les formes de discrimination raciale).

III. Nécessité et proportionnalité

Conformément à l’article 19(3) du PIDCP, le principe de nécessité et de proportionnalité requiert que les restrictions de la liberté d’expression soient « appropriées pour remplir leur fonction de protection, elles doivent constituer le moyen le moins perturbateur parmi ceux qui pourraient permettre d’obtenir le résultat recherché et elles doivent être proportionnées à l’intérêt à protéger » (Observation générale n° 34, paragraphe 34). Conformément à leurs responsabilités en matière de droits humains, les entreprises de réseaux sociaux doivent envisager une série de réponses possibles au contenu problématique au-delà de la suppression afin de s’assurer que les restrictions sont étroitement adaptées (A/74/486, paragraphe 51 ; cf. la décision Allégations sur un remède au COVID).

Le Conseil estime que la suppression du commentaire de Facebook n’était pas nécessaire parce que le terme n’attaquait personne sur la base de son origine ethnique et qu’il s’inscrivait simplement dans une discussion politique. La suppression de la publication n’a pas servi à protéger les droits d’autrui. Au contraire, elle a débouché sur une restriction inutile de la liberté d’expression (cf. Différend politique à l’approche des élections turques). Certaines parties prenantes ont fait remarquer à quel point l’origine ethnique a été instrumentalisée par le passé par des responsables politiques désireux de susciter la division et d’en profiter sur le plan politique (cf. le PC-31272 de la Coalition nationale kényane sur la liberté d’expression et la modération de contenu), ce qui a parfois engendré de la violence lors des élections. Bien que Meta ait raison d’être attentive à ce genre de préjudices potentiels, le terme n’est pas utilisé (que ce soit de manière générale ou dans ce cas-ci) pour intimider, exclure ou inciter à la violence ou la discrimination.

Bien que l’utilisation de termes comme « tugeges » puisse susciter de l’inquiétude lorsqu’ils servent à attaquer autrui sur la base de son origine ethnique, en particulier s’ils sortent de la bouche d’un responsable politique influent, leurs diverses utilisations n’engendrent pas toutes des préjudices ; dès lors, leur ajout à une liste de mots bannis est injustifié. Ce cas montre à quel point il était excessif de la part de Meta de bannir le mot, une interdiction qui a entraîné la suppression d’un discours politique et nui au débat public. L’entreprise devrait réfléchir judicieusement avant d’ajouter des mots à ce qui, au fond, est une liste de termes à bannir. La NCIC n’a pas jugé que le terme relève du discours haineux, bien qu’elle ait mis en garde le public contre ses utilisations problématiques. Des spécialistes et des commentaires publics ont confirmé que les connotations ethniques discriminatoires du mot n’étaient pas aussi ancrées que ce que Meta a cru et qu’elles sont contestées. Cela aurait dû être pris en compte lorsque Meta a réalisé son analyse qualitative et quantitative qui a débouché sur l’ajout du terme à sa liste d’insultes en janvier 2024. Cela souligne à quel point il est important que Meta implique des parties prenantes locales pour déterminer les termes à ajouter à ses listes d’insultes et qu’elle ne perde pas de vue que des termes auparavant considérés comme des insultes selon sa définition pouvaient changer de significations en relativement peu de temps.

Conformément à la recommandation du Conseil dans sa décision Manifestations pro-Navalny en Russie, Meta devrait concevoir des solutions moins intrusives que la suppression de contenu pour réagir aux préjudices portés par les discours haineux et le contenu discriminatoire. Cela étant, lorsque le Conseil a posé des questions à ce sujet, Meta n’a pu fournir que des informations préliminaires sur l’efficacité de telles solutions. Le Conseil encourage l’entreprise à continuer à envisager de telles mesures et à s’assurer qu’elles sont efficaces et n’affectent pas négativement les droits humains.

6. Décision du Conseil de surveillance

Le Conseil a annulé la décision initiale de Meta de supprimer le contenu.

7. Recommandations

Mise en application

Pour s’assurer que les solutions actuelles de Meta sur ses produits aident les utilisateurs à ne pas violer la politique en matière de conduite haineuse, l’entreprise devrait leur donner la possibilité de corriger eux-mêmes leurs erreurs, comme ce fut le cas à la suite de la recommandation n° 6 dans la décision Manifestations pro-Navalny en Russie, qui prévoit d’informer un utilisateur lorsque sa publication contient un terme ou une expression interdite afin de lui permettre de la corriger. Si cette option n’est plus disponible, Meta devrait proposer une autre solution comparable sur ses produits.

Le Conseil estimera que cette recommandation aura été suivie lorsque Meta aura fourni des données de modération qui prouvent l’efficacité de ces solutions.

Le Conseil réitère également la recommandation n° 3 suivante, formulée dans sa décision Critique des politiques d’immigration de l’UE et des immigrants, que Meta s’est engagée à mettre en œuvre, ce qu’elle est en train de faire :

Lorsque Meta révise ses listes d’insultes, elle doit veiller à procéder à un large engagement externe des parties prenantes concernées. Cette démarche devrait inclure la consultation des groupes concernés et de la société civile. Le Conseil estimera que cette recommandation aura été suivie lorsque Meta aura modifié son explication de la manière dont elle révise et met à jour ses listes d’insultes spécifiques aux marchés dans l’Espace modération.

* Note de procédure :

  • Les décisions du Conseil de surveillance sont prises par des panels de cinq membres et approuvées par une majorité du Conseil dans son ensemble. Les décisions du Conseil ne représentent pas nécessairement les opinions de tous les membres.
  • En vertu de sa Charte, le Conseil de surveillance est habilité à examiner les appels déposés par les utilisateurs dont le contenu a été supprimé par Meta, les appels déposés par les utilisateurs ayant signalé un contenu que Meta n’a finalement pas supprimé, et les décisions que Meta lui transmet (article 2, section 1 de la Charte). Le Conseil dispose d’une autorité contraignante pour confirmer ou annuler les décisions de Meta relatives au contenu (article 3, section 5 de la Charte ; article 4 de la Charte). Le Conseil est habilité à émettre des recommandations non contraignantes auxquelles Meta doit répondre (article 3, section 4 de la Charte ; article 4). Lorsque Meta s’engage à donner suite aux recommandations, le Conseil surveille leur mise en œuvre.
  • Pour la décision sur ce cas, des recherches indépendantes ont été commandées au nom du Conseil. Le Conseil a bénéficié de l’aide de Duco Advisors, une société de conseil spécialisée dans la géopolitique, la confiance et la sécurité, ainsi que la technologie. L’entreprise Lionbridge Technologies, LLC, dont les spécialistes parlent couramment 350 langues et travaillent dans 5000 villes du monde entier, a fourni son expertise linguistique.

Retour aux décisions de cas et aux avis consultatifs politiques