Décision sur plusieurs affaires
Emojis qui ciblent les personnes noires
10 février 2026
Le Conseil de surveillance a annulé les décisions initiales de Meta de conserver deux éléments de contenu qui utilisent des emojis pour exprimer de la haine envers les personnes noires, les discriminer et les harceler en les comparant à des singes.
2 cas inclus dans ce lot
FB-QGOKEDPY
Cas relatif aux sur Facebook
IG-EJNOH07S
Cas relatif aux sur Instagram
Résumé
Le Conseil de surveillance a annulé les décisions initiales de Meta de conserver deux éléments de contenu qui utilisent des emojis pour exprimer de la haine envers les personnes noires, les discriminer et les harceler en les comparant à des singes. Le Conseil a appelé Meta à empêcher que des groupes de personnes soient la cible d’attaques haineuses et discriminatoires en améliorant ses équipes et ses systèmes automatisés de modération pour qu’ils tiennent globalement compte de l’« algospeak », notamment des emojis. L’entreprise doit ainsi s’assurer que les données utilisées pour entraîner ses systèmes de modération soient à jour et adaptées à chaque région, qu’elle coordonne ses efforts afin d’enrayer les campagnes de haine de manière proactive et qu’elle veille à ce que ses efforts de mitigation incluent une surveillance active des emojis qui incitent à la discrimination et à l’hostilité lors des grands évènements sportifs, comme la Coupe du monde de football (FIFA).
À propos des cas
Ces cas concernent deux publications de mai 2025 qui font référence aux personnes noires en utilisant des emojis de singe.
Dans le premier cas, un utilisateur au Brésil a publié sur Facebook une scène du film Very Bad Trip : un court extrait doublé en portugais dans lequel deux personnages se disputent à propos d’un singe, dont ils se disent chacun propriétaire. Le texte en superposition sur la vidéo assimile les personnages aux clubs de football espagnols « Barcelone » et « Real Madrid ». Un autre texte en superposition fait référence aux jeunes footballeurs qui gagnent en popularité au Brésil. La légende ne comprend qu’un emoji de singe. La publication a été vue plus de 22 000 fois, et 12 personnes l’ont signalée.
Le second cas concerne un commentaire publié en réponse à une vidéo d’un compte Instagram en Irlande. Dans celle-ci, l’utilisateur fait part de son indignation à la suite d’un incident raciste dont il a été témoin dans la rue, et la légende appelle à lutter contre le racisme en Irlande. Un autre utilisateur indique en commentaire qu’il n’est pas d’accord avec ce message, qu’il souhaite plutôt que la situation « blow up » (dégénère) et qu’il veut « to have some glorious fun with all the [monkey emojis] & out in the street » (s’amuser comme un fou avec tous les [emojis de singe] et dans la rue). Le commentaire comprenait d’autres emojis (singe, rire et mains en prière) ainsi que les mots « glorious days ahead » (de beaux jours en perspective) soulignés. La publication initiale a été vue plus de 4000 fois, et 62 personnes ont signalé le commentaire.
Les systèmes automatisés de Meta et ses équipes de modération (intervenues après les appels interjetés par des utilisateurs) ont laissé les deux publications en ligne. Des utilisateurs ont alors fait appel auprès du Conseil. Après que le Conseil a sélectionné ces cas pour les examiner, Meta a déterminé que ses décisions initiales étaient incorrectes et a supprimé les publications en juillet 2025 pour violation de son standard de la communauté en matière de conduite haineuse.
Des messages déshumanisants ou haineux peuvent être transmis à l’aide d’un langage codé (des expressions ou des emojis) appelé « algospeak » afin de contourner les systèmes de modération de contenu automatisés.
Principales conclusions
Le Conseil s’inquiète de la précision avec laquelle la politique relative à la conduite haineuse est appliquée, en particulier lors de l’évaluation des emojis utilisés en tant qu’algospeak. Les classificateurs ont identifié le contenu, mais n’ont pris aucune mesure. Meta explique que ses modérateurs doivent prendre tous les aspects du contenu en compte, notamment les images, les légendes et les textes en superposition, ainsi que les facteurs indirectement liés au contenu, tels que la publication principale et les commentaires associés. Meta a également indiqué que ses classificateurs étaient entraînés à l’aide d’ensembles de données issues d’exemples signalés et étiquetés, y compris des cas où l’utilisation des emojis constitue une infraction potentielle. Les systèmes automatisés et les équipes de modération ont toutefois échoué à évaluer les publications avec précision.
Meta devrait auditer régulièrement ses données d’entraînement pour améliorer sa détection automatisée des utilisations d’emojis prohibées. Les processus de modération doivent toujours rediriger le contenu vers des examinateurs qui disposent d’une expertise linguistique et régionale appropriée.
En réponse aux questions du Conseil, Meta a indiqué que, depuis son annonce du 7 janvier 2025, de grands modèles de langage (LLM) étaient plus largement intégrés dans ses processus, où ils servent de mécanismes de vérification supplémentaires, y compris pour le contenu qui enfreint la politique en matière de conduite haineuse. Selon l’entreprise, les LLM ne remplacent pas les modèles existants, mais fournissent une seconde opinion sur les décisions de modération, l’accent étant mis sur le contenu signalé en vue de sa suppression. Dans les cas présents, les LLM n’ont pas été impliqués dans le processus d’examen.
Le Conseil juge que les deux publications enfreignent le standard de la communauté en matière de conduite haineuse, qui interdit les comparaisons déshumanisantes avec les animaux. Ces publications utilisent toutes deux l’emoji de singe pour cibler les personnes noires sur la base de leurs caractéristiques protégées.
La conservation des publications est par ailleurs incohérente avec les responsabilités de Meta en matière de droits humains, puisque les emojis qui visent à déshumaniser les groupes dont les caractéristiques sont protégées et à inciter à la discrimination ou à l’hostilité à leur encontre devraient entraîner la suppression du contenu concerné. Il est nécessaire et proportionné de supprimer les deux publications.
Ces dernières contiennent des formes d’algospeak utilisées pour exprimer de la haine envers des groupes à caractéristiques protégées précis, les discriminer et les harceler. Elles illustrent la manière dont les emojis peuvent servir à inciter d’autres personnes à agir de façon discriminatoire et potentiellement hostile.
La publication brésilienne s’inscrit dans le cadre d’une hostilité et d’un racisme systémiques largement documentés dans le monde du football, et qui visent tout particulièrement les joueurs noirs. Le commentaire sous la publication irlandaise, lui, est un cas de discrimination raciale et de négrophobie, deux tendances à la hausse en Irlande.
Pour mieux coordonner ses efforts et protéger les personnes qui, sans être directement nommées, sont implicitement ciblées par des campagnes de haine, Meta devrait élaborer une procédure pour harmoniser ses mesures existantes afin d’enrayer les campagnes de haine de manière proactive, en particulier celles qui impliquent l’utilisation d’emojis. Meta devrait veiller à ce que ses efforts de mitigation temporaires, que ce soit par l’intermédiaire de son Centre de gestion des produits d’intégrité ou grâce à un autre système d’atténuation des risques, incluent une surveillance active du contenu avec des emojis qui incitent à la discrimination et à l’hostilité ciblées juste avant, pendant et immédiatement après les grands évènements sportifs, p. ex. la Coupe du monde de football de 2026 (FIFA).
Décision du Conseil de surveillance
Le Conseil annule la décision initiale de Meta de conserver les deux éléments de contenu.
Le Conseil recommande également à Meta ce qui suit :
- Auditer les données d’entraînement des systèmes automatisés qui sont utilisées pour faire appliquer sa politique en matière de conduite haineuse et s’assurer que les données sont régulièrement mises à jour pour inclure des exemples de contenu avec emojis dans toutes les langues, d’utilisations d’emojis prohibées et des nouvelles occurrences d’utilisation haineuse des emojis.
- Harmoniser ses efforts actuels afin d’enrayer proactivement les campagnes de haine, en particulier celles qui impliquent l’utilisation d’emojis, pour mieux protéger les personnes qui, sans être directement nommées, sont implicitement ciblées par les campagnes de haine.
- Veiller à ce que ses efforts de mitigation temporaires, que ce soit par l’intermédiaire de son Centre de gestion des produits d’intégrité ou grâce à un autre système d’atténuation des risques, incluent une surveillance active du contenu avec des emojis qui incitent à la discrimination et à l’hostilité ciblées juste avant, pendant et immédiatement après les grands évènements sportifs, p. ex. la Coupe du monde de football (FIFA).
Le Conseil réitère à quel point ses recommandations précédentes en la matière sont importantes :
- Donner aux utilisateurs la possibilité de corriger eux-mêmes leurs erreurs, comme ce fut le cas à la suite de la recommandation n° 6 dans la décision Manifestations pro-Navalny en Russie, qui prévoit d’informer un utilisateur lorsque sa publication contient une expression ou un terme interdit afin de lui permettre de la corriger. Si cette option n’est plus disponible, l’entreprise devrait proposer une autre solution comparable sur ses produits.
* Les résumés de cas donnent un aperçu des cas et n’ont pas valeur de précédent.
Décision complète sur le cas
- Description des cas et contexte
Cette décision concerne deux cas ayant trait à l’utilisation d’emojis de singe pour faire référence aux personnes noires.
Le premier cas implique une courte vidéo publiée sur Facebook en mai 2025 par un utilisateur au Brésil. Cette vidéo est une scène doublée en portugais du film Very Bad Trip, dans lequel deux personnages se disputent à propos d’un singe, dont ils se disent chacun propriétaire. Le texte en superposition sur la vidéo assimile les personnages à « Barcelone » et au « Real Madrid », deux clubs de football espagnols. Au cours de la dispute, le personnage étiqueté « Real Madrid » menace brièvement d’un pistolet celui qui est assimilé à « Barcelone ». Un autre texte en superposition fait référence aux jeunes footballeurs qui gagnent en popularité au Brésil, et la légende de la vidéo ne comprend qu’un emoji de singe. La publication a été vue plus de 22 000 fois, et 12 personnes ont signalé le contenu.
Le second cas concerne un commentaire de mai 2025 qui répond à une vidéo publiée par un utilisateur d’Instagram en Irlande. L’auteur de la publication fait part de son indignation face à la caméra à la suite d’un incident raciste dont il a été témoin dans la rue en Irlande : un groupe d’adolescents a lancé une insulte raciste à une femme noire. Dans la légende, l’utilisateur manifeste sa compassion pour la victime et souligne qu’il est possible d’être à la fois irlandais et noir, mais que c’est un sujet que les « white privileged people » (personnes blanches et privilégiées) ne sont pas prêtes à aborder. Il invite également les autres à oser s’exprimer et à discuter de sujets complexes, et il encourage la société à faire mieux pour lutter contre le racisme. La légende se termine par un hashtag qui appelle à rejeter le racisme en Irlande.
En réponse à la vidéo du cas irlandais, un autre utilisateur a indiqué en commentaire qu’il n’était pas d’accord avec le message. Il a plutôt lancé un défi au créateur de la vidéo, lui demandant ce qu’il avait l’intention de faire pour améliorer la situation. L’auteur du commentaire a également indiqué qu’il avait hâte que la situation « blow up » (dégénère) et qu’il veut « to have some glorious fun with all the [monkey emojis] & out in the street » (s’amuser comme un fou avec tous les [emojis de singe] et dans la rue). Le commentaire comprenait d’autres emojis (singe, rire et mains en prière) ainsi que les mots « glorious days ahead » (de beaux jours en perspective) soulignés. La publication initiale a été vue plus de 4000 fois, et 62 personnes ont signalé le commentaire.
Les systèmes automatisés de Meta ont détecté les deux publications, estimant qu’elles enfreignaient peut-être la politique relative à la conduite haineuse. Le classificateur a trouvé que la publication brésilienne n’était pas en infraction, tandis qu’il n’a pas été en mesure de déterminer avec certitude la langue parlée dans le cas irlandais (à savoir, l’anglais), en conséquence de quoi il n’a pris aucune mesure.
Des utilisateurs ont signalé les deux publications pour conduite haineuse, et elles ont été mises en attente en vue de leur examen manuel. Elles n’ont toutefois pas été traitées en priorité et sont restées sur les plateformes.
Dans les deux cas, les utilisateurs qui avaient signalé les publications ont fait appel des décisions de Meta de les laisser en ligne. À la suite d’un examen manuel, Meta a confirmé ses décisions initiales. Les utilisateurs ont alors fait appel auprès du Conseil.
Après que le Conseil a sélectionné ces cas pour les examiner, Meta a déterminé que ses décisions initiales étaient incorrectes et a supprimé les publications en juillet 2025 pour violation de son standard de la communauté en matière de conduite haineuse.
Le Conseil a tenu compte du contexte suivant pour prendre ses décisions :
Le racisme que subissent les footballeurs brésiliens, en particulier les Noirs, a fait l’objet d’une couverturemédiatiquesignificative et met en lumière le racisme plus généralisé qui affecte les joueurs et sévit parmi les fans de football. Par exemple, Vinícius Júnior, un joueur du Real Madrid, a été la cible de plusieurs incidents racistes, y compris de comparaisons à des singes. La situation s’est aggravée à un tel point que l’État brésilien de Rio de Janeiro a voté la « Loi Vinícius Júnior » en 2023 pour lutter contre le racisme lors des évènements sportifs. La loi prévoit l’interruption temporaire, voire définitive d’un évènement sportif en cas d’acte raciste.
D’autres incidents très médiatisés à l’encontre de joueurs de football d’origine africaine, qui impliquaient principalement de la maltraitance par des fans dans les stades ou sur les réseaux sociaux, ont été signalés dans certains pays européens (p. ex., en Espagne, en Italie, en France et en Angleterre). L’Euro 2020 a permis d’attirer l’attention du public sur ce problème lorsque des joueurs ont été la cible d’une avalanche de haine en ligne. En mars 2025, CONMEBOL, la Confédération sud-américaine de football, a mis sur pied une équipe pour éradiquer le racisme, la discrimination et la violence dans le football. Cette mesure est entre autres le résultat d’actes racistes (notamment, des bruits de singe entendus lors des matchs) subis par les joueurs brésiliens.
Des études ont documenté les vagues de maltraitance soutenues qui suivent les matchs et les périodes riches en actualités sportives. Le syndicat des footballeurs en Angleterre et au Pays de Galles, la Professional Footballers’ Association (PFA), et l’entreprise spécialisée dans la science des données Signify ont découvert qu’en 2020, plus de 3000 tweets envoyés à certains joueurs étaient explicitement injurieux, et que 56 % de ces messages avaient un caractère raciste. Quelque 29 % de ces publications racistes et injurieuses prenaient la forme d’emojis. La même étude a mis en avant le fait que 43 % des joueurs de Premier League, le championnat de football au niveau le plus élevé en Angleterre, avaient été la cible d’injures explicitement racistes. De même, une analyse récente de l’Union européenne des associations de football (UEFA), l’instance dirigeante du football en Europe, a découvert que 33 % des publications partagées en période de finales des compétitions interclubs de l’UEFA et signalées à Meta, à TikTok et à X en raison de leur contenu injurieux étaient considérées comme racistes.
Dans le cadre de ces cas-ci, le Conseil a recherché le contenu qui utilisait l’emoji de singe dans la Bibliothèque de contenu de Meta. Une analyse des 150 publications publiques les plus virales sur Facebook et Instagram entre le 1er octobre 2024 et le 1er octobre 2025 montre que l’emoji est le plus souvent associé à des vidéos de singes, à des farces innocentes ou à des memes dont l’objectif est d’engranger énormément d’interactions. Cette recherche a néanmoins montré que, lorsque l’emoji apparaissait dans des discussions relatives aux personnes noires, il revêtait diverses connotations dans différents contextes. Il est utilisé de manière déshumanisante pour comparer les personnes noires à des animaux. Il peut également servir à mettre en évidence ou à commenter un incident raciste. Et il est employé de manière autoréférentielle ou avec humour par des utilisateurs qui semblent être de la communauté noire, bien que le Conseil ne soit pas en mesure de vérifier l’identité de ces utilisateurs. De nombreuses publications liées au football recouraient à l’emoji de singe de manière déshumanisante, et ciblaient souvent des joueurs précis, tandis que d’autres contenus, moins nombreux, condamnaient le racisme subi par les joueurs ou en discutaient.
Le rapport de la Commission irlandaise des droits de l’homme et de l’égalité qui s’inscrit dans le cadre du 6e cycle d’examen de la Commission européenne contre le racisme et l’intolérance a mis en évidence une montée du racisme, de la discrimination et de l’intolérance en Irlande. Il note que « la diffusion de l’idéologie d’extrême droite, responsable d’incidents tels que les émeutes à Dublin, est facilitée par les lacunes systémiques qui persistent en matière de protection contre le racisme et l’intolérance en Irlande ». Nation principalement blanche à l’origine, l’Irlande s’est transformée en un pays plus diversifié et ouvert à l’immigration dans les années 1990, un changement qui s’est reflété dans les relations sociopolitiques. Elle a notamment enregistré une montée de la « négrophobie », la forme de racisme qui cible les personnes d’origine africaine, sur tout son territoire.
L’Agence des droits fondamentaux de l’Union européenne a rapporté que près de la moitié des personnes d’origine africaine interrogées au sujet de leur vécu dans 13 États membres de l’UE, dont l’Irlande, « avaient été victimes de discrimination raciale, soit un passage de 39 % en 2016 à 45 % en 2022 ». Plus de 44 % des personnes sondées en Irlande ont subi du harcèlement racial, et 34 % ont dit avoir peur de devenir la cible d’une attaque physique en raison de leur origine ethnique ou de leur statut d’immigrant. Le rapport de 2024 sur les crimes de haine du Bureau des institutions démocratiques et des droits de l’homme (ODIHR) de l’Organisation pour la sécurité et la coopération en Europe (OSCE) note que 587 crimes de haine sur 676 enregistrés et classés par la police irlandaise étaient motivés par des préjugés racistes et xénophobes.
Un langage codé (des expressions ou des emojis) appelé « algospeak » est utilisé pour contourner les systèmes de modération de contenu automatisés. Des recherches suggèrent que l’utilisation d’emojis « est une stratégie de contournement communément exploitée par les utilisateurs, que ce soit délibérément ou non, pour transmettre des messages offensants par le biais d’associations stéréotypées ». Toujours selon les chercheurs, bien que « les modèles de langage saisissent parfaitement les constructions textuelles, il faut encore leur apprendre la signification des emojis en fonction du contexte et la manière dont différents emojis déterminent la probabilité qu’un tweet, une publication ou un commentaire donné soit haineux ».
2. Soumissions des utilisateurs
Dans leurs déclarations au Conseil, les utilisateurs qui ont signalé les publications ont expliqué qu’elles contenaient des propos racistes qui comparaient les personnes noires à des singes. L’auteur du signalement dans le cas irlandais a souligné que l’utilisation d’emojis au lieu de mots était clairement raciste et que la présence de la publication sur la plateforme mettait en lumière les lacunes des systèmes de détection automatisés d’Instagram.
3. Politiques de Meta relatives au contenu et soumissions
I. Politiques de Meta relatives au contenu
Le standard de la communauté en matière de conduite haineuse interdit le contenu « ciblant une personne ou un groupe de personnes […] qui partage l’une des caractéristiques […] protégé[e]s », y compris l’origine ethnique et nationale, « sous forme écrite ou visuelle ». Cela comprend le « discours déshumanisant, sous la forme de comparaisons ou de généralisations concernant […] des animaux en général ou certains types spécifiques d’animaux culturellement perçus comme […] inférieurs (notamment, les personnes noires et les singes ou les créatures ressemblant à des singes »). Ces comparaisons peuvent être exprimées visuellement à l’aide d’emojis et comprises grâce au contexte dans lequel s’inscrit le contenu.
Dans l’introduction de ses Standards de la communauté, Meta indique qu’elle peut supprimer le contenu qui utilise « un langage ambigu ou implicite » si le contexte qui entoure la publication lui permet de comprendre de manière raisonnable qu’il enfreint les Standards de la communauté.
II. Soumissions de Meta
Après que le Conseil a sélectionné ces cas, Meta est revenue sur ses décisions initiales de conserver les deux publications et les a supprimées. À la suite d’un examen par ses experts en la matière, l’entreprise a décidé que les deux publications constituaient des discours déshumanisants qui comparaient des individus à des animaux sur la base de leurs caractéristiques protégées, ce qui est interdit en vertu de sa politique sur la conduite haineuse.
Dans le cas brésilien, Meta a expliqué que le contenu semblait s’appuyer sur une scène de film pour commenter les pratiques de recrutement de clubs de football européens et suggérer que le Real Madrid et Barcelone se disputaient les joueurs brésiliens (souvent noirs) à la manière des hommes dans le film, qui se disent chacun propriétaire du singe. Compte tenu des incidents racistes récents au cours desquels des supporters ont comparé certaines des recrues à des singes, l’entreprise a jugé que l’emoji de singe était utilisée pour comparer les Brésiliens noirs à des animaux.
Dans le cas irlandais, Meta a déterminé que l’auteur du commentaire paraissait utiliser l’emoji de singe pour assimiler les personnes noires à cet animal. Selon l’entreprise, étant donné la description qui accompagnait la vidéo de la femme noire harcelée dans la rue, l’utilisation de l’emoji de singe reflète le comportement filmé en comparant les personnes noires à des singes et en exprimant une intention de les harceler comme les jeunes de la vidéo l’ont fait.
Meta a expliqué au Conseil que ses équipes de modération à grande échelle avaient autorisé les deux publications sur ses plateformes pour plusieurs raisons, à savoir l’ambiguïté du contexte, l’incomplétude de l’examen, la mauvaise application des conseils relatifs aux indicateurs visuels tels que les emojis, et certaines limitations liées à la langue et aux outils. L’entreprise a informé le Conseil qu’un accompagnement et des commentaires avaient été fournis aux équipes de modération. Une enquête plus approfondie a également révélé un problème d’outil qui a empêché de traduire et de rediriger correctement le contenu brésilien. En conséquence, ce dernier a été initialement attribué à un modérateur qui ne maîtrisait pas le portugais. Selon Meta, ce problème de redirection est maintenant résolu, et l’ensemble du contenu devrait désormais être envoyé dans les files d’attente des experts linguistiques et régionaux adéquats.
Meta a souligné que sa décision de supprimer les deux éléments de contenu visait à protéger les droits des individus à ne pas avoir à subir de discrimination et qu’elle était conforme à l’article 20(2) du Pacte international relatif aux droits civils et politiques (PIDCP), qui interdit « [t]out appel à la haine nationale, raciale ou religieuse qui constitue une incitation à la discrimination, à l’hostilité ou à la violence ». L’entreprise a également considéré que la suppression était nécessaire pour préserver un environnement où les utilisateurs étaient à l’abri des discriminations ou de l’hostilité.
En réponse aux questions du Conseil, Meta a expliqué que les emojis pouvaient parfois influencer la signification du contenu, mais que leur interprétation variait énormément en fonction des utilisateurs et des régions, et qu’ils pouvaient avoir différentes significations en fonction des publications. Aussi l’entreprise ne considère-t-elle pas que les emojis sont intrinsèquement en infraction. Dans ses consignes internes à l’attention de ses équipes de modération, Meta fournit plutôt des conseils et des exemples pour éclairer sur la signification possible des emojis communément utilisés, tels que l’emoji de singe, et demande à ses examinateurs de toujours tenir compte de l’intégralité du contexte dans lequel s’inscrivent les emojis avant de déterminer si leur utilisation constitue une violation. Cela implique d’examiner tous les aspects du contenu, comme les images, les légendes et les textes en superposition, ainsi que les facteurs indirectement liés au contenu, tels que la publication principale et les commentaires associés.
De même, Meta a expliqué que ses systèmes automatisés étaient conçus pour identifier les utilisations d’emojis qui pouvaient enfreindre ses politiques en tenant compte du contexte dans lequel ils apparaissaient. Pour ce faire, selon l’entreprise, les systèmes analysent la totalité de la publication et capturent tous ses éléments et ses métadonnées clés, ce qui « permet aux modèles de détecter des séquences et des signaux qui peuvent indiquer des violations de politiques, même lorsque les emojis remplacent des mots ou des concepts ». Cela implique la prise en compte de précédentes séquences en infraction. Meta a toutefois fait remarquer que ses classificateurs n’accordaient la priorité qu’à la suppression des infractions explicitement liées à une conduite haineuse « afin de réduire le risque de suppressions et de surmodération erronées », un risque particulièrement pertinent en matière d’emojis, dont la signification peut fortement dépendre du contexte.
Meta a expliqué qu’à la suite de son annonce du 7 janvier 2025, elle changeait d’approche pour ce qui est des systèmes automatisés de détection des infractions aux politiques. Avant cette date, le système prenait des mesures proactives, ce qui impliquait la détection et la suppression automatisées de tous les contenus en infraction. Bien que les systèmes automatisés de Meta puissent toujours détecter les potentielles violations de la politique relative à la conduite haineuse, la suppression de telles violations est désormais basée sur les signalements d’utilisateurs et les remontées effectuées par les partenaires de confiance. Les suppressions ne sont donc plus uniquement basées sur la détection automatisée. L’entreprise a noté qu’elle appliquait cette approche mondialement, mais qu’elle « pouvait encore prendre des mesures proactives dans les pays en crise ». Meta a ajouté qu’elle continuait d’évaluer ses obligations légales dans le monde entier afin de déterminer si ces efforts proactifs étaient conformes aux lois locales. En outre, elle a expliqué qu’elle adoptait « une approche sur mesure » pour ce qui était de l’utilisation de ses outils automatisés, et qu’elle adaptait donc sa réponse au cas par cas. Par exemple, Meta reste susceptible de déployer ses outils automatisés pour faire face à des tendances à haut risque identifiées sur sa plateforme, ainsi qu’à des fins ciblées, notamment en cas d’entrave au vote. Dans certains pays en crise (qui peuvent inclure les pays désignés dans le Protocole de politique de crise) ou qui connaissent une période d’instabilité prolongée, où des risques significatifs pour l’intégrité et les réglementations nécessitent un système d’examen solide, l’entreprise peut supprimer le contenu en infraction de manière proactive sur la base du contexte sur place.
En réponse aux questions du Conseil, Meta a indiqué que, depuis son annonce du 7 janvier 2025, de grands modèles de langage (LLM) étaient plus largement intégrés dans ses processus, où ils servent de mécanismes de vérification supplémentaires, y compris pour le contenu qui enfreint la politique en matière de conduite haineuse. Selon l’entreprise, les LLM ne remplacent pas les modèles existants, mais fournissent une seconde opinion sur les décisions de modération, l’accent étant mis sur le contenu signalé en vue de sa suppression. Dans les cas présents, les LLM n’ont pas été impliqués dans le processus d’examen.
Meta a également indiqué qu’elle disposait de plusieurs systèmes en place pour lutter contre les partis pris lors du processus de modération. Pour toutes les équipes de modération, cela inclut des audits hebdomadaires qui permettent à Meta de comprendre où les erreurs sont commises afin de pouvoir y remédier. En outre, selon Meta, les examinateurs suivent des formations régulières sur les politiques. L’entreprise a également dit qu’elle organisait des sessions bimensuelles pour fournir des clarifications sur certains détails de ses politiques à ses équipes de modération et s’assurer ainsi que les standards sont appliqués de manière correcte et cohérente. Quant à ses systèmes automatisés, Meta a indiqué qu’elle entraînait ses classificateurs à partir de signalements examinés par ses équipes et qu’elle sélectionnait du contenu varié pour être sûre qu’ils apprennent des cas les plus graves ainsi que de contenu qui aurait pu, sinon, être négligé.
En réponse aux questions du Conseil, l’entreprise a expliqué que les utilisateurs d’Instagram pouvaient recevoir une notification lorsqu’une de leurs publications ou un de leurs commentaires était signalé, ce qui leur donnait la possibilité de supprimer le contenu. Selon Meta, puisque ses politiques de conservation des données ne vont pas au-delà de 30 jours, elle ne peut pas confirmer que l’utilisateur impliqué dans le cas irlandais a reçu une notification au sujet de son commentaire.
Elle définit le « harcèlement de masse dirigé » comme des « tentatives, sur la plateforme et en dehors de celle-ci, de mobilisation d’un grand groupe de personnes pour qu’elles ciblent un sujet spécifique ». L’entreprise supprime un tel contenu lorsqu’il cible, depuis n’importe quelle surface, c’est-à-dire n’importe quel endroit de la plateforme, « des individus exposés à un risque élevé de préjudice hors ligne », tels que les défenseurs des droits humains ou les mineurs. De même, Meta supprime également ce type de contenu lorsqu’il cible un individu quelconque via son profil personnel ou sa boîte de réception privée à l’aide de (1) contenu qui enfreint les politiques sur le harcèlement et l’intimidation envers les individus privés, ou de (2) contenu répréhensible sur la base d’une caractéristique protégée. L’entreprise a indiqué qu’elle n’autorisait pas de conduite haineuse, qu’elle soit dirigée à l’encontre d’une personnalité publique ou d’un individu privé.
Le Conseil a posé des questions sur les politiques et les considérations prises en compte pour appliquer celles-ci au contenu avec des emojis ; l’historique de modération des publications ; les mises à jour apportées à l’application de la politique en matière de conduite haineuse à la suite de l’annonce faite le 7 janvier 2025 ; et les détails des mécanismes de modération actuellement en place. Meta a répondu à toutes ces questions.
4. Commentaires publics
Le Conseil a reçu neuf commentaires publics qui répondent aux critères de soumission. Huit d’entre eux provenaient des États-Unis et du Canada, et un du Moyen-Orient et d’Afrique du Nord. Pour consulter les commentaires publics soumis accompagnés d’un consentement à la publication, cliquez ici.
Les soumissions traitaient des thèmes suivants : l’évolution de l’utilisation des emojis en algospeak ; les défis liés à la détection automatisée des langages codés ainsi qu’à la modération du contenu avec des emojis qui peuvent avoir plusieurs significations ; l’importance de l’évaluation du contexte et de la formation des modérateurs pour détecter les stratégies de contournement des mesures de modération grâce à l’algospeak ; des informations sur le racisme dans le sport.
En octobre 2025, dans le cadre de ses échanges réguliers avec les parties prenantes, le Conseil a consulté des représentants d’associations de défense des droits, des universitaires, des organisations intergouvernementales et d’autres spécialistes sur les problèmes inhérents à la modération de contenu avec des emojis. Les participants ont mis en lumière les défis liés à l’analyse contextuelle du contenu avec des emojis dont les significations sont diverses et évolutives. Ils ont également insisté sur le fait que, même si certains emojis étaient utilisés en remplacement de groupes à caractéristiques protégées ou pour renforcer le caractère nuisible du message, les mêmes emojis pouvaient aussi être employés à des fins de condamnation, de responsabilisation ou de sensibilisation. Comme cela a été souligné, bien que les systèmes automatisés et les LLM détectent les langages codés de manière prometteuse, une supervision humaine des processus de modération reste nécessaire pour définir correctement le contexte et le sens du contenu.
5. Analyse du Conseil de surveillance
Le Conseil a sélectionné ces cas pour explorer l’utilisation des emojis en tant qu’« algospeak » et dans le cadre de la discrimination et du harcèlement raciaux en ligne. ll cherche également à évaluer la manière dont Meta envisage la modération de ces formes d’expression évolutives, à la fois par des équipes d’examen et des systèmes automatisés, en particulier depuis le 7 janvier 2025, où elle a annoncé qu’elle modifiait son approche en matière de modération automatisée des infractions à ses politiques. Les cas concernent l’une des sept priorités stratégiques du Conseil : Discours incitant à la haine envers des groupes marginalisés.
Le Conseil a analysé les décisions de Meta dans les cas présents, en les comparant à ses politiques relatives au contenu, à ses valeurs et à ses responsabilités en matière de droits humains. Le Conseil a également évalué les implications de ces cas pour l’approche plus globale de Meta dans le cadre de la gouvernance du contenu.
5.1 Respect des politiques de Meta relatives au contenu
- Règles relatives au contenu
Le Conseil a jugé que les deux publications enfreignaient le standard de la communauté en matière de conduite haineuse, qui interdit les comparaisons déshumanisantes avec les animaux. La ligne de politique applicable fait spécifiquement référence à la comparaison des personnes noires aux singes et aux créatures ressemblant à des singes et la cite comme un exemple de discours déshumanisant. Ces publications utilisent toutes deux l’emoji de singe pour cibler les personnes noires sur la base de leurs caractéristiques protégées. Les deux éléments de contenu violent par conséquent la politique sur la conduite haineuse.
Dans le cas brésilien, la publication s’appuie sur une scène de film dans laquelle deux personnages se disputent et se disent chacun propriétaire d’un singe. Le texte ajouté en superposition sur les personnages de la vidéo suggère que des équipes de football comme le Real Madrid et Barcelone se disputent les footballeurs brésiliens prometteurs (qui sont souvent noirs) de la même manière que les hommes dans la vidéo se disputent à propos d’un singe. Cette interprétation est confirmée par un autre texte en superposition qui fait référence aux jeunes footballeurs qui gagnent en popularité au Brésil. L’utilisation de l’emoji de singe dans la légende vient encore renforcer l’intention de la publication, qui compare implicitement les joueurs de football brésiliens à des singes. L’utilisation de références aux singes par des supporters qui veulent faire preuve de discrimination raciale envers les athlètes noirs est une tendance alarmante dans le milieu du sport, en particulier du football, dont le Conseil est conscient. Compte tenu du contexte existant et du schéma établi, la publication enfreint clairement la politique de Meta en matière de conduite haineuse en déshumanisant les personnes noires par des comparaisons ou des généralisations relatives à des animaux.
Dans le cas irlandais, le commentaire défie la publication initiale, qui condamne le racisme anti-noir en Irlande. Il dit avoir hâte que la situation « blow up » (dégénère) et qu’il veut « to have some glorious fun with all the [monkey emojis] & out in the street » (s’amuser comme un fou avec tous les [emojis de singe] et dans la rue). Cette référence aux personnes noires en tant que singes, couplée à l’utilisation des emojis de rire et des mains en prière et à l’attente de « glorious days ahead » (beaux jours en perspective), traduit l’intention de l’utilisateur de déshumaniser les personnes noires en les assimilant à des singes. Étant donné la montée de la négrophobie en Irlande et le fait que le commentaire est publié sous une vidéo dans laquelle l’auteur s’indigne du racisme dans le pays, l’utilisation des emojis de singe en commentaire est une référence manifeste aux personnes noires (un groupe aux caractéristiques protégées), qu’il assimile à des singes. Par conséquent, cette publication enfreint la politique sur la conduite haineuse.
2. Mesures de mise en application
Ces cas suscitent de l’inquiétude quant à la précision avec laquelle la politique en matière de conduite haineuse est appliquée, en particulier lorsqu’il s’agit d’évaluer l’utilisation d’emojis en tant que forme d’algospeak.
Meta indique à ses équipes de modération de toujours tenir compte de l’intégralité du contexte dans lequel s’inscrit l’emoji avant de déterminer si son utilisation constitue une violation. Cela signifie que les équipes de modération doivent examiner tous les aspects du contenu, comme les images, les légendes et les textes en superposition, ainsi que les facteurs indirectement liés au contenu, tels que la publication principale et les commentaires associés. Puisque les emojis peuvent avoir diverses significations, cette approche est conforme aux recommandations précédentes du Conseil sur l’évaluation contextuelle et globale des publications (cf., entre autres, Collier de wampum).
Dans ces cas-ci, aussi bien les systèmes automatisés que les équipes de modération à divers niveaux ont échoué à évaluer précisément les publications et les ont laissées sur les plateformes. Le Conseil s’inquiète de constater que, bien que les classificateurs aient détecté le contenu impliqué dans les deux cas, ils n’ont pris aucune mesure à leur égard : il a été jugé que la publication brésilienne n’était pas en infraction, tandis que le classificateur n’a pas été en mesure de déterminer avec certitude que la publication irlandaise était en anglais.
Par ailleurs, des problèmes de redirection et de traduction ont émaillé l’examen initial du cas brésilien, et la décision qui a alors été rendue n’a pas été vérifiée, en dépit des dizaines de signalements envoyés. Pour veiller à ce que les examens soient adéquats, les processus de modération de Meta devraient être conçus pour toujours rediriger le contenu vers les experts linguistiques et régionaux appropriés. Enfin, le Conseil s’inquiète du fait que, dans les deux cas et malgré les consignes détaillées qui auraient dû leur permettre d’effectuer une analyse contextuelle globale du contenu avec les emojis, les deux modérateurs humains ont maintenu lors de l’appel la décision initiale de conserver les publications sur les plateformes, alors qu’il était clair qu’elles étaient en infraction.
Meta a également indiqué que ses classificateurs étaient entraînés à l’aide d’ensembles de données issues d’exemples signalés et étiquetés, y compris des cas où l’utilisation des emojis constitue une infraction potentielle. L’entreprise devrait améliorer la capacité de ses systèmes automatisés à détecter précisément l’utilisation prohibée d’emojis en fonction du contexte. Compte tenu du fait que les emojis ayant différentes significations sont largement utilisés, Meta devrait régulièrement auditer les données d’entraînement utilisées pour faire respecter sa politique en matière de conduite haineuse, en particulier pour ce qui est des exemples avec emojis dans toutes les langues, et s’assurer que des ensembles de données de meilleure qualité sont inclus. L’entreprise devrait prendre en compte la nature évolutive de l’utilisation des emojis et s’appuyer sur les résultats de recherches qui peuvent comprendre des informations sur les tendances en matière d’utilisation des emojis sur ses plateformes, dans toutes les langues et régions (cf. aussi PC-31493). Conformément à ses engagements à élaborer et à appliquer ses règles mondiales sans discriminer, Meta devrait veiller à ce que les ensembles de données contiennent du contenu avec emojis dans d’autres langues que l’anglais.
5.2. Respect des responsabilités de Meta en matière de droits humains
Le Conseil estime que le maintien des deux publications sur la plateforme n’était pas conforme aux responsabilités de Meta en matière de droits humains.
Liberté d’expression (article 19 du PIDCP)
L’article 19, paragraphe 2 du PIDCP prévoit que « [t]oute personne a droit à la liberté d’expression ; ce droit comprend la liberté de rechercher, de recevoir et de répandre des informations et des idées de toute espèce, sans considération de frontières, sous une forme orale, écrite, imprimée ou artistique, ou par tout autre moyen ». L’Observation générale n° 34 précise en outre que l’expression protégée inclut l’expression susceptible d’être considérée comme « profondément offensante » (paragraphe 11).
Lorsque des restrictions de la liberté d’expression sont imposées par un État, elles doivent remplir des critères de légalité, d’objectif légitime, ainsi que de nécessité et de proportionnalité (article 19, paragraphe 3 du PIDCP). Ces exigences sont souvent reprises sous l’intitulé « test tripartite ». Le Conseil s’appuie sur ce test afin d’interpréter les responsabilités de Meta en matière de droits humains conformément aux Principes directeurs relatifs aux entreprises et aux droits de l’homme des Nations unies (ONU), que Meta elle-même s’est engagée à respecter dans sa Politique relative aux droits humains. Le Conseil utilise ce test à la fois pour la décision relative au contenu en cours d’examen et pour ce que cela dit de l’approche plus large de Meta en matière de gouvernance du contenu. Comme l’a déclaré le Rapporteur spécial de l’ONU sur la liberté d’expression, même si « les entreprises ne sont pas soumises aux mêmes devoirs que les gouvernements, leur influence est néanmoins telle qu’elle doit les inciter à se poser les mêmes questions qu’eux quant à la protection de la liberté d’expression de leurs utilisateurs » (A/74/486, paragraphe 41).
I. Légalité (clarté et accessibilité des règles)
Le principe de légalité prévoit que les règles qui limitent la liberté d’expression soient accessibles, claires et suffisamment précises pour permettre à un individu d’adapter son comportement en conséquence (Observation générale n° 34, paragraphe 25). En outre, ces règles « ne peu[ven]t pas conférer aux personnes chargées de [leur] application un pouvoir illimité de décider de la restriction de la liberté d’expression » et doivent « énoncer des règles suffisamment précises pour permettre aux personnes chargées de leur application d’établir quelles formes d’expression sont légitimement restreintes et quelles formes d’expression le sont indûment » (Ibid). Le Rapporteur spécial des Nations Unies sur la liberté d’expression a déclaré que lorsqu’elles s’appliquent aux acteurs privés, les règles régissant le discours en ligne devaient être claires et précises (A/HRC/38/35, paragraphe 46). Les personnes qui utilisent les plateformes de Meta devraient pouvoir accéder aux règles et les comprendre, et les équipes d’examen de contenu devraient disposer de consignes claires sur leur application.
Le Conseil estime que, telles qu’appliquées dans ces cas-ci, les règles sur les comparaisons déshumanisantes avec des animaux en général ou certains types spécifiques d’animaux culturellement perçus comme inférieurs sont suffisamment claires. Ainsi, le standard de la communauté en matière de conduite haineuse indique clairement et publiquement que la comparaison des personnes noires avec des singes ou des créatures ressemblant à des singes est interdite, ce qui souligne à quel point cette analogie raciste est largement reconnue. En outre, les consignes internes de Meta comprennent une liste illustrative et non exhaustive d’emojis, notamment ceux du singe et de la banane, qui pourraient signifier une comparaison visuelle entre des groupes à caractéristiques protégées et des animaux.
II. Objectif légitime
Par ailleurs, toute restriction de la liberté d’expression doit aussi, au minimum, répondre à l’un des objectifs légitimes énumérés dans le PIDCP, qui incluent la protection des droits d’autrui (article 19, paragraphe 3 du PIDCP).
La Rapporteuse spéciale des Nations Unies sur les formes contemporaines de racisme, de discrimination raciale, de xénophobie et de l’intolérance qui y est associée a noté que les discours de haine raciale, y compris ceux qui sont diffusés en ligne, « ont […] un puissant effet néfaste au niveau sociétal, détruisant le tissu social des communautés et sapant les normes des droits humains et de la démocratie, y compris l’égalité et la non-discrimination » [A/78/538, paragraphe 31 (2023)]. La Rapporteuse spéciale sur la promotion et la protection du droit à la liberté d’opinion et d’expression a averti les entreprises de réseaux sociaux sur le fait que les « discours incendiaires mettent les personnes en danger et favorisent l’autocensure, mais ils divisent également les communautés en alimentant la peur, la suspicion et l’hostilité, en détruisant la confiance sociale et en affaiblissant le dialogue démocratique et la participation civique » [A/80/341, paragraphe 30 (2025)].
Le Conseil a précédemment reconnu que le standard de la communauté sur les discours haineux (désormais relatif à la conduite haineuse) poursuit l’objectif légitime de protéger les droits d’autrui. Parmi ces droits figure le droit à l’égalité et à la non-discrimination (article 2, paragraphe 1, PIDCP ; articles 2 et 5 de la Convention internationale sur l’élimination de toutes les formes de discrimination raciale. Voir aussi Publications affichant le drapeau sud-africain de la période de l’apartheid et Commentaire sur la politique kényane impliquant une insulte interdite).
III. Nécessité et proportionnalité
Conformément à l’article 19(3) du PIDCP, le principe de nécessité et de proportionnalité requiert que les restrictions de la liberté d’expression soient « appropriées pour remplir leur fonction de protection, elles doivent constituer le moyen le moins perturbateur parmi ceux qui pourraient permettre d’obtenir le résultat recherché et elles doivent être proportionnées à l’intérêt à protéger » (Observation générale n° 34, paragraphe 34).
Publications individuelles
Le Conseil reconnaît que le contenu avec des emojis peut avoir de nombreuses significations, et notamment être utilisé de manière autoréférentielle ou à des fins de condamnation ou de responsabilisation. Tout comme un terme peut être employé de manière haineuse ou non haineuse, il est nécessaire d’analyser le contexte dans lequel les emojis sont utilisés pour comprendre parfaitement l’intention qui se cache derrière eux. Le contenu qui a recours aux emojis dans une tentative d’inciter à la discrimination, à l’hostilité ou à la violence envers des groupes à caractéristiques protégées devrait toutefois être supprimé.
Le paragraphe 2 de l’article 20 du PIDCP indique que « [t]out appel à la haine nationale, raciale ou religieuse qui constitue une incitation à la discrimination, à l’hostilité ou à la violence est interdit par la loi ». Cette interdiction est « pleinement compatible avec le droit à la liberté d’expression tel qu’il est énoncé à l’article 19 [PIDCP], dont l’exercice s’accompagne de responsabilités et de devoirs spéciaux » (Observation générale n° 11 (1983), paragraphe 2). L’interdiction prévue par l’article 20 est également soumise au test tripartite de l’article 19 (Observation générale n° 34), paragraphes 50 à 52).
Le Conseil estime que la suppression de ces publications est nécessaire et proportionnée afin d’empêcher l’exploitation des plateformes de Meta à des fins d’incitation à la discrimination ou à l’hostilité envers les groupes à caractéristiques protégées, dans ces cas-ci les personnes noires. Le Comité pour l’élimination de la discrimination considère que « [l]’incitation s’entend en général de tout acte visant à influencer d’autres personnes pour qu’elles se livrent à certaines formes de comportement, y compris la commission d’un crime, par le biais de l’encouragement ou de menaces. L’incitation peut être explicite ou implicite, au moyen d’actes tels que l’affichage de symboles racistes, la distribution de matériels ou l’emploi de certains mots » [Recommandation générale n° 35, paragraphe 16 (2013)]. Le Comité note que, bien que « la notion d’incitation en tant qu’infraction non accomplie signifie qu’il n’est pas nécessaire que l’incitation aboutisse à des actes, […] lorsqu’ils réglementent les formes d’incitation […], les États parties devraient tenir compte, en tant qu’aspects importants de l’infraction d’incitation, […] de l’intention de l’orateur, et du risque imminent ou de la probabilité que le comportement recherché ou préconisé par l’orateur débouche sur de l’incitation » (Id.).
Un guide des Nations Unies de 2023 à l’attention des responsables politiques souligne à quel point il est important d’identifier le « discours haineux non verbal » et d’y remédier, qu’il soit exprimé par le biais de vidéos, de musique, de memes ou d’autres contenus multimédias, ou encore de « langage codé », qui peut être plus difficile à détecter. Le Conseil a précédemment cité l’expression « créativité pernicieuse », inventée par le Wilson Center, pour faire référence à « l’utilisation d’un langage codé ; de memes itératifs, visuels et textuels basés sur le contexte ; et d’autres stratégies destinées à éviter leur détection sur les plateformes de réseaux sociaux » (cf. la décision Publication en polonais ciblant les personnes trans).
Dans certains contextes, les emojis peuvent représenter des formes d’« algospeak » pour exprimer de la haine envers des groupes à caractéristiques protégées spécifiques, les discriminer et les harceler. Le Conseil estime que le contenu impliqué dans les deux cas s’inscrit dans cette tendance, car ils font clairement référence aux personnes noires pour les assimiler à des singes.
Dans le cas brésilien, les images et l’emoji de singe ont été utilisés pour comparer à des singes les joueurs de football brésiliens, dont un grand nombre sont noirs. Le contenu a été publié dans un contexte plus large d’hostilité et de racisme systémiques largementdocumentés dans le monde du football, avec une attention particulière portée aux attaques ciblées contre les joueurs noirs. Le contenu a été vu plus de 22 000 fois et illustre une tendance inquiétante : la perpétuation de stéréotypes racistes et l’incitation à des actes probables et imminents de discrimination et d’hostilité à l’encontre de groupes à caractéristiques protégées, dans ce cas-ci les personnes noires.
Dans le cas irlandais, le commentateur a utilisé l’emoji de singe pour comparer toutes les personnes noires, mentionnées dans la publication principale, à cet animal. Le commentaire a été partagé alors que l’Irlande enregistre une montée de la discrimination et de l’exclusion des personnes noires sur son territoire, et répondait à une publication qui a reçu plus de 293 000 mentions J’aime et 9500 commentaires. Dans le cas Dessin animé de Knin, le Conseil a jugé que « le fait de représenter les Serbes comme des rats et d’appeler à leur expulsion par le biais de références à des actes de violence historiques affecte les droits à l’égalité et à la non-discrimination des personnes ciblées ». De même, dans ce cas-ci, l’auteur du commentaire assimilait les personnes noires à des singes. Le commentaire encourageait à un comportement hostile analogue à celui qui était décrit dans la publication principale, incitant par là à la discrimination et à l’hostilité.
Ces publications illustrent la manière dont les emojis peuvent servir à inciter d’autres personnes à agir de façon discriminatoire et potentiellement hostile. Des interventions moins sévères, telles que des étiquettes, des écrans d’avertissement ou d’autres mesures visant à réduire sa diffusion, n’auraient pas fourni une protection adéquate contre les effets du maintien d’un contenu de cette nature sur la plateforme. Leur suppression était par conséquent justifiée.
Dans les cas plus ambigus, le Conseil invite Meta à continuer d’envisager avec prudence des mesures moins intrusives, conformément à sa recommandation dans la décision Manifestations pro-Navalny en Russie. Elles permettraient aux utilisateurs de remédier eux-mêmes à certains problèmes ou les aider à comprendre que leur contenu peut avoir des répercussions sur autrui. Lorsqu’elle mettra au point ces mesures, Meta devra s’assurer qu’elles sont efficaces et qu’elles n’ont pas de conséquences négatives sur les droits humains (cf. la recommandation n° 1 du cas Commentaire sur la politique kényane impliquant une insulte interdite).
Problèmes plus généraux
Les propres recherches et rapports du Conseil montrent que ce type de contenu cible souvent des individus précis sur la base de leurs caractéristiques protégées, en particulier dans le monde du sport, comme celui du football. Meta supprime le harcèlement de masse dirigé au titre de sa politique sur le harcèlement et l’intimidation lorsque le contenu fait l’objet d’une remontée en vue d’un examen par un expert. L’entreprise a également prévu plusieurs mesures de contrôle des utilisateurs pour lutter contre la maltraitance. Par exemple, les utilisateurs d’Instagram peuvent gérer plusieurs commentaires indésirables à la fois ou bloquer d’un seul coup les comptes qui les ont publiés, ou définir des filtres pour les commentaires « afin d’empêcher la publication de commentaires offensants qui utilisent les mots, expressions ou emojis qu’ils ne veulent pas voir ».
Pour mieux coordonner ses efforts et protéger les utilisateurs qui, sans être directement nommés, sont implicitement ciblés par des campagnes de haine, Meta devrait élaborer une procédure pour harmoniser ses mesures existantes afin d’enrayer les campagnes de haine de manière proactive, en particulier celles qui impliquent l’utilisation d’emojis. Cela inclut les campagnes aussi bien envers les individus privés qu’envers les personnalités publiques par le biais de mentions directes/explicites ou indirectes/implicites qui déclenchent l’application des politiques sur le harcèlement et l’intimidation ou sur la conduite haineuse. La procédure veillera à ce que Meta adopte une approche cohésive pour combler les lacunes de ses systèmes de modération, identifier et évaluer les campagnes de haine coordonnées et ciblées, et mettre en place des canaux de feedback permanents.
S’assurer que ses systèmes sont bien équipés pour traiter les campagnes ciblées est également important pour la préparation aux grands évènements sportifs, en particulier footballistiques. De nombreux incidentsdocumentés, à la fois en ligne et dans les stades, illustrent une tendance alarmante à l’animosité raciste entre groupes de supporters et de spectateurs. Meta devrait veiller à ce que ses efforts de mitigation temporaires incluent une surveillance active du contenu avec des emojis qui incitent à la discrimination et à l’hostilité ciblées juste avant, pendant et immédiatement après les grands évènements sportifs, p. ex. la Coupe du monde de football de 2026 (FIFA). Cet objectif pourrait être atteint grâce à la mise sur pied d’une équipe transfonctionnelle d’experts de divers services de l’entreprise afin de « répondre en temps réel aux tendances et aux problèmes potentiels », une équipe similaire au Centre de gestion des produits d’intégrité ; grâce à la mise en œuvre d’un processus d’examen accéléré pour les appels liés aux infractions associées aux évènements sportifs ; et grâce à la surveillance en temps réel des tendances afin de détecter les pics de contenu avec des emojis qui ciblent des individus spécifiques ou des groupes à caractéristiques protégées. Meta devrait également interagir avec la FIFA et d’autres associations de sportifs professionnels pour rester informée des dynamiques et des tendances pertinentes.
6. Décision du Conseil de surveillance
Le Conseil annule la décision initiale de Meta de conserver le contenu dans les deux cas examinés.
7. Recommandations
Mise en application
1. Pour améliorer la capacité de ses systèmes automatisés à détecter plus précisément l’utilisation prohibée d’emojis en fonction du contexte, Meta devrait auditer les données d’entraînement qui sont utilisées pour faire appliquer sa politique en matière de conduite haineuse et s’assurer que les données sont régulièrement mises à jour pour inclure des exemples de contenu avec emojis dans toutes les langues, d’utilisations d’emojis prohibées et des nouvelles occurrences d’utilisation haineuse des emojis.
Le Conseil considérera que cette recommandation a bien été suivie lorsque Meta lui fournira les résultats détaillés de son premier audit et une liste des améliorations nécessaires que l’entreprise entend mettre en œuvre en conséquence.
2. Pour mieux protéger les personnes qui, sans être directement nommées, sont implicitement ciblées par les campagnes de haine, Meta devrait harmoniser ses efforts actuels afin d’enrayer proactivement les campagnes de haine, en particulier celles qui impliquent l’utilisation d’emojis. Cela inclut les campagnes qui impliquent aussi bien des individus privés que des personnalités publiques par le biais de mentions directes/explicites ou indirectes/implicites qui déclenchent l’application des politiques sur le harcèlement et l’intimidation ou sur la conduite haineuse.
Le Conseil considérera que cette recommandation a été suivie lorsque Meta partagera avec lui ses pratiques de modération mises à jour pour les campagnes de haine ciblées.
3. Pour s’assurer que ses systèmes sont bien équipés pour traiter les campagnes de haine durant les grands évènements sportifs comme la Coupe du monde de football (FIFA), Meta devrait veiller à ce que ses efforts de mitigation temporaires, que ce soit par l’intermédiaire de son Centre de gestion des produits d’intégrité ou grâce à un autre système d’atténuation des risques, incluent une surveillance active du contenu avec des emojis qui incitent à la discrimination et à l’hostilité juste avant, pendant et immédiatement après ces évènements.
Le Conseil considérera que cette recommandation a été suivie lorsque Meta lui donnera la preuve des efforts mis en œuvre pour évaluer et mitiger les risques pendant les grands évènements sportifs.
Le Conseil souligne à nouveau l’importance de ses recommandations précédentes et leur pertinence dans ces cas-ci (recommandation n° 1 du cas Commentaire sur la politique kényane impliquant une insulte interdite). Conformément à ces recommandations, Meta devrait :
- Donner aux utilisateurs la possibilité de corriger eux-mêmes leurs erreurs, comme ce fut le cas à la suite de la recommandation n° 6 dans la décision Manifestations pro-Navalny en Russie, qui prévoit d’informer un utilisateur lorsque sa publication contient une expression ou un terme interdit afin de lui permettre de la corriger. Si cette option n’est plus disponible, Meta devrait proposer une autre solution comparable sur ses produits.
Note de procédure :
- Les décisions du Conseil de surveillance sont prises par des panels de cinq membres et approuvées par une majorité du Conseil dans son ensemble. Les décisions du Conseil ne représentent pas nécessairement les opinions de tous les membres.
- En vertu de sa Charte, le Conseil de surveillance est habilité à examiner les appels déposés par les utilisateurs dont le contenu a été supprimé par Meta, les appels déposés par les utilisateurs ayant signalé un contenu que Meta n’a finalement pas supprimé, et les décisions que Meta lui transmet (article 2, section 1 de la Charte). Le Conseil dispose d’une autorité contraignante pour confirmer ou annuler les décisions de Meta relatives au contenu (article 3, section 5 de la Charte ; article 4 de la Charte). Le Conseil est habilité à émettre des recommandations non contraignantes auxquelles Meta doit répondre (article 3, section 4 de la Charte ; article 4). Lorsque Meta s’engage à donner suite aux recommandations, le Conseil surveille leur mise en œuvre.
- Pour la décision sur ce cas, des recherches indépendantes ont été commandées au nom du Conseil. Le Conseil a bénéficié de l’aide de Duco Advisors, une société de conseil spécialisée dans la géopolitique, la confiance et la sécurité, ainsi que la technologie.
Retour aux décisions de cas et aux avis consultatifs politiques