Lutte contre l’« Algospeak » intégrant des émojis utilisés dans les discours incitant à la haine
10 février 2026
Le Conseil de surveillance renverse les décisions initiales de Meta de maintenir en ligne deux contenus qui utilisent des émojis pour exprimer la haine, la discrimination et le harcèlement envers des personnes noires en les comparant à des singes. Le Conseil a demandé à Meta d’empêcher le ciblage haineux et discriminatoire de certains groupes en améliorant sa modération automatisée et humaine afin de tenir pleinement en compte de l’« algospeak », y compris de l’intégration d’émojis dans le cadre de cette pratique. L’entreprise devrait notamment garantir que ses données d’entraînement pour l’application automatisée des politiques sont adaptées à la zone géographique et tenues à jour, que les efforts sont coordonnés pour contrer de manière proactive les campagnes haineuses et que ses efforts d’atténuation comprennent une surveillance active des contenus utilisant des émojis pour inciter à la discrimination et à l’hostilité lors de grands événements sportifs, comme la Coupe du monde de la FIFA (International Federation of Association Football).
À propos des cas
Ces cas concernent deux messages publiés en mai 2025 utilisant des émojis singe pour désigner des personnes noires.
Dans le premier cas, un utilisateur brésilien a publié sur Facebook une courte vidéo montrant une scène du film Very Bad Trip, dans laquelle deux personnages, doublés en portugais, se disputent, chacun revendiquant la propriété d’un singe. Un texte superposé à la vidéo affuble les personnages du nom des clubs de football espagnol « Barcelona » et « Real Madrid ». Un autre texte superposé fait référence à des jeunes athlètes qui commencent à percer dans le milieu du football brésilien. La légende de la vidéo comprend un émoji singe. La publication a été vue plus de 22 000 fois et 12 personnes l’ont signalée.
Le deuxième cas concerne un commentaire publié en réponse à une vidéo publiée sur le compte Instagram d’un utilisateur en Irlande. Dans la vidéo, l’auteur exprime son indignation après avoir été témoin d’un incident raciste dans la rue en Irlande. La légende appelle à lutter contre le racisme en Irlande. Un autre utilisateur a déclaré en commentaire qu’il ne soutenait pas ce message, exprimant son impatience de voir la situation devenir « explosive » et manifestant son intention « d’en découdre avec tous ces [émojis singe] dans la rue ». Le commentaire comprenait en outre plusieurs émojis singe, ainsi que des émojis qui rient et prient, célébrant les « jours glorieux qui nous attendent ». La publication d’origine a été vue plus de 4 000 fois et 62 personnes ont signalé le commentaire.
Les systèmes automatisés de Meta et, après les appels des utilisateurs, les examinateurs manuels ont conservé ces deux publications en ligne. Des utilisateurs ont alors fait appel auprès du Conseil. Après que le Conseil a sélectionné ces cas pour examen, Meta est revenue sur ses décisions initiales, et a supprimé les publications en juillet 2025, les considérant contraires au Standard de la communauté Conduite haineuse.
Le langage codé utilisant des tournures de phrases ou des émojis (appelé « algospeak ») peut être utilisé pour transmettre des messages déshumanisants ou haineux tout en contournant les systèmes automatisés de modération du contenu.
Principaux constats
Le Conseil s’inquiète de la pertinence de ses mesures de mise en application de la politique Conduite haineuse, en particulier pour évaluer les émojis utilisés en algospeak. Les classificateurs ont identifié le contenu, mais n’ont pris aucune mesure. Meta indique que les examinateurs doivent prendre en compte tous les aspects du contenu, comme les images, les légendes et les textes en superposition, ainsi que des facteurs qui dépassent le contenu à proprement parler, y compris la publication principale et les commentaires. Meta a également expliqué que ses classificateurs sont entraînés à partir d’ensembles de données d’exemples signalés et étiquetés, y compris de cas où les emojis sont utilisés de manière susceptible à enfreindre ses politiques. Cependant, les examens manuels et automatisés n’ont pas permis d’évaluer de manière pertinente les publications.
Meta devrait améliorer la détection automatique des utilisations d’émojis enfreignant ses politiques en vérifiant régulièrement ses données d’entraînement. Les procédures de mise en application doivent toujours diriger le contenu vers des examinateurs possédant les compétences linguistiques et régionales appropriées.
En réponse aux questions du Conseil, Meta a déclaré qu’après l’annonce faite par l’entreprise le 7 janvier 2025, les grands modèles de langage (LLM) sont désormais plus largement intégrés en tant que couche de révision supplémentaire, y compris pour les contenus susceptibles d’enfreindre la politique Conduite haineuse. Selon Meta, les LLM ne remplacent pas les modèles existants, mais fournissent un deuxième avis sur les décisions d’application, en se concentrant sur les contenus signalés pour suppression. Dans ces cas, les LLM n’ont pas participé au processus de révision.
Le Conseil estime que ces deux publications enfreignent le standard de la communauté Conduite haineuse interdisant les comparaisons déshumanisantes avec des animaux. Les deux publications utilisent l’émoji singe pour cibler les personnes noires en raison de leur caractéristique protégée.
Le maintien de ces publications en ligne est également incompatible avec les responsabilités de Meta en matière de droits humains, car les émojis visant à déshumaniser et à inciter à la discrimination ou à l’hostilité envers des groupes protégés sont passibles de retrait. Il est indispensable et proportionné de supprimer ces deux publications.
Ces deux publications représentent des formes d’algospeak utilisées pour exprimer la haine, la discrimination et le harcèlement à l’égard de groupes spécifiques protégés par des caractéristiques particulières, et illustrent comment les émojis peuvent être utilisés pour inciter d’autres personnes à adopter une attitude discriminatoire et potentiellement hostile.
Le message brésilien a été publié dans un contexte de racisme et d’hostilité systémiques largement documentés dans le monde du football, visant en particulier les joueurs noirs. Le commentaire dans le cas irlandais a été partagé dans le contexte de la montée de la discrimination raciale et de l’afrophobie en Irlande.
Afin de mieux coordonner ses efforts et de protéger les personnes qui ne sont peut-être pas directement nommées, mais qui sont implicitement la cible de campagnes haineuses, Meta devrait élaborer un cadre visant à harmoniser ses mesures existantes afin de contrer de manière proactive les campagnes haineuses, en particulier celles qui impliquent l’utilisation d’émojis. Meta devrait veiller à ce que ses efforts d’atténuation urgents, que ce soit par le biais de son centre pour l’intégrité des opérations produit (Integrity Product Operations Center) ou d’un autre système d’atténuation des risques, comprennent une surveillance active des contenus contenant des émojis qui incitent à la discrimination ou à l’hostilité ciblées avant, pendant et à l’issue de grands événements sportifs, comme la Coupe du monde de la FIFA 2026.
Décision du Conseil de surveillance
Le Conseil renverse la décision initiale de Meta de maintenir en ligne ces deux contenus.
Le Conseil recommande également à Meta :
- D’auditer les données d’entraînement de ses systèmes automatisés utilisés pour la mise en application de la politique Conduite haineuse et de s’assurer que les données sont mises à jour régulièrement afin d’inclure des exemples de contenus contenant des émojis dans toutes les langues, des utilisations d’émojis enfreignant ses politiques et de nouveaux cas d’utilisation haineuse d’émojis.
- D’harmoniser ses efforts existants afin de contrer de manière proactive les campagnes haineuses, en particulier celles qui impliquent l’utilisation d’émojis, pour mieux protéger les personnes qui ne sont peut-être pas directement nommées, mais qui sont implicitement la cible de campagnes haineuses.
- De veiller à ce que ses efforts d’atténuation urgents, que ce soit par le biais de son centre pour l’intégrité des opérations produit (Integrity Product Operations Center) ou d’un autre système d’atténuation des risques, comprennent une surveillance active des contenus contenant des émojis qui incitent à la discrimination ou à l’hostilité ciblées avant, pendant et à l’issue de grands événements sportifs, comme la Coupe du monde de la FIFA.
Le Conseil réitère l’importance de sa recommandation précédente pertinente selon laquelle Meta devrait :
- Fournir aux utilisateurs une possibilité d’auto-correction comparable à l’intervention post-publication mise en place à la suite des manifestations pro-Navalny en Russie, recommandation n° 6. Si cette mesure n’est plus en vigueur, l’entreprise devrait en proposer une autre similaire.
Plus d’informations
Pour lire les commentaires publics sur ce cas, cliquez ici.