Renversé
Déclarations à propos du Premier ministre japonais
Dans le cas de la réponse d’un utilisateur à une publication Threads à propos du Premier ministre japonais et d’un scandale de fraude fiscale, la suppression du contenu n’était ni nécessaire ni cohérente avec les responsabilités de Meta en matière de droits humains.
Pour lire cette décision en japonais, cliquez ici.
決定内容の全文を日本語で読むには、 こちらをクリックしてください。
Résumé
Dans le cas de la réponse d’un utilisateur à une publication Threads à propos du Premier ministre japonais et d’un scandale de fraude fiscale, la suppression du contenu n’était ni nécessaire ni cohérente avec les responsabilités de Meta en matière de droits humains. Ce cas s’intéresse de près à la manière dont Meta doit faire la distinction entre les menaces de violence abstraites et celles qui sont bien réelles. Le Conseil a fréquemment mis en évidence des cas de surmodération qui pénalisent les menaces figurées. Que la politique de Meta sur la violence et l’incitation ne distingue toujours pas clairement les menaces littérales des menaces abstraites est inquiétant. Dans ce cas-ci, la menace à l’encontre d’une personnalité politique servait de critique politique non littérale, attirait l’attention sur un scandale de corruption présumée et employait des termes grossiers, ce qui n’est pas rare sur les réseaux sociaux japonais. Il était peu probable qu’elle porte préjudice. Bien que les deux modérateurs impliqués parlent japonais et comprennent le contexte sociopolitique de la région, ils ont commis l’erreur de supprimer le contenu. Aussi Meta devrait-elle fournir à ses équipes d’examen de contenu des consignes supplémentaires sur la manière d’évaluer le langage et le contexte local et s’assurer que ces règles internes sont cohérentes avec la justification de ses politiques.
À propos du cas
En janvier 2024, une personne a partagé une publication sur Threads à propos d’un article de presse sur le Premier ministre japonais, Fumio Kishida, et la réponse qu’il a apportée au sujet des irrégularités constatées lors des collectes de fonds qui impliquaient son parti. La légende de la publication accuse le Premier ministre d’évasion fiscale. Un utilisateur y a répondu publiquement, exigeant que des explications soient données à l’organe législatif japonais, qualifiant le Premier ministre d’évadé fiscal et employant le mot « hah » et l’expression « 死ね », que l’on peut traduire par « drop dead/die » (meurs) en anglais. L’expression figurait parmi plusieurs hashtags, et la réponse de l’utilisateur comportait également un terme dénigrant utilisé pour désigner une personne qui porte des lunettes.
La réponse de l’utilisateur à la publication sur Threads n’a pas reçu de mention « J’aime » et n’a été signalée qu’une seule fois pour violation des règles de Meta sur le harcèlement et l’intimidation. Trois semaines plus tard, un modérateur a déterminé que le contenu enfreignait plutôt la politique sur la violence et l’incitation. Lorsque l’utilisateur a fait appel, un autre modérateur a confirmé que le contenu était en infraction. L’utilisateur a alors fait appel auprès du Conseil. Après que le Conseil a sélectionné le cas, Meta a déterminé que sa décision initiale était incorrecte et a restauré la réponse de l’utilisateur sur Threads.
À peu près au moment du partage de la publication Threads initiale et de la réponse de l’utilisateur, des personnalités politiques japonaises du Parti libéral-démocrate ont été mises en examen pour avoir omis de déclarer de l’argent obtenu lors de collectes de fonds ; le Premier ministre Kishida n’en faisait pas partie. Depuis 2022, année lors de laquelle l’ancien Premier ministre Shinzo Abe a été assassiné, la violence politique est devenue un sujet de préoccupations au Japon.
Fumio Kishida a récemment annoncé qu’il ne chercherait pas à se faire réélire à la tête du Parti libéral-démocrate le 27 septembre 2024 et qu’il allait quitter ses fonctions de Premier ministre.
Principales observations
Le Conseil estime que l’expression « drop dead/die » (meurs) (traduite de l’original « 死ね ») n’est pas une menace crédible et qu’elle n’enfreint donc pas la règle sur la violence et l’incitation qui interdit les « menaces de violence pouvant entraîner la mort ». Des spécialistes ont confirmé que l’expression était utilisée au sens large et de manière figurée pour marquer son aversion et sa désapprobation. Le contenu laisse également penser que l’expression ne doit pas être prise à la lettre en raison du mot « hah », qui exprime de l’amusement ou de l’ironie.
Néanmoins, la règle de Meta sur la violence et l’incitation qui interdit les appels à la mort (de type « mort à ») des personnes à haut risque n’est pas suffisamment claire. La justification de la politique de Meta suggère que le contexte est pris en compte lors de l’évaluation des menaces. Toutefois, comme le Conseil l’a fait remarquer dans un cas précédent, les équipes d’examen de contenu à grande échelle de Meta n’ont pas les moyens de déterminer l’intention ou la crédibilité d’une menace. Ainsi, si une publication comprend des menaces de type « mort à » et une cible (p. ex., « un appel à la violence à l’égard d’une cible »), elle est supprimée. Réitérant une recommandation datant de 2022, le Conseil appelle Meta à inclure une précision dans le texte public de sa politique pour expliquer que les menaces rhétoriques de type « mort à » sont généralement autorisées, sauf si elles concernent des individus à haut risque, et pour fournir des critères relatifs aux situations dans lesquelles les menaces à l’encontre de chefs d’État sont autorisées afin de protéger le discours politique rhétorique.
Par ailleurs, la différence de traitement entre les « personnalités publiques » et les « personnes à haut risque » dans la politique est source de confusion. Pour le moment, les menaces de violence de moyenne gravité à l’égard de personnalités publiques ne sont supprimées que lorsqu’elles sont « crédibles », tandis que les menaces sont supprimées « quelle que soit leur crédibilité » lorsqu’elles concernent toute autre cible. Encore plus déroutante, une autre ligne de cette politique accorde des « protections supplémentaires » aux individus à haut risque. À ce sujet, les consignes internes à l’attention des équipes d’examen de contenu, qui ne sont pas accessibles au public, indiquent spécifiquement que les contenus de type « mort à » à l’encontre de ces personnes à haut risque doivent être supprimés. Interrogée par le Conseil, Meta a expliqué que sa politique offrait une meilleure protection au discours des utilisateurs qui impliquait des menaces de moyenne gravité à l’égard de personnalités publiques parce que les gens utilisent souvent des hyperboles pour faire part de leur dédain sans toutefois appeler à la violence. Néanmoins, les menaces de violence de haute gravité, y compris les appels à la mort d’individus à haut risque, présentent un plus grand risque de préjudice hors ligne. Dans ce cas-ci, Meta a déterminé que le Premier ministre japonais entrait dans les deux catégories. Le Conseil doute sérieusement que les définitions de « personnalités publiques » et de « personnes à haut risque » de la politique soient suffisamment claires pour les utilisateurs, d’autant que les deux catégories se chevauchent.
À la suite des recommandations précédentes du Conseil, Meta a révisé ses politiques pour trouver un meilleur équilibre entre les discours violents et les discours politiques, mais elle n’a pas encore clarifié publiquement ce que désignait le terme « personnes à haut risque ». Le Conseil estime qu’une définition générale accompagnée d’exemples dans les Standards de la communauté permettrait aux utilisateurs de comprendre que cette protection est fondée sur l’occupation, l’activité politique ou les fonctions publiques de la personne. Le Conseil a établi une liste de ce genre dans le cas Slogan de protestation en Iran (2022).
Décision du Conseil de surveillance
Le Conseil a annulé la décision initiale de Meta de supprimer le contenu.
Le Conseil recommande à Meta ce qui suit :
- Mettre à jour sa politique sur la violence et l’incitation pour fournir une définition générale des « personnes à haut risque », préciser que ce terme englobe les individus tels que les responsables politiques, qui peuvent être davantage exposés aux assassinats ou à d’autres formes de violence, et donner des exemples.
- Mettre à jour ses consignes internes à l’attention des équipes d’examen de contenu à grande échelle qui concernent les appels à mort qui utilisent l’expression « mort à » à l’encontre de « personnes à haut risque », en particulier pour autoriser les publications qui expriment du dédain ou un désaccord par le biais de formes désinvoltes et peu sérieuses de menaces de violence. Le contexte local et le langage doivent être pris en considération.
- Ajouter, dans ses règles sur la violence et l’incitation, un lien vers sa définition de « personnalités publiques » qui figure dans sa politique sur le harcèlement et l’intimidation, ainsi que vers les autres standards de la communauté pertinents dans lesquels de telles personnalités sont mentionnées.
* Les résumés de cas donnent un aperçu du cas et n’ont pas valeur de précédent.
Décision complète sur le cas
1. Description du cas et contexte
En janvier 2024, un utilisateur a répondu publiquement à une publication Threads qui contenait une capture d’écran d’un article de presse. L’article rapportait les paroles du Premier ministre Fumio Kishida à propos de l’argent que des membres de son Parti libéral-démocrate ont omis de déclarer à la suite de collectes de fonds. Kishida affirmait que le montant « n’avait pas été touché et qu’il ne s’agissait pas d’une caisse noire ». La publication Threads principale incluait une image du Premier ministre et une légende qui l’accusait d’évasion fiscale. La réponse de l’utilisateur à la publication exigeait que des explications soient fournies à l’organe législatif japonais et comprenait l’interjection « hah ». Elle incluait également plusieurs hashtags avec l’expression « 死ね » (translittérée par « shi-ne » et traduite par « drop dead/die » [meurs]) pour qualifier le Premier ministre d’évadé fiscal, ainsi qu’un terme dénigrant utilisé pour désigner une personne qui porte des lunettes. Par exemple : #dietaxevasionglasses (#meursévadéfiscalàlunettes) et #diefilthshitglasses (#meurssalebinoclard) (traduits du japonais). L’intégralité du contenu était en japonais.
Aussi bien la publication que la réponse ont été partagées à peu près au moment où le Premier ministre a pris la parole devant le parlement pour commenter les accusations d’évasion fiscale à l’égard de son parti. Fumio Kishida, qui est devenu Premier ministre du Japon en octobre 2021, a récemment annoncé qu’il ne chercherait pas à être réélu à la tête du Parti libéral-démocrate le 27 septembre 2024.
La réponse de l’utilisateur n’a pas reçu de mention « J’aime » ni de réponse. Elle a été signalée une fois pour infraction à la politique sur le harcèlement et l’intimidation pour « appels à la mort » à l’encontre d’une personnalité publique. En raison d’un arriéré de travail, un modérateur a examiné le contenu environ trois semaines plus tard, a jugé qu’il violait la politique de Meta sur la violence et l’incitation et l’a supprimé de Threads. L’utilisateur a ensuite fait appel auprès de Meta. Un second modérateur a également estimé que le contenu enfreignait la politique sur la violence et l’incitation. L’utilisateur a finalement interjeté appel auprès du Conseil. Après que ce dernier a sélectionné le cas, Meta a déterminé que sa décision initiale de supprimer le contenu était incorrecte et a restauré celui-ci sur Threads.
Le Conseil de surveillance a pris en compte le contexte suivant pour arriver à sa décision.
Lorsque la réponse à la publication Threads a été envoyée en janvier 2024, les procureurs venaient de mettre en examen des personnalités politiques du Parti libéral-démocrate japonais pour détournement d’argent issu de collectes de fonds. Le Premier ministre Kishida, lui, n’a pas été mis en examen.
Les recherches commandées par le Conseil ont fait ressortir un sentiment généralisé de désapprobation et de réprobation sur Threads à l’égard du Premier ministre en raison des allégations d’évasion fiscale. En effet, d’autres publications contenaient l’expression « 死ね » (drop dead/die ; meurs). Les spécialistes consultés par le Conseil ont noté que les Japonais utilisent souvent les réseaux sociaux pour publier des critiques de nature politique. Par le passé, des forums de discussion en ligne ont servi de plateformes anonymes aux personnes qui souhaitaient exprimer leur mécontentement social sans craindre de répercussions (cf. les commentaires publics PC-29594 et PC-29589).
Selon les experts consultés par le Conseil, la violence politique est un phénomène rare depuis des dizaines d’années au Japon. C’est pour cette raison que la nation a été sous le choc en 2022 lorsque le Premier ministre Shinzo Abe a été assassiné alors qu’il était en campagne. L’inquiétude suscitée par la violence politique est montée en avril 2023 lorsqu’un homme a utilisé une bombe fumigène lors d’un discours de campagne du Premier ministre Kishida, blessant deux personnes à proximité sans parvenir à atteindre le Premier ministre.
Selon les linguistes consultés par le Conseil, les expressions utilisées dans la publication sont offensantes et fréquemment utilisées pour transmettre un sentiment d’énorme frustration ou de profonde désapprobation. Bien que l’expression « 死ね » (drop dead/die ; meurs) puisse dans certains cas être interprétée littéralement comme une menace, elle est généralement utilisée de manière figurée pour exprimer de la colère sans constituer pour autant une menace (cf. le commentaire public d’Ayako Hatano, PC-29588).
En 2017, le Rapporteur spécial des Nations Unies sur la liberté d’expression a exprimé son inquiétude à propos de la situation au Japon. Ces préoccupations concernaient la pression, directe comme indirecte, exercée par les représentants du gouvernement sur les médias, les possibilités limitées de débattre d’évènements historiques et le renforcement des restrictions d’accès à l’information pour des raisons de sécurité nationale.
Dans son rapport de 2024 sur la liberté d’expression dans le monde, Article 19 a placé le Japon à la 30e place sur 161 pays. Freedom House a classé le Japon parmi les pays « libres » dans son évaluation de 2023 de la liberté sur Internet, mais a partagé quelques préoccupations liées à l’intervention du gouvernement dans l’écosystème médiatique en ligne, à l’absence d’organes de réglementation indépendants et à l’absence de définitions claires dans les amendements législatifs récents relatifs aux insultes en ligne. Néanmoins, dans son rapport « Liberté dans le monde », l’organisation a donné 96 points sur 100 au pays en ce qui concerne les libertés politiques et civiles. En outre, le Japon reçoit régulièrement de bonnes notes pour ce qui est des indices de démocratie et d’État de droit. En 2023, par exemple, le Rule of Law Index du World Justice Project a classé le Japon à la 14e place sur 142 pays.
2. Soumissions de l’utilisateur
Dans sa déclaration au Conseil, l’utilisateur qui a publié la réponse a affirmé qu’il ne faisait que critiquer le gouvernement dirigé par le Parti libéral-démocrate, car il aurait toléré et encouragé l’évasion fiscale. Il a expliqué que la suppression de sa publication par Meta contribuait à limiter sa liberté d’expression au Japon en interdisant toute critique d’une personnalité publique.
3. Politiques de Meta relatives au contenu et soumissions
I. Politiques de Meta relatives au contenu
L’analyse du Conseil s’est également appuyée sur l’engagement de Meta en faveur de la liberté d’expression, que l’entreprise qualifie de « primordiale », et sur sa valeur de sécurité. Meta a évalué le contenu en vertu de ses politiques sur la violence et l’incitation et sur le harcèlement et l’intimidation et l’a initialement supprimé en vertu de sa politique sur la violence et l’incitation. Après que le Conseil a choisi d’examiner le cas, l’entreprise a déterminé que le contenu n’enfreignait aucune des deux politiques.
Standard de la communauté sur la violence et l’incitation
La justification du standard de la communauté relatif à la violence et à l’incitation explique que Meta vise à « empêcher tout risque de violence hors ligne potentiellement lié à du contenu sur [ses] plateformes » tout en reconnaissant qu’il est « commun pour des utilisateurs d’exprimer leur dédain ou leur désaccord sous forme de menaces ou d’appels à la violence, mais de manière non sérieuse et décontractée ». L’entreprise reconnaît ce qui suit : « Le contexte est important, c’est pourquoi [Meta] prend en compte divers facteurs tels que la condamnation ou la sensibilisation aux menaces violentes, […] ou la visibilité publique et la vulnérabilité de la cible des menaces ».
Cette politique accorde une protection universelle à tout le monde contre les « menaces de violence pouvant entraîner la mort (ou d’autres formes de violence de haute gravité) ». Les menaces sont des « déclarations ou des images représentant une intention, une aspiration ou un appel à la violence à l’encontre d’une cible ».
Avant avril 2024, la politique interdisait les « menaces de violence pouvant entraîner des blessures graves (violence de moyenne gravité) […] et l’admission de violences passées » à l’égard de certaines personnes et de certains groupes, y compris des individus à haut risque. En avril 2024, Meta a mis à jour cette politique pour accorder à tout le monde une protection universelle contre de telles menaces, quelle que soit leur crédibilité, sauf pour les menaces « à l’encontre de personnalités publiques », qui doivent être « crédibles ». Dans la version actuelle de la politique, la seule mention des « personnes à haut risque » concerne les menaces de faible gravité, pour lesquelles des « [p]rotections supplémentaires pour les personnes privées majeures, tous les enfants, les personnes à haut risque et les personnes ou groupes sur la base de leurs caractéristiques protégées […] » sont encore prévues.
Le texte public de la politique ne donne pas de définition de « personnes à haut risque ». Toutefois, les consignes internes de Meta à l’attention des équipes d’examen de contenu incluent une liste de personnes à haut risque parmi lesquelles figurent les chefs d’État ; les anciens chefs d’État ; les candidats et les anciens candidats à la tête de leur État ; les candidats aux élections nationales et supranationales jusqu’à 30 jours maximum après l’élection s’ils n’ont pas été élus ; les personnes qui ont déjà été la cible de tentatives d’assassinat ; les activistes et les journalistes (cf. la décision Slogan de protestation en Iran).
Standard de la communauté en matière de harcèlement et d’intimidation
Le standard de la communauté sur le harcèlement et l’intimidation de Meta interdit diverses formes d’abus à l’encontre d’individus, y compris « l’envoi de messages de menace », et il « distingu[e] les personnalités publiques des personnes privées » pour autoriser « l’échange, ce qui implique souvent des commentaires critiques concernant des individus qui attirent l’attention des médias ou du grand public ». Ce standard interdit les attaques « graves » à l’égard des personnalités publiques, ainsi que certaines attaques auxquelles la personnalité publique est « exposée à dessein », c’est-à-dire lorsque celle-ci est « identifi[ée] directement […] dans une publication ou un commentaire ».
Il définit les « personnalités publiques » comme une catégorie d’individus incluant « les représentants des gouvernements au niveau national et étatique, les candidats politiques à ces fonctions, les personnes ayant plus d’un million de fans ou de followers sur les réseaux sociaux et les personnes qui bénéficient d’une couverture médiatique importante ».
II. Soumissions de Meta
Meta a informé le Conseil que l’expression « 死ね » (drop dead/die ; meurs) dans les hashtags n’enfreignait pas ses politiques dans ce cas-ci. L’entreprise considère qu’il s’agit d’une déclaration politique figurée et non d’un appel à mort crédible. Elle a précisé qu’elle n’était souvent pas en mesure de distinguer à grande échelle les menaces de mort crédibles des déclarations abstraites qui servent à faire passer un message, ce qui explique pourquoi elle a d’abord supprimé le contenu.
Meta a indiqué au Conseil que le Premier ministre Kishida était considéré comme une personnalité publique en vertu de ses politiques sur la violence et l’incitation et sur le harcèlement et l’intimidation, tandis que l’utilisateur qui a répondu à la publication, lui, ne l’était pas. L’entreprise a également informé le Conseil que le Premier ministre Kishida était considéré comme une « personne à haut risque » en vertu de son standard de la communauté sur la violence et l’incitation.
Standard de la communauté sur la violence et l’incitation
En vertu de sa politique sur la violence et l’incitation, Meta interdit : « Les menaces de violence pouvant entraîner la mort (ou d’autres formes de violence de haute gravité) ». Conformément aux consignes non publiques qu’elle donne à ses équipes d’examen de contenu, Meta note qu’elle supprime les appels à la mort d’une personne à haut risque s’ils contiennent les mots « mort à ». L’entreprise a indiqué au Conseil que la notion de personne à haut risque se limitait à cette politique et qu’elle incluait les responsables politiques, qui sont plus à risque d’être assassinés ou d’être la cible d’autres violences.
Meta a reconnu qu’il était difficile de faire systématiquement la distinction entre les expressions « mort à » et « meurs », en particulier lorsque leurs significations se chevauchent parfois dans la langue d’origine. Dans ce cas-ci, le contenu utilise l’expression « meurs », et non « mort à », dans les hashtags #dietaxevasionglasses (#meursévadéfiscalàlunettes) et #diefilthshitglasses (#meurssalebinoclard) (traduits du japonais). En outre, Meta a fait remarquer que, même si elle traitait « meurs » et « mort à » de manière similaire (comme s’il s’agissait d’appels à mort), elle ne supprimerait pas ce contenu lors d’un examen approfondi parce qu’il constitue une menace abstraite qui n’enfreint pas l’esprit de la politique. L’esprit de la politique tolère du contenu lorsqu’une stricte interprétation de celle-ci produit un résultat qui ne correspond pas à son intention (cf. la décision Produits pharmaceutiques au Sri Lanka). Meta juge la menace abstraite parce que les autres mots des hashtags et le reste de la réponse appellent les responsables à se soumettre aux questions de l’organe législatif du pays. Cet appel indique donc que la menace de mort était figurée, et non littérale. C’est pour ces raisons que Meta a déterminé que le contenu n’enfreignait pas sa politique sur la violence et l’incitation.
Standard de la communauté en matière de harcèlement et d’intimidation
Meta a informé le Conseil que le contenu ne violait pas sa politique sur le harcèlement et l’intimidation parce qu’il « n’exposait pas à dessein » une personnalité publique. L’utilisateur n’a pas identifié le Premier ministre Kishida, ni répondu à un commentaire de celui-ci, ni publié le contenu sur sa page officielle. Aussi Meta a-t-elle déterminé que le contenu n’exposait pas à dessein le Premier ministre Kishida et qu’il n’enfreindrait pas la politique sur le harcèlement et l’intimidation, même si la menace était littérale.
Le Conseil a posé 19 questions par écrit à Meta. Elles concernaient les pratiques et les ressources de modération de Meta au Japon, la formation fournie aux modérateurs de contenu à grande échelle et la manière dont elle abordait le contexte local, la procédure d’examen en profondeur des lignes politiques à grande échelle, la possibilité d’appliquer la politique qui interdit les menaces de mort à l’encontre des personnes à haut risque uniquement au cours d’examens approfondis, les arriérés dans le travail de modération de Meta sur Threads et ses capacités de détection automatisée. Meta a répondu pleinement à 17 questions et partiellement aux deux autres. L’entreprise a partiellement répondu aux questions liées aux arriérés de travail et aux demandes gouvernementales qui visent à supprimer du contenu au Japon.
4. Commentaires publics
Le Conseil de surveillance a reçu 20 commentaires publics qui répondent aux critères de soumission : 13 d’Asie-Pacifique et d’Océanie, trois des États-Unis et du Canada, trois d’Europe, et un d’Asie centrale et du Sud. Pour consulter les commentaires publics soumis accompagnés d’un consentement à la publication, cliquez ici.
Les soumissions abordaient les thèmes suivants : le contexte sociopolitique au Japon ; les menaces de violence en ligne à l’encontre des personnalités politiques et les restrictions de la liberté d’expression ; l’utilisation de menaces ou d’appels à mort rhétoriques dans le discours politique japonais ; le contexte linguistique qui entoure l’expression « drop dead/die » (meurs) ; et le choix de Meta de ne pas recommander de contenu politique sur Threads pour les pages qui ne sont pas suivies par des utilisateurs.
5. Analyse du Conseil de surveillance
Le Conseil a examiné si ce contenu devait être supprimé en analysant les politiques de contenu de Meta, ses responsabilités en matière de droits humains et ses valeurs. Le Conseil a également évalué les implications de ce cas-ci sur l’approche plus globale de la gouvernance du contenu par Meta.
5.1 Respect des politiques de Meta relatives au contenu
I. Règles relatives au contenu
Standard de la communauté sur la violence et l’incitation
Le Conseil estime que le contenu dans ce cas-ci n’enfreint pas la politique sur la violence et l’incitation, qui interdit les « menaces de violence pouvant entraîner la mort (ou d’autres formes de violence de haute gravité) ». L’expression « 死ね » (drop dead/die ; meurs) était utilisée de manière abstraite et ne constituait pas une menace crédible.
Les linguistes consultés par le Conseil ont expliqué que, même si l’expression pouvait parfois être utilisée pour menacer quelqu’un littéralement, elle était fréquemment utilisée de manière figurée pour marquer de l’aversion et de la désapprobation. Ils ont estimé que, au vu du contenu dans lequel elle apparaissait, l’expression était figurée dans ce cas-ci. Les spécialistes des données qui ont examiné la fréquence avec laquelle l’expression était employée sur Threads et d’autres plateformes ont conclu qu’elle était principalement utilisée de manière figurée ou ironique. Cela inclut les exemples d’utilisateurs qui disent « mourir » de douleur ou qui souhaitent la « mort » d’autres utilisateurs en raison d’un commentaire que ces derniers ont fait.
La réponse aussi suggère que l’expression doit être comprise de manière figurée. La réponse de l’utilisateur à la publication Threads appelait le chef de l’Agence nationale des impôts à se présenter devant l’organe législatif du pays et à expliquer les allégations de fraude. Elle comprenait également l’interjection « hah ». Selon le Conseil, le mot « hah », qui est généralement une marque d’amusement ou d’ironie, suggère que l’expression « 死ね » (drop dead/die ; meurs) n’est pas à interpréter littéralement. De même, le Conseil est d’accord avec l’évaluation de Meta selon laquelle la solution proposée par l’utilisateur (que Kishida assume ses responsabilités devant l’organe législatif du pays) laisse penser que le contenu relevait de la critique politique, et non d’un appel à mort littéral.
Le Conseil reconnaît que les évènements qui se sont déroulés il y a peu au Japon rendent délicat n’importe quel appel à la mort d’une personnalité politique. L’assassinat du Premier ministre Abe en 2022 et l’utilisation d’une bombe fumigène à proximité du Premier ministre Kishida en 2023 soulignent à quel point il est capital de prendre au sérieux les menaces de mort crédibles. Dans ce cas-ci, néanmoins, l’appel à mort n’était tout simplement pas crédible.
Standard de la communauté en matière de harcèlement et d’intimidation
Le Conseil estime que le contenu concerné dans ce cas-ci n’enfreint pas la politique sur le harcèlement et l’intimidation. Il est d’accord avec Meta sur le fait que, même si le Premier ministre Kishida répond à la définition de la politique pour les personnalités publiques, il n’était pas « exposé à dessein » par le contenu. L’utilisateur n’a pas publié sa réponse sur la page du Premier ministre Kishida et ne l’a pas identifié, ce qui signifie que le contenu ne s’adressait pas directement à lui.
5.2 Respect des responsabilités de Meta en matière de droits humains
Le Conseil estime que la suppression du contenu de la plateforme n’était pas conforme aux responsabilités de Meta en matière de droits humains.
Liberté d’expression (article 19 du PIDCP)
L’article 19 du Pacte international relatif aux droits civils et politiques (PIDCP) accorde une « importance particulière » au « débat public concernant des personnalités publiques du domaine politique et des institutions publiques » (Observation générale n° 34, paragraphe 38). Lorsque des restrictions de la liberté d’expression sont imposées par un État, elles doivent remplir des critères de légalité, d’objectif légitime, et de nécessité et de proportionnalité (article 19, paragraphe 3 du PIDCP). Ces exigences sont souvent reprises sous l’intitulé « test tripartite ». Le Conseil s’appuie sur ce test afin d’interpréter les responsabilités de Meta en matière de droits humains conformément aux Principes directeurs relatifs aux entreprises et aux droits de l’homme de l’ONU, que Meta elle-même s’est engagée à respecter dans sa Politique relative aux droits humains. Le Conseil utilise ce test à la fois pour la décision relative au contenu en cours d’examen et pour ce que cela dit de l’approche plus large de Meta en matière de gouvernance du contenu. Comme l’a déclaré le Rapporteur spécial des Nations Unies sur la liberté d’expression, si « les entreprises ne sont pas soumises aux mêmes devoirs que les gouvernements, leur influence est néanmoins telle qu’elle doit les inciter à se poser les mêmes questions qu’eux quant à la protection de la liberté d’expression de leurs utilisateurs » (A/74/486, paragraphe 41). Le Conseil reconnaît l’importance des critiques politiques à l’encontre des chefs d’État, même lorsqu’elles sont offensantes, étant donné que ces personnalités font légitimement l’objet de critiques et d’une opposition politique (cf. les décisions Slogan de protestation en Iran et Manifestations en Colombie) ; Observation générale n° 34, paragraphes 11 et 38).
I. Légalité (clarté et accessibilité des règles)
Le principe de légalité prévoit que les règles qui limitent la liberté d’expression soient accessibles, claires et suffisamment précises pour permettre à un individu d’adapter son comportement en conséquence (Observation générale n° 34, paragraphe 25). En outre, ces règles « ne peu[ven]t pas conférer aux personnes chargées de [leur] application un pouvoir illimité de décider de la restriction de la liberté d’expression » et doivent « énoncer des règles suffisamment précises pour permettre aux personnes chargées de leur application d’établir quelles formes d’expression sont légitimement restreintes et quelles formes d’expression le sont indûment » (Ibid). Le Rapporteur spécial des Nations Unies sur la liberté d’expression a déclaré que lorsqu’elles s’appliquent aux acteurs privés, les règles régissant le discours en ligne devaient être claires et précises (A/HRC/38/35, paragraphe 46). Les personnes qui utilisent les plateformes de Meta doivent pouvoir accéder aux règles et les comprendre, et les équipes d’examen de contenu doivent disposer de conseils clairs sur leur application.
Le Conseil trouve que l’interdiction des appels à mort qui incluent les mots « mort à » à l’égard de personnes à haut risque n’est pas suffisamment claire et accessible aux utilisateurs.
La justification de la politique prévoit la prise en compte du contexte lors de l’évaluation de la crédibilité d’une menace, notamment si le contenu est publié pour condamner ou sensibiliser, ou si les menaces sont abstraites ou peu sérieuses. Toutefois, elle ne précise pas comment les déclarations au figuré doivent être distinguées des menaces crédibles. Comme l’a fait remarquer le Conseil dans le cas Slogan de protestation en Iran, les équipes d’examen de contenu à grande échelle suivent des consignes spécifiques qui sont basées sur des signaux ou des critères tels que les appels à la mort d’une cible. Elles n’ont pas les moyens d’évaluer l’intention ou la crédibilité d’une menace. Ainsi, si une publication contient des menaces comme « mort à » ou « meurs » (comme c’est le cas ici) et une cible, elle est supprimée. Le Conseil réitère donc sa recommandation n° 1 du cas Slogan de protestation en Iran, selon laquelle Meta doit inclure une précision dans le texte public de sa politique pour expliquer que les menaces rhétoriques de type « mort à » sont généralement autorisées, sauf si elles concernent des individus à haut risque, et pour fournir des critères relatifs aux situations dans lesquelles les menaces à l’encontre de chefs d’État sont autorisées afin de protéger le discours politique rhétorique.
La politique manque également de précision lorsqu’elle explique la manière dont elle traite les « personnalités publiques » et les « personnes à haut risque ». Dans sa version actuelle, elle offre une protection moindre aux personnalités publiques, stipulant que les menaces de violence de moyenne gravité à l’encontre des personnalités publiques sont supprimées uniquement lorsqu’elles sont « crédibles », tandis que ces menaces sont supprimées « quelle que soit leur crédibilité » pour toutes les autres cibles. En revanche, la politique fournit une meilleure protection aux personnes à haut risque, l’une de ses dispositions faisant mention de « [p]rotections supplémentaires » pour ces groupes. Comme nous l’avons indiqué ci-dessus, les consignes internes assurent elles aussi une meilleure protection aux personnes à haut risque, parce qu’elles prévoient la suppression de l’expression « mort à » lorsqu’elle concerne des personnes à haut risque. En réponse à la question du Conseil, Meta a expliqué que la politique offrait une meilleure protection aux discours qui comprennent des menaces de gravité moyenne à l’encontre de personnalités publiques parce que les utilisateurs marquent souvent leur dédain à l’égard de ces dernières ou leur désaccord avec elles à l’aide d’hyperboles, bien qu’ils n’aient généralement pas l’intention d’inciter à la violence. À l’inverse, les menaces de violence de haute gravité, y compris les appels à la mort d’individus à haut risque, présentent un plus grand risque de préjudice hors ligne. Dans ce cas-ci, Meta a jugé que le Premier ministre Kishida entrait dans les deux catégories. Le Conseil est préoccupé par le fait que les définitions de « personnalités publiques » et de « personnes à haut risque » de la politique sur la violence et l’incitation ne sont pas suffisamment claires et ne permettent pas aux utilisateurs de comprendre les deux catégories et, a fortiori, ce qu’il advient lorsque celles-ci se chevauchent.
Dans le cas Slogan de protestation en Iran, le Conseil a recommandé à Meta de modifier son standard de la communauté sur la violence et l’incitation afin d’inclure une liste d’exemples de personnes à haut risque, ce qui montrerait que la catégorie inclut les chefs d’État. Depuis la publication de cette décision, Meta a amorcé la procédure d’amendement de sa politique pour trouver un meilleur équilibre entre les discours violents et les discours politiques. Néanmoins, l’entreprise n’a toujours pas clarifié publiquement ce qu’était une personne à haut risque. Alors qu’il étudiait ce cas-ci, le Conseil a organisé une session d’information avec Meta lors de laquelle l’entreprise a expliqué que la publication de sa définition interne des personnes à haut risque pourrait inciter certains utilisateurs à contourner les politiques existantes et les consignes de modération.
Le Conseil partage les craintes de Meta sur la question. Toutefois, il estime que l’entreprise ne devrait pas attendre d’avoir trouvé la solution idéale avant de prendre des mesures. Meta devrait plutôt publier une définition générale des personnes à haut risque et une liste d’exemples. Une telle approche permettrait aux utilisateurs de comprendre que ces personnes sont protégées en raison de leur occupation, de leur rôle politique, de leurs fonctions publiques ou d’une autre activité risquée. Le Conseil estime que cette solution ne nuirait pas aux efforts de modération de Meta. En effet, il a déjà proposé une telle liste, avec l’accord de Meta, dans le cas Slogan de protestation en Iran, et fait remarquer ce qui suit : « Outre les chefs d’État, les autres exemples de personnes “à haut risque” comprennent : les anciens chefs d’État ; les candidats et anciens candidats à la tête de l’État ; les candidats aux élections nationales et supranationales jusqu’à 30 jours après l’élection s’ils ne sont pas élus ; les personnes ayant des antécédents de tentatives d’assassinat ; les militants et les journalistes. » Puisque ces exemples font déjà partie du domaine public, ils devraient être repris dans le standard de la communauté en question.
Sur la base des conclusions qu’il a tirées dans le cas Slogan de protestation en Iran et des modifications que Meta a déjà apportées à sa politique sur la violence et l’incitation, le Conseil recommande à l’entreprise de fournir une définition générale des personnes à haut risque pour préciser que celles-ci englobent les personnes, telles que les personnalités politiques, qui sont plus à risque d’être assassinées ou d’être la cible de violences et de donner des exemples, comme ceux qui ont été discutés dans le cas Slogan de protestation en Iran.
II. Objectif légitime
Toute restriction de la liberté d’expression doit également poursuivre un ou plusieurs des objectifs légitimes listés dans le PIDCP. Le standard de la communauté relatif à la violence et à l’incitation vise à « empêcher tout risque de violence hors ligne » en supprimant les contenus qui présentent « un réel risque de préjudice physique ou une atteinte directe à la sécurité publique ». Cette politique sert l’objectif légitime de protéger le droit à la vie et le droit à la sécurité de la personne (article 6, PIDCP ; article 9, PIDCP).
III. Nécessité et proportionnalité
Conformément à l’article 19(3) du PIDCP, le principe de nécessité et de proportionnalité requiert que les restrictions de la liberté d’expression soient « appropriées pour remplir leur fonction de protection, elles doivent constituer le moyen le moins perturbateur parmi ceux qui pourraient permettre d’obtenir le résultat recherché et elles doivent être proportionnées à l’intérêt à protéger » (Observation générale n° 34, paragraphe 34).
Le Conseil estime que la décision initiale de Meta de supprimer le contenu en vertu de sa politique sur la violence et l’incitation n’était pas nécessaire puisqu’il ne s’agissait pas de la mesure la moins perturbatrice permettant d’assurer la sécurité du Premier ministre Kishida. Cette analyse est au cœur de ce cas complexe, car elle examine de près la manière dont Meta doit faire la distinction entre les menaces abstraites et les menaces bien réelles. Le Conseil a fréquemment fait part de ses inquiétudes liées à la surmodération des menaces rhétoriques dans les cas Slogan de protestation en Iran, Confrontation subie par une femme iranienne dans la rue et Rapports sur le Discours du Parlement pakistanais. Ces cas-là peuvent être distingués du cas présent parce qu’ils concernaient un slogan, un mouvement de protestation coordonné ou une élection imminente. Pourtant, leur problématique principale est la même : la restriction d’un discours politique en raison d’une menace de violence peu crédible. Le Conseil estime que Meta doit permettre ce genre de discussion et veiller à ce que les utilisateurs puissent exprimer leurs opinions politiques, y compris leur aversion pour le comportement et les actions de personnalités politiques ou leur désapprobation de ceux-ci, sans créer d’obstacles inutiles.
Que la politique de Meta sur la violence et l’incitation ne distingue toujours pas clairement les menaces littérales des menaces abstraites inquiète toutefois le Conseil. Le problème est d’autant plus grave que deux modérateurs ont considéré que le contenu dans ce cas-ci était en infraction alors que, selon Meta, ils parlaient japonais et connaissaient le contexte sociopolitique local.
Les six facteurs définis dans le Plan d’action de Rabat (contexte, orateur, objet, contenu du discours, ampleur du discours et probabilité d’un préjudice imminent) fournissent des indications précieuses pour évaluer la crédibilité des menaces. Bien que le Plan d’action de Rabat ait été établi pour évaluer l’incitation à la haine nationale, raciale ou religieuse, ce test des six facteurs permet également d’évaluer l’incitation à la violence en général (cf., par exemple, les décisions Slogan de protestation en Iran et Appel à la manifestation des femmes à Cuba). Meta ayant initialement supposé qu’il était nécessaire de supprimer le contenu pour assurer la sécurité du Premier ministre Kishida, le Conseil s’est appuyé sur les six facteurs pour évaluer la crédibilité de la menace supposée dans ce cas-ci.
Le contenu a été publié pendant le scandale d’évasion fiscale qui a secoué le parti du Premier ministre Kishida en 2023. Les spécialistes consultés par le Conseil ont expliqué que, bien que le nombre de critiques politiques ait augmenté au Japon, aucun lien n’a été établi entre les menaces en ligne et les violences récentes à l’encontre des personnalités politiques japonaises. L’utilisateur avait moins de 1000 abonnés et n’était pas une personnalité publique ; son contenu n’a pas été vu ni aimé, ce qui dénote le faible intérêt suscité par la réponse. L’intention de l’utilisateur était d’émettre des critiques politiques en attirant l’attention sur la corruption de la scène politique et en employant des grossièretés, ce qui n’est pas inhabituel sur les réseaux sociaux japonais (cf. les commentaires publics PC-29589 et PC-29594). Il était peu probable que sa réponse cause des préjudices de manière imminente.
Le Conseil reconnaît qu’il est très difficile d’évaluer la crédibilité des menaces de violence en fonction du contexte, en particulier lorsqu’il s’agit de modérer du contenu à l’échelle mondiale. Il comprend également que Meta puisse effectuer une évaluation plus précise de la crédibilité des menaces dans le cadre d’un examen approfondi. Le Conseil a envisagé de recommander à Meta d’appliquer la politique qui interdit les menaces de type « mort à » à l’égard de personnes à haut risque uniquement sur la base d’examens approfondis. Les politiques de modération qui ne s’appliquent qu’après un examen approfondi nécessitent plus de contexte, les décisions étant prises par des spécialistes plutôt que par les modérateurs de contenu à grande échelle qui ont initialement examiné la réponse. Le Conseil comprend que le nombre de spécialistes chez Meta est beaucoup plus faible que celui des modérateurs de contenu à grande échelle, ce qui signifie que les moyens des spécialistes sont limités. En conséquence, s’il était décidé que cette politique ne doit s’appliquer qu’après un examen approfondi, une quantité significative de contenu risquerait de ne pas être examinée en raison des moyens limités dont disposent les spécialistes. En outre, les règles de ce genre ne peuvent être appliquées que si les contenus sont portés à l’attention de Meta autrement, par exemple, grâce aux partenaires de confiance ou si le contenu bénéficie d’une couverture médiatique significative (cf. la décision Vidéo d’un prisonnier des Forces de soutien rapide au Soudan). Cela signifie que Meta ne serait à même d’examiner les menaces de mort du style « mort à » que lorsqu’elles lui seraient signalées via certains canaux.
En fin de compte, le Conseil a déterminé qu’une telle recommandation découlerait sur une sous-modération de ce type de menaces. Un plus grand nombre de menaces de mort seraient donc laissées sur les plateformes de Meta. Par ailleurs, puisque Meta n’a pas pu fournir de données validées sur la prévalence de ce genre de contenu sur ses plateformes, le Conseil n’a pas pu évaluer l’ampleur potentielle d’une telle sous-modération.
Le Conseil en a donc conclu que, pour protéger efficacement le discours politique, Meta devait fournir des consignes supplémentaires à ses équipes d’examen de contenu sur l’évaluation du langage et du contexte local et veiller à ce que ces consignes soient cohérentes avec la justification de la politique en question. Dans les cas précédents sur des problèmes similaires (cf. Slogan de protestation en Iran, Confrontation subie par une femme iranienne dans la rue et Rapports sur le Discours du Parlement pakistanais), le Conseil a exploré des solutions en matière de politique et de modération, souvent temporaires et étroitement liées au contexte donné, y compris en période d’élections, de crise ou de conflit. Cela a permis à Meta d’ajuster ses pratiques de modération et de tenir compte du contexte spécifique en utilisant des mécanismes tels que le Protocole de politique de crise et le Centre de gestion des produits d’intégrité.
Dans ce cas-ci, Meta a informé le Conseil qu’elle n’avait pas établi de mesures de modération particulières. Elle a indiqué que, bien que tragique, un seul incident comme l’assassinat de l’ancien Premier ministre Shinzo Abe n’était généralement pas suffisant pour déclencher ce genre de mécanisme, à moins que la situation ne présente d’autres signaux d’instabilité ou de risque accru. Meta a plutôt inclus l’assassinat dans son protocole « Évènement violent en infraction », limité au contenu lié à ce cas de violence uniquement. Dans de telles circonstances, Meta ne peut s’appuyer que sur sa politique et ses pratiques d’application générales. En conséquence, le développement d’une solution applicable à grande échelle pour distinguer les menaces crédibles de celles qui ne le sont pas est le seul moyen de protéger efficacement les discours politiques.
En outre, si Meta décide de continuer à appliquer cette politique à grande échelle, la précision de ses systèmes automatisés restera affectée par la qualité des données d’entraînement fournies par les équipes d’examen de continu. Le Conseil réitère les conclusions qu’il a tirées dans le cas Confrontation subie par une femme iranienne dans la rue : lorsque les équipes d’examen de contenu suppriment des déclarations rhétoriques en appliquant une règle à la lettre, il est probable que cette erreur soit reproduite et amplifiée par les systèmes automatiques, ce qui cause de la surmodération.
D’après les conclusions du Conseil selon lesquelles les appels à mort nécessitent une évaluation du contexte pour déterminer la probabilité qu’une menace cause des préjudices dans le monde réel, cela peut requérir des consignes de modération plus nuancées que celles dont disposent actuellement les équipes de modération à grande échelle. Les consignes internes de Meta indiquent aux équipes d’examen de contenu de supprimer les appels à mort du genre « mort à » lorsqu’ils ciblent des individus à haut risque. Ces consignes ne reflètent pas la justification de la politique sur la violence et l’incitation, qui stipule que le « contexte est important » et qu’elle prend en compte les formes désinvoltes et peu sérieuses de menaces de violence qui servent à exprimer du dédain ou un désaccord. Le Conseil estime dès lors que Meta devrait mettre à jour ses consignes internes et ses instructions spécifiques à l’attention des équipes d’examen de contenu pour autoriser explicitement la prise en compte du contexte local et du langage et pour prendre en considération les « formes désinvoltes et peu sérieuses » de menaces ou d’appels à la violence utilisées pour exprimer un tel dédain ou un désaccord.
Enfin, le Conseil s’inquiète également de la capacité de Meta à traiter les contenus qui dépendent du contexte sur Threads. Meta a informé le Conseil que l’examen du contenu dans ce cas-ci avait été retardé de trois semaines en raison d’un arriéré de travail. L’entreprise a expliqué qu’au moment où la décision de modération avait été prise, l’application des règles relatives au contenu Threads dépendait exclusivement d’équipes d’examen pour les signalements Threads, alors qu’elle utilise généralement plusieurs méthodes pour prévenir l’accumulation des retards, notamment le classement sans suite automatique des signalements. Avec un tel système automatisé, si aucun mécanisme ne s’est déclenché pour laisser un signalement ouvert, celui-ci est classé sans suite au bout de 48 heures, sans que l’utilisateur ait obtenu de solution.
6. Décision du Conseil de surveillance
Le Conseil de surveillance annule la décision initiale de Meta de supprimer le contenu.
7. Recommandations
Politique de contenu
1. Meta doit mettre à jour sa politique sur la violence et l’incitation pour fournir une définition générale des « personnes à haut risque », préciser que ce terme englobe les individus tels que les responsables politiques, qui peuvent être davantage exposés aux assassinats ou à d’autres formes de violence, et donner des exemples.
Le Conseil estimera que cette recommandation a été suivie lorsque le texte public de la politique sur la violence et l’incitation reflétera la modification proposée.
Mise en application
2. Meta doit mettre à jour ses consignes internes à l’attention de ses équipes d’examen de contenu à grande échelle à propos des appels à mort qui incluent l’expression spécifique « mort à » et qui ciblent des personnes à haut risque. Cette mise à jour doit autoriser les publications qui, dans le langage et le contexte de la région, expriment du dédain ou un désaccord par le biais de formes désinvoltes et peu sérieuses de menaces de violence.
Le Conseil considérera que cette recommandation a été appliquée lorsque Meta partagera des données pertinentes sur la réduction des erreurs de détection des contenus qui incluent des appels à mort avec l’expression spécifique « mort à » lorsqu’ils concernent des personnes à haut risque.
Politique de contenu
3. Meta doit ajouter, dans ses règles sur la violence et l’incitation, un lien vers sa définition des personnalités publiques qui figure dans sa politique sur le harcèlement et l’intimidation, ainsi que vers les autres standards de la communauté dans lesquels de telles personnalités sont mentionnées, et ce afin de permettre aux utilisateurs de faire la différence avec les personnes à haut risque.
Le Conseil estimera que cette recommandation a été suivie lorsque le texte public de la politique sur la violence et l’incitation et celui des Standards de la communauté de Meta au sens large refléteront la modification proposée.
* Note de procédure :
Les décisions du Conseil de surveillance sont prises par des panels de cinq membres et approuvées par une majorité du Conseil dans son ensemble. Les décisions du Conseil ne représentent pas nécessairement les opinions de tous les membres.
En vertu de sa Charte, le Conseil de surveillance est habilité à examiner les appels déposés par les utilisateurs dont le contenu a été supprimé par Meta, les appels déposés par les utilisateurs ayant signalé un contenu que Meta n’a finalement pas supprimé, et les décisions que Meta lui transmet (article 2, section 1 de la Charte). Le Conseil dispose d’une autorité contraignante pour confirmer ou annuler les décisions de Meta relatives au contenu (article 3, section 5 de la Charte ; article 4 de la Charte). Le Conseil est habilité à émettre des recommandations non contraignantes auxquelles Meta doit répondre (article 3, section 4 de la Charte ; article 4 de la Charte). Lorsque Meta s’engage à donner suite aux recommandations, le Conseil surveille leur mise en œuvre.
Pour la décision sur ce cas, des recherches indépendantes ont été commandées au nom du Conseil. Le Conseil a bénéficié de l’aide de Duco Advisors, une société de conseil spécialisée dans la géopolitique, la confiance et la sécurité, ainsi que la technologie. Memetica, un groupe d’investigations numériques fournissant des services de conseil en matière de risques et de renseignements sur les menaces pour atténuer les préjudices en ligne, a également fourni des recherches. L’entreprise Lionbridge Technologies, LLC, dont les spécialistes parlent couramment 350 langues et travaillent dans 5000 villes du monde entier, a fourni son expertise linguistique.
Retour aux décisions de cas et aux avis consultatifs politiques