Renversé
Confrontation subie par une femme iranienne dans la rue
7 mars 2024
Le Conseil de surveillance a annulé la décision initiale de Meta de retirer une vidéo filmée dans une rue en Iran, dans laquelle on voit un homme s’en prendre à une femme, car elle ne porte pas de hijab.
Résumé
Le Conseil de surveillance a annulé la décision initiale de Meta de retirer une vidéo filmée dans une rue en Iran, dans laquelle on voit un homme s’en prendre à une femme, car elle ne porte pas de hijab. La publication n’a pas enfreint la politique relative à la violence et l’incitation, car elle contient une déclaration figurative, et non littérale, et ne constitue pas une menace crédible de violence. Partagée dans une période d’agitation, de répression et de violence grandissantes contre les manifestants, l’accès aux réseaux sociaux est essentiel en Iran, et Internet représente le nouveau terrain de lutte pour les droits des femmes. Instagram étant l’une des dernières plateformes encore autorisées dans le pays, son rôle dans le mouvement anti-régime « Femme, Vie, Liberté » a été sans commune mesure, malgré les initiatives du régime pour instiller la peur et museler les femmes sur Internet. Le Conseil conclut que le travail mené par Meta afin de faire respecter la liberté d’expression et de rassemblement dans un contexte de répression étatique systématique s’est avéré insuffisant et recommande à l’entreprise de modifier son Protocole de politique de crise.
À propos du cas
En juillet 2023, un utilisateur a publié une vidéo sur Instagram montrant un homme s’en prendre à une femme publiquement, car elle ne porte pas de hijab. Dans la vidéo, qui est en persan et sous-titrée en anglais, la femme lui répond qu’elle défend ses droits. Une légende qui accompagne la vidéo exprime son soutien à cette femme ainsi qu’aux femmes iraniennes qui se soulèvent contre le régime. Une partie de la légende, également critique du régime, inclut une phrase qui, selon Meta, peut se traduire par « tu vas finir par être mis en pièces ».
Le Code pénal d’Iran punit d’une peine d’emprisonnement, d’une amende ou de coups de fouet les femmes qui apparaissaient en public sans un « hijab approprié ». En septembre 2023, le régime iranien a adopté une nouvelle loi relative au hijab et à la chasteté qui prévoit de condamner les femmes à une peine de prison pouvant aller jusqu’à 10 ans si elles persistent à braver les lois sur le hijab obligatoire. La légende de la publication indique clairement que la femme que l’on voit a déjà été arrêtée.
D’abord signalée par les systèmes automatisés de Meta en raison d’une potentielle infraction aux Règles de la communauté d’Instagram, la publication a fait l’objet d’une demande d’examen manuel. Bien que plusieurs membres des équipes d’examen aient évalué le contenu en vertu de la politique sur la violence et l’incitation de Meta, ils ne sont pas parvenus à la même conclusion, ce qui, associé à une erreur technique, a entraîné la conservation de la publication sur la plateforme. Un utilisateur a ensuite signalé la publication, la soumettant ainsi à un nouvel examen, conduit cette fois par l’équipe régionale de Meta qui dispose de l’expertise linguistique requise. Lors de cette nouvelle évaluation, il a été constaté que la publication enfreignait la politique sur la violence et l’incitation, ce qui lui a valu une suppression d’Instagram. L’utilisateur à l’origine de la publication a ensuite déposé un appel auprès du Conseil. Meta a maintenu que sa décision de supprimer le contenu était légitime jusqu’à ce que le Conseil sélectionne ce cas, incitant alors l’entreprise à annuler sa décision et à restaurer la publication.
Principales observations
Le Conseil estime que la publication n’a pas enfreint le Standard de la communauté sur la violence et l’incitation, car elle contient un discours figuratif, et non littéral, et qu’elle ne constitue pas une menace crédible de violence pouvant encourager le préjudice hors ligne. Bien que Meta ait initialement supprimé la publication en partie à cause de la phrase « tu vas finir par être mis en pièces » qui, selon elle, représente une déclaration d’intention de commettre des actes de violence de haute gravité contre l’homme filmé, elle ne saurait être interprétée de façon littérale. Compte tenu des manifestations massives en Iran, et de la légende et de la vidéo considérées dans leur globalité, la phrase est figurative et exprime de la colère et du désarroi face au régime. Les experts linguistiques que le Conseil a consultés ont proposé une traduction légèrement différente de la phrase (« nous allons bientôt vous mettre en pièces »), expliquant qu’elle reflète la colère, la déception et la rancœur contre le régime. Le régime n’aurait probablement pas été la cible de préjudices ; il est plus probable qu’il eût été l’instigateur de représailles suite à ladite publication.
Bien que la justification de la Politique de Meta suggère que les « propos » et le « contexte » peuvent être pris en compte lors de l’évaluation d’une « menace crédible », les conseils internes que Meta apporte à ses équipes de modération ne le permettent pas en pratique. Les équipes de modération doivent identifier des critères spécifiques (une menace et une cible) et, le cas échéant, supprimer le contenu en question. Le Conseil a précédemment émis des inquiétudes quant à cette incohérence dans le cas relatif au Slogan de protestation en Iran, pour lequel il a recommandé à Meta de fournir des conseils nuancés sur l’approche à adopter face au contexte, en demandant aux équipes de modération de ne plus supprimer par défaut les « propos rhétoriques » exprimant la dissidence. La possibilité d’une mise en application incorrecte quant au discours figuratif demeure préoccupante, notamment dans des contextes comme en Iran. Par ailleurs, la précision de l’automatisation étant influencée par la qualité des données de formation fournies par l’humain, il est probable que la suppression erronée du discours figuratif soit amplifiée.
La présente publication a également été évaluée en vertu du Standard de la communauté sur les attaques coordonnées et la promotion d’actions criminelles en raison d’une règle interdisant le « contenu qui met en danger les femmes non voilées en les montrant sans voile contre leur volonté ou sans leur autorisation ». Cette ligne politique a ensuite été modifiée afin d’interdire : « L’identification [des femmes non voilées] en dévoilant l’identité d’une personne et en l’exposant à des risques de préjudices ». Sur cette question, le Conseil partage l’avis de Meta selon lequel le contenu n’« identifie » pas la femme dans la vidéo et le risque de préjudice avait diminué, car son identité avait été largement dévoilée et qu’elle avait déjà été arrêtée. En réalité, la publication a été partagée afin d’attirer l’attention sur son arrestation et pourrait faire pression sur les autorités en vue de la libérer.
Les politiques de crise de Meta, notamment son Protocole de politique de crise, ayant désigné l’Iran comme un pays à risque, l’entreprise peut appliquer des modifications de politique temporaires (des « leviers ») afin de résoudre une situation en particulier. Bien que le Conseil reconnaisse le travail entrepris par Meta sur l’Iran, il s’est révélé insuffisant pour garantir le respect de la liberté d’expression et de rassemblement des personnes dans des environnements confrontés à une répression systématique.
Décision du Conseil de surveillance
Le Conseil de surveillance a annulé la décision initiale de Meta de supprimer le contenu.
Le Conseil recommande à Meta ce qui suit :
- Ajouter un levier au Protocole de politique de crise pour préciser que les déclarations figuratives (c’est-à-dire non littérales) qui ne sont pas destinées à inciter à la violence, ni susceptibles d’atteindre cet objectif, n’enfreignent pas la ligne politique sur la violence et l’incitation qui interdit les menaces de violence dans des contextes pertinents. Cette disposition doit inclure l’élaboration de critères pour les équipes de modération à grande échelle sur la façon d’identifier de telles déclarations dans le contexte pertinent.
* Les résumés de cas donnent un aperçu du cas et n’ont pas valeur de précédent.
Décision complète sur le cas
1. Résumé de la décision
Le Conseil de surveillance a annulé la décision initiale de Meta de retirer une vidéo filmée dans une rue en Iran, dans laquelle on voit un homme s’en prendre à une femme, car elle ne porte pas de hijab. Meta a supprimé la publication d’Instagram en raison de la phrase suivante dans la légende : « tu vas finir par être mis en pièces ». L’entreprise interprète ce propos comme une menace contre l’homme qui s’en prend à la femme, car elle ne porte pas de hijab. D’après le Conseil, cette publication n’a pas enfreint la politique sur la violence et l’incitation en raison de la nature figurative, et non littérale, de la déclaration concernée, ce qui dans le contexte iranien ne constitue pas une menace crédible de violence. Après que le Conseil a sélectionné le cas présent, Meta a d’abord confirmé sa décision de supprimer la publication. Toutefois, avant de soumettre sa justification au Conseil, Meta a jugé que sa décision initiale de retirer le contenu était erronée et l’a restauré sur sa plateforme. Le Conseil conclut que le travail mené par Meta afin de faire respecter la liberté d’expression et de rassemblement dans un contexte de répression étatique systématique s’est avéré insuffisant et recommande à l’entreprise de modifier son Protocole de politique de crise.
2. Description du cas et contexte
En juillet 2023, un utilisateur d’Instagram a publié une vidéo en persan et sous-titrée en anglais montrant un homme s’en prendre publiquement à une femme, car elle ne porte pas de hijab, en réponse à quoi elle déclare défendre ses droits. L’homme n’est pas identifiable, tandis que la femme l’est parfaitement. Il semble que la vidéo soit la republication d’un enregistrement initialement partagé par une personne affiliée au régime iranien ou le soutenant. Une légende, également en persan, l’accompagne afin d’exprimer son soutien à la femme ainsi qu’aux femmes iraniennes qui se soulèvent contre le régime, et de critiquer le régime et ses soutiens. L’une des phrases mentionnées dans la légende, traduite par Meta par « tu vas finir par être mis en pièces », indiquait que la femme a été arrêtée suite à cet incident. La publication a été vue 47 000 fois, a reçu 2 000 mentions J’aime, 100 commentaires et a été partagée 50 fois.
Ce contenu a d’abord été signalé par un classificateur automatisé, un algorithme que Meta utilise afin d’identifier les éventuelles infractions à ses politiques, car il pouvait potentiellement enfreindre les Règles de la communauté d’Instagram, puis a été soumis à un examen manuel. Plusieurs membres des équipes d’examen l’ont évalué, mais leur divergence d’opinion quant à une éventuelle violation de la politique sur la violence et l’incitation et une erreur technique ont d’abord entraîné son maintien sur la plateforme. Un utilisateur a ensuite signalé le contenu, en réponse à quoi un classificateur automatisé a une fois de plus déterminé que le contenu pouvait enfreindre les politiques de Meta et l’a soumis à un nouvel examen. Le contenu a été signalé uniquement une fois par un seul utilisateur. Suite à ce niveau d’examen supplémentaire mené par l’équipe régionale de Meta spécialisée en linguistique, l’entreprise a supprimé la publication d’Instagram en vertu de sa politique sur la violence et l’incitation. La décision de Meta de supprimer la publication reposait sur la mention suivante de la légende : « tu vas finir par être mis en pièces ». L’entreprise a considéré que cette phrase constituait une menace ciblant l’homme filmé qui s’en prend à la femme, car elle ne porte pas de hijab. L’utilisateur à l’origine de la publication a fait appel de la décision de Meta visant à la retirer. Un membre de l’équipe d’examen a confirmé la décision de suppression.
L’utilisateur à l’origine de la publication a ensuite déposé un appel auprès du Conseil pour empêcher ce retrait. Lorsque le Conseil a identifié le cas présent pour examen, Meta a confirmé sa décision de supprimer le contenu. À cette étape de l’examen, Meta a également tenu compte du Standard de la communauté relatif aux attaques coordonnées et à la promotion d’actions criminelles, qui interdit de « dévoiler l’identité » des femmes non voilées si cela les expose à des risques de préjudices. Au moment de la publication du contenu, la femme avait déjà été arrêtée par le régime. Suite à la sélection du cas par le Conseil, l’entreprise a ensuite changé d’avis et a restauré le contenu sur la base d’informations supplémentaires présentées par son équipe régionale et de la décision du Conseil dans le cas relatif à l’Appel à la manifestation des femmes à Cuba.
D’après les observations du Conseil dans sa décision sur le Slogan de protestation en Iran, certains Iraniens manifestent contre le Gouvernement et revendiquent leurs droits civils et politiques ainsi que l’égalité entre les hommes et les femmes, depuis au moins la révolution de 1979. En 2023, le prix Nobel de la paix a été décerné à Narges Mohammadi, une militante des droits humains emprisonnée, pour récompenser « plus de 20 années de lutte en faveur des droits des femmes [qui en] ont fait un symbole de liberté et un porte-drapeau dans la lutte contre la théocratie iranienne ». Le Code pénal d’Iran punit d’une peine d’emprisonnement, d’une amende ou de coups de fouet les femmes qui apparaissent en public sans un « hijab approprié ». En Iran, les femmes n’ont également pas le droit de s’inscrire dans certains domaines d’étude et de fréquenter de nombreux espaces publics, et la population ne peut pas danser avec des personnes du sexe opposé, entre autres interdits. Les hommes sont considérés comme les chefs de famille et les femmes doivent obtenir la permission de leur père ou de leur mari pour travailler, se marier ou voyager. Le témoignage d’une femme au tribunal est considéré comme ayant deux fois moins de poids que celui d’un homme, ce qui limite l’accès des femmes à la justice.
Après l’intensification et l’élargissement des mesures d’application du hijab obligatoire décidés par les autorités iraniennes en 2022, les femmes sont confrontées à une surveillance accrue, menant souvent à du harcèlement verbal et physique et à des arrestations. En septembre 2022, Jina Mahsa Amini, une jeune femme âgée de 22 ans, est décédée en garde à vue trois jours après son arrestation motivée par son inobservation présumée de la législation iranienne sur le port d’un « hijab approprié ». Son décès a déclenché une indignation nationale et une vague de manifestations dans tout le pays, ainsi qu’un mouvement anti-régime connu sous le nom de « Zan, Zendegi, Azadi » (« Femme, Vie, Liberté »). Les autorités ont répondu à ces évènements par une violente répression, entraînant plus de 500 décès confirmés à la fin de 2022, et l’arrestation d’environ 14 000 personnes, notamment des manifestants, des journalistes, des avocats, des militants, des artistes et des athlètes ayant exprimé leur soutien au mouvement.
En septembre 2023, le parlement iranien a adopté une nouvelle loi relative au « hijab et à la chasteté » qui prévoit de condamner les femmes à une peine de prison pouvant aller jusqu’à 10 ans si elles persistent à braver les lois sur le hijab obligatoire établies dans le pays. Les entreprises qui servent des femmes non voilées peuvent également risquer des sanctions et une fermeture.
Les réseaux sociaux ont joué un rôle essentiel dans le mouvement de protestation des femmes en Iran, en permettant la mobilisation des manifestants et la diffusion d’informations vitales (voir les commentaires publics PC 21007 et PC-21011), ainsi que la documentation et la préservation publique des preuves relatives aux abus et aux violations des droits humains (commentaire PC-21008 ci-joint).
Les campagnes en ligne exposent néanmoins les femmes à des risques d’intensification de la répression menée par le régime, notamment aux menaces, campagnes de diffamation, arrestations et peines de prison. Les experts que le Conseil a consultés ont constaté un important réseau d’entités associées au Corps des gardiens de la révolution islamique et au Gouvernement iranien qui opèrent sur Instagram et Telegram, ce dernier étant fréquemment utilisé pour cibler directement et accuser des manifestants et des dissidents.
Plusieurs commentaires soumis au Conseil ont par ailleurs évoqué la stratégie du régime de signaler en masse le contenu lié aux manifestations sur Instagram en utilisant le système de signalement d’utilisateur afin de « faire pression sur les entreprises de réseaux sociaux pour supprimer le contenu lié aux dissidents ou les soumettre à des bannissements furtifs » (voir les commentaires publics PC-21011 et PC-21009). Il a également été signalé que des représentants du renseignement iranien offrent de l’argent aux équipes de modération afin qu’elles suppriment le contenu partagé par des opposants au régime.
En février 2023, le Rapporteur spécial des Nations unies sur l’Iran a émis des inquiétudes sur la répression et le ciblage continus contre les militants de la société civile, les défenseurs des droits humains et des droits des femmes, les avocats et les journalistes, à mesure que les autorités sévissent contre les lieux où la population peut exprimer sa dissidence, y compris les importantes interruptions Internet et la censure des plateformes de réseaux sociaux.
3. Champ d’application et autorité du Conseil de surveillance
Le Conseil jouit de l’autorité nécessaire pour examiner la décision de Meta à la suite d’un appel interjeté par la personne dont le contenu a été supprimé (article 2, section 1 de la Charte ; article 3, section 1 des Statuts).
Le Conseil peut confirmer ou annuler la décision de Meta (article 3, section 5 de la Charte), et ce, de manière contraignante pour l’entreprise (article 4 de la Charte). Meta doit également évaluer la possibilité d’appliquer la décision à un contenu identique dans un contexte parallèle (article 4 de la Charte). Les décisions du Conseil peuvent inclure des recommandations non contraignantes auxquelles Meta doit répondre (article 3, section 4 de la Charte ; article 4 de la Charte). Lorsque Meta s’engage à donner suite aux recommandations, le Conseil surveille leur mise en œuvre.
Lorsque le Conseil sélectionne des cas comme celui-ci, où Meta reconnaît par la suite avoir commis une erreur, il réexamine la décision initiale afin de mieux comprendre le processus de modération du contenu et de formuler des recommandations visant à réduire les erreurs et à traiter les utilisateurs de Facebook et d’Instagram de manière plus équitable.
4. Sources d’autorité et conseils
Les standards suivants et les précédents ont éclairé l’analyse du Conseil dans ce cas :
I. Décisions du Conseil de surveillance
Les décisions antérieures les plus pertinentes du Conseil de surveillance comprennent les cas suivants :
- Appel à la manifestation des femmes à Cuba
- Déclaration métaphorique contre le président du Pérou
- Slogan de protestation en Iran
- Isolement d’Öcalan
- Symptômes du cancer du sein et nudité
II. Règles de Meta relatives au contenu
L’analyse du Conseil s’est appuyée sur l’engagement de Meta en faveur de la liberté d’expression, que l’entreprise qualifie de « primordial », et sur ses valeurs de sécurité, de vie privée et de dignité.
Règles de la communauté d’Instagram
Les Règles de la communauté d’Instagram stipulent que l’entreprise « supprimera le contenu proférant des menaces crédibles » et renvoient vers le Standard de la communauté sur la violence et l’incitation. Les Règles de la communauté ne renvoient pas directement au Standard de la communauté sur les attaques coordonnées et la promotion d’actions criminelles. Le Rapport d’application des Standards de la communauté de Meta pour le T1 de 2023 indique que « Facebook et Instagram disposent des mêmes politiques relatives au contenu. Cela signifie que si un contenu est jugé en infraction sur Facebook, il est aussi jugé en infraction sur Instagram. »
Le contenu a été supprimé en vertu de la politique sur la violence et l’incitation. Après que le Conseil a sélectionné le cas, Meta a également analysé le contenu en vertu de sa politique sur les attaques coordonnées et la promotion d’actions criminelles.
Standard de la communauté sur la violence et l’incitation
D’après la justification de la Politique, le Standard de la communauté en matière de violence et d’incitation a pour but de « prévenir la violence hors ligne potentielle qui peut être liée au contenu » sur les plateformes de Meta. Dans le même temps, Meta reconnaît que « les individus expriment communément leur dédain ou leur désaccord à travers des menaces ou des appels à la violence de manière non sérieuse et informelle. » Meta supprime ainsi le contenu lorsqu’elle considère qu’il contient des « [m]enaces de violence pouvant entraîner la mort », notamment le contenu exprimant des « déclarations d’intention » de commettre des actes de violence de haute gravité » contre une personne. Elle explique qu’elle tient compte du contexte de la déclaration lorsqu’elle examine l’éventuelle crédibilité de la menace, par exemple en étudiant d’autres informations telles que la « visibilité publique de la personne et la vulnérabilité de la cible ».
La section « Ne pas publier » de la politique interdit expressément « les menaces de violence pouvant entraîner la mort (et toute autre forme de violence de haute gravité) ». Le terme « menace » inclut les « déclarations d’intention » de commettre des actes de violence de haute gravité.
Standard de la communauté relatif aux attaques coordonnées et à la promotion d’actions criminelles
D’après la justification de la Politique, le Standard de la communauté relatif aux attaques coordonnées et à la promotion des actions criminelles vise à « perturber le préjudice hors ligne et les comportements d’imitation » en interdisant aux personnes de « faciliter, d’organiser, de promouvoir ou d’admettre certaines activités criminelles ou nuisibles visant des personnes, des entreprises, des biens ou des animaux ». Cela inclut le fait de « dévoiler l’identité » d’une personne, ce que Meta définit comme un contenu qui révèle l’identité ou les lieux affiliés à une personne supposée, entre autres choses, « appartenir à un groupe dont l’identification peut l’exposer à des risques ». Cette ligne politique est mise en place par les équipes de modération à grande échelle en lien avec certains groupes spécifiques. Lorsque le contenu a été envoyé pour escalation, accompagné de plus de contexte, la politique de Meta alors en vigueur lors de la publication du contenu stipulait qu’il est également possible de supprimer le « contenu qui met en danger les femmes non voilées en les montrant sans voile contre leur volonté ou sans leur autorisation ». Cette disposition a maintenant été modifié en vue d’interdire l’« identification [des femmes non voilées] en dévoilant l’identité d’une personne et en l’exposant à des risques de préjudices ».
III. Responsabilités de Meta en matière de droits humains
Les Principes directeurs relatifs aux entreprises et aux droits de l’homme des Nations unies (PDNU), soutenus par le Conseil des droits de l’homme des Nations unies en 2011, établissent un cadre de travail volontaire pour les responsabilités en matière de droits de l’homme des entreprises privées. La Politique d’entreprise des droits humains de Meta, annoncée le 16 mars 2021, a réaffirmé l’engagement de la société à respecter les droits tels que reflétés dans les PDNU.
Les standards internationaux suivants peuvent être pertinents pour l’analyse du Conseil sur les responsabilités de Meta en matière de droits humains dans le cas présent :
- Le droit à la liberté d’expression : l’article 19 du Pacte international relatif aux droits civils et politiques (PIDCP), observation générale n° 34 du Comité des droits de l’homme,2011 ; les rapports du Rapporteur spécial des Nations unies sur la liberté d’opinion et d’expression : A/HRC/38/35 (2018) et A/74/486 (2019) ; et le Plan d’action de Rabat, rapport du Haut-Commissaire des Nations unies aux droits de l’homme : A/HRC/22/17/Add.4 (2013).
- Le droit à la liberté de rassemblement pacifique : l’article 21 du PIDCP ; l’observation générale n° 37, Comité des droits de l’homme, 2020.
- Le droit à la vie : l’article 6 du PIDCP.
- Le droit à la liberté et à la sécurité de la personne : l’article 9 du PIDCP.
- Le droit à la non-discrimination : les articles 2(1), 3 et 26 du PIDCP ; les articles 1 et 7 (non-discrimination dans la participation à la vie politique et publique du pays), Convention sur l’élimination de toutes les formes de discrimination à l’égard des femmes ( CEDAW). Voir également la Déclaration sur les défenseurs des droits de l’homme, l’article 8 relatif au droit de participer effectivement, sur une base non discriminatoire, à la direction des affaires publiques.
- Le droit à la vie privée : l’article 17 du PIDCP.
5. Soumissions de l’utilisateur
L’utilisateur à l’origine de la publication a déposé un appel auprès du Conseil pour empêcher ce retrait. Il a expliqué dans sa déclaration que la publication montrait un représentant du Gouvernement iranien s’en prendre à une femme, car elle ne porte pas de hijab. L’utilisateur a indiqué que la vidéo témoigne du courage de la femme iranienne qui défend ses droits. Il a ajouté que d’autres personnes ont partagé des vidéos similaires sur les réseaux sociaux et que le contenu n’était ni nuisible ni dangereux, et qu’il n’enfreignait aucune politique d’Instagram.
6. Soumissions de Meta
Standard de la communauté sur la violence et l’incitation
Meta a affirmé au Conseil qu’elle a appuyé sa décision initiale de supprimer le contenu du présent cas sur sa politique relative à la violence et l’incitation. Elle a expliqué avoir motivé sa décision sur une partie de la légende de la publication, qu’elle a traduite par « tu vas finir par être mis en pièces ». Elle a considéré que cette phrase ciblait l’homme filmé qui s’en prend à la femme, car elle ne porte pas de hijab. L’équipe régionale a conclu que la phrase « mis en pièces » constituait une menace de blessures physiques dans le contexte iranien. Compte tenu de cette interprétation, Meta a d’abord confirmé sa décision de supprimer le contenu en vertu de sa politique sur la violence et l’incitation.
Bien que Meta ait confirmé sa décision de supprimer le contenu lorsque le Conseil a une première fois identifié le cas présent pour examen, elle a ensuite changé d’avis après que le Conseil a sélectionné ce cas et restauré le contenu sur la base des informations supplémentaires présentées par l’équipe régionale. Compte tenu de ces informations, Meta est parvenue à la conclusion que l’interprétation la plus probable des propos tenus dans la légende faisait référence à la chute du régime iranien ou des personnes qui soutiennent le port obligatoire du hijab, plutôt qu’une menace littérale ciblant l’homme dans la vidéo.
Dans son examen final, Meta a estimé que l’objectif du contenu était de sensibiliser et d’attirer l’attention de l’opinion publique sur les abus dont les femmes sont victimes, à l’instar de la femme à qui l’homme s’en prend dans la vidéo, car elle ne porte pas de hijab. L’utilisateur fait référence à la force des femmes iraniennes et critique la « bâtardise », évoquant soit l’homme qui filme la vidéo ou le régime dans son ensemble, et sensibilise l’opinion publique à l’arrestation de la femme concernée. Meta a expliqué que les propos potentiellement menaçants doivent être lus et compris en tenant compte du contexte global. L’entreprise a indiqué dans sa justification de la Politique que ce type de sensibilisation, en citant la décision du Conseil dans le cas relatif au Slogan de protestation en Iran, est particulièrement important en Iran, en raison du peu de canaux disponibles pour la liberté d’expression.
Meta a également informé le Conseil qu’après avoir mené des recherches supplémentaires, les équipes régionales ont suggéré que l’interprétation la plus raisonnable des propos « tu vas finir par être mis en pièces » ne relevait pas d’une menace réelle, mais plutôt d’une critique politique contre le régime dans son ensemble ou plus globalement les soutiens du port obligatoire du hijab. Bien que les termes « mis en pièces » évoquent généralement le meurtre d’une personne par démembrement, nous pouvons ici comprendre qu’ils décrivent la chute du régime (similaires aux propos métaphoriques utilisés dans le résumé de la décision Déclaration métaphorique contre le président du Pérou).
Meta a indiqué au Conseil qu’un autre critère sur lequel elle s’est appuyée pour finalement restaurer le contenu était la récente décision du Conseil dans le cas relatif à l’Appel à la manifestation des femmes à Cuba, dans lequel le Conseil a insisté sur l’importance que la lecture contextuelle de la publication tienne compte de la vague de répression étatique et de l’intérêt public fondamental dans les manifestations historiques évoquées dans la publication. Par ailleurs, l’entreprise a considéré le cas relatif au Slogan de protestation en Iran, dans lequel le Conseil a analysé le mouvement politique sur les droits des femmes en Iran. Le Conseil a ainsi insisté sur l’importance de protéger la liberté d’expression dans le cadre du mouvement de contestation, notamment compte tenu de la répression systématique du Gouvernement iranien contre la liberté d’expression et sur l’importance des espaces numériques utilisés pour exprimer la dissidence. L’entreprise a également indiqué avoir étudié le récent résumé de la décision du Conseil dans la Déclaration métaphorique contre le président du Pérou, qui a insisté à nouveau sur l’« importance de concevoir des systèmes de modération sensibles au contexte qui reconnaissent les discours ironiques, satiriques ou rhétoriques, notamment pour protéger le discours politique ».
Standard de la communauté relatif aux attaques coordonnées et à la promotion d’actions criminelles
Meta a expliqué au Conseil avoir également envisagé le retrait du contenu conformément au Standard de la communauté sur les attaques coordonnées et la promotion d’actions criminelles, car la femme qui apparaît dans la vidéo sans voile a été involontairement identifiée. Meta applique cette ligne politique uniquement lors de l’escalation d’un contenu et si un contexte supplémentaire a été fourni. La mise en application nécessite la transmission d’informations par les parties prenantes concernées et tente de savoir si le contenu représente une femme non voilée, en divulguant son identité sans son autorisation, et est susceptible de l’exposer à des risques, plutôt que des termes spécifiques utilisés ou le ton du contenu ou de la légende. Meta remarque qu’une personne ne peut « dévoiler son identité » elle-même, cette identification doit être involontaire pour enfreindre la politique.
Dans le cas présent, Meta a estimé que le contenu ne doit pas être supprimé en raison d’une divulgation involontaire, car l’identité de la femme était largement connue et relayée en ligne, et qu’elle avait déjà été arrêtée au moment de la publication du contenu en l’espèce. Ce contexte réduit significativement le risque de préjudice associé à la conservation du contenu sur la plateforme.
Le Conseil a posé 11 questions et 2 questions de suivi par écrit à Meta. Ces questions portaient sur la mise en application des procédures et des ressources pour l’Iran, l’évaluation des risques menée par Meta pour l’Iran en général et pour la femme apparaissant dans la vidéo en particulier, les processus d’examens automatisés et manuels, la mise en application de contenu montrant des femmes non voilées et la divulgation de l’identité de membres de groupes à risque, à grande échelle et lors des escalations. Meta a répondu à toutes les questions.
7. Commentaires publics
Le Conseil de surveillance a reçu 12 commentaires publics pertinents pour ce cas. Sept d’entre eux proviennent des États-Unis et du Canada, deux de l’Asie centrale et du Sud, deux d’Europe et un du Moyen-Orient et d’Afrique du Nord.
Les soumissions portaient sur les sujets suivants : le rôle des réseaux sociaux dans les manifestations iraniennes, notamment le mouvement « Femme, Vie, Liberté », ainsi que celui des images de femmes non voilées dans les campagnes numériques ; les risques liés à la diffusion d’images de femmes non voilées en Iran sur les réseaux sociaux ; l’utilisation des réseaux sociaux par les autorités iraniennes ; la mise en application des politiques de Meta en matière de modération de contenu pour les discours tenus en persan liés à la situation politique en Iran ; la liberté d’expression, les droits humains et des femmes, la répression gouvernementale et les interdictions imposées aux réseaux sociaux en Iran.
Pour lire les commentaires publics envoyés dans ce cas-ci, veuillez cliquer ici.
8. Analyse du Conseil de surveillance
Le Conseil a examiné la décision initiale de Meta de supprimer le contenu en vertu des politiques de l’entreprise sur le contenu, de ses responsabilités en matière de droits humains et de ses valeurs.
Il a sélectionné le présent cas car il permettait d’étudier les politiques de Meta sur la violence et l’incitation ainsi que sur les attaques coordonnées et la promotion d’actions criminelles, mais également les processus de mise en application connexes dans le contexte des manifestations iraniennes de grande ampleur en faveur des droits des femmes et de leur participation à la vie publique depuis septembre 2022. Il met notamment l’accent sur l’importance des plateformes de réseaux sociaux pour les manifestants contre la législation sur le hijab obligatoire.
Grâce à ce cas, le Conseil peut par ailleurs évoquer les procédures internes de Meta qui déterminent les situations et les raisons pour lesquelles le discours figuratif, s’il est interprété littéralement, peut être considéré comme une menace, mais qui compte tenu du contexte ne saurait être interprété comme une menace crédible. Le cas s’inscrit principalement dans la priorité du Conseil relative aux élections et à l’espace civique, mais touche également aux priorités du Conseil relatives au genre, à l’utilisation gouvernementale des plateformes de Meta, et aux situations de crise et de conflit.
8.1 Respect des politiques relatives au contenu de Meta
Standard de la communauté sur la violence et l’incitation
Le Conseil considère que le contenu du cas présent n’enfreint pas le Standard de la communauté sur la violence et l’incitation, car il énonce un discours figuratif exprimant la colère contre la répression du gouvernement, plutôt qu’une menace littérale, et donc crédible de violence.
Meta a expliqué avoir d’abord supprimé le contenu du cas présent en raison d’une « déclaration d’intention de commettre des actes de violence de haute gravité ». Elle définit la violence de haute gravité comme une menace susceptible d’entraîner la mort ou une issue probablement létale.
En se basant sur l’évaluation de son équipe régionale, Meta a interprété la phrase « tu vas finir par être mis en pièces » extraite de la légende accompagnant la publication comme une menace de blessures physiques compte tenu du contexte iranien, ce qui représente une infraction de sa politique sur la violence et l’incitation.
Les spécialistes linguistiques que le Conseil a consultés ont expliqué que cette partie de la légende peut se traduire par « nous allons bientôt vous mettre en pièces ! » ou « bientôt, nous allons vous broyer ». Les spécialistes ont constaté que, dans le contexte iranien, cette phrase exprime la colère, la déception et la rancœur contre les oppresseurs, et suggère que la situation est susceptible de changer un jour, car ils ne pourront pas toujours être au pouvoir. Il ne convient pas d’interpréter cette phrase littéralement, comme si elle constituait une déclaration d’intention de causer des blessures physiques. Elle représente au contraire une « déclaration rhétorique » visant à attirer l’attention avec des termes à forte charge émotionnelle, comme des verbes percutants tels que « mettre en pièces » ou « broyer ». Les spécialistes consultés ont souligné qu’un tel discours figuratif reflète la profonde colère que ressentent aussi bien l’utilisateur à l’origine de la publication et son audience. Il n’implique donc pas de réelles menaces de violence physique.
Bien que Meta ait indiqué au Conseil qu’elle tient également compte du contexte de la déclaration dans son évaluation sur la crédibilité d’une menace, les conseils qu’elle donne à ses équipes de modération ne stipulent pas qu’elles peuvent l’utiliser lorsqu’elles recherchent une éventuelle « déclaration d’intention [de commettre] des actes de violence de haute gravité ». Sous réserve de l’observation des éléments de la règle, notamment lorsque le contenu désigne une menace et une cible, la publication est considérée comme étant en infraction, comme dans le cas présent. En l’espèce, Meta a estimé que la déclaration ciblait l’homme qui s’en prend à la femme. Cette règle n’exige pas que la cible soit visible ni identifiable. Les règles ne prévoient d’exempter un discours menaçant ou de ne pas le considérer comme une menace crédible que dans un seul cas : les « menaces adressées contre certains acteurs violents, tels que les groupes terroristes ».
La formulation « vous mettre en pièces » ne constitue pas ici une menace crédible. En cette période d’agitation, de répression et de violence grandissantes contre les opposants au régime iranien, et compte tenu de la légende et de la vidéo dans leur ensemble, le Conseil estime que la phrase est figurative, et non littérale, car elle exprime la colère et le désarroi face au régime, et ne constitue en aucune cas une « déclaration d’intention [de commettre] des actes de violence de haute gravité ». Cette interprétation est conforme à l’engagement de Meta envers la liberté d’expression, et à l’importance de protéger l’expression du mécontentement politique.
Standard de la communauté relatif aux attaques coordonnées et à la promotion d’actions criminelles
Le Conseil estime que le contenu en question n’enfreint pas le Standard de la communauté relatif aux attaques coordonnées et à la promotion d’actions criminelles.
Meta a envisagé de supprimer la publication en vertu de la règle interdisant le « contenu qui met en danger les femmes non voilées en les montrant sans voile contre leur volonté ou sans leur autorisation ». Cette ligne politique a depuis été modifiée en vue d’interdire l’« identification [des femmes non voilées] en dévoilant l’identité d’une personne et en l’exposant à des risques de préjudices ». L’entreprise prévoit que l’« identification » inclut le contenu qui diffuse l’image d’une femme non voilée, divulgue son identité sans son autorisation et l’expose à des risques de préjudices. La ligne politique s’applique uniquement lors des escalations et nécessite l’avis de différentes parties prenantes en vue de sa mise en application (voir la section 4 ci-dessus).
Dans le cas présent, le Conseil partage l’avis de Meta selon lequel le contenu n’« identifie » pas la femme dans la vidéo, car son identité avait déjà été largement divulguée et que le risque de préjudice causé par le contenu avait diminué, ayant déjà été arrêtée au moment de la publication. Par conséquent, laisser la vidéo sur la plateforme n’augmenterait pas de façon significative le niveau de risque à laquelle la femme est exposée et pourrait même la protéger en sensibilisant l’opinion publique à sa situation. Savoir si une publication « identifie » une femme et la met en danger dépend beaucoup du contexte ; la mise en application de la politique uniquement lors d’une escalation peut garantir que l’équipe qui la met en place dispose du temps et des ressources nécessaires afin d’identifier efficacement et de tenir compte du contexte en question.
8.2 Respect des responsabilités de Meta en matière des droits humains
Le Conseil estime que la suppression du contenu de la plateforme n’était pas conforme aux responsabilités de Meta en matière de droits humains.
Liberté d’expression (article 19 du PIDCP)
L’article 19 du PIDCP prévoit une protection plus large de la liberté d’expression, notamment la « liberté de rechercher, de recevoir et de répandre des informations et des idées de toute espèce, sans considération de frontières, sous une forme orale, écrite, imprimée ou artistique, ou par tout autre moyen de son choix ». Lorsque des limitations de la liberté d’expression sont imposées par un État, elles doivent remplir des critères de légalité, d’objectif légitime, et de nécessité et de proportionnalité (article 19, paragraphe 3 du PIDCP). Le Conseil utilise ce cadre pour interpréter les engagements volontaires de Meta en matière de droits humains, à la fois pour la décision relative au contenu individuel en cours d’examen et pour ce que cela dit de l’approche plus large de Meta en matière de gouvernance du contenu. Comme l’a déclaré le Rapporteur spécial des Nations unies sur la liberté d’expression disant que même si « les entreprises ne sont pas soumises aux mêmes devoirs que les gouvernements, leur influence est néanmoins telle qu’elle doit les inciter à se poser les mêmes questions qu’eux quant à la protection de la liberté d’expression de leurs utilisateurs » ( A/74/486, paragraphe 41).
L’accès aux réseaux sociaux est essentiel dans une société fermée comme l’Iran. Les plateformes de réseaux sociaux, dans leur fonction de « gardiens numériques », ont un « profond impact » sur l’accès du public aux informations ( A/HRC/50/29, paragraphe 90). La publication en l’espèce fait partie d’un mouvement de protestation plus large dont la survie dépend des espaces civiques sur Internet. Les lois qui dictent la façon dont les femmes doivent s’habiller ont des conséquences sur leur liberté et leur dignité ( A/68/290, paragraphe 38), qu’elles aient été adoptées afin d’interdire le port du voile ou d’obliger les femmes à en porter un dans l’espace public (voir, par exemple, Yaker v France, CCPR/C/123/D/2747/2016). À cet égard, « l’Internet est devenu le nouveau champ de bataille dans la lutte menée pour les droits des femmes, en amplifiant les possibilités dont elles disposent pour s’exprimer » ( A/76/258 paragraphe 4). L’autonomisation des femmes en matière de liberté d’expression favorise leur participation à la vie politique et la réalisation de leurs droits humains ( A/HRC/Res/23/2, paragraphes 1-2 ; A/76/258, paragraphe 5).
I. Légalité (clarté et accessibilité des règles)
Le principe de légalité exige que toute restriction de la liberté d’expression soit conforme à une règle établie, qui est accessible et compréhensible pour les utilisateurs. La règle doit être « libellée avec suffisamment de précision pour permettre à un individu d’adapter son comportement en conséquence et être mise à la disposition du public » ( observation générale n° 34, paragraphe 25). Par ailleurs, les règles qui limitent la liberté d’expression « ne peuvent pas conférer aux personnes chargées de [leur] application un pouvoir illimité de décider de la restriction de la liberté d’expression » et doivent « énoncer des règles suffisamment précises pour permettre aux personnes chargées de leur application d’établir quelles formes d’expression sont légitimement restreintes et lesquelles ne le sont pas » (observation générale n° 34, paragraphe 25 ; A/HRC/38/35 (undocs.org), paragraphe 46). Le manque de clarté ou de précision peut conduire à une application incohérente et arbitraire des règles. Dans le cadre des plateformes de Meta, les utilisateurs doivent être en mesure de prévoir les conséquences de la publication d’un contenu sur Facebook et Instagram, et les équipes d’examen de contenu doivent disposer de conseils précis sur l’application de ces règles.
Standard de la communauté sur la violence et l’incitation
Le Conseil constate que, bien que la justification de la Politique, qui énonce les objectifs du Standard de la communauté sans faire partie de la règle elle-même, du Standard de la communauté sur la violence et l’incitation suggère que le « contexte a son importance » et peut être examiné lorsqu’il s’agit d’évaluer la « crédibilité d’une menace », les conseils internes de Meta et son approche de la modération ne le permettent pas en pratique. Comme le Conseil l’a remarqué dans le cas relatif au Slogan de protestation en Iran, un modérateur de contenu à grande échelle doit rechercher des critères ou des éléments spécifiques dans la publication, puis la supprimer s’il les a effectivement trouvés. En d’autres termes, si la publication profère une menace (par exemple, « tuer » ou « Je vais te mettre en pièces » et cible une entité en particulier, elle sera supprimée. Les équipes de modération de contenu ne sont pas habilitées à évaluer si la menace est crédible. Comme Meta l’a également expliqué dans le cas présent, la répétition ou l’approche conventionnelle vient du fait qu’il est « difficile d’évaluer si [une phrase] constitue un discours rhétorique plutôt qu’une menace crédible, surtout si elle est prononcée à grande échelle ». L’évaluation de la crédibilité des menaces est réalisée lors de l’élaboration de la règle, pas dans sa mise en application. Comme le Conseil l’a constaté dans le cas relatif au Slogan de protestation en Iran, alors que la « justification de la Politique semble tenir compte des discours rhétoriques du type de ceux que l’on peut attendre dans les contextes de protestation, les règles écrites et les conseils correspondants aux équipes d’examen ne le font pas. En effet, la mise en application dans la pratique, en particulier à l’échelle, est plus formelle que ne le laissent entendre les règles, ce qui peut créer des perceptions erronées chez les utilisateurs sur la manière dont les règles sont susceptibles d’être appliquées. Les conseils aux équipes d’examen, tels qu’ils sont actuellement rédigés, excluent la possibilité d’une analyse contextuelle, même lorsqu’il existe des indices clairs dans le contenu lui-même que le langage menaçant est rhétorique ». Cette incohérence entre la justification de la Politique énoncée par l’entreprise et sa pratique de mise en application réelle n’a pas été résolue et ne répond pas favorablement au principe de légalité.
Le Conseil réitère ses conclusions relatives au cas sur le Slogan de protestation en Iran qui recommandaient à Meta de proposer des conseils nuancés sur la prise en compte du contexte, en demandant aux équipes de modération de ne pas supprimer par défaut les propos « rhétoriques » ou non littéraux exprimant la dissidence, en particulier dans des environnements politiques sensibles, comme en Iran.
Standard de la communauté relatif aux attaques coordonnées et à la promotion d’actions criminelles
Selon le Conseil, l’interdiction que Meta impose sur le « contenu qui met en danger les femmes non voilées en les montrant sans voile contre leur volonté ou sans leur autorisation » est suffisamment claire, telle qu’elle appliquée dans le cas présent. Cela montre clairement que le contenu qui « identifie » les femmes non voilées et est susceptible de les exposer à des risques est interdit sur les plateformes de Meta. Le Conseil émet cependant des inquiétudes quant au fait que les Règles de la communauté d’Instagram ne renvoient pas directement au Standard de la communauté sur les attaques coordonnées et la promotion d’actions criminelles. Cette lacune rend ces règles plus difficilement accessibles aux utilisateurs d’Instagram. Dans des cas précédents ( Symptômes du cancer du sein et nudité, Isolement d’Öcalan), le Conseil a recommandé à Meta d’expliquer publiquement aux utilisateurs comment les Standards de la communauté Facebook s’appliquent à Instagram. En réponse, Meta a adopté un processus visant à unifier les Standards de la communauté avec les Règles de la communauté d’Instagram et à préciser en quoi les politiques diffèrent légèrement entre les plateformes. En publiant des rapports trimestriels sur la transparence, Meta a assuré au Conseil que ce travail demeure une priorité, en constatant que les considérations légales et réglementaires ont influencé leurs historiques. Le Conseil souligne une fois de plus l’importance d’avancer rapidement afin de finaliser ce processus et d’assurer la clarté des règles applicables.
II. Objectif légitime
Conformément à l’article 19, paragraphe 3 du PIDCP, la liberté d’expression peut faire l’objet d’une restriction pour une liste définie et limitée de raisons, notamment aux fins de protéger les droits d’autrui. Dans le cas présent, le Conseil considère que le Standard de la communauté relatif à la violence et à l’incitation vise à « prévenir tout préjudice potentiel hors ligne » en supprimant les contenus qui présentent « un risque réel de blessures physiques ou de menaces directes pour la sécurité publique ». Cette politique sert donc l’objectif légitime de protéger le droit à la vie (article 6 du PIDCP) et le droit à la sécurité physique de la personne (article 9 du PIDCP ; observation générale n° 35, paragraphe 9).
La politique relative aux attaques coordonnées et à la promotion d’actions criminelles sert l’objectif légitime de protéger les droits des femmes en Iran contre la discrimination (articles 2, 3 et 26 du PIDCP ; les articles 1 et 7 de la CEDAW), y compris la jouissance de leurs droits à la liberté d’expression et au rassemblement (articles 19 et 21 du PIDCP), le droit de participer à la vie publique (articles 1 et 7 de la CEDAW), le droit à la vie privée (article 17 du PIDCP), et leurs droits à la vie (article 6 du PIDCP) et les droits à la liberté et à la sécurité de la personne (article 9 du PIDCP).
III. Nécessité et proportionnalité
Toutes les restrictions de la liberté d’expression « doivent être appropriées pour remplir leur fonction de protection, elles doivent constituer le moyen le moins perturbateur parmi ceux qui pourraient permettre d’obtenir le résultat recherché et elles doivent être proportionnées à l’intérêt à protéger » (observation générale 34, paragraphe 34). Les entreprises de médias sociaux doivent envisager une série de réponses possibles au contenu problématique au-delà de la suppression afin de s’assurer que les restrictions sont étroitement adaptées ( A/74/486, paragraphe 51).
Standard de la communauté sur la violence et l’incitation
D’après le Conseil, la décision initiale de Meta de supprimer le contenu en l’espèce n’était pas nécessaire. Protéger la sécurité de la personne en train de filmer ou d’autres personnes n’était pas primordial, car la menace exprimée dans la légende de la publication n’est pas littérale. Le Conseil s’interroge sur le fait que, même après avoir émis des conseils sur le cas relatif au Slogan de protestation en Iran, les Standards de la communauté de l’entreprise et les conseils fournis aux équipes de modération ne suffisent toujours pas à empêcher une mise en application erronée de la politique quant aux menaces figuratives (non littérales), malgré la situation en Iran, où les manifestations n’ont pas cessé depuis plus d’un an. Ce cas, à l’instar de celui qui nous préoccupe, concernait une phrase que Meta n’avait pas identifiée comme une déclaration non littérale d’une menace. Les lacunes persistantes en matière de conseils adaptés sont encore soulignées par le fait que le contenu en l’espèce a été examiné par plusieurs modérateurs et équipes de Meta à grande échelle, qui ont conclu à chaque fois qu’il était en infraction.
Dans le cadre de son analyse, le Conseil s’est appuyé sur les six facteurs du Plan d’action de Rabat pour évaluer la capacité du présent contenu à créer un risque sérieux d’incitation à la discrimination, à la violence ou à toute autre action illégale. Le Conseil constate que, bien que les facteurs du Plan d’action de Rabat aient été élaborés à des fins de lutte contre la haine nationale, raciale ou religieuse constituant une incitation, et non pour l’incitation en général, le test à 6 facteurs permet d’évaluer l’incitation proférée dans des termes généraux. Le Conseil en a déjà fait usage de cette façon (voir, par exemple, le Slogan de protestation en Iran et l’Appel à la manifestation des femmes à Cuba) :
- Contexte : le contenu a été publié en juillet 2023, en période d’agitation, de répression et de violence grandissantes contre les opposants au régime. Les lieux propices à manifester sont peu nombreux dans le pays, compte tenu des importantes interruptions Internet et de l’interdiction des principales plateformes de réseaux sociaux telles que Facebook, Telegram et X. Instagram étant l’une des rares plateformes encore autorisées, son rôle dans le mouvement « Femme, Vie, Liberté » a été sans commune mesure. Les spécialistes que le Conseil a consultés ont constaté que ce mouvement vise à démocratiser les manifestations et la défiance contre quatre décennies de lois discriminatoires envers les femmes. Ils ont observé que, depuis le début du mouvement, instiller la peur et empêcher les femmes de s’exprimer en ligne ont été des tendances très marquées. L’adoption de nouvelles lois et l’arrestation de personnalités connues permettent de brider ces formes de contestation et d’interrompre cette attitude normalisant la défiance envers les lois sur le hijab.
- Identité de l’intervenant : Meta a expliqué au Conseil qu’elle n’a pas considéré l’utilisateur à l’origine du contenu comme une personnalité publique. D’après la légende de la vidéo, l’utilisateur semble soutenir ou appartenir au mouvement « Femme, Vie, Liberté ». L’intervenant n’est donc pas en position d’autorité et peut également exposer sa propre sécurité à des risques en témoignant son soutien et en publiant ce contenu.
- Intention : bien que l’évaluation de l’intention lors de la modération du contenu à grande échelle présente un défi considérable, une lecture objective et ordinaire de la publication dans son intégralité montre le soutien apporté à la femme filmée, ainsi que la sensibilisation de l’opinion publique autour de son arrestation. D’après les experts consultés par le Conseil, les manifestants iraniens ont pour habitude de diffuser l’image et le nom d’une femme voilée après son arrestation, afin de faire pression sur les autorités pour qu’elles ne lui fassent pas de mal. Les manifestants ont découvert que l’identification de ces personnes permet de prévenir de nouveaux actes de harcèlement contre les victimes.
- Contenu et forme d’expression : Les spécialistes linguistiques que le Conseil a consultés ont indiqué que la formulation « mis en pièces », exprimée dans ce contexte précis, pourrait être comprise par les persophones comme une expression d’une émotion forte, comme la colère et la déception, mais ne constituerait pas une menace de violence littérale. Des propos percutants et apparemment menaçants ont régulièrement été utilisés par le mouvement pour protester contre le régime. Dans le cas relatif au Slogan de protestation en Iran, le Conseil a conclu que le slogan « Mort à Khamenei » constituait une « menace rhétorique » et a noté que Meta avait émis une tolérance au nom de l’« esprit de la politique » pour la phrase « Je tuerai quiconque tue ma sœur/mon frère » pour des motifs similaires. La phrase exprimée dans le cas présent apparaît au milieu d’une légende faisant l’éloge d’une femme qui défend ses droits. Observée dans sa globalité, la légende exprime son soutien aux femmes iraniennes qui manifestent contre les lois discriminatoires et les pratiques abusives que le régime a mises en place.
- Ampleur et portée : La publication a été vue 47 000 fois, a reçu 2 000 mentions J’aime, 100 commentaires et a été partagée 50 fois. Ce discours ne semblant pas constituer une incitation à la violence, après évaluation des autres facteurs de l’analyse du Plan d’action de Rabat, l’importante portée du contenu en lui-même n’indique pas la nécessité de le supprimer.
- Probabilité et imminence : Ce facteur évalue la probabilité que le discours entraîne un préjudice imminent et probable contre la cible éventuelle qu’il évoque, à savoir le régime iranien dans le cas présent. Le mouvement de protestation et ses soutiens se soulèvent contre un régime qui utilise en permanence la répression et les représailles violentes contre les manifestants. Les représailles que le régime peut exercer contre l’utilisateur à l’origine de la publication ou la femme qui apparaît dans la vidéo sont la forme de préjudice la plus susceptible de découler du présent discours, plutôt que la violence contre le régime ou ses soutiens. Les experts ont souligné les dangers auxquels les manifestants sont exposés, et la résistance du mouvement malgré la menace de violence imminente. Ils ont par ailleurs expliqué que la diffusion d’images de femmes non voilées arrêtées a pour objectif d’attirer l’attention sur leur arrestation et de faire pression sur les autorités afin qu’elles ne leur fassent pas de mal.
Après avoir analysé les facteurs susmentionnés, le Conseil estime que le contenu ne constituait pas une menace crédible et ne pouvait pas inciter au préjudice hors ligne. Lorsqu’un discours figuratif est proféré dans le cadre de manifestations massives et de la violente répression qui en découle, Meta doit aider ses équipes d’examen à évaluer le langage et le contexte local, en alignant les conseils qu’elle fournit à ses équipes de modération avec la justification de la Politique sous-jacente. Il est essentiel de pouvoir évaluer précisément si une publication constitue un « discours figuratif » ou est susceptible d’inciter à la violence afin d’améliorer la modération dans des contextes de crise plus globalement. La précision de l’automatisation dépendra de la qualité des données de formation que les équipes de modération apportent. Si ces équipes suppriment les déclarations « figuratives » en raison d’une mise en application rigide d’une règle, l’automatisation peut reproduire et amplifier cette erreur.
Le Conseil constate que Meta a mis en place un grand nombre de mécanismes destinés à ajuster ses politiques et leur mise en application lors des situations de crise, notamment le système de hiérarchisation des pays « à risque », et son Protocole de politique de crise. Le système de hiérarchisation des pays « à risque » est utilisé pour identifier les pays exposés à des risques de « préjudice et de violence hors ligne » afin de savoir comment l’entreprise doit prioriser son développement de produits ou comment elle doit investir ses ressources. Il convient également de tenir compte de l’évaluation dans le cadre d’autres processus (par exemple, pour constituer une équipe chargée des opérations spéciales ou pour faire appliquer son Protocole de politique de crise). Meta a informé le Conseil qu’au second semestre de 2023, l’Iran a été désigné comme un « pays à risque ». Il a également été désigné en vertu du Protocole de politique de crise depuis le 21 septembre 2022, et l’est toujours depuis lors. Grâce au Protocole de politique de crise, Meta peut opérer certaines modifications politiques temporaires, connues sous le nom de « leviers de politique » afin de trouver une solution à une situation en particulier. Meta a illustré les leviers de politique déjà appliqués en Iran, notamment « une tolérance visant à autoriser le contenu qui inclut le slogan “Je tuerai quiconque tue ma sœur/mon frère” ou ses dérivés, en l’absence d’autres infractions de nos politiques ». (Pour d’autres exemples de leviers de politique, voir les Procès-verbaux des Forums politiques, 25 janvier 2022, Protocole de politique de crise).
Bien que le Conseil reconnaisse l’engagement de l’entreprise envers la sécurité et son travail visant à atténuer les éventuels risques de modération de contenu en appliquant le Protocole de politique de crise pour l’Iran, ces initiatives se sont avérées insuffisantes pour garantir le respect de la liberté d’expression et de rassemblement de la population dans un environnement de répression systématique de la dissidence et de tensions sociales. On constate grâce aux recherches commandées par le Conseil que l’écrasante majorité du contenu montrant des femmes non voilées dans des discussions relatives au port du hijab en Iran, sur les plateformes de Meta, sont partagées par des opposants au régime ou des soutiens du mouvement de protestation. Dans le cas présent, le processus de mise en application de Meta n’a pas été en mesure, à plusieurs reprises, de distinguer les déclarations figuratives, ou non littérales, dans un contexte donné, des menaces et de l’incitation réelles à la violence, susceptibles d’aggraver le préjudice hors ligne.
Le Conseil recommande à Meta d’ajouter un levier de politique au Protocole de politique de crise, et d’informer en conséquence les équipes de modération à grande échelle des critères internes les aidant à identifier les déclarations qui profèrent des propos menaçants de façon figurative, ou non littérale, dans le contexte pertinent pour être considérées comme n’enfreignant pas la ligne politique sur la violence et l’incitation interdisant les menaces de violence. En élaborant les critères spécifiques aux crises visant à savoir si une menace est figurative et non littérale, Meta peut étudier les facteurs du Plan d’action de Rabat (par exemple, le contexte des manifestations massives contre la répression gouvernementale, l’éventuelle capacité de l’intervenant à inciter la population à commettre des actes de violence ou à présenter le risque de les inciter à de tels actes, le contexte linguistique et social donné indiquant l’usage courant d’un discours à forte charge émotionnelle pour le pouvoir rhétorique, la probabilité de préjudice compte tenu des connaissances locales…). L’entreprise peut également s’appuyer sur ses partenaires de confiance afin de concevoir ou d’évaluer les critères en vue de la modération. Meta a elle-même souligné l’importance pratique du Plan d’action de Rabat envers la modération de contenu, en encourageant les Nations unies à traduire le Plan d’action en 32 langues. Le levier politique doit autoriser le « discours figuratif » dans le cadre des manifestations contre le régime, sous réserve qu’il n’ait pas pour objectif, ni ne soit susceptible, d’inciter à la violence.
Standard de la communauté relatif aux attaques coordonnées et à la promotion d’actions criminelles
Dans le cas présent, le Conseil estime qu’il n’était pas nécessaire de supprimer le contenu aux termes du Standard de la communauté sur les attaques coordonnées et la promotion d’actions criminelles, car la l’identité de la femme filmée avait été largement divulguée, et que le contenu avait manifestement été publié afin d’attirer l’attention sur son arrestation, dans l’espoir de favoriser sa libération. Par ailleurs, plusieurs commentateurs publics ont souligné que les femmes qui retirent leur hijab en public le font volontairement, comme une forme de protestation, et sont conscientes des conséquences pouvant découler de cet acte, en choisissant la « défiance comme stratégie d’opposition à l’autorité » (voir le commentaire public de Tech Global Institute, PC-21009). La femme qui apparaît dans la vidéo avait déjà été identifiée et arrêtée par le régime. Le partage de cette publication visait à attirer l’attention sur son arrestation. Les manifestants et dissidents détenus par le régime ont été victimes d’actes de torture, de violence sexiste ou ont disparu. Les experts que le Conseil a consultés et plusieurs commentateurs publics ont précisément fait remarquer que cette pratique, qui attire l’attention sur les arrestations et appelle à la libération de la personne détenue, est régulièrement utilisée par le mouvement ainsi que les défenseurs des droits humains en Iran, et peut aider à protéger les personnes détenues par le régime.
L’équilibre à trouver entre la nécessité de protéger l’identité des utilisateurs vulnérables et le contournement de la censure pour ceux qui recherchent une exposition médiatique représente un enjeu délicat et requiert une analyse contextuelle, un examen opportun et l’application rapide de mesures.
9. Décision du Conseil de surveillance
Le Conseil de surveillance a annulé la décision initiale de Meta visant à supprimer le contenu.
10. Recommandations
- Mise en application
Afin de garantir le respect de la liberté d’expression et de rassemblement des utilisateurs dans un environnement de répression étatique systématique, Meta doit ajouter un levier de politique à son Protocole de politique de crise, sous réserve que les déclarations figuratives (ou non littérales) qui ne sont pas destinées à inciter à la violence, ni susceptibles d’atteindre cet objectif, n’enfreignent pas la ligne politique sur la violence et l’incitation qui interdit les menaces de violence dans certains contextes. Cette disposition doit inclure l’élaboration de critères pour les équipes de modération à grande échelle sur la façon d’identifier de telles déclarations dans le contexte pertinent.
Le Conseil considérera que cette recommandation aura été mise en place lorsque Meta l’informera de ses méthodes d’application du levier de politique et des critères en découlant pour la modération en Iran.
*Note de procédure :
Les décisions du Conseil de surveillance sont préparées par des panels de 5 membres et approuvées par une majorité du Conseil. Elles ne représentent pas nécessairement les opinions personnelles de tous ses membres.
Pour la décision sur ce cas, des recherches indépendantes ont été commandées au nom du Conseil. Le Conseil était assisté d’un institut de recherche indépendant, dont le siège se trouve à l’université de Göteborg. Il avait mobilisé une équipe de plus de 50 experts en sciences sociales sur 6 continents ainsi que 3 200 experts nationaux du monde entier. Le Conseil a également bénéficié de l’aide de Duco Advisors, une société de conseil spécialisée dans la géopolitique, la confiance et la sécurité, ainsi que la technologie. Memetica, une organisation qui effectue des recherches open-source sur les tendances des réseaux sociaux, a également fourni une analyse. L’entreprise Lionbridge Technologies, LLC, dont les spécialistes parlent couramment 350 langues et travaillent dans 5 000 villes du monde entier, a fourni son expertise linguistique.
Retour aux décisions de cas et aux avis consultatifs politiques