Confirmé
Violences communautaires dans l’État indien de l’Odisha
28 novembre 2023
Le Conseil de surveillance a confirmé la décision de Meta de supprimer une publication Facebook contenant une vidéo de violence communautaire dans l’État indien de l’Odisha.
Pour lire cette décision en odia, cliquez ici.
ଏହି ନିଷ୍ପତ୍ତିକୁ ଓଡ଼ିଆରେ ପଢ଼ିବା ପାଇଁ ଏଠାରେ କ୍ଲିକ୍ କରନ୍ତୁ।
Résumé du cas
Le Conseil de surveillance a confirmé la décision de Meta de supprimer une publication Facebook contenant une vidéo de violence communautaire dans l’État indien de l’Odisha. Le Conseil a estimé que la publication enfreignait les règles de Meta en matière de violence et d’incitation. La majorité du Conseil a également conclu que la décision de Meta de supprimer toutes les vidéos identiques sur ses plateformes était justifiée dans le contexte spécifique des tensions accrues et des violences en cours dans l’État de l’Odisha. Bien que le contenu de cette affaire ne soit couvert par aucune exception, le Conseil invite Meta à s’assurer que son Standard de la communauté relatif à la violence et à l’incitation autorise les contenus qui « condamnent les menaces violentes ou y sensibilisent ».
À propos du cas
En avril 2023, un utilisateur de Facebook a publié une vidéo d’un évènement survenu la veille, qui montre une procession religieuse à Sambalpur, dans l’État indien de l’Odisha, à l’occasion de la fête hindoue de Hanuman Jayanti. La légende de la vidéo indique « Sambalpur », une ville de l’Odisha où des violences communautaires ont éclaté entre hindous et musulmans pendant la fête.
La vidéo montre une foule en procession portant des drapeaux de couleur safran, associés au nationalisme hindou, et chantant « Jai Shri Ram », ce qui peut se traduire littéralement par « Hail Lord Ram » (un dieu hindou). Outre les contextes religieux où l’expression est utilisée pour exprimer la dévotion à Ram, elle a été utilisée dans certaines circonstances pour promouvoir l’hostilité à l’égard de groupes minoritaires, en particulier les musulmans. La vidéo fait ensuite un zoom sur une personne qui se tient sur le balcon d’un immeuble situé le long du parcours de la procession et qui est montrée en train de jeter une pierre sur le cortège. La foule lance ensuite des pierres en direction de l’immeuble au milieu de chants « Jai Shri Ram» , « bhago » (que l’on peut traduire par « courir ») et « maro maro » (que l’on peut traduire par « frapper » ou « battre »). Le contenu a été visionné environ 2 000 fois et a reçu moins de 100 commentaires et réactions.
À la suite des violences qui ont éclaté lors de la procession religieuse montrée dans la vidéo, le gouvernement de l’État de l’Odisha a coupé les services Internet, bloqué les plateformes de réseaux sociaux et imposé un couvre-feu dans plusieurs quartiers de Sambalpur. Dans le cadre des violences qui ont éclaté lors de la procession, des magasins auraient été incendiés et une personne aurait été tuée.
Peu après les évènements décrits dans la vidéo, Meta a reçu une demande de la police de l’Odisha pour supprimer une vidéo identique, publiée par un autre utilisateur avec une légende différente. Meta a estimé que cette vidéo était contraire à l’esprit de son Standard de la communauté relatif à la violence et à l’incitation et l’a ajoutée à une banque du service de mise en correspondance du contenu multimédia. Ce service localise et signale, en vue d’une éventuelle action, les contenus identiques ou presque identiques à des photos, des vidéos ou des textes déjà signalés.
Meta a informé le Conseil que la banque du service de mise en correspondance du contenu multimédia a été créée pour supprimer, à l’échelle mondiale, toutes les instances de la vidéo, quelle que soit la légende, compte tenu des risques de sécurité présentés par ce contenu. Cette suppression globale s’appliquait à toutes les vidéos identiques, même si elles relevaient des exceptions prévues par Meta en matière de sensibilisation, de condamnation et d’information. Le Conseil a noté que, compte tenu des paramètres de la banque du service de mise en correspondance du contenu multimédia, de nombreux contenus identiques à cette vidéo ont été supprimés dans les mois qui ont suivi les évènements de Sambalpur (Odisha).
Grâce à la banque du service de mise en correspondance du contenu multimédia, Meta a identifié le contenu en question dans cette affaire et l’a supprimé, en citant ses règles interdisant les « [a]ppels à une violence de haute gravité, y compris [...] où aucune cible n’est spécifiée mais où un symbole représente la cible et/ou inclut le visuel d’un armement ou d’une méthode qui représente la violence ».
Principales observations
Le Conseil estime que la publication a enfreint le Standard de la communauté relatif à la violence et à l’incitation, qui interdit les « contenus qui constituent une menace crédible pour la sécurité publique ou personnelle ». La majorité du Conseil estime que, compte tenu de la violence qui régnait à l’époque en Odisha et du fait qu’aucune exception ne s’appliquait, le contenu présentait un risque sérieux et probable d’aggravation de la violence. Une minorité du Conseil estime que la publication pourrait être supprimée en vertu du Standard de la communauté de Meta relatif à la violence et à l’incitation, mais pour une raison différente. Étant donné que la vidéo décrit un incident passé d’incitation sans aucun indice contextuel indiquant qu’une exception de politique devrait s’appliquer, et qu’un contenu similaire a été partagé dans le but d’inciter à la violence, Meta avait raison de supprimer le contenu.
La majorité du Conseil a conclu que la décision de Meta de supprimer toutes les vidéos identiques sur ses plateformes, quelle que soit la légende qui les accompagnait, était justifiée dans le contexte spécifique des violences en cours à ce moment-là. Toutefois, la majorité estime également que des mesures de mise en application aussi larges devraient être limitées dans le temps. Une fois que la situation en Odisha aura évolué et que le risque de violence associé au contenu aura diminué, Meta devra réévaluer ses mesures de mise en application pour les publications contenant la vidéo et appliquer les exceptions prévues par sa politique comme d’habitude. À l’avenir, le Conseil accueillerait favorablement les approches qui limitent ces mesures de mise en application générales à un moment donné et à des zones géographiques présentant un risque accru. De telles mesures permettraient de mieux répondre au risque de préjudice sans avoir un impact disproportionné sur la liberté d’expression.
La minorité du Conseil estime que la suppression globale par Meta de toutes les publications contenant une vidéo identique décrivant un incident d’incitation, indépendamment du fait que les publications remplissaient les conditions requises pour bénéficier des exceptions relatives à la sensibilisation ou à la condamnation, n’était pas une réponse proportionnée et constituait une restriction injustifiée de la liberté d’expression.
Bien que le contenu de cette affaire ne soit couvert par aucune des exceptions prévues par la politique, le Conseil note que l’exception de « sensibilisation » prévue par le Standard de la communauté relatif à la violence et à l’incitation n’est toujours pas disponible dans le langage public de la politique. Ainsi, les utilisateurs ne savent toujours pas qu’un contenu contraire à la politique est autorisé s’il est partagé dans un but de condamnation ou de sensibilisation. Cela peut empêcher les utilisateurs d’interagir dans des discussions d’intérêt public sur les plateformes de Meta.
Décision du Conseil de surveillance
Le Conseil de surveillance confirme la décision de Meta de supprimer le contenu.
Le Conseil réitère les recommandations formulées dans des affaires antérieures, à savoir que Meta doit :
- Veiller à ce que le Standard de la communauté relatif à la violence et à l’incitation autorise les contenus diffusant des déclarations faisant « référence de manière neutre à l’issue potentielle d’une action ou à un avertissement » et les contenus qui « condamnent les menaces violentes ou sensibilisent le public à ces menaces ».
- Apporter plus de clarté aux utilisateurs et expliquer sur la page d’accueil des Standards de la Communauté, de la même manière que l’entreprise le fait avec la tolérance pour intérêt médiatique, que des tolérances par rapport aux Standards de la communauté sont possibles lorsque leur justification et les valeurs de Meta exigent d’appliquer une stratégie différente de l’interprétation stricte des règles. Le Conseil réitère également sa recommandation antérieure à Meta d’intégrer un lien vers une page de l’Espace modération fournissant des informations sur la tolérance au titre de « l’esprit de la politique ».
* Les résumés de cas donnent un aperçu du cas et n’ont pas valeur de précédent.
Décision complète sur le cas
1. Résumé de la décision
Le Conseil de surveillance confirme la décision de Meta de supprimer la publication d’une vidéo sur Facebook décrivant une scène de violence communautaire dans l’État de l’Odisha en Inde pendant la fête religieuse Hanuman Jayanti. La vidéo montre une foule en procession portant des drapeaux de couleur safran, associés au nationalisme hindou, et chantant « Jai Shri Ram », ce qui peut se traduire littéralement par « Hail Lord Ram » (un dieu hindou), et qui a été utilisé dans certaines circonstances pour promouvoir l’hostilité contre les groupes minoritaires, en particulier les musulmans. La vidéo fait ensuite un zoom sur une personne qui se tient sur le balcon d’un immeuble situé le long du parcours de la procession et qui est montrée en train de jeter une pierre sur le cortège. La foule lance ensuite des pierres en direction de l’immeuble au milieu de chants « Jai Shri Ram» , « bhago » (que l’on peut traduire par « courir ») et « maro maro » (que l’on peut traduire par « frapper » ou « battre »). Meta a soumis ce cas au Conseil parce qu’il illustre les tensions entre les valeurs de Meta que sont la « liberté d’expression » et la « sécurité », et qu’il nécessite une analyse complète des facteurs contextuels et une évaluation des risques de préjudice hors ligne par la vidéo.
Le Conseil considère que la publication a enfreint le Standard de la communauté relatif à la violence et à l’incitation. Compte tenu du contexte instable et de la violence qui régnait en Odisha au moment où le contenu a été publié, de la nature de la procession religieuse et des appels à la violence de haute gravité diffusés dans la vidéo, ainsi que de la viralité et de la généralisation de contenus similaires publiés sur la plateforme, la majorité des membres du Conseil estime que le contenu constituait un appel crédible à la violence.
La minorité du Conseil a estimé que la publication pouvait être supprimée en vertu du Standard de la communauté de Meta relatif à la violence et à l’incitation, mais pour une raison différente. Elle n’a pas considéré la publication comme un « appel crédible à la violence » en l’absence de tout indice contextuel concernant l’objectif de la publication. Cette minorité a plutôt considéré cette dernière comme une forme d’« incitation décrite » potentielle (c’est-à-dire un contenu décrivant une scène d’incitation passée). Elle a conclu que la publication pouvait être supprimée en vertu du Standard de la communauté relatif à la violence et à l’incitation, car elle remplissait 2 conditions qui, selon la minorité, doivent être remplies pour justifier une telle suppression : 1) il existe des preuves contextuelles que des publications au contenu similaire ont été partagées dans le but d’inciter à la violence, et 2) la publication ne contient aucun indice contextuel indiquant l’applicabilité d’une exception politique telle que la sensibilisation ou l’information.
La majorité du Conseil conclut que, compte tenu des défis posés par la modération des contenus à grande échelle, la décision de Meta de supprimer toutes les vidéos identiques sur ses plateformes, quelle que soit la légende qui les accompagne, sans appliquer de pénalités, était justifiée dans le contexte spécifique des tensions accrues et des violences en cours dans l’État de l’Odisha, dans lequel elle a été réalisée. Toutefois, la majorité estime également que des mesures de mise en application aussi larges devraient être limitées dans le temps. Lorsque la situation locale aura évolué et que le risque de préjudice associé au contenu analysé par le Conseil sera réduit, Meta devra réévaluer ses mesures de mise en application et permettre le recours à des exceptions à grande échelle de la politique.
La minorité du Conseil estime que la suppression globale par Meta de toutes les publications contenant une vidéo identique décrivant un incident d’incitation, indépendamment du fait que les publications remplissaient les conditions requises pour bénéficier des exceptions relatives à la sensibilisation ou à la condamnation, n’était pas une réponse proportionnée, constituait une restriction injustifiée de la liberté d’expression et pouvait mettre en danger les personnes vulnérables dans un contexte d’instabilité. La minorité est d’avis que le contenu en question est une représentation de l’incitation plutôt qu’une incitation en soi. Elle estime qu’une publication décrivant une incitation ne devrait pas être supprimée lorsque des indices contextuels indiquent l’applicabilité d’une exception à la politique relative à la violence et à l’incitation. Il peut s’agir des contenus partagés à des fins de sensibilisation ou d’information. La minorité pense que lorsqu’il existe des indications que l’intention derrière la publication d’un contenu illustrant une incitation n’est pas d’inciter mais plutôt de sensibiliser, de condamner ou d’informer, les engagements de Meta en matière de droits humains exigent que ce contenu reste sur la plateforme. Elle estime donc que la suppression massive des publications contenant la vidéo en question constitue une atteinte inadmissible à la liberté d’expression des utilisateurs.
2. Description du cas et contexte
Le 13 avril 2023, un utilisateur Facebook a publié la vidéo d’un évènement survenu la veille (le 12 avril) qui montre une procession religieuse à Sambalpur, dans l’État indien de l’Odisha, à l’occasion de la fête hindoue de Hanuman Jayanti. La légende de la vidéo indique « Sambalpur », une ville de l’Odisha où des violences communautaires ont éclaté entre hindous et musulmans pendant la fête. La vidéo montre une foule en procession portant des drapeaux de couleur safran, associés au nationalisme hindou, et chantant « Jai Shri Ram », ce qui peut se traduire littéralement par « Hail Lord Ram » (un dieu hindou). Outre les contextes religieux où l’expression est utilisée pour exprimer la dévotion à Ram, elle a été utilisée dans certaines circonstances pour promouvoir l’hostilité à l’égard de groupes minoritaires, en particulier les musulmans. Les spécialistes consultés par le Conseil ont indiqué que le chant était devenu « un cri d’attaque destiné à intimider et à menacer ceux qui pratiquent un culte différent ». La vidéo fait ensuite un zoom sur une personne qui se tient sur le balcon d’un immeuble situé le long du parcours de la procession et qui est montrée en train de jeter une pierre sur le cortège. La foule a ensuite lancé des pierres en direction de l’immeuble au milieu de chants « Jai Shri Ram» , « bhago » (que l’on peut traduire par « courir ») et « maro maro » (que l’on peut traduire par « frapper » ou « battre »). Le contenu a été vu environ 2 000 fois et a reçu moins de 100 commentaires et réactions. Il n’a pas été partagé et n’a pas été signalé.
La violence communautaire, une forme de violence collective qui implique des affrontements entre des groupes communautaires ou ethniques se définissant par leurs différences de religion, de communauté, de langue ou d’origine ethnique, serait très répandue en Inde. Dans ce contexte, la violence vise de manière disproportionnée les minorités religieuses, en particulier les musulmans, et serait commise en toute impunité. Les commentaires publics reçus par le Conseil soulignent la nature généralisée de la violence communautaire dans l’ensemble de l’Inde. En 2022, plus de 2 900 cas de violence communautaire ont été enregistrés dans le pays (voir également PC-14046). Les spécialistes consultés par le Conseil ont expliqué que les fêtes et les processions religieuses auraient été utilisées pour intimider les membres des traditions religieuses minoritaires et inciter à la violence à leur encontre.
À la suite des violences qui ont éclaté lors de la procession religieuse et de ses conséquences, lorsque des magasins ont été incendiés et qu’une personne a été tuée, le gouvernement de l’État de l’Odisha a coupéles services Internet, bloqué les plateformes de réseaux sociaux et imposé un couvre-feu dans plusieurs quartiers de Sambalpur. La police aurait procédé à 85 arrestations liées aux évènements violents en question.
Le 16 avril, Meta a reçu une demande de la police de l’Odisha de supprimer une vidéo identique, publiée par un autre utilisateur avec une légende différente. Meta a estimé que cette vidéo était contraire à l’esprit du Standard de la communauté relatif à la violence et à l’incitation et a décidé de la supprimer. Par la suite, le 17 avril, Meta a ajouté la vidéo de la publication à une banque du service de mise en correspondance du contenu multimédia (MMS), qui localise et signale, en vue d’une éventuelle action ultérieure, les contenus identiques ou presque identiques à des photos, des vidéos ou des textes déjà signalés. Cependant, l’utilisateur qui a publié ce contenu l’a supprimé le jour-même, avant que Meta ne puisse prendre des mesures à son égard. Grâce à la banque du MMS, Meta a ensuite identifié le contenu en cause dans cette affaire et l’a supprimé, également le 17 avril, en invoquant son interdiction des « [a]ppels à une violence de haute gravité, y compris [...] où aucune cible n’est spécifiée mais où un symbole représente la cible et/ou inclut le visuel d’un armement ou d’une méthode qui représente la violence ».
Le 23 avril, le gouvernement de l’État de l’Odisha a levé le couvre-feu et rétabli l’accès aux services Internet. En juillet 2023, le gouvernement de l’État a annoncé l’interdiction des processions religieuses à Sambalpur pendant un an.
Selon certaines informations, la direction du Bharatiya Janatha Party (BJP) a critiqué le gouvernement de l’État de l’Odisha, dirigé par le Biju Janta Dal (BJD), pour son incapacité à maintenir l’ordre public et a reproché aux membres des groupes minoritaires, en particulier aux musulmans, d’avoir attaqué des processions religieuses pacifiques. À son tour, le BJD a accusé le BJP d’essayer d’attiser les tensions religieuses.
Meta a également expliqué que le contenu ne relevait pas d’une exception politique car il « n’a pas été partagé pour condamner ou sensibiliser » puisqu’il n’y avait pas de contexte académique ou de reportage, ni de discussion sur l’expérience de l’auteur en tant que cible de la violence. En outre, Meta a fait remarquer que la légende ne condamne ni n’exprime « aucun point de vue négatif sur les évènements décrits dans la vidéo ». L’entreprise a toutefois souligné que même si le contenu avait été accompagné d’une légende de sensibilisation ou de condamnation, Meta l’aurait quand même supprimé « compte tenu des préoccupations importantes en matière de sécurité et du risque permanent de violence communautaire entre hindous et musulmans ».
Meta a également indiqué au Conseil qu’elle avait configuré la banque du MMS pour supprimer toutes les occurrences de la vidéo, quelle que soit la légende qui l’accompagne, même si cette légende indiquait clairement que les exceptions relatives aux informations et/ou à la sensibilisation étaient invoquées. Meta a également expliqué que l’entreprise n’a pas appliqué de pénalités aux utilisateurs dont le contenu a été supprimé par la banque du MMS « afin de tenir compte des commentaires qui ne sont pas en infraction et de trouver un juste équilibre entre la liberté d’expression et la sécurité ».
Selon certains signalements, les plateformes de réseaux sociaux ont été utilisées pour encourager des attaques meurtrières contre des groupes minoritaires dans un contexte de tensions communautaires croissantes en Inde. Les spécialistes notent que des campagnes coordonnées ont été menées sur les réseaux sociaux en Inde pour diffuser des messages antimusulmans, des discours haineux ou de la désinformation. Ils ont également observé que des vidéos sur la violence communautaire avaient été diffusées dans des séquences qui démontraient une coordination. Après les violences qui ont éclaté à Sambalpur, une vidéo d’Argus News, un média local de l’Odisha, a été publiée sur Facebook au moins 34 fois en l’espace de 72 heures, souvent par des Pages et des groupes à quelques minutes d’intervalle, affirmant que des musulmans étaient à l’origine de l’attaque contre la célébration de Hanuman Jayanti à Sambalpur. En outre, le Conseil a noté que, compte tenu des paramètres de la banque du MMS, de nombreux contenus identiques à cette vidéo ont été supprimés dans les mois qui ont suivi les évènements de Sambalpur (Odisha).
Meta a transmis ce cas au Conseil, en déclarant qu’il s’agissait d’un cas difficile en raison des tensions entre les valeurs de « liberté d’expression » et de « sécurité » de Meta, et en raison du contexte nécessaire pour évaluer et apprécier pleinement le risque de préjudice que présente la vidéo.
3. Champ d’application et autorité du Conseil de surveillance
Le Conseil est compétent pour examiner les décisions que Meta lui présente pour examen (article 2, section 1 de la Charte ; article 2, section 2.1.1 des Statuts).
Le Conseil peut confirmer ou annuler la décision de Meta (article 3, section 5 de la Charte), et ce, de manière contraignante pour l’entreprise (article 4 de la Charte). Meta doit également évaluer la possibilité d’appliquer la décision à un contenu identique dans un contexte parallèle (article 4 de la Charte). Les décisions du Conseil peuvent inclure des recommandations non contraignantes auxquelles Meta doit répondre (article 3, section 4 de la Charte ; article 4 de la Charte). Lorsque Meta s’engage à donner suite aux recommandations, le Conseil surveille leur mise en œuvre.
4. Sources d’autorité et conseils
Les standards suivants et les précédents ont éclairé l’analyse du Conseil dans ce cas :
I. Décisions du Conseil de surveillance :
Les décisions antérieures du Conseil de surveillance auxquelles il est fait référence dans la présente décision sont les suivantes :
- Cas des « Publications sur l’avortement aux États-Unis » ( 2023-011-IG-UA, 2023-012-FB-UA, 2023-013-FB-UA)
- Cas des « Produits pharmaceutiques au Sri Lanka » ( 2022-014-FB-MR)
- Cas du « Poème russe » ( 2022-008-FB-UA)
- Cas du « Dessin animé de Knin » ( 2022-001-FB-UA)
- Cas de la « Représentation de Zwarte Piet » ( 2021-002-FB-UA)
- Cas de la « Manifestation en Inde contre la France » ( 2020-007-FB-FBR)
- Cas de la « Revendication du remède contre le COVID » ( 2020-006-FB-FBR)
II. Règles de Meta relatives au contenu :
Standard de la communauté relatif à la violence et à l’incitation
La justification du Standard de la communauté relatif à la violence et l’incitation stipule qu’il vise à « prévenir le préjudice hors ligne potentiel qui peut être lié au contenu » sur les plateformes de Meta et que, même si Meta « comprend que les utilisateurs expriment couramment leur mépris ou leur désaccord en menaçant ou en appelant à la violence de manière non sérieuse, [l’entreprise] supprime les propos qui incitent ou facilitent la violence réelle ». Cette politique interdit les « [m]enaces pouvant entraîner la mort en ciblant des personnes ou des lieux (et toute autre forme de violence de haute gravité) où la menace est définie comme » « des appels à une violence de haute gravité, y compris des contenus dans lesquels aucune cible n’est spécifiée mais un symbole représente la cible et/ou inclut le visuel d’un armement ou d’une méthode qui représente la violence ». En vertu de ce Standard de la communauté, Meta « supprime le contenu, désactive les comptes et collabore avec la police lorsque [Meta] estime qu’il existe un risque réel de blessures physiques ou de menaces directes pour la sécurité publique ». Meta examine également le contexte « pour distinguer les déclarations triviales de celles qui représentent une menace réelle pour la sécurité publique ou personnelle ». Pour évaluer la crédibilité d’une menace, Meta examine d’autres informations, telles que le degré d’exposition publique d’une personne et les risques pour sa sécurité physique ».
Tolérance au titre de l’esprit de la politique
Comme l’a expliqué le Conseil dans le cas des « Produits pharmaceutiques au Sri Lanka », Meta peut appliquer une tolérance au titre de « l’esprit de la politique » à du contenu lorsque la justification de la Politique (le texte qui introduit tous les Standards de la communauté) et les valeurs de Meta exigent d’appliquer une stratégie différente de l’interprétation stricte des règles (c’est-à-dire les règles établies dans « Ne publiez pas » et via la liste des contenus interdits).
L’analyse des politiques de contenu par le Conseil a été éclairée par la valeur de Meta qu’est la « liberté d’expression », que l’entreprise décrit comme « primordiale », ainsi que par sa valeur de « sécurité ».
III. Responsabilités de Meta en matière de droits humains
Les Principes directeurs relatifs aux entreprises et aux droits de l’homme des Nations Unies (PDNU), soutenus par le Conseil des droits de l’homme des Nations Unies en 2011, établissent un cadre de travail volontaire pour les responsabilités en matière de droits humains des entreprises privées. En 2021, Meta a annoncé l’entrée en vigueur de sa Politique d’entreprise relative aux droits humains, dans laquelle elle a réaffirmé son engagement à respecter les droits humains conformément aux PDNU. En l’espèce, l’analyse du Conseil sur les responsabilités de Meta en matière de droits humains s’est appuyée sur les standards internationaux suivants :
- Les droits à la liberté d’opinion et d’expression : articles 19 et 20 du Pacte international relatif aux droits civils et politiques ( PIDCP), l’observation générale n° 34 du Comité des droits de l’homme, 2011 ; le Plan d’action de Rabat, le rapport du Haut Commissaire des Nations Unies aux droits de l’homme : A/HRC/22/17/Add.4 (2013) les rapports du Rapporteur spécial des Nations Unies sur la liberté d’opinion et d’expression : A/HRC/38/35 (2018) ; A/74/486 (2019).
- Le droit à la vie : article 6 du PIDCP.
- La liberté de religion ou de conviction : article 18 du PIDCP ; les rapports du Rapporteur spécial des Nations Unies sur la liberté de religion ou de conviction : A/HRC/40/58 (2019) ; A/75/385 (2020).
5. Soumissions de l’utilisateur
L’auteur de la publication a été notifié de l’examen par le Conseil et a eu la possibilité d’envoyer une déclaration au Conseil. L’utilisateur n’a pas émis de déclaration.
6. Soumissions de Meta
En transmettant ce cas au Conseil, Meta a déclaré qu’il s’agissait d’un cas difficile en raison des tensions entre les valeurs de « liberté d’expression » et de « sécurité » de Meta, et en raison du contexte nécessaire pour évaluer et apprécier pleinement le risque de préjudice que présente la vidéo. Meta a déclaré que ce cas est important en raison des affrontements communautaires entre les communautés hindoues et musulmanes lors de la fête religieuse Hanuman Jayanti en Odisha.
Meta a expliqué que le contenu ayant fait l’objet d’une remontée à l’origine, à savoir une publication avec une vidéo identique à celle analysée par le Conseil, mais avec une légende différente, enfreignait « l’esprit » de la politique relative à la violence et à l’incitation, malgré le fait qu’il contenait une légende de sensibilisation, car : (1) il « soulevait des problèmes de sécurité importants qui ont été signalés par la police », ce qui a été confirmé par Meta au moyen d’une analyse indépendante ; (2) il devenait viral ; et (3) il a déclenché un nombre important de commentaires en infraction avec la politique. Meta a ensuite configuré une banque de MMS pour supprimer toutes les instances de la vidéo, quelle que soit la légende, y compris la vidéo qui a finalement été transmise au Conseil, compte tenu des risques de sécurité présentés par ce contenu ». En prenant cette décision, Meta a pu corroborer de manière indépendante les inquiétudes soulevées par la police sur la base des avis fournis par les équipes locales de Meta chargées de la politique publique et de la sécurité, ainsi que de la couverture médiatique locale et des avis fournis par d’autres équipes internes. Pour prendre sa décision, l’entreprise a pris en considération : (1) la nature de la menace ; (2) l’histoire de la violence entre les communautés hindoues et musulmanes en Inde ; et (3) le risque d’une poursuite de la violence en Odisha dans les jours précédant la fête religieuse Hanuman Jayanti. En outre, Meta a déclaré que la couverture médiatique et les rapports de la police locale renforçaient la conclusion selon laquelle cette vidéo pouvait contribuer à un risque de violence communautaire et de représailles.
Meta a également expliqué que le contenu de ce cas était contraire à la politique en matière de violence et d’incitation, puisqu’il comprend un appel à une violence de haute gravité, la vidéo montrant des pierres ou des briques lancées dans une foule et cette dernière appelant les autres à « frapper » ou à « battre » quelqu’un en réponse à ces jets. De plus, bien que Meta reconnaisse que la cible n’est pas expressément identifiée, les spectateurs peuvent clairement voir des pierres lancées vers l’immeuble et l’individu sur le balcon, ce que Meta considère comme une représentation visuelle d’une méthode de violence dirigée vers une cible.
En réponse aux questions du Conseil, Meta a expliqué qu’en vertu de la lettre de la politique relative à la violence et à l’incitation, un contenu contraire à la loi peut être autorisé sur la plateforme s’il est partagé dans un contexte de condamnation ou de sensibilisation. Toutefois, l’un des principaux objectifs de la politique en matière de violence et d’incitation étant de « prévenir les préjudices potentiels hors ligne », dans ce cas, Meta a déterminé que le souci de sécurité selon lequel le contenu qui s’est intensifié à l’origine pourrait contribuer à un risque de nouvelles violences communautaires entre hindous et musulmans méritait, dans l’esprit de la politique, de le retirer (ainsi que toutes les autres instances de la vidéo sur leurs plateformes), indépendamment de la légende du contenu.
Meta a également déterminé que le contenu ne remplissait pas les conditions requises pour bénéficier d’une tolérance pour intérêt médiatique, car le risque de préjudice l’emportait sur sa valeur d’intérêt public. Selon Meta, le risque de préjudice était élevé pour plusieurs raisons. Tout d’abord, le contenu met en évidence les tensions religieuses et politiques actuelles entre les hindous et les musulmans, qui se traduisent régulièrement par des violences dans toute l’Inde. En outre, les incidents localisés de ce type de violence communautaire et religieuse sont susceptibles de déclencher des affrontements ailleurs et de se propager rapidement au-delà du lieu initial. Les équipes locales de Meta chargées des politiques publiques et de la sécurité s’inquiétaient également du risque de récurrence des violences en Odisha une fois que le couvre-feu et la suspension de l’accès à Internet seraient levés et qu’un plus grand nombre de personnes pourraient voir la vidéo. Enfin, l’identification par la police locale du contenu comme susceptible de contribuer à de nouvelles violences imminentes a corroboré les inquiétudes de Meta.
Meta a reconnu que les tentatives d’informer les autres de l’imminence de la violence et des évènements actuels pouvaient revêtir une certaine valeur. Toutefois, dans ce cas, Meta a estimé que le risque de préjudice l’emportait sur l’intérêt public. Meta a noté qu’au moment où le contenu a été supprimé, la publication datait de plus de 4 jours et que sa valeur en tant qu’avertissement en temps réel avait diminué. Meta a souligné que la publication comportait une légende neutre, qui ne comportait pas de valeur informative supérieure. Elle a également indiqué que la légende ne réduisait pas le risque que le contenu incite à la violence. Selon Meta, les évènements sous-jacents à cette affaire ont fait l’objet d’une large couverture médiatique locale et nationale, ce qui a diminué la valeur informative de cette publication en particulier. Meta a également informé le Conseil qu’« aucune action autre que la suppression du contenu ne pourrait répondre de manière adéquate aux risques potentiels associés au partage de ce contenu ».
En réponse aux questions du Conseil, Meta a noté qu’« en général, les pénalités sont appliquées à grande échelle pour toutes les violations de la politique en matière de violence et d’incitation ». Mais, en cas de remontée, Meta peut décider de ne pas appliquer de pénalités dans des circonstances exceptionnelles, notamment lorsque le contenu a été publié dans un contexte de sensibilisation, ou lorsque le contenu cherche à condamner une question d’importance publique.
Meta a expliqué que l’entreprise n’a pas appliqué de pénalités aux contenus supprimés par la banque de MMS mentionnée ci-dessus pour « équilibrer efficacement la liberté d’expression et la sécurité ainsi que pour tenir compte du fait que certains contenus supprimés par la banque n’auraient pas enfreint la lettre de la politique ». Comme expliqué précédemment dans cette section, la décision de Meta de supprimer le contenu initialement signalé était basée sur « l’esprit de la politique en matière de violence et d’incitation ». Meta a ajouté qu’en raison de l’implication des banques de MMS, il n’était pas possible d’examiner chaque élément de contenu individuellement, comme on le ferait à grande échelle. Par conséquent, Meta n’a pas appliqué de pénalités afin de ne pas pénaliser davantage les utilisateurs qui ont publié des contenus qui n’enfreignaient pas la lettre de la politique.
En réponse aux questions du Conseil sur les demandes des gouvernements, Meta a mentionné les informations fournies dans son Espace modération. Meta a expliqué que, lorsqu’un signalement formel basé sur une violation de la législation locale est reçu d’un gouvernement ou de la police locale, il est d’abord examiné au regard des Standards de la communauté de Meta, même s’il comprend des demandes de suppression ou de restriction de contenu pour violation de la législation locale. Si Meta détermine que le contenu enfreint ses politiques, il est supprimé. Cependant, si ce n’est pas le cas, Meta procède à un examen juridique pour confirmer la validité du signalement et effectue un contrôle préalable des droits humains conformément à la politique de Meta en matière de droits humains.
Le Conseil a posé 16 questions par écrit à Meta. Les questions portaient sur les processus de Meta pour les demandes gouvernementales d’examen du contenu, l’utilisation par Meta des banques de MMS pour la mise en application à grande échelle et les pratiques de mise en application au niveau du compte. Meta a répondu à 15 questions et a refusé de fournir une copie de la demande d’examen du contenu reçue de la part de la police de l’État de l’Odisha dans ce cas.
7. Commentaires publics
Le Conseil de surveillance a reçu 88 commentaires publics pertinents pour ce cas. 31 commentaires sont issus d’Asie-Pacifique et d’Océanie, 42 d’Asie centrale et d’Asie du Sud, 8 d’Europe, 1 d’Amérique latine et des Caraïbes, 1 du Moyen-Orient et d’Afrique du Nord, et 5 des États-Unis et du Canada. Ce total comprend 32 commentaires publics qui étaient soit des doublons, soit des commentaires soumis sans autorisation de publication, soit des commentaires soumis avec autorisation de publication, mais qui ne remplissaient pas les conditions de publication du Conseil. Les commentaires publics peuvent être soumis au Conseil avec ou sans autorisation de publication, et avec ou sans autorisation d’attribution.
Les soumissions ont porté sur les thèmes suivants : le contexte social et politique en Inde, en particulier en ce qui concerne les différents groupes ethniques et religieux ; les politiques gouvernementales pertinentes et le traitement des différents groupes ethniques et religieux ; le rôle des plateformes de réseaux sociaux, en particulier les plateformes Meta, en Inde ; la question de savoir si le contenu représentant la violence communautaire en Odisha était susceptible d’inciter à la violence hors ligne ; la manière dont les entreprises de réseaux sociaux devraient traiter les demandes gouvernementales de révision et/ou de suppression de contenu ; l’importance des rapports de transparence, en particulier en ce qui concerne les demandes du gouvernement ; le rôle des médias et des communications dans l’augmentation de la violence et de la discrimination en Inde ; l’importance de l’analyse des indices contextuels et des signaux hors ligne lors de l’évaluation de la probabilité qu’un contenu incite à la violence hors ligne ; les préoccupations concernant les campagnes coordonnées de désinformation en ligne visant à répandre la haine contre des groupes ethniques et religieux spécifiques.
Pour lire les commentaires publics envoyés dans ce cas-ci, veuillez cliquer ici.
Le Conseil a également déposé des demandes de droit à l’information auprès de plusieurs autorités de l’État et de l’Inde centrale. Les réponses reçues se sont limitées à des informations sur le contexte local au moment de la publication du contenu examiné dans ce cas et à des mesures d’interdiction à Sambalpur (Odisha).
8. Analyse du Conseil de surveillance
Le Conseil a analysé les politiques de contenu, les responsabilités en matière de droits humains et les valeurs de Meta afin de déterminer si ce contenu devait être supprimé. Le Conseil a également évalué les implications de ce cas pour l’approche plus large de Meta en matière de gouvernance des contenus, en particulier dans les contextes de violences communautaires.
Le Conseil a choisi ce cas pour évaluer les politiques et les pratiques de Meta en matière de modération des contenus représentant des cas de violence communautaire. En outre, ce cas a permis au Conseil de discuter de la nature de l’incitation en ligne et de fournir des conseils à Meta sur la manière de la traiter. Pour finir, ce cas permet au Conseil d’examiner l’observation de Meta de ses responsabilités en matière de droits humains dans les situations de crise et de conflit de manière plus générale.
8.1 Respect des politiques relatives au contenu de Meta
I. Règles relatives au contenu
Violence et incitation
Le Conseil estime que la publication a enfreint le Standard de la communauté relatif à la violence et à l’incitation, en vertu duquel Meta supprime les « contenus qui constituent une menace crédible pour la sécurité publique ou personnelle ». Cette politique interdit, en particulier, les « menaces pouvant entraîner la mort (et autres formes de violence de haute gravité) ... ciblant des personnes ou des lieux où la menace est définie comme » « des [a]ppels à une violence de haute gravité ». En vertu de cette politique, les contenus contenant des appels à la violence sont considérés comme en infraction lorsqu’ils contiennent une menace crédible. Pour déterminer si une menace est crédible, Meta prend en compte le langage et le contexte afin de distinguer les menaces des déclarations triviales. La majorité a jugé que les facteurs suivants étaient pertinents : le contexte instable et la violence qui régnait en Odisha au moment où le contenu a été publié ; la nature de la procession religieuse ; les appels à une violence de haute gravité contenus dans la vidéo ; et la viralité ainsi que la généralisation de contenus similaires publiés sur la plateforme (comme indiqué dans la section 2 ci-dessus). Sur la base de ces facteurs, la majorité du Conseil estime que le contenu constituait un appel crédible à la violence.
Dans ce cas, le contenu décrit une scène de violence dans laquelle une foule participant à la procession religieuse appelle à lancer des pierres/briques (« violence de haute gravité ») contre une autre personne non identifiée se tenant sur le balcon de l’immeuble vu à l’arrière-plan (« cible »). Meta inclut dans la définition de « cible » fournie aux équipes d’examen de contenu toute « personne », y compris les personnes anonymes, définies comme « une personne réelle qui n’est pas identifiée par son nom ou son image ». Meta définit la « violence de haute gravité » comme « toute violence susceptible d’être mortelle ». Meta demande aux équipes d’examen de contenu de « considérer une menace comme étant de haute gravité » si elles ne sont pas sûres de savoir « si une menace est de haute ou de moyenne gravité ». Étant donné que toutes les conditions sont remplies, la majorité des membres du Conseil estime que le contenu enfreint la politique pertinente du Standard de la communauté relatif à la violence et à l’incitation.
Les facteurs contextuels sont importants dans ce cas. Les incidents liés aux jets de pierres sont très répandus et organisés pendant les processions, et il a été observé qu’ils sont les déclencheurs des violences entre hindous et musulmans (voir par exemple PC-14070), en particulier lorsque les fêtes religieuses hindoues et musulmanes se déroulent au même moment. Comme indiqué dans la section 2 ci-dessus, ces processions arboreraient des symboles associés au nationalisme hindou (par exemple, des drapeaux de couleur safran) et seraient accompagnées d’appels à la violence codés (le chant de « Jai Shri Ram ») contre les groupes minoritaires, en particulier les musulmans. En outre, le Conseil est conscient que les plateformes de réseaux sociaux (et en particulier le partage de vidéos montrant des actes d’incitation) sont utilisées, dans ce contexte, pour mobiliser et inciter à une violence plus généralisée, en particulier par le biais de publications « en direct » et de vidéos (Id.) semblables à celle en cause dans ce cas. Le risque de violence de haute gravité a été accru dans ce cas, car le rassemblement et les actes de violence qui en ont découlé ont fait un mort, des blessés et des dégâts matériels, comme cela a été souligné dans la section 2 ci-dessus. Le contenu était donc susceptible de favoriser des scènes de violence de haute gravité.
Malgré la coupure d’Internet imposée par le gouvernement en Odisha, le Conseil prend note du fait que de nombreuses publications de la même vidéo ont été supprimées des plateformes de Meta, compte tenu des paramètres de la banque de MMS. Il est intéressant de noter que Meta a informé le Conseil que la vidéo initialement signalée par la police de l’Odisha « devenait virale » lorsqu’elle a été examinée et qu’elle comportait « un nombre important de commentaires en infraction avec la politique ». Comme indiqué à la section 2 ci-dessus, des campagnes coordonnées visant à diffuser de fausses informations et des discours haineux contre les musulmans ont été signalées.
Dans les règles d’implémentation destinées aux équipes d’examen de contenu, Meta autorise « les contenus en infraction s’ils sont partagés dans un contexte de condamnation ou de sensibilisation ». Meta définit le contexte de sensibilisation comme « un contenu qui cherche clairement à informer et à sensibiliser d’autres personnes sur un sujet ou une question spécifique ; ou un contenu qui parle de l’expérience d’une personne ayant été la cible d’une menace ou d’une violence. Il peut s’agir de signalements des universités et des médias. » Meta a expliqué au Conseil que « ces tolérances sont conçues pour limiter la diffusion de contenus qui incitent à la violence et pourraient avoir des conséquences hors ligne, tout en laissant de l’espace pour un contre-discours qui n’est pas un soutien mais qui vise à informer ou à mettre en garde les personnes contre les menaces proférées par des tiers ».
Le Conseil note que si l’utilisateur a partagé le contenu peu après que des violences ont éclaté à Sambalpur, en Odisha, celui-ci était accompagné d’une légende neutre (« Sambalpur », le nom de la ville où les scènes de violence ont eu lieu). Compte tenu de la neutralité de la légende et de l’absence d’indices contextuels indiquant une direction différente, le Conseil conclut que le contenu « ne cherchait pas clairement à informer et à éduquer d’autres personnes sur un sujet ou un problème spécifique » ni « à parler de l’expérience d’une personne ayant été la cible d’une menace ou d’une violence ». Le Conseil estime que le contenu tel qu’il a été publié ne relève pas de l’exception de sensibilisation au Standard de la communauté relatif à la violence et à l’incitation. Compte tenu du risque de préjudice, tel que discuté à la section 8.2 ci-dessous, le Conseil a estimé que le risque de préjudice l’emportait sur la valeur d’intérêt public du message. Par conséquent, il n’y a pas lieu d’appliquer de tolérance pour intérêt médiatique dans ce cas.
La majorité du Conseil conclut donc qu’étant donné le contexte en ligne et hors ligne entourant la publication du contenu, les tensions et la violence accrues qui étaient toujours en cours à Sambalpur, Odisha, au moment de la publication, et l’absence de toute indication de l’applicabilité d’une quelconque exception politique, le contenu présentait un risque sérieux et probable d’aggravation de la violence, constituant une menace crédible ou un appel à la violence contre les communautés religieuses engagées dans une confrontation à Sambalpur. Sa suppression est donc conforme à la politique de Meta en matière de violence et d’incitation.
Contrairement à la majorité, la minorité n’a pu identifier aucune indication contextuelle étayant l’idée que la republication de la vidéo montrant une scène de procession de motos en Odisha pendant la fête religieuse Hanuman Jayanti « constituait un appel crédible à la violence ». La minorité note qu’il n’existe aucune preuve permettant d’affirmer que l’utilisateur lançait ou approuvait des appels tels que ceux exprimés dans la vidéo. Interpréter une publication de cette nature, sans plus d’élément, comme un « appel crédible à la violence » est un standard qui pourrait être appliqué pour interdire la republication de pratiquement n’importe quelle scène représentant une incitation, quel que soit le but ou l’objectif d’une telle publication.
Cependant, la minorité estime que, dans ce cas, la publication pourrait être supprimée pour une raison différente, en vertu du Standard de la communauté de Meta relatif à la violence et à l’incitation. La minorité note que le Standard de la communauté relatif à la violence et à l’incitation ne précise pas si les publications « décrivant une incitation » sont interdites. De l’avis de la minorité, l’« incitation représentée », qui constitue la répétition, la relecture, le récit ou toute autre représentation d’une expression passée (par exemple, la publication d’une vidéo, d’un reportage, d’un clip audio ou d’un autre contenu) ne peut pas être considérée comme une forme d’incitation en soi. L’« incitation représentée » diffère matériellement de l’incitation originale, à savoir l’expression véhiculée avec l’intention et le résultat d’inciter au préjudice (par exemple, une vidéo exhortant des auditeurs à commettre des actes de vandalisme ou une publication écrite encourageant les attaques par vengeance). Les publications impliquant une incitation représentée peuvent être partagées dans le but de sensibiliser, de débattre d’évènements récents, de condamner ou d’analyser, et ne doivent pas être interprétées comme constituant une incitation, à moins que des conditions spécifiques ne soient remplies.
Alors que le Standard de la communauté relatif à la violence et à l’incitation interdit explicitement les représentations d’actes d’enlèvement passés, elle n’aborde pas les représentations d’actes d’incitation passés. On pourrait interpréter le Standard comme ne couvrant pas les représentations d’incitation passées. La minorité conclut toutefois que la politique en matière de violence et d’incitation peut être correctement appliquée à de « l’incitation représentée » lorsque l’une ou l’autre des conditions suivantes est remplie : 1) la publication d’une incitation représentée démontre une intention claire d’incitation ; ou 2) la publication a) ne contient pas d’indices contextuels indiquant l’applicabilité d’une exception à la politique telle que la sensibilisation ou l’information ; et b) il existe des preuves que des publications de contenu similaire sont partagées dans le but d’inciter à la violence ou d’aboutir à la violence. Les conditions énoncées au point (2) sont remplies dans le cas présent, ce qui rend la suppression du contenu admissible.
La minorité du Conseil estime qu’il serait important que le Standard de la communauté relatif à la violence et à l’incitation soit clarifié afin de préciser que la politique s’applique non seulement au contenu publié dans le but d’inciter à la violence, mais également à « l’incitation représentée », à savoir les publications partageant simplement du contenu représentant une incitation passée dans les conditions susmentionnées.
II. Mesures de mise en application
Meta utilise des banques de MMS pour localiser les contenus identiques ou presque identiques à des photos, des vidéos et des textes déjà signalés. Ces banques sont capables de faire correspondre les publications des utilisateurs avec des contenus précédemment signalés comme en infraction par les équipes internes de Meta.
Meta a expliqué que les banques de MMS peuvent être configurées pour prendre différentes mesures une fois qu’elles identifient un contenu mis en banque. Dans ce cas, Meta a informé le Conseil que la banque de MMS a été créée pour supprimer, à l’échelle mondiale, toutes les instances de la vidéo, quelle que soit la légende, compte tenu des risques de sécurité présentés par ce contenu. En d’autres termes, la suppression globale s’appliquait à toutes les vidéos identiques, même si elles relevaient des exceptions prévues par Meta en matière de sensibilisation, de condamnation et d’information. Meta a également mentionné que cette banque de MMS était précisément « configurée pour prendre des mesures sans appliquer de pénalité ».
Le Conseil souligne l’impact significatif de la mesure de mise en application de Meta sur les utilisateurs qui publient des contenus identiques à des fins de sensibilisation et de condamnation. Meta a informé le Conseil que la décision de l’entreprise de supprimer toutes les instances de la vidéo n’était pas limitée dans le temps (ni limitée à certaines zones géographiques), et qu’il n’y avait pas de plans actuels pour revenir sur la mise en application de la politique. Le Conseil examine la mesure de mise en application de Meta plus en détail ci-dessous, à la section 8.2, dans le contexte de l’analyse de la « nécessité et de la proportionnalité ».
8.2 Respect des responsabilités de Meta en matière des droits humains
Liberté d’expression (article 19 du PIDCP)
L’article 19, paragraphe 2, du PIDCP prévoit une large protection de « l’expression et la réception de communications de toute forme d’idées et d’opinions susceptibles d’être transmises à autrui », y compris sur le « discours politique », le « discours religieux » et le « journalisme », ainsi que l’expression que les personnes peuvent trouver « profondément offensante » (Observation générale n° 34, (2011), paragraphe 11). Le droit à la liberté d’expression comprend le droit d’accéder à l’information (Observation générale n° 34, (2011), paragraphes 18-19).
Lorsque des restrictions de la liberté d’expression sont imposées par un État, elles doivent remplir des critères de légalité, d’objectif légitime, et de nécessité et de proportionnalité (article 19, paragraphe 3 du PIDCP). Ces exigences sont souvent reprises sous l’intitulé « test tripartite ». Ce test en 3 parties a été proposé par le rapporteur spécial des Nations Unies sur la liberté d’expression comme cadre pour guider les pratiques de modération de contenu des plateformes ( A/HRC/38/35). Le Conseil utilise ce cadre pour interpréter les engagements volontaires de Meta en matière de droits humains, à la fois pour la décision relative au contenu individuel en cours d’examen et pour ce que cela dit de l’approche plus large de Meta en matière de gouvernance du contenu. Comme l’a déclaré le Rapporteur spécial des Nations Unies sur la liberté d’expression, même si « les entreprises ne sont pas soumises aux mêmes devoirs que les gouvernements, leur influence est néanmoins telle qu’elle doit les inciter à se poser les mêmes questions qu’eux quant à la protection de la liberté d’expression de leurs utilisateurs » ( A/74/486, paragraphe 41). Dans ce cas, le Conseil a appliqué le test en 3 parties non seulement à la décision de Meta de supprimer le contenu en question, mais aussi à la décision de l’entreprise de supprimer automatiquement les vidéos identiques à celle analysée par le Conseil, quelle que soit la légende qui les accompagne.
I. Légalité (clarté et accessibilité des règles)
Le principe de légalité consacré par la législation internationale des droits de l’homme exige que les règles utilisées pour limiter la liberté d’expression soient claires et accessibles (observation générale n° 34, paragraphe 25). Les règles qui limitent la liberté d’expression « ne peuvent pas conférer aux personnes chargées de [leur] application un pouvoir illimité de décider de la restriction de la liberté d’expression » et elles « énoncent des règles suffisamment précises pour permettre aux personnes chargées de leur application d’établir quelles formes d’expression sont légitimement restreintes et lesquelles ne le sont pas » ( Ibid). Le Rapporteur spécial des Nations Unies sur la liberté d’expression a déclaré que les règles régissant le discours en ligne devaient être claires et précises ( A/HRC/38/35, paragraphe 46). Les personnes utilisant les plateformes de Meta doivent pouvoir accéder aux règles et les comprendre, et les équipes d’examen de contenu doivent disposer de conseils clairs sur leur mise en application.
Le Conseil estime que, appliquée aux faits du cas présent, l’interdiction par Meta des contenus appelant à une violence de haute gravité contre des cibles non spécifiées et que les conditions dans lesquelles l’interdiction est déclenchée sont suffisamment claires.
Le Conseil note également que l’exception de « sensibilisation » prévue par le Standard de la communauté relatif à la violence et à l’incitation n’est toujours pas disponible dans le langage public de la politique. En d’autres termes, les utilisateurs ne savent toujours pas qu’un contenu en infraction est autorisé s’il est partagé dans un contexte de condamnation ou de sensibilisation, ce qui peut les empêcher de lancer ou d’engager des discussions d’intérêt public sur les plateformes de Meta. Par conséquent, le Conseil réitère sa recommandation n° 1 dans le cas du « Poème russe », dans laquelle il demande instamment à Meta d’ajouter au langage public de son Standard de la communauté relatif à la violence et à l’incitation le fait que l’entreprise interprète la politique pour autoriser le contenu comportant des déclarations avec « une référence neutre à un résultat potentiel d’une action ou un avis consultatif » et le contenu qui « condamne ou sensibilise aux menaces violentes ».
Enfin, le Conseil note que la décision de Meta de supprimer toutes les vidéos identiques, quelle que soit la légende qui les accompagne, est fondée sur l’« esprit de la politique », qui n’est pas clair et accessible aux utilisateurs, ce qui pose de sérieux problèmes au regard du critère de légalité. À cet égard, la minorité du Conseil estime en outre que la référence de Meta à des suppressions massives justifiées par « l’esprit » de la politique en matière de violence et d’incitation constitue un aveu tacite que la politique elle-même, telle qu’elle est rédigée, ne prévoit pas de suppressions aussi larges. La décision de l’entreprise de ne pas appliquer de pénalités aux utilisateurs sur la base du contenu supprimé montre en outre que Meta reconnaît que la publication d’un tel contenu ne peut pas être interprétée comme une violation de la politique. Ces facteurs renforcent la conclusion de la minorité selon laquelle l’entreprise, pratiquement de son propre aveu, n’a pas satisfait au critère de légalité en ce qui concerne son action de mise en application plus large dans ce cas.
Le Conseil réitère sa recommandation n° 1 dans le cas des « Produits pharmaceutiques au Sri Lanka », dans lequel il a exhorté Meta à fournir plus de clarté aux utilisateurs et à expliquer sur la page d’accueil des Standards de la Communauté, de la même manière que l’entreprise le fait avec la tolérance pour intérêt médiatique, que des tolérances par rapport aux Standards de la communauté sont possibles lorsque leur justification et les valeurs de Meta exigent d’appliquer une stratégie différente de l’interprétation stricte des règles. Le Conseil a également recommandé à Meta d’intégrer un lien vers une page de l’Espace modération fournissant des informations sur la tolérance au titre de « l’esprit de la politique ». Le Conseil estime que l’implémentation de cette recommandation permettra de résoudre les problèmes liés à la clarté et à l’accessibilité de l’approche plus large de Meta en matière d’application des règles dans ce cas.
Bien que la politique en matière de violence et d’incitation ne précise pas si « l’incitation représentée » est interdite, la minorité du Conseil estime qu’une telle interdiction, dans des conditions limitées, peut être déduite de la politique actuelle, mais qu’elle devrait être rendue explicite. La minorité note que la politique en matière de violence et d’incitation devrait clairement indiquer les circonstances dans lesquelles elle s’applique au contenu représentant simplement l’incitation (« incitation représentée »). La minorité considère que la politique et ses objectifs, tels qu’ils sont appliqués à ce cas, sont suffisamment clairs pour satisfaire à l’exigence de légalité.
II. Objectif légitime
Toute restriction de la liberté d’expression doit également poursuivre « un objectif légitime ». La politique en matière de violence et d’incitation vise à « prévenir les préjudices hors ligne potentiels » et supprime les contenus qui présentent « un risque réel de blessures physiques ou de menaces directes pour la sécurité publique ». L’interdiction des appels à la violence sur la plateforme en vue d’assurer la sécurité des personnes constitue un objectif légitime en vertu de l’article 19, paragraphe 3, car elle protège « les droits d’autrui » à la vie (article 6 du PIDCP) et la liberté de religion ou de conviction (article 18 du PIDCP).
III. Nécessité et proportionnalité
Le principe de nécessité et de proportionnalité stipule que les restrictions de la liberté d’expression « doivent être appropriées pour remplir leur fonction de protection ; elles doivent constituer le moyen le moins perturbateur parmi ceux qui pourraient permettre d’obtenir le résultat recherché » [et] « elles doivent être proportionnées à l’intérêt à protéger » (Observation générale n° 34, paragraphe 34).
Lors de l’analyse des risques encourus en cas de contenu violent, le Conseil est guidé par le test des 6 facteurs décrit dans le Plan d’action de Rabat, qui traite de l’appel à la haine nationale, raciale ou religieuse qui constitue une incitation à l’hostilité, à la discrimination ou à la violence. Après avoir évalué les facteurs pertinents, en particulier le contexte, le contenu et la forme, ainsi que la probabilité et l’imminence du préjudice, décrits ci-dessous, le Conseil juge la suppression de la publication en question conforme aux responsabilités de Meta en matière de droits humains, étant donné qu’elle représentait un préjudice imminent et probable.
La vidéo montre une scène de violence au cours d’une procession religieuse entre une personne se tenant sur un immeuble voisin et les participants au rassemblement, ces derniers chantant « Jai Shri Ram ». Le Conseil prend note des rapports d’experts, examinés à la section 2 ci-dessus, selon lesquels « Jai Shri Ram » (qui peut être traduit littéralement par « Hail Lord Ram » (un dieu hindou)) a été utilisé dans des processions religieuses telles que celles décrites dans la vidéo comme une expression codée pour promouvoir l’hostilité envers les groupes minoritaires, en particulier les musulmans. L’utilisateur a publié ce contenu un jour après que des violences ont éclaté à Sambalpur, à un moment où la situation était encore instable. Le Conseil note également, comme le souligne la section 2 ci-dessus, que ce rassemblement religieux à Sambalpur, en Odisha, a donné lieu à des violences et à un décès, et que ces évènements ont été suivis d’arrestations et de coupures d’Internet. Le Conseil est conscient de la relation entre les processions religieuses et la violence communautaire et souligne que les jets de pierres pendant les processions sont signalés comme étant répandus et organisés et qu’il a été observé qu’ils déclenchaient des violences entre hindous et musulmans (voir, par exemple, PC-14070).
Compte tenu du contexte en ligne et hors ligne entourant la publication du contenu, des tensions et des violences accrues qui étaient toujours en cours à Odisha au moment où la vidéo a été publiée, et de l’absence d’indication de l’applicabilité d’une quelconque exception, le Conseil estime que la suppression de la publication en vertu du Standard de la communauté relatif à la violence et à l’incitation était nécessaire et proportionnée. Compte tenu du contexte instable qui régnait en Odisha au moment de la création de la publication, la vidéo présentait un risque sérieux et probable d’aggravation de la violence.
Le Conseil approuve donc la suppression de la vidéo par Meta dans ce cas, compte tenu des facteurs contextuels et de l’absence d’objectif clair de sensibilisation (comme indiqué à la section 8.1 ci-dessus). Le Conseil note également que l’entreprise a ajouté la vidéo dans le contenu qui a fait l’objet d’une remontée initiale dans une banque de MMS configurée pour supprimer toutes les publications similaires contenant cette même vidéo, quelle que soit la légende qui les accompagnaient. Cela inclut les publications à des fins de sensibilisation, de condamnation et/ou d’information, exceptions au Standard de la communauté relatif à la violence et à l’incitation.
La majorité du Conseil estime que les défis posés par la modération des contenus à grande échelle sont tout à fait pertinents pour l’évaluation de cette décision d’application plus large. Meta a pris cette décision pour supprimer un contenu qui présentait un risque sérieux et probable d’encourager la violence dans un moment de tension et de violence accrues. Dans de tels moments, la rapidité des mesures de mise en application de la politique prises par Meta est essentielle. Comme le Conseil l’a souligné précédemment, les erreurs sont inévitables parmi les centaines de millions de publications que Meta modère chaque mois. Si la suppression par erreur de contenus qui ne sont pas en infraction (faux positifs) a un impact négatif sur la liberté d’expression, le fait de laisser par erreur des menaces violentes et des incitations (faux négatifs) présente des risques importants pour la sécurité et peut censurer la participation des personnes ciblées (voir les cas des « Publications sur l’avortement aux États-Unis »). Compte tenu de l’ampleur des risques pour la sécurité liés à la publication de cette vidéo, dans une période de tensions accrues et de violences continues en Odisha, la décision de Meta de retirer les vidéos identiques sans tenir compte des légendes qui les accompagnent, sans appliquer de pénalités aux utilisateurs, était nécessaire et proportionnelle pour faire face aux risques potentiels liés à la diffusion de ce contenu à grande échelle.
En plus des facteurs contextuels soulignés dans les sections 2 et 8.1 ci-dessus, la majorité du Conseil note que de nombreuses vidéos identiques ont été retirées des plateformes de Meta en raison des paramètres de la banque MMS, malgré la coupure d’Internet imposée par le gouvernement à Sambalpur. En particulier, selon la justification de la décision de Meta, la vidéo ayant fait l’objet d’une remontée à l’origine « devenait virale » et comprenait « un nombre important de commentaires en infraction ». Dans la section 2 ci-dessus, le Conseil signale des rapports soulignant l’existence de campagnes coordonnées en Inde diffusant des discours de haine et de désinformation contre les musulmans. Dans la même section, le Conseil prend également note des signalements indiquant que les vidéos sur la violence communautaire ont été diffusées selon des schémas qui démontrent une coordination. À cet égard, la majorité note que, comme l’a déclaré le rapporteur spécial sur la liberté de religion ou de conviction, « les plateformes de [r]éseaux sociaux sont de plus en plus exploitées comme des espaces d’incitation à la haine et à la violence par des acteurs civils, politiques et religieux ». Dans le même ordre d’idées, des préoccupations « concernant la propagation d’une haine réelle et artificielle contre des minorités religieuses ont été exprimées en Inde » ( A/75/385, paragraphe 35). La majorité reconnaît l’existence de violences fréquentes et généralisées contre les musulmans, qui seraient commises en toute impunité.
Elle reconnaît également les difficultés rencontrées par Meta pour supprimer les menaces de violence à grande échelle (voir le cas de la « Manifestation en Inde contre la France »). En analysant les difficultés d’application des politiques de Meta à grande échelle, le Conseil a précédemment souligné que le discours déshumanisant qui consiste en des actes ou des discours discriminatoires implicites ou explicites peut contribuer à des atrocités. Pour prévenir de tels résultats, Meta peut légitimement supprimer de ses plateformes les publications qui encouragent la violence (voir le cas du « Dessin animé de Knin »). En interprétant le Standard de la communauté relatif au discours haineux, le Conseil a également considéré que, dans certaines circonstances, la modération du contenu dans le but de remédier aux préjudices cumulés causés par le discours haineux à grande échelle peut être compatible avec les responsabilités de Meta en matière de droits humains. Cette position est valable même lorsque des éléments de contenu spécifiques, considérés individuellement, ne semblent pas inciter directement à la violence ou à la discrimination (voir le cas de la « Représentation de Zwarte Piet »). Pour la majorité du Conseil, il en va de même, compte tenu du contexte spécifique de ce cas, en ce qui concerne la politique relative à la violence et à l’incitation.
La majorité du Conseil note toutefois que les mesures de mise en application générales telles que l’approche de la banque de MMS de Meta devraient être limitées dans le temps. Une fois que la situation en Odisha aura évolué et que le risque de violence associé à ce contenu aura diminué, Meta devra réévaluer les mesures de mise en application adoptées pour modérer les publications contenant la vidéo ajoutée à la banque de MMS afin de s’assurer que les exceptions à la politique sont appliquées comme d’habitude. À l’avenir, le Conseil accueillerait favorablement les approches qui limitent ces mesures de mise en application radicales à un moment particulier et à des zones géographiques à haut risque, afin que ces mesures soient mieux adaptées pour répondre au risque de préjudice sans avoir un impact disproportionné sur la liberté d’expression.
La minorité du Conseil, cependant, ne pense pas que la suppression massive par Meta à l’échelle mondiale de toutes les vidéos identiques décrivant un incident d’incitation passé, que les vidéos aient été partagées à des fins de sensibilisation (par exemple, par un organe d’information) ou de condamnation, soit une réponse proportionnelle. Le fait qu’une ville ou une population soit victime de violences communautaires ne peut, en soi, constituer un motif pour restreindre de manière aussi radicale la liberté d’expression au nom de la prévention de l’aggravation de ces violences. Ceci est particulièrement vrai en l’absence de preuve ou même de raisons de croire que de telles restrictions auront pour effet de diminuer la violence.
Dans les situations de conflit violent, il est impératif de sensibiliser, de partager des informations et de préparer les communautés à réagir aux évènements importants qui les affectent. Une mise en application trop agressive de la politique risque de laisser les communautés vulnérables dans l’ignorance d’évènements opportuns, créant ainsi un risque de propagation de rumeurs et de désinformation. En effet, il est dangereux de supposer que la liberté d’expression et la sécurité sont nécessairement des objectifs contradictoires, et que l’un doit être sacrifié pour l’autre. Au contraire, ils sont souvent étroitement liés : si la diffusion de contenus incitatifs peut accroître les risques de violence hors ligne, la censure d’informations peut nuire à la sécurité, notamment celle des populations vulnérables. Ces suppressions massives risquent également d’affecter de manière disproportionnée le discours de certaines parties à un conflit, d’une manière qui peut exacerber les tensions et alimenter la violence. Ces suppressions générales peuvent placer les individus dans une situation de silence forcé au moment où ils ont le plus besoin d’appeler à l’aide ou au moins de témoigner. Dans les situations de conflit violent, il y a un besoin urgent d’informations et de dialogue facilement accessibles, pour lesquels les plateformes Meta offrent un moyen essentiel. Une conclusion selon laquelle les situations de conflit violent peuvent, en elles-mêmes, justifier des restrictions radicales à la liberté d’expression serait une bonne nouvelle pour les gouvernements autoritaires et les puissants acteurs non étatiques qui se livrent à de telles violences, et qui ont tout intérêt à empêcher le monde de savoir, ou à retarder la prise de conscience jusqu’à ce que les puissances aient atteint leurs objectifs.
La minorité estime en outre qu’une politique générale de suppression de tous les contenus décrivant des incitations interférerait avec le rôle vital des organismes de presse dans la couverture des évènements mondiaux, en limitant la diffusion de leurs contenus sur les plateformes Meta lorsque les évènements qui y sont décrits comprennent des incitations passées à la violence. Le potentiel de sensibilisation qu’offre la diffusion en temps utile de ces informations peut jouer un rôle essentiel pour tempérer la violence ou rallier l’opposition à celle-ci. La minorité est également préoccupée par le fait que la suppression générale des publications représentant des incitations pourrait nuire aux efforts visant à identifier et à tenir pour responsables les auteurs d’incitations à la violence dans le monde réel qui se produisent en dehors de la plateforme. Étant donné que la viralité et la couverture d’une publication Meta se produisent principalement dans les heures et les jours qui suivent son partage, la minorité ne croit pas que, même sur une base temporelle, l’interdiction générale des « incitations représentées » sur la plateforme soit compatible avec les valeurs de Meta et ses engagements en matière de droits humains. Le contrôle agressif du contenu, sans tenir compte des motifs et du contexte dans lequel il est publié, constitue une abdication de la responsabilité de Meta de respecter l’engagement principal de l’entreprise à s’exprimer, et son engagement international en matière de droits humains à protéger la liberté d’expression. La minorité craint que le raisonnement de la majorité ne soit adopté par des gouvernements répressifs pour légitimer des ordres servant leurs propres intérêts de coupure d’Internet et d’autres formes de censure de l’information au nom de la prévention de ce que l’on pourrait appeler des représentations d’incitation, mais qui constituent des informations opportunes et potentiellement vitales sur la violence à l’endroit des civils ou des groupes minoritaires.
Pour la minorité, le Conseil ne devrait pas s’en remettre aux simples affirmations de Meta concernant le défi de l’« échelle » pour justifier de telles interdictions d’expression, en particulier dans un contexte où le gouvernement de l’État de l’Odisha a coupé Internet, s’est adressé directement à Meta au sujet de la modération de son contenu, et a interdit la liberté de réunion pendant un an.
La minorité estime qu’une entreprise de réseaux sociaux qui opère à une certaine échelle doit garantir l’application de ses politiques à la même échelle. En outre, comme l’a noté le rapporteur spécial des Nations Unies, les entreprises de réseaux sociaux disposent d’une « gamme d’options autres que la suppression qui peuvent être disponibles ... dans des situations données » ( A/74 /486, paragraphe 51) (notant des options telles que le géoblocage, la réduction de l’amplification, les étiquettes d’avertissement, la promotion d’un contre-discours,…). Le rapporteur spécial a également déclaré que « tout comme les États devraient évaluer si une limitation de la liberté d’expression constitue l’approche la moins restrictive, les entreprises devraient également procéder à ce type d’évaluation. Et, en procédant à cette évaluation, les entreprises devraient avoir la charge de démontrer publiquement la nécessité et la proportionnalité ». (Id., mise en avant ajoutée.) Le Conseil a déjà demandé à Meta d’expliquer le continuum d’options dont il dispose pour atteindre des objectifs légitimes et d’expliquer pourquoi l’option choisie est le moyen le moins intrusif (voir le cas de la « Revendication du remède contre le COVID »). Pour la minorité, des informations telles que celles proposées par le rapporteur spécial seraient utiles pour évaluer s’il est nécessaire et proportionné de procéder à une suppression massive de contenus clés pendant une crise. En outre, en engageant un tel dialogue public avec Meta, l’entreprise pourrait expliquer plus en détail au Conseil et au public, en particulier compte tenu de ses réalisations annoncées en matière d’intelligence artificielle, les efforts de l’entreprise pour améliorer ses technologies automatisées afin de détecter les publications susceptibles de relever de ses propres exceptions politiques.
9. Décision du Conseil de surveillance
Le Conseil de surveillance confirme la décision de Meta de retirer le contenu.
10. Recommandations
Le Conseil de surveillance a décidé de ne pas émettre de nouvelles recommandations dans cette décision compte tenu de la pertinence des précédentes recommandations énoncées dans d’autres cas. Par conséquent, le Conseil décide de réitérer les recommandations suivantes, afin que Meta les suive de près :
- Veiller à ce que le Standard de la communauté relatif à la violence et à l’incitation autorise les contenus comportant des déclarations faisant « référence de manière neutre à l’issue potentielle d’une action ou à un avertissement consultatif » et les contenus qui « condamnent les menaces violentes ou y sensibilisent » (Recommandation n° 1, cas du « Poème russe »). Le Conseil s’attend à ce que ces modifications de la politique se reflètent en aval sur la mise en application à grande échelle de Meta, y compris sa détection de contenu pour la mise en application, son classificateur/application automatisée et les lignes directrices utilisées par ses équipes d’examen de contenu.
- Apporter plus de clarté aux utilisateurs et expliquer sur la page d’accueil des Standards de la Communauté, de la même manière que l’entreprise le fait avec la tolérance pour intérêt médiatique, que des tolérances par rapport aux Standards de la communauté sont possibles lorsque leur justification et les valeurs de Meta exigent d’appliquer une stratégie différente de l’interprétation stricte des règles. Le Conseil a également recommandé à Meta d’intégrer un lien vers une page de l’Espace modération fournissant des informations sur la tolérance au titre de « l’esprit de la politique » (Recommandation n° 1, cas des « Produits pharmaceutiques au Sri Lanka »).
*Note de procédure :
Les décisions du Conseil de surveillance sont préparées par des panels de 5 membres et approuvées par une majorité du Conseil. Elles ne représentent pas nécessairement les opinions personnelles de tous ses membres.
Pour la décision sur ce cas, des recherches indépendantes ont été commandées au nom du Conseil. Le Conseil était assisté d’un institut de recherche indépendant, dont le siège se trouve à l’université de Göteborg. Il avait mobilisé une équipe de plus de 50 spécialistes en sciences sociales sur 6 continents ainsi que 3 200 spécialistes nationaux du monde entier. Duco Advisers, une société de conseil qui se concentre sur les recoupements entre la géopolitique, la confiance, la sécurité et la technologie, a également prêté assistance au Conseil. Memetica, une organisation qui effectue des recherches open-source sur les tendances des réseaux sociaux, a également fourni une analyse. L’entreprise Lionbridge Technologies, LLC, dont les spécialistes parlent couramment 350 langues et travaillent dans 5 000 villes du monde entier, a fourni son expertise linguistique.
Retour aux décisions de cas et aux avis consultatifs politiques