Confirmé

Vidéo explicite au Soudan

Le Conseil de surveillance a confirmé la décision de Meta visant à restaurer une publication Facebook décrivant un acte de violence envers un civil au Soudan.

Type de décision

Standard

Politiques et sujets

Sujet
Évènements d’actualité, Sécurité
Norme communautaire
Contenu violent et explicite

Régions/Pays

Emplacement
Soudan

Plate-forme

Plate-forme
Facebook

Résumé du cas

Le Conseil de surveillance a confirmé la décision de Meta visant à restaurer une publication Facebook décrivant un acte de violence envers un civil au Soudan. Le contenu sensibilisait aux violations des droits de l’homme et avait une valeur d’intérêt public significative. Le Conseil a recommandé à Meta d’ajouter une exception spécifique concernant la sensibilisation aux violations des droits de l’homme ou le récit de ces violations au Standard de la communauté relatif au contenu violent et explicite.

À propos du cas

Le 21 décembre 2021, Meta a porté devant le Conseil un cas relatif à une vidéo explicite qui semblait représenter un civil victime de violences au Soudan. Le contenu a été publié sur la page du profil Facebook de l’utilisateur à la suite du coup d’État militaire survenu dans le pays le 25 octobre 2021.

La vidéo montre une personne allongée à proximité d’une voiture souffrant d’une blessure importante à la tête et d’un décollement visible de l’œil. On peut entendre des voix en arrière-plan dire en arabe que quelqu’un a été battu et laissé dans la rue. Une légende, également écrite en arabe, appelle à l’unité et à ne pas faire confiance aux militaires, avec des hashtags faisant référence aux infractions de l’armée et à la désobéissance civile.

Après avoir été identifiée par les systèmes automatisés de Meta et examinée par un modérateur humain, la publication a été supprimée pour avoir enfreint le Standard de la communauté Facebook relatif au contenu violent et explicite. Meta a toutefois décrété un intérêt médiatique par suite de l’appel de l’utilisateur, ce qui a empêché la publication d’être supprimée le 29 octobre 2021. En raison d’une erreur de communication interne, Meta n’a restauré le contenu que cinq semaines plus tard, tout en apposant un écran d’avertissement sur la vidéo.

Principales observations

Le Conseil approuve la décision de Meta visant à restaurer ce contenu sur Facebook avec un écran d’avertissement. La politique de Meta relative au contenu violent et explicite n’est toutefois pas claire sur la manière dont les utilisateurs peuvent partager du contenu explicite pour sensibiliser aux infractions ou les relater.

La justification du Standard de la communauté, laquelle expose les objectifs de la politique, ne correspond pas aux règles de la politique. Si la justification de la politique indique que Meta autorise les utilisateurs à publier du contenu explicite « afin d’aider les personnes à sensibiliser » aux violations des droits de l’homme, la politique elle-même interdit toutes les vidéos (qu’elles soient partagées à des fins de sensibilisation ou non) « de personnes décédées ou non dans un environnement non médical qui montrent un démembrement ».

Le Conseil conclut également que bien qu’il ait été utilisé en l’espèce, l’intérêt médiatique ne constitue pas un instrument efficace pour autoriser ce type de contenu sur Facebook à plus grande échelle. Meta a indiqué au Conseil qu’elle avait « établi 17 contenus dignes d’intérêt médiatique en rapport avec la politique relative au contenu violent et explicite au cours des 12 derniers mois (12 mois avant le 8 mars 2022). Le contenu en l’espèce représente l’un de ces 17 contenus ». À titre de comparaison, Meta a supprimé 90,7 millions de contenus en vertu de ce Standard de la communauté durant les trois premiers trimestres de 2021.

Le Conseil estime qu’il est peu probable qu’en un an, seuls 17 contenus liés à cette politique aient été autorisés à rester sur la plateforme en tant que contenus pertinents et d’intérêt public. Pour s’assurer que ce type de contenu soit autorisé sur Facebook, le Conseil recommande à Meta de modifier le Standard de la communauté relatif au contenu violent et explicite pour autoriser les vidéos de personnes décédées ou non lorsqu’elles sont partagées à des fins de sensibilisation ou d’attestation d’infractions.

L’entreprise doit également se tenir prête à répondre rapidement et systématiquement aux situations de conflit et de crise à travers le monde. Dans sa décision sur le cas « Suspension de l’ancien président Trump », le Conseil a recommandé à Meta de « développer et de publier une politique régissant la réponse de Facebook face aux crises ». Si le Conseil se réjouit du développement de ce protocole, que Meta dit avoir adopté dans l’intervalle, l’entreprise doit le mettre en œuvre le plus rapidement possible et fournir le plus de détail possible sur son fonctionnement.

Décision du Conseil de surveillance

Le Conseil de surveillance confirme la décision de Meta visant à restaurer la publication avec l’apposition d’un écran d’avertissement empêchant les mineurs de voir le contenu.

En guise d’avis consultatif sur la politique, le Conseil recommande à Meta de :

  • Modifier le Standard de la communauté relatif au contenu violent et explicite pour autoriser les vidéos de personnes décédées ou non lorsqu’elles sont partagées à des fins de sensibilisation ou d’attestation des violations des droits de l’homme. Ces contenus devraient être autorisés avec l’apposition d’un écran d’avertissement afin d’annoncer qu’il s’agit de contenus potentiellement dérangeants.
  • Entreprendre un processus de développement de politique établissant des critères visant à identifier les vidéos de personnes décédées ou non lorsqu’elles sont partagées à des fins de sensibilisation ou d’attestation des violations des droits de l’homme.
  • Énoncer expressément, dans sa description de l’intérêt médiatique, toutes les mesures susceptibles d’être prises sur la base de cette politique (par exemple la restauration avec l’apposition d’un écran d’avertissement).
  • Notifier les utilisateurs lorsqu’elle prend des mesures à l’égard de leur contenu sur la base de l’intérêt médiatique, en ce compris la restauration du contenu ou l’apposition d’un écran d’avertissement. La notification à l’utilisateur peut comporter un lien vers l’explication de l’intérêt médiatique disponible dans l’Espace modération.

*Les résumés de cas fournissent une présentation du cas et n’ont pas valeur de précédent.

Décision complète sur le cas

1. Résumé de la décision

Le Conseil de surveillance confirme la décision de Meta visant à restaurer une publication sur Facebook contenant une vidéo, accompagnée d’une légende, représentant un civil victime de violences au Soudan. La publication a été restaurée en vertu de l’intérêt médiatique avec l’apposition d’un écran d’avertissement signalant qu’il s’agit d’un contenu sensible et le rendant généralement inaccessible aux mineurs, obligeant ainsi tous les autres utilisateurs à cliquer pour voir le contenu. Le Conseil estime que ce contenu, qui visait à sensibiliser aux violations des droits de l’homme ou à les relater, possédait une valeur d’intérêt public significative. Si la suppression initiale du contenu était conforme aux règles énoncées dans le Standard de la communauté relatif au contenu violent et explicite, la décision de Meta visant à restaurer le contenu avec l’apposition d’un écran de sensibilité est conforme à ses politiques, à ses valeurs et à ses responsabilités en matière de droits de l’homme.

Le Conseil note toutefois que l’utilisation par Meta de l’intérêt médiatique ne constitue pas un instrument efficace pour maintenir ou restaurer un tel contenu à plus grande échelle. Il recommande dès lors à Meta d’ajouter une exception spécifique concernant la sensibilisation aux infractions ou l’attestation de ces dernières au Standard de la communauté relatif au contenu violent et explicite. Le Conseil exhorte en outre Meta à donner la priorité à la mise en application de sa recommandation précédente visant à introduire une politique relative à la collecte, à la protection et au partage des contenus susceptibles de prouver des infractions à la législation internationale.

2. Description du cas et contexte

Le 21 décembre 2021, Meta a porté devant le Conseil un cas relatif à une vidéo explicite qui semblait représenter un civil victime de violences au Soudan. Le contenu a été publié sur la page du profil Facebook de l’utilisateur le 26 octobre 2021 à la suite d’un coup d’État militaire survenu dans le pays survenu le 25 octobre 2021 et du début des manifestations contre la prise du pouvoir par l’armée.

La vidéo montre une personne souffrant d’une blessure importante à la tête et d’un décollement visible de l’œil allongée à proximité d’une voiture. On peut entendre des voix en arrière-plan dire en arabe que quelqu’un a été battu et laissé dans la rue. La publication comprend une légende, également écrite en arabe, qui appelle à l’unité et à ne pas faire confiance aux militaires, avec des hashtags faisant référence aux infractions de l’armée et à la désobéissance civile.

Meta a expliqué que sa technologie avait identifié le contenu comme potentiellement en infraction à son Standard de la communauté relatif au contenu violent et explicite le jour même de sa publication, le 26 octobre 2021. Après un examen manuel, Meta a estimé qu’il enfreignait la politique de Facebook relative au contenu violent et explicite et l’a supprimé. Le créateur du contenu a ensuite contesté la décision. Le 28 octobre 2021, le contenu a été transmis à des spécialistes en la manière pour un examen complémentaire, à la suite de quoi Meta a émis un intérêt médiatique exemptant la publication de la suppression en vertu de la politique relative au contenu violent et explicite le 29 octobre 2021. En raison d’une erreur de communication interne, Meta n’a toutefois restauré le contenu que le 2 décembre 2021, soit près de cinq semaines plus tard. L’entreprise a restauré la publication et en a profité pour placer un écran d’avertissement sur la vidéo, la signalant comme sensible et obligeant les utilisateurs et utilisatrices à cliquer pour voir le contenu. L’écran d’avertissement interdit aux personnes de moins de 18 ans de regarder la vidéo.

La publication a été vue moins de 1 000 fois et personne ne l’a signalée.

Les faits passés suivants sont pertinents pour la décision du Conseil. Après la prise de contrôle militaire du gouvernement civil au Soudan en octobre 2021 et le début des protestations civiles, les forces de sécurité du pays ont tiré à balles réelles, utilisé des gaz lacrymogènes et arrêté et détenu arbitrairement des manifestants, selon le Haut-Commissaire des Nations unies aux droits de l’homme. Les forces de sécurité ont également pris pour cible des journalistes et des militants, fouillant leurs domiciles et leurs bureaux. Des journalistes ont été attaqués, arrêtés et placés en détention.

Selon les spécialistes consultés par le Conseil, avec la prise de contrôle des médias d’État par l’armée et la répression des journaux et des radiodiffuseurs soudanais, les médias sociaux sont devenus une source d’information cruciale et un lieu opportun pour relater les violences perpétrées par les militaires. L’armée a restreint l’accès à Internet au moment où elle a arrêté des dirigeants civils le 25 octobre 2021 et l’accès à Internet est régulièrement perturbé dans tout le pays depuis lors.

3. Champ d’application et autorité du Conseil de surveillance

Le Conseil est compétent pour examiner les décisions que Meta lui présente pour examen (article 2, section 1 de la Charte ; article 2, section 2.1.1 des Statuts). Le Conseil peut confirmer ou annuler la décision de Meta (article 3, section 5 de la Charte), et ce, de manière contraignante pour l’entreprise (article 4 de la Charte). Meta doit également évaluer la possibilité d’appliquer la décision à un contenu identique dans un contexte parallèle (article 4 de la Charte). Les décisions du Conseil peuvent inclure des avis consultatifs sur la politique avec des recommandations non contraignantes auxquelles Meta doit répondre (article 3, section 4 ; article 4 de la Charte).

4. Sources d’autorité

Le Conseil de surveillance a pris les sources d’autorité suivantes en considération :

I.Décisions du Conseil de surveillance :

Dans le cadre de décisions précédentes, le Conseil a examiné et fourni des recommandations sur les politiques et les procédés de Meta. Les plus pertinentes sont les suivantes :

  • Décision sur le cas 2021-010-FB-UA (« Protestations en Colombie ») : Dans ce cas, le Conseil a noté que Meta ne publiait pas ses critères d’examen du contenu sur la base de l’intérêt médiatique (le seul moyen de mettre le standard en application) et a déclaré que « dans un environnement où les possibilités d’expression sont limitées, les médias sociaux ont offert une plateforme permettant à tous, en ce compris aux journalistes, de partager des informations sur les manifestations ». Le Conseil a recommandé à Meta « d’élaborer et de publier des critères clairs destinés aux examinateurs de contenu afin qu’ils puissent soumettre à un examen supplémentaire les contenus d’intérêt public. Ces critères devraient couvrir les contenus représentant de grandes manifestations sur des questions politiques, en particulier dans des contextes où les États sont accusés de violer les droits de l’homme et où le maintien d’une trace publique de ces évènements revêt une importance accrue ».
  • Décision sur le cas 2021-001-FB-FBR (« Suspension de l’ancien président Trump ») : Dans ce cas, le Conseil a recommandé à Meta de « développer et de publier une politique régissant la réponse de Facebook face aux crises ou aux situations nouvelles lorsque ses procédures habituelles ne permettent pas de prévenir ou d’empêcher un préjudice imminent ». En janvier 2022, Meta a organisé un forum politique sur le « protocole de politique de crise » élaboré en réponse à la recommandation du Conseil. Meta a toutefois confirmé dans l’une de ses réponses aux questions posées par le Conseil que ce protocole n’était pas en place au moment où le coup d’État est survenu au Soudan et où les décisions de suppression et de restauration du contenu ont été prises en l’espèce.

II.Règles de Meta relatives au contenu :

Standards de la communauté Facebook :

Dans la justification de sa politique sur le contenu violent et explicite, Meta déclare supprimer tout contenu qui « glorifie la violence ou promeut la souffrance », mais autorise le contenu explicite « pour sensibiliser le public ». Les règles de la politique interdisent de publier « des vidéos de personnes décédées ou non dans un environnement non médical qui montrent un démembrement ». En vertu de l’intérêt médiatique, Meta autorise le contenu en infraction sur ses plateformes s’il est pertinent et « si le fait de le garder visible est dans l’intérêt du public ».

III. Valeurs de Meta :

Les valeurs de Meta sont détaillées dans l’introduction des Standards de la communauté Facebook. Les valeurs pertinentes en l’espèce sont la liberté d’expression, la sécurité, la confidentialité et la dignité. La « liberté d’expression » y est décrite comme « primordiale » :

L’objectif de nos Standards de la communauté a toujours été de créer un espace d’expression et de donner une voix aux personnes. […] Nous souhaitons que les personnes puissent s’exprimer ouvertement sur les sujets qui comptent pour elles, même si d’autres peuvent marquer leur désaccord ou y trouveraient à redire.

Meta limite la liberté d’expression au profit de quatre autres valeurs, dont trois sont pertinentes en l’espèce :

La sécurité : les formes d’expression menaçantes peuvent intimider les autres personnes, les exclure ou les réduire au silence, et ne sont donc pas autorisées sur Facebook.

La confidentialité : nous nous engageons à protéger la vie privée et les informations. La confidentialité donne la liberté nécessaire pour être soi-même, pour choisir quand et comment partager des informations sur Facebook et pour créer des liens plus facilement.

La dignité : Nous pensons que chacun mérite les mêmes droits et la même dignité. Nous attendons de chaque personne qu’elle respecte la dignité d’autrui et qu’elle ne harcèle ni ne rabaisse les autres.

IV. Normes internationales relatives aux droits de l’homme :

Les Principes directeurs relatifs aux entreprises et aux droits de l’homme des Nations Unies (PDNU), soutenus par le Conseil des droits de l’homme des Nations Unies en 2011, établissent un cadre de travail volontaire pour les responsabilités relatives aux droits de l’homme des entreprises privées. En 2021, Meta a annoncé l’entrée en vigueur de sa Politique d’entreprise relative aux droits de l’homme, dans laquelle elle a réaffirmé son engagement à respecter les droits de l’homme conformément aux PDNU. L’analyse du Conseil sur les responsabilités de Meta en matière des droits de l’homme dans le cas présent s’est appuyée sur les normes des droits de l’homme suivantes :

  • Le droit à la liberté d’expression, en ce compris la capacité de rechercher et de recevoir des informations : l’article 19 du Pacte international relatif aux droits civils et politiques (PIDCP), l’observation générale n° 34 du Comité des droits de l’homme,2011 ; les rapports du Rapporteur spécial des Nations unies sur la liberté d’opinion et d’expression : A/HRC/38/35 (2018) et A/73/348 (2018).
  • L’intérêt supérieur de l’enfant : les articles 13 et 17 de la Convention relative aux droits de l’Enfant (CIDE) ; l’observation générale n° 25, Comité des droits de l’Enfant, 2021, sur les droits de l’enfant en relation avec l’environnement numérique.
  • Le droit à la vie privée : l’article 17 du PIDCP.
  • L’accès à un recours effectif : l’article 2 du PIDCP ; l’observation générale n° 31, Comité des droits de l’homme, (2004) ; les principes 22, 29, 31 des PDNU.

5. Soumissions de l’utilisateur

À la suite du renvoi de Meta et de la décision du Conseil d’accepter le cas, l’utilisateur a reçu un message l’informant de l’examen du Conseil et lui donnant la possibilité de faire une déclaration au Conseil. L’utilisateur n’a pas émis de déclaration.

6. Soumissions de Meta

Dans sa saisine, Meta a indiqué que la décision concernant le contenu était complexe, car elle met en évidence la tension entre la valeur d’intérêt public du récit des violations des droits de la personne et le risque de préjudice associé au partage d’un tel contenu explicite. Meta a également souligné l’importance de permettre aux utilisateurs de relater les violations des droits de l’homme lors d’un coup d’État et la restriction de l’accès à Internet dans le pays.

L’entreprise a informé le Conseil qu’elle a mis en place une équipe interfonctionnelle de réponse aux crises immédiatement après le coup d’État militaire au Soudan afin de surveiller la situation et de communiquer les tendances et les risques émergents. D’après Meta, cette équipe a observé « des pics de signalements de contenus représentant de la violence explicite et de l’incitation à la violence aux moments où les manifestations étaient les plus actives. Il a été demandé [à l’équipe] de transmettre les demandes pour autoriser les cas de violence explicite qui enfreindraient autrement la politique relative au contenu violent et explicite, en ce compris les contenus représentant des violations des droits de l’homme soutenues par l’État ».

Meta a noté que cette vidéo a été prise dans un contexte de protestations généralisées et de réelles inquiétudes quant à la liberté de la presse au Soudan. L’entreprise a également fait observer que ce type de contenu pourrait « avertir les utilisateurs de la région de menaces pour leur sécurité, ce qui particulièrement important durant une coupure d’Internet où l’accès des journalistes sur les lieux peut être limité ».

Elle a également déclaré que la décision de restaurer le contenu était conforme à ses valeurs, en particulier la valeur de la liberté d’expression, considérée comme primordiale. Meta cite des décisions précédemment prises par le Conseil indiquant que le discours politique est essentiel à la valeur de liberté d’expression. Décisions sur les cas 2021-010-FB-UA (« Protestations en Colombie ») ; 2021-003-FB-UA (« Inquiétude pendjabie concernant le RSS en Inde ») ; 2021-007-FB-UA (« Bot du Myanmar ») ; et 2021-009-FB-UA (« Publication partagée par Al Jazeera »).

Meta a indiqué au Conseil qu’elle avait estimé que sa décision initiale visant à supprimer le contenu était incompatible avec l’article 19 du PIDCP, en particulier avec le principe de nécessité. Elle a dès lors restauré le contenu en vertu de l’intérêt médiatique. Afin de réduire les éventuels risques de préjudice lié au maintien du contenu explicite sur la plateforme une fois restauré, Meta en a limité l’accès aux personnes âgées de plus de 18 ans et a apposé un écran d’avertissement. Dans sa justification du cas, Meta a indiqué que la décision de restaurer le contenu était conforme au rapport du Rapporteur spécial des Nations unies sur la promotion et la protection du droit à la liberté d’opinion et d’expression, en particulier au « droit d’accès à l’information sur les violations des droits de l’homme ».

L’entreprise a en outre déclaré qu’en apposant un écran d’avertissement qui empêche les utilisateurs de moins de 18 ans de voir le contenu, elle a également considéré l’incidence de la décision sur les droits de l’enfant. Meta a précisé au Conseil qu’en prenant sa décision, elle a tenu compte de l’article 13 de la Convention relative aux droits de l’enfant, ainsi que de l’observation générale n° 25 sur les droits de l’enfant en relation avec l’environnement numérique, en protégeant le droit de l’enfant à la liberté d’expression, en ce compris la « liberté de recevoir ou de communiquer des informations ou des idées sans considération de frontières ». Dans sa justification du cas, elle a expliqué que sa décision de limiter la visibilité du contenu aux adultes servait l’objectif légitime de protéger la sécurité des mineurs et était proportionnelle à cet objectif.

Le Conseil a posé 21 questions à Meta. Meta a répondu intégralement à 17 questions et partiellement à 4 autres. Les réponses partielles concernaient des questions sur la mesure de l’incidence du système automatisé de Meta sur le contenu de la plateforme et la raison pour laquelle le Standard de la communauté relatif au contenu violent et explicite ne contient pas d’exception à des fins de sensibilisation.

7. Commentaires publics

Le Conseil a reçu cinq commentaires publics sur ce cas. Deux commentaires provenaient d’Europe, un d’Afrique subsaharienne et deux des États-Unis et du Canada.

Les commentaires portaient sur les thèmes suivants : la nécessité d’adopter une approche plus contextuelle, qui fixerait un seuil plus élevé pour la suppression de contenus dans les régions soumises à des conflits armés, de manière à ce que moins de contenus soient supprimés ; la nécessité de préserver des sources en vue d’éventuelles enquêtes futures ou pour traduire en justice les auteurs de violations des droits de l’homme ; et le fait que l’intérêt médiatique est susceptible d’être appliqué de manière ad hoc et contestable et que cette pratique devrait être reconsidérée.

En mars 2022, dans le cadre de l’engagement continu des parties prenantes, le Conseil s’est entretenu avec une cinquantaine de représentants d’organisations de défense des droits et de personnes travaillant au signalement et à la documentation des violations des droits de l’homme, avec des universitaires effectuant des recherches sur l’éthique, les droits de l’homme et la documentation, ainsi qu’avec des parties prenantes souhaitant s’engager avec le Conseil sur les questions découlant du Standard de la communauté sur le contenu violent et explicite et de sa mise en application dans des contextes de crise ou de protestation. Ces engagements continus s’inscrivent dans le cadre de la règle de Chatham House afin de garantir une discussion franche et de protéger les participants. La discussion a abordé un certain nombre de thèmes, notamment le rôle vital des médias sociaux dans les pays contrôlés par des régimes répressifs pour attester des violations des droits de l’homme et attirer l’attention des médias internationaux et du public sur les violences cautionnées par l’État ; les inquiétudes partagées qu’une norme universelle sur le contenu violent et explicite constitue en pratique un standard centré sur les États-Unis ; et a observé que l’utilisation des écrans d’avertissement est utile pour aborder le véritable problème du traumatisme, bien que certaines organisations aient signalé que les écrans d’avertissement peuvent limiter la portée de leur contenu.

Pour lire les commentaires publics soumis pour ce cas, veuillez cliquer ici.

8. Analyse du Conseil de surveillance

Le Conseil a examiné la question du maintien de ce contenu sur la plateforme sous trois angles : Les règles relatives au contenu de Meta, les valeurs de l’entreprise et ses responsabilités en matière de droits de l’homme.

8.1. Respect des règles relatives au contenu de Meta

I.Règles relatives au contenu

Si le Conseil approuve la décision de Meta visant à restaurer le contenu sur la plateforme avec l’apposition d’un écran d’avertissement et d’une restriction d’âge, il constate toutefois un manque de clarté dans les politiques de contenu de Meta ni aucun moyen efficace de mettre en œuvre cette réponse à des contenus similaires à plus grande échelle.

La décision initiale de Meta visant à supprimer le contenu était conforme aux règles de son Standard de la communauté relatif au contenu violent et explicite, car le contenu enfreignait la politique en montrant un démembrement humain dans un contexte non médical (une personne souffrant d’une blessure importante à la tête et d’un décollement visible de l’œil). Toutefois, la justification de la politique du Standard de la communauté relatif au contenu violent et explicite indique que « [Meta autorise] les contenus explicites (avec certaines restrictions) afin d’aider les personnes à sensibiliser leur communauté à différents problèmes. [Meta reconnaît] que les gens apprécient le fait de pouvoir discuter de sujets importants comme les violations des droits de l’homme ou les actes de terrorisme ». Malgré cette référence dans la justification de la politique, les règles spécifiques du Standard de la communauté ne comprennent pas d’exception de « sensibilisation ». Les standards internes de Meta destinés à ses examinateurs ne comprennent pas non plus d’exception pour les contenus visant à sensibiliser ou à attester des violations des droits de l’homme.

En l’absence d’une exception spécifique dans le Standard de la communauté, le Conseil de surveillance approuve la décision de Meta visant à restaurer le contenu en recourant à l’intérêt médiatique. Meta indique qu’elle autorise le maintien des contenus en infraction en vertu de l’intérêt médiatique si elle détermine qu’ils sont pertinents et que ce « maintien est dans l’intérêt public, après avoir tenu compte de critères d’évaluation mettant en balance l’intérêt public et le risque de préjudice ».

II.Mise en application

Le Conseil constate que, bien que Meta ait décidé d’autoriser et de restaurer la publication avec l’apposition d’un écran d’avertissement le 29 octobre 2021, la publication n’a été effectivement restaurée sur la plateforme que près de cinq semaines plus tard, le 2 décembre 2021. Meta a déclaré que la communication concernant la décision finale sur le contenu est intervenue en dehors de ses outils normaux de gestion des remontées, « ce qui a entraîné un retard dans la prise de mesures appropriées concernant le contenu ». Le Conseil trouve cette explication et ce retard extrêmement troublants et souligne l’importance pour Meta de prendre des mesures opportunes concernant des décisions telles que celle-ci, dans le contexte d’une crise publique et alors que la liberté de la presse a été sévèrement restreinte. Lorsque Meta a initialement supprimé ce contenu, elle a appliqué une limite de 30 jours empêchant l’utilisateur de créer un nouveau contenu, à une période où les manifestants dans les rues et les journalistes qui couvraient le coup d’État et la répression militaire étaient confrontés à des actes de violence et de répression sévères.

8.2. Respect des valeurs de Meta

Le Conseil conclut que le maintien du contenu sur la plateforme avec l’apposition d’un écran d’avertissement est conforme aux valeurs de liberté d’expression et de sécurité de Meta.

Il reconnaît l’importance de la dignité et de la confidentialité dans le contexte de la protection des victimes de violations des droits de l’homme. Le contenu porte atteinte à la dignité et à la confidentialité de la personne blessée dans la vidéo et de sa famille. Cette personne est identifiable et elle, ou sa famille ou ses proches, n’a peut-être pas souhaité que ce type d’images les concernant soit diffusé.

Le Conseil note également la pertinence de la valeur de sécurité dans ce contexte, qui vise à protéger les utilisateurs des contenus qui représentent un « risque d’atteinte à la sécurité physique des personnes ». D’une part, l’utilisateur cherchait à sensibiliser la communauté au coup d’État en cours, ce qui pourrait contribuer à améliorer la sécurité des personnes se trouvant dans cette région. D’autre part, le contenu peut également créer des risques pour la personne représentée dans la vidéo et/ou sa famille.

Le Conseil conclut que dans un contexte où l’espace civique et la liberté des médias sont limités par l’État, la valeur de la liberté d’expression gagne en importance. En l’espèce, la liberté d’expression permet également de renforcer la valeur de sécurité en garantissant que les personnes aient accès à l’information et que les actes de violence cautionnés par l’État soient divulgués.

8.3. Respect des responsabilités de Meta en matière des droits de l’homme

Le Conseil estime que le maintien du contenu sur la plateforme avec l’apposition d’un écran d’avertissement est conforme aux responsabilités de Meta en matière de droits de l’homme. Il conclut toutefois que les politiques de Meta doivent être modifiées afin de mieux respecter le droit à la liberté d’expression des utilisateurs qui cherchent à sensibiliser aux violations ou à en attester.

Liberté d’expression (article 19 du PIDCP)

L’article 19 du PIDCP fournit une large protection à la liberté d’expression, en ce compris le droit de rechercher et de recevoir des informations. Toutefois, ce droit peut être restreint dans certaines conditions spécifiques, connues sous le nom de test tripartite de la légalité (clarté), de la légitimité, de la nécessité et de la proportionnalité. Bien qu’au contraire de ce qu’il fait pour les états, le PIDCP ne crée pas d’obligations pour Meta, le groupe s’est engagé à respecter les droits de l’homme comme indiqué dans les PDNU. Cet engagement englobe les droits de l’homme reconnus à l’échelle internationale, tels que définis par le PIDCP, entre autres.

I. Légalité (clarté et accessibilité des règles)

Toute limitation de la liberté d’expression doit être accessible et suffisamment claire pour fournir des indications sur ce qui est autorisé et ce qui ne l’est pas. Le Conseil conclut que la politique relative au contenu violent et explicite ne précise pas comment Meta permet aux utilisateurs de partager des contenus explicites pour sensibiliser aux infractions ou en attester. La justification du Standard de la communauté, laquelle expose les objectifs de la politique, ne correspond pas aux règles de la politique. La justification de la politique indique que Meta autorise les utilisateurs à publier du contenu explicite « afin d’aider les personnes à sensibiliser » aux violations des droits de l’homme, mais la politique interdit toutes les vidéos (qu’elles soient partagées à des fins de sensibilisation ou non) « de personnes décédées ou non dans un environnement non médical qui montrent un démembrement ». Tandis que Meta s’est correctement appuyée sur l’intérêt médiatique plus large pour restaurer ce contenu, le Standard de la communauté relatif au contenu violent et explicite n’indique pas clairement si ce type de contenu sera autorisé sur la plateforme.

Le Conseil conclut également que l’intérêt médiatique ne précise pas clairement quand un contenu attestant de violations des droits de l’homme ou d’atrocités peut bénéficier de cette autorisation. Bien que Meta ait raison lorsqu’elle déclare que la détermination de l’intérêt médiatique peut être « hautement subjective », la règle concernée ne définit pas ce terme. La politique indique que l’entreprise attribue une « valeur particulière aux contenus qui présentent une menace imminente à la santé ou à la sécurité publiques, ou qui expriment une opinion en débat dans le cadre d’un processus politique ». Des exemples emblématiques et des principes clairs devraient guider l’exercice du pouvoir discrétionnaire dans l’application de cette autorisation. À défaut, son utilisation risque d’être incohérente et arbitraire. En outre, l’intérêt médiatique ne fait pas référence à l’utilisation d’écrans d’avertissement (ou interstitiels) pour les contenus enfreignant autrement les politiques de Meta.

Enfin, dans un cas précédent (« Protestations en Colombie »), le Conseil a recommandé à Meta « d’élaborer et de publier des critères clairs destinés aux examinateurs de contenu afin qu’ils puissent soumettre à un examen supplémentaire les contenus d’intérêt public ». Meta a répondu qu’elle avait déjà publié ses critères de remontée dans l’article de l’Espace modération sur l’intérêt médiatique. Cet article se concentre toutefois sur les facteurs pris en compte par Meta pour appliquer l’intérêt médiatique, et non sur les critères fournis aux modérateurs pour savoir quand faire remonter un contenu (c.-à-d. le soumettre à un examen supplémentaire). Si l’intérêt médiatique est destiné à faire partie du système de modération du contenu de l’entreprise, les processus de remontée et d’utilisation doivent faciliter cet objectif. Le Conseil note que le manque de clarté quant au moment et à la manière dont l’intérêt médiatique est appliqué est susceptible de favoriser une application arbitraire de cette politique.

II. Objectif légitime

Les limitations de la liberté d’expression doivent poursuivre un objectif légitime, lequel inclut la protection des droits d’autrui, tels que le droit à la vie privée de l’individu représenté (paragraphe 28 de l’observation générale n° 34) et le droit à l’intégrité physique Dans la justification de sa politique, Meta observe également que le « contenu qui glorifie la violence ou qui prône la souffrance ou l’humiliation d’autres personnes (...) est susceptible d’instaurer un environnement non propice à la participation ». Le Conseil reconnaît que la politique relative au contenu violent et explicite poursuit plusieurs objectifs légitimes.

III. Nécessité et proportionnalité

Les restrictions de la liberté d’expression « doivent être appropriées pour remplir leur fonction de protection, elles doivent constituer le moyen le moins perturbateur parmi ceux qui pourraient permettre d’obtenir le résultat recherché ; [et] elles doivent être proportionnées à l’intérêt à protéger » (observation générale 34, paragraphe 34).

En l’espèce, le Conseil conclut que l’apposition d’un écran d’avertissement sur le contenu constituait une limitation nécessaire et proportionnée de la liberté d’expression. L’écran d’avertissement n’impose pas une difficulté excessive à ceux qui souhaitent voir le contenu, tout en informant les autres de la nature du contenu et en leur permettant de décider de le voir ou non. Il protège également de manière adéquate la dignité de la personne représentée et de sa famille.

Comme indiqué à section 8.1, le Conseil note également que la restauration de la publication par Meta a été retardée de près de cinq semaines. Ce retard a entraîné un effet disproportionné sur la liberté d’expression dans le contexte de la violence permanente et de l’environnement médiatique restreint au Soudan. Un retard aussi long nuit à l’intérêt de ce discours, qui est d’avertir les civils et de les sensibiliser.

Le Conseil conclut également qu’étant donné que l’intérêt médiatique est rarement utilisé, il ne s’agit pas d’un mécanisme efficace pour autoriser les contenus attestant de violations ou cherchant à sensibiliser la communauté sur la plateforme à plus grande échelle. Meta a indiqué au Conseil qu’elle avait « établi 17 contenus dignes d’intérêt médiatique en rapport avec la politique relative au contenu violent et explicite au cours des 12 derniers mois (12 mois avant le 8 mars 2022). Le contenu en l’espèce représente l’un de ces 17 contenus ». À titre de comparaison, Meta a supprimé 90,7 millions de contenus en vertu de ce Standard de la communauté durant les trois premiers trimestres de 2021. Le Conseil estime qu’il est peu probable qu’en un an, seuls 17 contenus liés à cette politique aient été autorisés à rester sur la plateforme en tant que contenus pertinents et d’intérêt public. L’intérêt médiatique ne constitue pas un mécanisme adéquat pour préserver les contenus de cette nature sur la plateforme. Pour éviter de censurer des expressions protégées, Meta devrait modifier la politique relative au contenu violent et explicite pour permettre à ces contenus de rester sur la plateforme.

Dans les contextes de guerre ou de troubles politiques, les contenus violents et explicites seront de plus en plus nombreux à être capturés par les utilisateurs et partagés sur la plateforme dans le but de sensibiliser aux infractions ou d’en attester. Ce contenu est important pour promouvoir le principe de responsabilité. Dans le cas intitulé « Suspension de l’ancien président Trump », le Conseil a noté que Meta a la responsabilité de « recueillir, de protéger et, le cas échéant, de partager les informations afin de faciliter les enquêtes et les poursuites éventuelles effectuées par les autorités compétences et des mécanismes de responsabilisation concernant des infractions graves du droit pénal international, des droits de l’homme et du droit humanitaire ». Le Conseil a également recommandé à Meta de clarifier et d’énoncer dans sa politique d’entreprise en matière de droits de l’homme les protocoles relatifs à la mise à disposition des chercheurs de contenus déjà publics tout en respectant les normes internationales et les lois sur la protection des données. En réponse, Meta s’est engagée à informer le Conseil des efforts en cours pour résoudre ce problème. Depuis que le Conseil a publié cette recommandation le 5 mai 2021, Meta n’a pas fait état de progrès accomplis à cet égard. Le Conseil estime qu’un délai aussi long et l’absence de progrès sont préoccupants, compte tenu du rôle que joue la plateforme dans des situations de conflit violent (telles que la guerre actuelle en Ukraine, où les utilisateurs attestent d’infractions par le biais des médias sociaux) et de troubles politiques dans le monde entier.

Enfin, le Conseil rappelle la recommandation qu’il a fait à Meta dans le cas « Suspension de l’ancien président Trump » visant à « développer et de publier une politique régissant la réponse de Facebook face aux crises ou aux situations nouvelles lorsque ses procédures habituelles ne permettent pas de prévenir ou d’empêcher un préjudice imminent ». Dans sa mise à jour du quatrième trimestre de 2021 sur le Conseil de surveillance, Meta a indiqué avoir préparé une proposition de nouveau protocole de crise en réponse à la recommandation du Conseil et qu’elle avait été adoptée. L’entreprise a également déclaré qu’elle fournira bientôt des informations sur ce protocole dans l’Espace modération. Elle a informé le Conseil que ce protocole n’était pas en place au moment du coup d’État au Soudan et qu’il n’était pas non plus opérationnel lors de l’examen de ce cas. Elle prévoit de lancer le protocole dans le courant de 2022. Un protocole bien conçu devrait guider Meta dans l’élaboration et la mise en application des réponses nécessaires et proportionnelles dans le cadre de situations de crise. Meta devrait agir plus rapidement pour mettre en application ce protocole et fournir autant de détails que possible sur la manière dont ce protocole fonctionnera et interagira avec ses processus existants. Les plateformes de Meta jouent un rôle prépondérant dans les conflits et les situations de crise dans le monde entier et l’entreprise doit être prête à réagir rapidement et systématiquement pour éviter toute erreur.

9. Décision du Conseil de surveillance

Le Conseil de surveillance confirme la décision de Meta visant à conserver le contenu avec l’apposition d’un écran limitant l’accès aux plus de 18 ans.

10. Avis consultatif sur la politique

Politique de contenu

1. Meta devrait modifier le Standard de la communauté relatif au contenu violent et explicite pour autoriser les vidéos de personnes décédées ou non lorsqu’elles sont partagées à des fins de sensibilisation ou d’attestation des violations des droits de l’homme. Ces contenus devraient être autorisés avec l’apposition d’un écran d’avertissement afin d’annoncer qu’il s’agit de contenus potentiellement dérangeants. Le Conseil considérera que cette recommandation a été suivie lorsque Meta mettra à jour le Standard de la communauté.

2. Meta devrait entreprendre un processus de développement de politique établissant des critères visant à identifier les vidéos de personnes décédées ou non lorsqu’elles sont partagées à des fins de sensibilisation ou d’attestation des violations des droits de l’homme. Le Conseil considérera cette recommandation comme mise en œuvre lorsque Meta publiera les résultats du processus d’élaboration de la politique, en ce compris des informations sur le processus et les critères d’identification de ce contenu plus grande échelle.

3. Meta devrait énoncer expressément, dans sa description de l’intérêt médiatique, toutes les mesures susceptibles d’être prises sur la base de cette politique (par exemple la restauration avec l’apposition d’un écran d’avertissement). Le Conseil considérera que cette recommandation a été suivie lorsque Meta mettra à jour la politique.

Mise en application

4. Pour garantir que les utilisateurs comprennent les règles, Meta devrait notifier les utilisateurs lorsqu’elle prend des mesures à l’égard de leur contenu sur la base de l’intérêt médiatique, en ce compris la restauration du contenu ou l’apposition d’un écran d’avertissement. La notification à l’utilisateur peut comporter un lien vers l’explication de l’intérêt médiatique disponible dans l’Espace modération. Le Conseil considérera cette recommandation comme mise en œuvre lorsque Meta déploiera cette notification actualisée aux utilisateurs sur tous les marchés et démontrera que les utilisateurs reçoivent cette notification grâce aux données de mise en application.

*Note de procédure :

Les décisions du Conseil de surveillance sont préparées par des panels de cinq membres et approuvées par une majorité du Conseil. Elles ne représentent pas nécessairement les opinions personnelles de tous ses membres.

Pour la décision sur ce cas, des recherches indépendantes ont été commandées au nom du Conseil. Un institut de recherche indépendant, dont le siège se trouve à l’université de Göteborg et mobilisant une équipe de plus 50 spécialistes en science sociale sur six continents ainsi que 3 200 spécialistes nationaux du monde entier. Duco Advisers, une société de conseil qui se concentre sur les recoupements entre la géopolitique, la confiance, la sécurité et la technologie, a également prêté assistance au Conseil.

Retour aux décisions de cas et aux avis consultatifs politiques