Le Conseil de surveillance annule la décision de Meta dans le cas du « morceau de musique drill britannique »

Le Conseil de surveillance a annulé la décision de Meta de supprimer d’Instagram un vidéo-clip de musique drill britannique. Meta avait à l’origine supprimé le contenu suite à une demande de la Police métropolitaine. Ce cas soulève des inquiétudes quant aux relations de Meta avec la police, qui est susceptible de favoriser les préjugés. Le Conseil fait des recommandations visant à améliorer le respect des procédures et la transparence dans ces relations.

MISE À JOUR – JANVIER 2023

Dans ce cas, le Conseil de surveillance a soumis au service de la Police métropolitaine (MPS, Metropolitan Police Service) une demande de liberté d’information contenant des questions sur la nature et le volume des demandes adressées par le MPS aux entreprises de médias sociaux, Meta y compris, pour qu’elles examinent ou suppriment du contenu ayant trait à la musique drill sur une période d’un an. Le MPS a répondu le 7 octobre 2022 et a fourni des chiffres sur le nombre de demandes envoyées et sur le nombre de demandes ayant entraîné une suppression du contenu. La réponse du MPS a été publiée dans son intégralité en parallèle à la décision et les chiffres ont été inclus dans la décision du Conseil du 22 novembre 2022. Le 4 janvier 2023, le MPS a contacté le Conseil en déclarant avoir repéré des erreurs dans sa réponse et les avoir corrigées. Les corrections portaient notamment sur les éléments suivants : l’ensemble des 992 demandes [286 dans la réponse précédente] envoyées aux sociétés de médias sociaux et de streaming par la Police métropolitaine pour qu’elles examinent ou suppriment du contenu entre juin 2021 et mai 2022 impliquaient de la musique drill et ces demandes ont entraîné 879 suppressions [255 dans la réponse précédente] ; 28 demandes concernaient les programmes Meta [21 dans la réponse précédente], dont 24 ont débouché sur une suppression [14 dans la réponse précédente]. La décision contient les anciens chiffres, antérieurs aux corrections du MPS. Cette mise à jour n’apporte aucune modification à l’analyse ou à la décision du Conseil de surveillance dans ce cas. La réponse mise à jour à cette demande de liberté d’information peut être consultée ici.

À propos du cas

En janvier 2022, un compte Instagram qui se décrit comme faisant la promotion de la musique britannique a publié du contenu mettant à la une la sortie du morceau de musique drill britannique, « Secrets Not Safe » (Des secrets mal gardés) par Chinx (OS), notamment un clip du vidéo-clip du morceau.

Peu après, la Police métropolitaine, qui est responsable de l’application de la loi dans le Grand Londres, a envoyé un e-mail à Meta lui demandant d’examiner tout le contenu contenant « Secrets Not Safe » (Des secrets mal gardés). Meta a également reçu un contexte supplémentaire de la part de la Police métropolitaine. Selon Meta, il s’agissait d’informations sur la violence des gangs, notamment les meurtres, à Londres, et de la crainte de la police que le morceau ne conduise à de nouvelles violences en guise de représailles.

Les équipes spécialisées de Meta ont examiné le contenu. En s’appuyant sur le contexte fourni par la Police métropolitaine, elles ont estimé qu’il contenait une « menace voilée », en faisant référence à une fusillade de 2017, qui pourrait potentiellement conduire à d’autres violences. L’entreprise a supprimé le contenu du compte en question pour violation de sa politique relative à la violence et l’incitation. Elle a également supprimé 52 contenus contenant le morceau « Secrets Not Safe » (Des secrets mal gardés) d’autres comptes, dont celui de Chinx (OS). Les systèmes automatisés de Meta ont ensuite supprimé le contenu encore 112 fois.

Meta a transmis ce cas au Conseil. Le Conseil a demandé que Meta transmette également la publication du contenu de Chinx (OS). Toutefois, Meta a déclaré que cela était impossible, car la suppression de la vidéo « Secrets Not Safe » (Des secrets mal gardés) du compte de Chinx (OS) a finalement entraîné la suppression du compte, et son contenu n’a pas été préservé.

Principales observations

Le Conseil estime que la suppression de ce contenu n’est pas conforme aux Standards de la communauté de Meta, à ses valeurs ou à ses responsabilités en matière de droits de l’homme.

Meta ne disposait pas de preuves suffisantes pour conclure que le contenu contenait une menace crédible, et l’examen du Conseil n’a pas permis de découvrir de preuves à l’appui d’une telle conclusion. En l’absence de telles preuves, Meta aurait dû accorder davantage de crédit à la nature artistique du contenu.

Ce cas soulève des inquiétudes quant aux relations de Meta avec les gouvernements, en particulier lorsque des demandes d’application de la loi conduisent à l’examen d’un contenu licite au regard des Standards de la communauté et à sa suppression. Même si la police peut parfois fournir un contexte et une expertise, tous les contenus que la police souhaiterait voir supprimés ne doivent pas nécessairement l’être. Il est donc essentiel que Meta évalue ces demandes de manière indépendante, en particulier lorsqu’elles concernent l’expression artistique de personnes appartenant à des groupes minoritaires ou marginalisés pour lesquels le risque de préjugés culturels à l’encontre de leur contenu est élevé.

Les canaux par lesquels la police adresse ses demandes à Meta sont aléatoires et opaques. Il n’est pas demandé à la police de respecter des critères minimaux pour justifier ses demandes, et les interactions manquent donc de cohérence. Les données que Meta publie sur les demandes du gouvernement sont également incomplètes.

Le manque de transparence concernant la relation entre Meta et la police permet à l’entreprise de favoriser les préjugés. Une demande de liberté d’information faite par le Conseil a révélé que la totalité des 286 demandes que la Police métropolitaine a adressées aux entreprises de réseaux sociaux et aux services de streaming pour examiner ou supprimer des contenus musicaux entre juin 2021 et mai 2022 concernaient la musique drill, particulièrement populaire chez les jeunes Britanniques noirs. 255 de ces demandes ont abouti à la suppression du contenu par les plateformes. 21 demandes relatives aux plateformes Meta ont entraîné 14 suppressions de contenu. Le Conseil estime que, pour respecter ses valeurs et ses responsabilités en matière de droits de l’homme, la réponse de Meta aux demandes de la police doit respecter une procédure régulière et être plus transparente.

Ce cas soulève également des inquiétudes quant à l’accès au recours. Dans le cadre de ce cas, Meta a déclaré au Conseil que lorsque l’entreprise prend des décisions « à un niveau hiérarchique supérieur » sur le contenu, les utilisateurs ne peuvent pas faire appel au Conseil. Une décision prise « à un niveau hiérarchique supérieur » est rendue par les équipes spécialisées internes de Meta. Selon Meta, toutes les décisions relatives aux demandes de la police sont prises « à un niveau hiérarchique supérieur » (sauf si la demande est faite par le biais d’un « outil de signalement intégré au produit » accessible au public), tout comme les décisions relatives à certaines politiques qui ne peuvent être appliquées que par les équipes internes de Meta. Cette situation s’ajoute aux préoccupations soulevées lors de la préparation de l’avis consultatif de politique générale du Conseil sur le contrôle croisé, où Meta a révélé qu’entre mai et juin 2022, environ un tiers du contenu de vérification contrôlée n’a pas pu être transmis au Conseil.

Meta a remis le contenu transmis à un niveau hiérarchique supérieur au Conseil à plusieurs reprises, y compris cette fois-ci. Cependant, le Conseil est préoccupé par le fait que les utilisateurs se sont vu refuser l’accès à un recours lorsque Meta prend certaines de ses décisions les plus importantes en matière de contenu. L’entreprise doit s’attaquer à ce problème de toute urgence.

Décision du Conseil de surveillance

Le Conseil de surveillance a annulé la décision de Meta visant à supprimer le contenu.

Le Conseil recommande à Meta de :

  • Créer un système normalisé pour recevoir les demandes de suppression de contenu émanant d’acteurs étatiques. Il s’agit notamment de demander des critères tels que la manière dont une politique a été violée, et les preuves de cette violation.
  • Publier des données sur les demandes d’examen et de suppression de contenu par les acteurs étatiques en cas de violation des Standards de la communauté.
  • Examiner régulièrement ses données sur les décisions de modération de contenu motivées par des demandes d’acteurs étatiques afin d’y déceler d’éventuels préjugés systémiques, et créer un mécanisme permettant de remédier à tout préjugé identifié.
  • Donner aux utilisateurs la possibilité de faire appel au Conseil de surveillance lorsque celui-ci prend des décisions relatives au contenu « à un niveau hiérarchique supérieur ».
  • Préserver les comptes et les contenus pénalisés ou désactivés pour avoir publié des contenus faisant l’objet d’une enquête ouverte par le Conseil.
  • Mettre à jour sa valeur « Liberté d’expression » pour refléter l’importance de l’expression artistique.
  • Préciser dans les Standards de la communauté que pour supprimer un contenu en tant que « menace voilée », un signal primaire et un signal secondaire sont nécessaires. Il convient d’indiquer clairement quel est ce signal.

Pour en savoir plus

Pour lire l’intégralité de la décision, cliquez ici.

Pour lire un résumé des commentaires publics sur ce cas, ou la réponse de la Police métropolitaine à la demande de liberté d’information faite par le Conseil, veuillez cliquer sur les pièces jointes ci-dessous.

Retour Aux Actualités