Décision sur plusieurs affaires

Assassinat d'un candidat dans le cadre des élections municipales au Mexique

Dans quatre cas de vidéos montrant l'assassinat du candidat mexicain au poste de maire José Alfredo Cabrera Barrientos, le Conseil note que Meta a traité les publications différemment alors que trois d'entre elles auraient dû obtenir le même résultat, à savoir le maintien de leur diffusion dans le cadre de la marge de tolérance d’intérêt médiatique.

4 cas inclus dans ce lot

Confirmé

FB-ZZ1PC8GA

Cas relatif à des personnes et organisations dangereuses sur Facebook

Plate-forme
Facebook
Sujet
Élections,Évènements d’actualité,Violence
Standard
Personnes et organisations dangereuses
Emplacement
Mexique
Date
Publié le 12 décembre 2024
Renversé

IG-KWS5YL10

Cas relatif à des personnes et organisations dangereuses sur Instagram

Plate-forme
Instagram
Sujet
Élections,Évènements d’actualité,Violence
Standard
Personnes et organisations dangereuses
Emplacement
Argentine
Date
Publié le 12 décembre 2024
Confirmé

IG-ZZR570SK

Cas relatif à des personnes et organisations dangereuses sur Instagram

Plate-forme
Instagram
Sujet
Élections,Évènements d’actualité,Violence
Standard
Personnes et organisations dangereuses
Emplacement
Mexique
Date
Publié le 12 décembre 2024
Confirmé

IG-BGIFPMQ2

Cas relatif à des personnes et organisations dangereuses sur Instagram

Plate-forme
Instagram
Sujet
Élections,Évènements d’actualité,Violence
Standard
Personnes et organisations dangereuses
Emplacement
Mexique
Date
Publié le 12 décembre 2024

Télécharger le PDF de la décision complète ici..

Résumé

Dans quatre cas de vidéos montrant l'assassinat du candidat mexicain au poste de maire José Alfredo Cabrera Barrientos, le Conseil note que Meta a traité les publications différemment alors que trois d'entre elles auraient dû obtenir le même résultat, à savoir le maintien de leur diffusion dans le cadre de la marge de tolérance d’intérêt médiatique. Ces trois publications ont été partagées par des organismes de presse faisant clairement état d'un assassinat politique survenu à l'approche des élections mexicaines : Meta en a maintenu deux, mais en a supprimé une. La suppression de reportages faisant l’objet de débats publics limite l’accès à des informations essentielles et entrave la liberté d’expression. Cela est préoccupant au vu des risques auxquels font face les organismes de presse lorsqu'ils évoquent la corruption de l'État et la criminalité organisée au Mexique. Même s’il y a eu une application inégale de la tolérance d’intérêt médiatique dans ces cas, le Conseil exprime également son inquiétude relative à l’efficacité de la marge de tolérance elle-même. Pour combattre cela, le Conseil réitère ses recommandations récentes, exprimées dans la décision relative à l’enregistrement de l’attaque terroriste de Moscou, demandant qu’une exception soit faite à la règle qui interdit les images de tiers illustrant le moment des attaques désignées sur des victimes visibles. Cette approche mise à jour aiderait à assurer un traitement juste pour tous les utilisateurs.

À propos des cas

En mai 2024, quatre contenus au sujet de l’assassinat d’un candidat à la maire de l’État mexicain de Guerrero ont été publiés ou repartagés par des comptes de médias d’actualités en Amérique latine. Les quatre publications comprennent des vidéos similaires montrant José Alfredo Cabrera Barrientos lors d’un événement de campagne avant qu’une arme ne soit pointée sur lui, puis des images floues et des bruits de coups de feu.

Les deux premiers cas concernent des publications partagées par de grandes organisations de médias. La légende de la première publication commente le nombre de candidats à avoir été assassinés pendant les élections, tandis que le son de la vidéo inclut une déclaration du bureau du procureur de l'État expliquant que Cabrera Barrientos était sous protection lorsqu'il a été tué. Elle a été vue 59 000 fois. La deuxième publication comporte un avertissement au sujet du caractère sensible de la vidéo et une légende rapportant la déclaration de la Gouverneure de Guerrero condamnant le meurtre. La vidéo a été vue plus d’un million de fois.

Quand Meta a désigné cet assassinat comme un événement violent en infraction selon sa politique relative aux organisations et individus dangereux, une autre version de la vidéo avait déjà été ajouté à une banque de service de correspondance de médias (MMS), qui est programmée pour supprimer le même contenu. Selon la politique, les utilisateurs ne sont pas autorisés à partager des images de tiers illustrant le moment de telles attaques désignées sur des victimes visibles. Les deux premières publications, qui ont été identifiées par la banque MMS et transmises aux experts de Meta sur le sujet pour examen ultérieur, ont été maintenues en ligne même si elles enfreignaient les règles de Meta. Elles ont bénéficié de la marge de tolérance d’intérêt médiatique occasionnellement accordée à du contenu que Meta juge avoir une valeur d’intérêt public élevée. Les deux publications sont toujours sur les plateformes Meta avec des écrans d’avertissement « Contenu dérangeant » et des étiquettes « pertinent », mais ont été transmises au Conseil.

Dans les troisième et quatrième cas, les utilisateurs ont fait appel des décisions de Meta de retirer leur publication au Conseil. La troisième publication comprenait un repartage de la vidéo avec un message en surimposition indiquant qu’une version non censurée était disponible sur Telegram. Cette publication avait 17 000 vues. La quatrième publication comprenait une légende indiquant qui avait été touché et blessé lors de l’événement. Elle comptait 11 000 vues. Les deux publications ont été supprimées après avoir été identifiées par une banque MMS.

L’assassinat de Cabrera Barrientos a eu lieu le dernier jour de la campagne pour les élections nationales du Mexique tenues le 2 juin. La violence politique a marqué les dernières élections du pays, ce dont le crime organisé est partiellement responsable. Cela a incité des candidats à retirer leurs candidatures électorales par peur d’atteintes à leur vie.

Principales conclusions

Bien que Meta ait eu raison de maintenir les deux premières publication sur ces plateformes au titre de contenu pertinent, le Conseil conclut que l’entreprise a eu tort de retirer la publication d’Instagram dans le quatrième cas. Cette publication avait également une grande valeur pour l’intérêt public. Aucune différence matérielle ne justifiait la prise d’une décision différente. Même après la sélection du quatrième cas par le Conseil, Meta n’a pas appliqué la même marge de tolérance d’intérêt médiatique, en indiquant que cette publication faisait du sensationnalisme en informant les utilisateurs qu’elle était devenue virale. Cependant, ce détail est inclus avec d’autres informations sur la fusillade, dont des données sur le nombre de morts, la déclaration de la Gouverneure et le fait que le tireur ait été abattu lors de l’événement. Bien que Cabrera Barrientos soit visible et identifiable, il s’agissait d’une personnalité publique qui participait à un rassemblement électoral ; les questions de respect de la vie privée sont donc amoindries et la valeur d'intérêt public l'emporte sur les risques de préjudice.

Dans la troisième publication, qui dirigeait les utilisateurs vers un lien Telegram pour accéder à une version non censurée et explicite de la vidéo afin de contourner l'interdiction de Meta de partager des images de tiers illustrant le moment d'attaques sur des victimes visibles, la majorité des membres du Conseil est d'accord avec le point de vue de Meta selon lequel ce contenu présentait des risques plus importants pour la sécurité et la vie privée et aurait dû être supprimé. Pour la majorité des membres, Meta avait raison de ne pas octroyer la marge de tolérance d’intérêt médiatique, surtout dans la mesure où la publication n’avait pas de légende ou de commentaire indiquant que son but était d’informer les autres ou de condamner l’assassinat. Une minorité des membres du Conseil n’était pas d’accord et pensait que la troisième publication aurait aussi due être qualifiée pour la marge de tolérance d’intérêt médiatique, car elle était similaire aux autres.

Comme le Conseil l’a récemment indiqué dans sa décision relative à l’enregistrement de l’attaque terroriste de Moscou, les images des attaques désignées peuvent être partagées pour de multiples raisons. Bien que Meta se préoccupe de la possibilité que ce contenu glorifie, soutienne ou représente des activités de groupes criminels, la règle qui ne permet pas aux utilisateurs de partager des images de tiers illustrant le moment des attaques désignées sur des victimes visibles mène au retrait de contenus ayant un risque de préjudice faible ou nul. En ce qui concerne ces affaires, les experts ont remarqué que les groupes criminels du Mexique n'utilisent généralement pas les vidéos d'assassinats politiques à des fins de recrutement, bien qu'ils puissent les partager à des fins d'intimidation. En outre, le Conseil n'a trouvé aucune preuve que ces images aient été enregistrées par les auteurs de l'attentat ou qu'elles aient été utilisées pour inspirer des comportements identiques.

Bien que le Conseil ait estimé que la marge de tolérance d'intérêt médiatique devait être appliquée à la quatrième publication, il note que la marge de tolérance est rarement utilisée car il y a peu de moyens pour Meta d'identifier le contenu qui pourrait en bénéficier. Combiné aux multiples facteurs qui doivent être pris en compte pour octroyer la marge de tolérance, cela augmente les risques d'une application aléatoire de la marge de tolérance au détriment des utilisateurs. C'est pourquoi le Conseil estime qu'une modification de la politique de Meta, comme le souligne notre décision relative aux enregistrements de l'attentat terroriste de Moscou, est préférable à l'approche actuelle de Meta.

La décision du Conseil de surveillance

Le Conseil de surveillance confirme la décision de Meta dans les trois premiers cas. Le Conseil annule la décision de Meta dans le quatrième cas et demande que la publication soit restaurée et masquée par un écran d’avertissement « Contenu dérangeant ».

Le Conseil réitère sa recommandation exprimée dans la récente décision relative à l’enregistrement de l’attentat terroriste de Moscou déclarant que Meta devrait permettre les images tierces d’un événement désigné illustrant le moment des attaques sur des victimes visibles, mais pas personnellement identifiables, à des fins d’information, de sensibilisation ou de condamnation, avec un écran d’avertissement « Contenu dérangeant ».

* Les résumés de cas donnent un aperçu du cas et n’ont pas valeur de précédent.

Décision complète sur le cas

1. Description du cas et contexte

Le 30 mai 2024, quatre comptes différents ont effectué des publications relatives à l’assassinat de José Alfredo Cabrera Barrientos, candidat à la mairie de Coyuca de Benitez dans l’État mexicain de Guerrero. Il a été abattu et a perdu la vie la veille d’un rassemblement électoral. Les quatre éléments de contenu, un sur Facebook et trois sur Instagram, ont été publiés ou repartagés par des comptes de médias d’information basés en Amérique latine. Les publications comprennent des vidéos similaires montrant Cabrera Barrientos serrant la main d’électeurs avant qu’une arme ne soit dirigée vers lui. Des images floues ou floutées suivent le bruit de coups de feu multiples et de cris. Chaque publication est accompagnée d’une légende apportant des faits relatives à la fusillade.

Meta a désigné l’assassinat de Cabrera Barrientos comme un événement violent en infraction selon sa politique relative aux organisations et individus dangereux. Cela signifie entre autres que les utilisateurs ne sont pas autorisés à partager des images de tiers illustrant le moment de telles attaques désignées sur des victimes visibles. Les experts en la matière de Meta ont préalablement évalué une autre version de la vidéo en infraction et l’ont ajoutée à la banque de service de correspondance de médias (banque MMS) qui a été programmée pour retirer ce contenu.

La première publication a été partagée par une grande organisation de médias et comprend une légende indiquant que 23 candidats à des fonctions politiques ont été assassinés au cours des élections actuelles au Mexique. L’audio accompagnant l’enregistrement fournit plus de détails, y compris une déclaration du bureau du procureur de l’État expliquant que le tireur avait été abattu lors de l’évènement, et le fait que Cabrera Barrientos était sous protection au moment de sa mort. Cette publication a été vue environ 59 000 fois.

La deuxième publication, elle aussi partagée par une grande organisation de médias, comprend un avertissement ajouté par l’utilisateur indiquant que la vidéo est sensible. La légende mentionne une déclaration de la Gouverneure de Guerrero dans laquelle elle condamne l’assassinat et envoie ses condoléances à la famille. La vidéo a été vue plus d’un million de fois.

Ces deux publications ont été portées devant le Conseil par Meta. Après avoir été identifiées par une banque MMS programmée pour retirer automatiquement ce contenu, les publications ont été remontées aux experts en la matière de Meta pour un examen supplémentaire. Le Conseil a déjà décrit des systèmes où ce type de remontée peut avoir lieu (voir par exemple l’avis consultatif en matière de politique du programme de vérification croisée de Meta). Les experts en la matière ont déterminé que les publications enfreignaient la politique relative aux organisations et individus dangereux. Cependant, ils ont appliqué la marge de tolérance d’intérêt médiatique pour maintenir les publications sur la plateforme en raison de leur valeur pour l’intérêt public. Les publications sont donc restées sur la plateforme avec un écran d’avertissement « Contenu dérangeant » et l’étiquette « pertinent ».

Dans le troisième cas, un utilisateur a repartagé du contenu d’une organisation de médias différente sans rien ajouter. La vidéo repartagée capture les derniers moments du candidat avant son assassinat, y compris le moment où une arme est pointée sur lui. La légende fournit des informations sur l’assassinat sans contexte supplémentaire. Il y a un message en surimposition sur la vidéo qui est répété dans la légende et indique aux visionneurs qu’une vidéo « non censurée » est disponible sur Telegram. Elle a été vue environ 17 000 fois.

La quatrième publication a été partagée par une organisation de médias, avec une légende mentionnant que l’un des attaquants avait été abattu sur les lieux et que trois personnes avaient été blessées en plus du candidat. Elle a été vue environ 11 000 fois. Ces publications ont été retirées après avoir été identifiées par une banque MMS. Les deux utilisateurs ont fait appel auprès du Conseil.

Le Conseil fait remarquer le contexte suivant en parvenant à sa décision.

José Alfredo Cabrera Barrientos était le candidat à la mairie de Coyuca de Benitez d’une coalition de partis politiques d’opposition PRI-PAN-PRD. L’assassinat a eu lieu le dernier jour de la campagne pour les élections nationales, le 2 juin 2024. À ce moment-là, Cabrera Barrientos faisait l’objet de mesures de protection spéciales, une équipe de sécurité ayant été mise en place. Les rapports, y compris la première et la quatrième publication dans ces cas, indiquent qu’un attaquant a été abattu lors de l’évènement. Au moins une autre personne suspectée d’avoir participé a été arrêtée et a ensuite été retrouvée morte pendant sa détention.

L’assassinat a eu lieu dans un contexte plus large de violence politique au Mexique. Au cours des élections de 2018, le crime organisé aurait été responsable d'environ la moitié des violences politiques, car « les politiciens ou les candidats politiques sont identifiés comme des rivaux lorsqu'ils ne coopèrent pas avec les groupes criminels, ce qui peut les transformer en cibles d'assassinat ou de menaces ».

Au cours des élections de 2021, les Nations Unies et les experts régionaux des droits humains ont signalé 250 meurtres politiques au cours de la pré-campagne et de la campagne électorale au Mexique. Ces experts ont également dénombré « au moins 782 attaques à motivations politiques, des menaces de mort à la tentative de meurtre, contre des personnalités politiques ».

Cette violence a un effet dissuasif sur les candidats. Selon les experts en droits humains des Nations Unies, « de nombreux candidats se sont retirés parce qu’ils craignaient pour leurs vies » pendant les élections de 2021. Les experts internationaux et régionaux ont également souligné l’impact que cela a sur « le droit des citoyens à élire le candidat de leur choix ». Lors des élections les plus récentes de 2024, plus de 8 000 candidats se sont retirés, ce qui représente une augmentation par rapport aux élections précédentes. Le contexte de violence politique a été signalé comme facteur contributif. La Commission Interaméricaine sur les droits humains (IACHR) a également condamné les violences envers les candidats : « Depuis l’année dernière, [elle] a observé avec inquiétude une série d'actes de violence, y compris des meurtres, des menaces et des enlèvements contre des pré-candidats, des candidats et des dirigeants ou militants de différents mouvements ou affiliations politiques ». Selon l'IACHR, au moins 15 pré-candidats ou candidats ont été assassinés entre mars 2024 et le 24 mai 2024, ainsi que neuf autres personnes qui avaient exprimé leur volonté de se présenter ou qui constituaient des candidats officieux.

Selon le Comité de protection des journalistes (CPJ) et l’Initiative globale contre le crime organisé transnational, le Mexique est l’un des pays les plus dangereux au monde pour les journalistes. Selon leRapport 2024 de Freedom’s House sur le Mexique : » Les gangs ont proféré des menaces et exercé des violences à l'encontre des blogueurs et des journalistes en ligne qui parlent du crime organisé. L'autocensure s'est accrue, et de nombreux journaux des régions violentes évitent de publier des articles relatifs au crime organisé ». Les journalistes qui ont essayé de parler des liens entre les représentants du gouvernement et les gangs criminels ont été assassinés, ce qui a causé l’instauration d’un climat de peur et de la loi du silence.

Selon les rapports, les gangs criminels du Mexique sont « actifs sur Facebook… [et utilisent la plateforme pour intimider] des groupes rivaux et des civils ». Cependant, les experts consultés par le Conseil indiquent que les groupes criminels du Mexique n’utilisent généralement pas les vidéos d’assassinats politiques en tant qu’outil de recrutement, bien qu’ils puissent partager des images violentes pour intimider les opposants, y compris les journalistes.

2. Soumissions de l’utilisateur

L’organisme de presse qui a publié la vidéo dans le deuxième cas, et dont Meta a maintenu la publication sur Instagram au titre du contenu pertinent, a envoyé une déclaration au Conseil. Celle-ci indique qu’il est important que les informations au sujet de l’assassinat soient partagées au vu du contexte électoral du Mexique. La publication comprenait des informations factuelles importantes relatives au contexte de l’assassinat et rapportait la déclaration effectuée par la Gouverneure de Guerrero. Les utilisateurs qui ont publié les contenus des troisième et quatrième cas ont fait appel des décisions de retrait de Meta auprès du Conseil. Dans leurs déclarations au Conseil, ils déclarent diffuser des informations importantes au sujet de la violence et du terrorisme. Tous deux expriment leur frustration quant au fait d’avoir été censurés.

3. Politiques de Meta relatives au contenu et soumissions

I. Politiques de Meta relatives au contenu

Standards de la communauté sur les Organisations et les individus dangereux

La justification de la politique sur les Organisations et les individus dangereux stipule qu’afin d’éviter et d’empêcher tout danger réel, les organisations ou individus qui revendiquent des objectifs violents ou qui sont impliqués dans des activités violentes ne sont pas les bienvenus sur les plateformes de Meta. Les Standards de la communauté n’autorisent pas les contenus qui glorifient, soutiennent ou représentent des évènements que Meta désigne comme des évènements violents en infraction, « y compris des attaques terroristes et des (tentatives de) tueries. » Meta interdit : (1) les glorifications, les soutiens et les représentations du ou des auteurs de telles attaques ; (2) le contenu généré par les auteurs de telles attaques ; ou (3) les images de tiers illustrant le moment de telles attaques sur des victimes visibles, » (mise en avant ajoutée).

D’après les règles internes que doivent respecter les examinateurs, Meta supprime les images dépeignant le moment des attaques sur des victimes visibles « quel que soit le contexte du partage ». Meta n’exige pas que la victime soit visible au moment de la violence, tant qu’il est clair que la violence est dirigée vers la victime, qui est visible à un moment de l’enregistrement.

Standards de la communauté en matière de contenu violent et explicite

La justification de la Politique relative au contenu violent et explicite énonce que l’entreprise comprend que les personnes « ont différentes sensibilités en ce qui concerne les contenus violents et explicites ». Meta retire dont les contenus les plus explicites, tout en permettant et en ajoutant un écran d’avertissement à d’autres contenus explicites. La politique autorise les « images (au format vidéo ou photo) représentant la mort violente d’une personne (notamment le moment ou les suites de son décès) ou une personne confrontée à un évènement potentiellement mortel » à condition qu’elle soit accompagnée d’un écran d’avertissement « contenu dérangeant ». L’écran d’avertissement limite la visibilité aux utilisateurs âgés de plus de 18 ans et ne recommande pas le contenu aux utilisateurs qui ne suivent pas le compte. La politique interdit de telles images lorsqu’elles montrent un démembrement, des entrailles visibles, des corps brûlés ou une gorge tranchée.

Marge de tolérance d’intérêt médiatique

Dans certaines circonstances, l’entreprise autorisera le contenu pouvant enfreindre ses politiques à rester sur la plateforme s’il est « pertinent et si le fait de le garder visible est dans l’intérêt du public » Pour évaluer la pertinence d’un contenu, « [Meta] évalue si le contenu présente une menace imminente pour la santé ou la sécurité publique, ou s’il exprime une opinion actuellement débattue dans le cadre d’un processus politique ». Selon Meta, l’analyse s’appuie sur les circonstances propres à chaque pays, la nature du discours et la structure politique du pays concerné. Meta peut également appliquer un écran d’avertissement au contenu maintenu dans le cadre de cette tolérance et empêcher les utilisateurs de moins de 18 ans de visualiser le contenu. Enfin, l’entreprise déclare : La tolérance d’intérêt médiatique peut être « restreinte », lorsqu’elle s’applique à un seul élément du contenu, ou « mise à l’échelle », lorsqu’elle s’applique plus largement à un élément (par exemple, une phrase). »

II. Soumissions de Meta

Meta a désigné l’assassinat de José Alfredo Cabrera Barrientos comme un événement violent en infraction selon sa politique relative aux organisations et individus dangereux, rapidement après l’attaque. Meta a déterminé que les quatre publications enfreignaient sa politique interdisant les « images de tiers illustrant le moment des attaques [désignées] sur des victimes visibles ».

L’entreprise a expliqué qu’elle retire généralement toutes les images désignées, quel que soit le contexte dans lequel elles sont partagées, pour deux raisons principales. La première raison est la sécurité. Selon l’entreprise, supprimer le contenu contribue à limiter les comportements d’imitation et éviter la diffusion de contenu qui renforce la visibilité du profil des auteurs et qui peut avoir une valeur de propagande pour ces derniers. La seconde raison est le respect de la vie privée et de la dignité des victimes et de leurs familles. L’entreprise a aussi pour but de « protéger la dignité de toute victime qui ne consent pas à être exposée à la curiosité du public et de l’attention des médias, ainsi que ses proches ».

Désigner certaines attaques permet à Meta de retirer rapidement le contenu selon la politique d’organisations et individus dangereux sur toutes ses plateformes en réponse aux événements clés.

Meta a déclaré appliquer une marge de tolérance d’intérêt médiatique pour des contenus qui enfreignent sa politique. Selon Meta, compte tenu des problèmes que sa politique vise à résoudre, ces autorisations ont généralement un champ d'application restreint et se limitent habituellement aux séquences partagées par des médias reconnus dans le cadre de reportages d'actualité.

Dans les deux premiers cas, l’entreprise a appliqué une marge de tolérance d’intérêt médiatique au vu de la « large portée nationale » des deux médias ayant publié le contenu, et du fait que l’enregistrement était mis en contexte par des légendes. L’entreprise a évalué que les publications avaient une forte valeur pour l’intérêt public au vu de l’aspect significatif de la violence et de l’insécurité associées aux élections du débat public. Meta n’a pas exclu tous les risques, en raison de la « proximité des élections, et en particulier ceux d’attaques d’imitation contre d’autres candidats dans des régions qui manquent de dispositifs de sécurité, ainsi que le risque potentiel d'atteinte à la dignité de la famille du candidat ». De plus, l’entreprise a pris en considération le fait que les médias avaient « pris des mesures éditoriales afin d’éviter de partager les images de manière sensationnaliste », et inclus des légendes contextualisant l’enregistrement dans le contexte plus large de la manière dont la violence et l’insécurité avaient touché les élections, et partagé des informations sur la réponse officielle des forces de l’ordre à l’incident ». La première publication ne comprend pas le moment exact du tir et la deuxième publication inclut son propre écran d’avertissement.

Quand Meta a octroyé une marge de tolérance d’intérêt médiatique « étroite » pour ces deux publications, l’entreprise a appliqué une étiquette (ou « traitement d’information pertinente ») pour faire savoir aux utilisateurs que les publications étaient autorisées à des fins de notoriété publique. Meta a également appliqué un écran d’avertissement « Contenu dérangeant » qui empêchait les utilisateurs de moins de 18 ans de voir le contenu. Tout utilisateur qui repartageait ces deux publications spécifiques bénéficiait également de la marge de tolérance. Aucune publication d’autres comptes n’a bénéficié de marge de tolérance d’intérêt médiatique en rapport avec l’enregistrement de l’assassinat.

Tous les autres contenus identifiés par la banque de service de correspondance de médias (banque MMS) comme étant un enregistrement en infraction de la fusillade de Cabrera Barrientos ont été immédiatement retirés des plateformes de Meta. Meta a configuré la banque MMS afin qu’elle retire le contenu sans appliquer de sanction « pour assurer que la mise en application soit proportionnelle étant donné la possibilité que les utilisateurs puissent partager l’enregistrement pour sensibiliser au sujet de l’attaque ou la condamner ».

Les troisième et quatrième publications ont donc été retirées par la banque MMS sans qu’aucune sanction ne soit appliquée aux comptes d’utilisateurs. Lorsque le Comité a porté ces deux messages à l'attention de Meta, l'entreprise a confirmé qu'ils ne méritaient pas de tolérance d'intérêt médiatique. La troisième et la quatrième publications n’ont pas été partagées par des « médias reconnus, et n’ont pas contextualisé la vidéo de la même manière » que la première et la seconde publications. Meta a pris note du fait que la troisième publication dirigeait les utilisateurs vers des « images non censurées » sur Telegram et que la quatrième publication insistait sur le fait que les images étaient devenues virales sur les réseaux sociaux. L’entreprise a jugé que cela sensationnalisait l’enregistrement.

Selon Meta, les décisions de l’entreprise de supprimer la troisième et la quatrième publication étaient conformes aux conditions de légalité, de légitimité, de nécessité et de proportionnalité. Tout d’abord, Meta a réitéré la nécessité de retirer en règle générale les images montrant le moment d’une attaque des événements désignés, étant donné les risques que le contenu puisse promouvoir des comportements d’imitation et servir les objectifs des auteurs de l'attaque. Supprimer le contenu sans appliquer de sanction à l’égard de ces utilisateurs était la manière la moins restrictive de traiter le risque de préjudice.

Le Conseil a posé des questions sur le nombre de tolérances d’intérêt médiatique appliquées par l’entreprise pour les images de l’assassinat, le statut des comptes et les trajectoires des utilisateurs afin de bénéficier de cette tolérance, sur le fait que Meta dispose ou non d’équipes spécialisées pour traiter les risques accrus en période électorale, et sur la manière dont ces équipes étaient préparées. Meta a répondu à toutes les questions.

4. Commentaires publics

Le Conseil de surveillance a reçu 10 commentaires publics qui répondent aux critères de soumission. Sept commentaires provenaient d’Amérique latine et des Caraïbes, deux des États-Unis et du Canada, et un d’Europe. Pour consulter les commentaires publics soumis accompagnés d’un consentement à la publication, cliquez ici.

Les soumissions couvraient les thèmes suivants : la violence électorale et politique pendant les élections générales de 2024 au Mexique ; l'impact de la violence politique sur les processus démocratiques ; comment Meta devrait modérer le contenu et ajuster sa politique sur le partage par des tiers d'images d'événements violents ; l'efficacité de la tolérance d'intérêt médiatique ; le rôle des réseaux sociaux dans l’apport d'informations sur les processus électoraux ; l'utilisation des réseaux sociaux par les organisations criminelles ; des informations générales sur les normes du Mexique pour la représentation de la violence politique dans les reportages, et l'importance de la liberté d'expression dans le contexte des élections au Mexique.

5. Analyse du Conseil de surveillance

Le Conseil a sélectionné ces cas pour traiter la manière dont la violence politique est représentée sur les plateformes de Meta ainsi que son impact éventuel sur les processus électoraux. Ces cas relèvent de la priorité stratégique du Conseil pour les élections et l’espace civique.

Le Conseil a analysé les décisions de Meta dans ces cas, en les comparant à ses politiques relatives au contenu, ses valeurs et ses responsabilités en matière de droits humains. Le Conseil a également évalué les implications de ces cas pour l’approche plus globale de Meta dans le cadre de la gouvernance du contenu.

5.1 Respect des politiques de Meta relatives au contenu

I.Règles relatives au contenu

Les quatre publications enfreignent l’interdiction de Meta des « images de tiers illustrant le moment des attaques [désignées] sur des victimes visibles. » Meta a désigné l’assassinat de José Alfredo Cabrera Barrientos immédiatement après l’évènement du 29 mai 2024. Les quatre publications incluent l’enregistrement montrant Cabrera Barrientos se déplaçant parmi la foule ainsi que le moment où l’arme est pointée sur lui et, immédiatement après, les bruits de coups de feu et les cris. Cette règle, en vertu du Standard de la communauté sur les organisations et individus dangereux, et expliquée plus en détail dans les directives internes de Meta, interdit ce type d’enregistrement quel que soit le contexte dans lequel il est partagé.

Meta a eu raison de maintenir les deux premières publications sur ses plateforme en tant que contenu médiatique pertinent, en appliquant un écran d’avertissement « Contenu perturbant » et une étiquette « pertinent ». Selon ses politiques, Meta aurait dû autoriser le maintien de la quatrième publication sur Instagram en raison de sa valeur d’intérêt public. Aucune différence matérielle entre ces publications ne justifiait la prise d’une décision différente. Après la sélection de ce cas par le Conseil et malgré la révision du contenu par des experts en la matière compétents pour déterminer la tolérance d’intérêt médiatique (ou d’autre mesures appliquées uniquement si le problème est remonté), Meta n’a pas corrigé son traitement différencié. Cela va à l’encontre du principe de juste traitement des utilisateurs.

Le contenu de ces trois publications montre une fusillade lors d’un événement de campagne pour des élections dans le contexte desquelles la violence politique était un thème important. La première, la deuxième et la quatrième publications fournissaient des informations au sujet de la fusillade, y compris le nombre de morts et les déclarations effectuées par la Gouverneure. Le Conseil, contrairement à Meta, n’estime pas que la quatrième publication sensationnalise l’enregistrement en informant les utilisateurs qu’il est devenu viral sur les réseaux sociaux. Plutôt que sensationnaliser, cela souligne l’importance de la publication pour le public. Les informations sont incluses avec d’autres détails pertinents sur le nombre de morts, y compris le fait que le tireur ait été abattu lors de l’événement, et la déclaration effectuée par la Gouverneure de Guerrero.

Lorsque les journalistes limitent leur couverture d’événements clés, comme l’assassinat d’une personnalité politique, l’accès public à des informations critiques est limité. Au vu des risques significatifs auxquels les médias et les journalistes font face au Mexique, il est vital d’assurer l’accessibilité de ce type d’informations sur les plateformes en ligne, surtout en période électorale. Par conséquent, le Conseil considère que les menaces envers les journalistes et l’auto-censure qui en résulte sont un contexte dont il faut tenir compte pour l’analyse de pertinence.

De plus, bien que la victime soit totalement visible et identifiable dans l’enregistrement, le fait qu’il s’agissait d’une personnalité publique diminue les problèmes de confidentialité dans ce cas. Elle participait à un rassemblement électoral public dans le cadre d’une campagne, et n’est pas représentée de manière humiliante ou dégradante. Dans le cas de ces trois publications, la valeur d’intérêt public dépasse le risque de préjudice.

Pour la troisième publication, la majorité du Conseil est d’accord avec Meta pour affirmer que le contenu pose de plus grands risques et juge raisonnable la décision de Meta de ne pas appliquer de tolérance d’intérêt médiatique. Ce contenu comporte une vidéo de l’assassinat sans informations supplémentaires ni légende qui suggérerait une intention de signaler, de sensibiliser ou de condamner l’attaque.

Au contraire, le message surimposé sur la vidéo et répété dans la légende informe les visionneurs qu’une version « non censurée » de la vidéo est disponible sur Telegram et fournit un lien vers cette plateforme. La majorité du Conseil estime que la publication vise explicitement à contourner l’interdiction de partager des images de tiers illustrant le moment d’attaques sur des victimes visibles en dirigeant les utilisateurs vers des contenus en infraction sur une plateforme externe. Pour ces motifs, la majorité estime que Meta a eu raison de ne pas appliquer de tolérance d’intérêt médiatique dans ce cas. De plus, le Conseil a également vérifié dans ses recherches que le canal de Telegram associé présente des enregistrements extrêmement violents, y compris des images de décapitation et, dans le cas de cette affaire précise, des images explicites de l’assassinat du candidat.

Pour une minorité de membres du Conseil, la troisième publication, dans la mesure où elle est similaire aux autres, mérite également de bénéficier de la marge de tolérance d’intérêt médiatique. Étant donné que la décision de la majorité s'est basée sur le fait que cette publication comportait un lien hypertexte vers une autre plateforme, la minorité estime qu'un lien hypertexte, en soi, ne doit pas être considéré comme une « publication » du contenu auquel il se réfère.

Lorsque Meta a appliqué une tolérance d’intérêt médiatique pour les deux premières publications, l’entreprise a ajouté une étiquette « pertinent » pour informer les utilisateurs que les publications étaient autorisées pour la sensibilisation du public. Le Conseil avait préalablement recommandé à Meta de prévenir les utilisateurs lorsqu’un contenu est maintenu en raison de la tolérance d’intérêt médiatique (voir la décision sur les Protestations en Colombie, recommandation nº 4, et la décision sur la Vidéo explicite du Soudan, recommandation nº 4). Le Conseil salue cette pratique car elle fournit un contexte utile permettant d’expliquer pourquoi un contenu en infraction de la politique peut être maintenu sur la plateforme.

5.2 Respect des responsabilités de Meta en matière de droits humains

Le Conseil estime que le maintien des deux premières publications avec un écran d’avertissement et une étiquette « pertinent » ainsi que le retrait de la troisième publication étaient conformes aux responsabilités en matière de droits humains de Meta. Cependant, le Conseil estime que le retrait de la quatrième publication n’était pas conforme aux responsabilités en matière de droits humains de Meta.

Liberté d’expression (article 19 du PIDCP)

Les pratiques de modération de contenu de Meta peuvent nuire au droit à la liberté d’expression. L’article 19, du Pacte international relatif aux droits civils et politiques (PIDCP) prévoit une protection plus large de ce droit, compte tenu de son importance pour le discours politique, et le Comité des droits de l’homme a remarqué qu’il protège également les formes d’expression susceptibles d’être considérées « particulièrement offensantes » (observation générale 34, paragraphes 11, 13 et 38). La protection de l’Article 19 est « particulièrement élevée » pour les « débats publics concernant des personnalités du domaine public et politique qui sont tenus dans une société démocratique » (observation générale n° 34, paragraphe 34).

Lorsque des restrictions de la liberté d’expression sont imposées par un État, elles doivent remplir des critères de légalité, d’objectif légitime, et de nécessité et de proportionnalité (article 19, paragraphe 3 du PIDCP). Ces exigences sont souvent reprises sous l’intitulé « test tripartite ». Le Conseil utilise ce cadre pour interpréter les engagements volontaires de Meta en matière de droits humains, à la fois pour les décisions relatives au contenu individuel en cours d’examen et l’approche plus large de Meta en matière de gouvernance du contenu. Comme l’a déclaré le Rapporteur spécial des Nations Unies sur la liberté d’expression et d’opinion, même si « les entreprises ne sont pas soumises aux mêmes devoirs que les gouvernements, leur influence est néanmoins telle qu’elle doit les inciter à se poser les mêmes questions qu’eux quant à la protection de la liberté d’expression de leurs utilisateurs » (A/74/486, paragraphe 41).

I. Légalité (clarté et accessibilité des règles)

Le principe de légalité prévoit que les règles qui limitent la liberté d’expression soient accessibles, claires et suffisamment précises pour permettre à un individu d’adapter son comportement en conséquence (observation générale n° 34, paragraphe 25). En outre, ces règles « ne peu[ven]t pas conférer aux personnes chargées de [leur] application un pouvoir illimité de décider de la restriction de la liberté d’expression » et doivent « énoncer des règles suffisamment précises pour permettre aux personnes chargées de leur application d’établir quelles formes d’expression sont légitimement restreintes et quelles formes d’expression le sont indûment » (observation générale n° 34, paragraphe 25). Le Rapporteur spécial des Nations Unies sur la liberté d’expression a déclaré que lorsqu’elles s’appliquent aux acteurs privés, les règles régissant le discours en ligne devaient être claires et précises (A/HRC/38/35, paragraphe 46). Les personnes qui utilisent les plateformes de Meta doivent pouvoir accéder aux règles et les comprendre, et les équipes d’examen de contenu doivent disposer de conseils clairs sur leur application.

Le Conseil a précédemment débattu et émis des recommandations sur la manière dont Meta pourrait mieux structurer ses règles relatives aux événements désignés dans sa décision sur l’Enregistrement de l’Attaque terroriste de Moscou. Cependant, le Conseil réitère que bien que Meta doive améliorer cette politique, sa règle interdisant les enregistrements tiers d’événements désignés sur des victimes visibles est suffisamment claire pour que les utilisateurs comprennent que les contenus de ce type sont interdits. L’enregistrement partagé dans ces publications dépeint une fusillade qui a ciblé le candidat et provoqué plusieurs victimes. La politique fournit un avertissement suffisamment clair aux utilisateurs sur le fait que ce type de contenu peut être désigné.

II. Objectif légitime

La politique de Meta relative aux Organisations et individus dangereux vise à « prévenir et arrêter les dommages dans le monde réel ». Dans le cadre de plusieurs décisions, le Conseil a estimé que cette politique contribuait à l’objectif légitime de protection des droits d’autrui, tels que le droit à la vie (PIDCP, article 6) et le droit à la non-discrimination et à l’égalité (PIDCP, articles 2 et 26), car elle traite des organisations qui encouragent la haine, la violence et la discrimination, ainsi que des évènements violents motivés par la haine. Voir les décisions suivantes : Référence à des personnes dangereuses désignées sous le terme « chahid »,Vidéo d’un prisonnier des Forces de soutien rapide au Soudan, Otages enlevés en Israël et campagne électorale 2023 en Grèce. Les politiques de Meta poursuivent également l’objectif légitime de protéger le droit à la vie privée (PIDCP, article 17) des victimes identifiables et de leurs familles (voir la décision sur la Vidéo après l’attaque d’une église au Nigeria).

III. Nécessité et proportionnalité

Conformément à l’article 19(3) du PIDCP, le principe de nécessité et de proportionnalité requiert que les restrictions de la liberté d’expression soient « appropriées pour remplir leur fonction de protection, elles doivent constituer le moyen le moins perturbateur parmi ceux qui pourraient permettre d’obtenir le résultat recherché et elles doivent être proportionnées à l’intérêt à protéger » (Observation générale n° 34, paragraphe 34).

Le Conseil reconnaît que Meta a péché par excès de sécurité et de protection de la vie privée lors de l'élaboration de la politique de désignation. Meta a expliqué que sa politique actuelle permet à l'entreprise de supprimer rapidement ces contenus par l'intermédiaire des banques MMS, ce qui contribue à interrompre la diffusion de propagande et à limiter les comportements d'imitation. Le retrait de ces contenus aide également à protéger la vie privée et la dignité des victimes et de leurs familles lorsque les victimes sont visibles. Comme le Conseil l’a fait remarquer récemment dans la décision sur l’Enregistrement de l’attaque terroriste de Moscou, une règle plus étroite pourrait mener à une application insuffisante des contenus dépeignant des événements violents. Cela pourrait également mener à la réutilisation des enregistrements à des fins préjudiciables que Meta pourrait avoir des difficultés à détecter et à supprimer. Dans certains contextes, les risques d’incitation à la réutilisation à d’autres fins de telles images justifient l’excès de sécurité.

Cependant, le Conseil a insisté dans sa décision relative à l’enregistrement de l’attaque terroriste de Moscou sur le fait que les images des attaques désignées pouvaient être utilisées dans différents objectifs. Tous les contenus dépeignant une attaque désignée ne servent pas à glorifier, soutenir ni représenter les activités des groupes criminels comme dans trois de ces cas. Ce type de contenu ne produit pas toujours les résultats que Meta cherche à prévenir. Les politiques qui privilégient l’application zélée, quel que soit le contexte, posent des risques pour la liberté d’expression, l’accès à l’information et la participation du public. Cette règle mène au retrait de contenu impliquant un risque de préjudice faible ou nul.

Meta dispose de différents outils de politique pour prévenir l’application excessive. Trois de ces outils sont particulièrement pertinents ici, bien qu’il en existe aussi d’autres. Tout d’abord, Meta peut supprimer le contenu sans appliquer de sanction ou d’autre pénalité qui pourraient limiter l’utilisateur. Ne pas attribuer de sanctions pour le contenu marqué par les banques MMS réduit les risques de limiter l’accès des utilisateurs par le biais d'une limitation des fonctionnalités ou d'une suspension de compte et constitue un outil important pour garantir une action proportionnelle.

Ensuite, Meta peut appliquer une tolérance d’intérêt médiatique pour autoriser du contenu désigné avec un potentiel limité de créer des risques pour la santé publique et la dignité des personnes représentées. Cependant, la tolérance d’intérêt médiatique doit être appliquée de manière efficace au contenu pertinent pour pouvoir avoir un effet de mitigation efficace sur l’application excessive. Dans des affaires précédentes et au vu de l’avis consultatif en matière de politique de vérifications croisées, le Conseil a identifié plusieurs obstacles à l’efficacité de cette tolérance (voir l’avis consultatif en matière de politique du programme de vérifications croisées de Meta, la vidéo des forces d'appui rapide du Soudan, la vidéo des prisonniers de guerre arméniens). La tolérance d’intérêt médiatique ne peut être appliquée qu’en cas de remontée du problème, et non par des modérateurs de même niveau. Dans la mesure où les modérateurs de même niveau de Meta ne sont pas instruits et n’ont pas les capacités d’identifier et de faire remonter des contenus qui pourraient bénéficier de la tolérance d’intérêt médiatique, les modes d’identification de contenu pouvant bénéficier de la tolérance d’intérêt médiatique sont limités pour Meta. Pour les médias, les journalistes et autres acteurs signalant des problèmes d’intérêt public non-inscrits au programmes de vérification croisée ou n’ayant pas accès aux équipes internes de Meta, il sera difficile d’accéder aux rôles de l’entreprise ayant le pouvoir d’envisager et d’octroyer la tolérance pour intérêt médiatique. En outre, la décision d'accorder la tolérance d'intérêt médiatique exige de prendre en considération de multiples facteurs pour concilier l'intérêt public et le préjudice potentiel, ce qui entraîne un manque de prévisibilité et accroît le risque d'application arbitraire, au détriment des utilisateurs.

Par conséquent, la marge de tolérance n’est que rarement utilisée (voir la décision au sujet de la vidéo explicite du Soudan). Meta a signalé 32 tolérances entre le 1er juin 2023 et le 1er juin 2024. Dans ces cas, par exemple, les deux publications ont été identifiées et remontées bien que l’une ne porte pas atteinte au juste traitement des utilisateurs, malgré des similarités de contenu et de contexte.

Le Conseil estime que dans ces cas spécifiques, au vu du contexte au Mexique, il n’était ni nécessaire, ni opportun de retirer la première, la deuxième et la quatrième publication.

La première, la deuxième et la quatrième publication ne contiennent pas d’éléments suggérant des risques de recrutement ou d’incitation à des comportements d’imitation. Les experts consultés par le Conseil ont déclaré que les groupes criminels du Mexique n'utilisent généralement pas les vidéos d'assassinats politiques à des fins de recrutement, mais peuvent les partager à des fins d'intimidation. Le Conseil n’a pas trouvé de preuves que l’enregistrement dans ces affaires avait été réalisé par l'auteur de l'acte, ni que le tireur ou les groupes criminels ont partagé ces publications spécifiques pour inspirer un comportement d'imitation, diffuser la propagande de l'auteur ou glorifier leurs actes violents.

Au contraire, ces trois publications ont été partagées par des médias rapportant un assassinat politique lors d’un événement de campagne, quelques jours avant les élections. Le retrait de reportages sur des problèmes qui font l’objet de débats et sont surveillés par le public, comme la violence et la réponse de l’État, limite l’accès à des informations essentielles et entrave la liberté d’expression, en ne fournissant que des bénéfices marginaux de sécurité. Dans sa décision relative à l’Enregistrement de l’attaque terroriste de Moscou, le Conseil a noté que les images d’attaques suscitent souvent des réactions plus fortes que les descriptions abstraites. Les images humanisent les victimes et suscitent l'indignation morale, la sympathie, la prise de conscience de la violence ; elles encouragent la responsabilisation. Au vu des risques importants que les journalistes et les médias courent au Mexique lorsqu’ils mentionnent la corruption de l’État et le crime organisé, il est particulièrement inquiétant de limiter leur accès aux réseaux sociaux. De plus, étant donné que la victime était une personnalité publique participant à des actes publics et n’était pas dépeinte de manière humiliante ou dégradante, les intérêts de protection de la vie privée sont plus limités.

Dans les trois cas, l’application d’un écran d’avertissement « Contenu dérangeant » selon le Standard de la communauté de Meta relatif au contenu violent et explicite était un moyen moins restrictif de protéger les droits de sécurité et de confidentialité. L’application d’un écran d’avertissement par Meta a plusieurs conséquences. Tous les utilisateurs doivent cliquer sur un écran pour voir le contenu, et ce dernier n’est pas disponible pour les utilisateurs de moins de 18 ans. En outre, le contenu est alors retiré des recommandations aux utilisateurs qui ne suivent pas le compte (voir les décisions sur l’hôpital Al-Shifa et les otages kidnappés en Israël). Ces mesures veillent à ce que les utilisateurs enfants ne soient pas exposés au contenu et elles limitent l’affichage de ce contenu aux utilisateurs qui l’ont cherché.

En ce qui concerne la troisième publication, la majorité du Conseil considère que le contenu présente de plus grands risques de sécurité et de confidentialité. Dans cette publication, l’utilisateur a repartagé le contenu d’un compte de média qui incluait un message dirigeant les visionneurs vers une vidéo « non censurée » sur Telegram. La majorité pense, comme Meta, que le retrait de la publication est nécessaire et pertinent pour protéger la sécurité. En partageant la publication avec un lien vers des images explicites de la mort d’un individu sans légende ni commentaire supplémentaire, l’utilisateur n’a pas indiqué que son but était d’informer les autres ou de condamner la violence. En l’absence de telles indications et avec un lien vers un enregistrement non censuré, la publication suggère clairement que l’utilisateur cherchait à contourner les Standards de la communauté de Meta en ce qui concerne les organisations et individus dangereux. Une minorité de membres du Conseil ne partage pas cet avis et pense que le retrait de la troisième publication n’était ni nécessaire, ni pertinent.

En ce qui concerne la raisonnabilité de la réaction de Meta, le Conseil se félicite du fait que l'entreprise n'ait pas appliqué de sanctions à l'encontre des utilisateurs qui ont publié les deux contenus retirés et qu'elle ait déterminé que, dans certaines circonstances, il n'est pas nécessaire d'appliquer une pénalisation supplémentaire sous forme de sanction. Le Conseil souligne l’intérêt de séparer les mesures de mise en application de Meta sur le contenu des sanctions prises à l’encontre des utilisateurs. Il reconnaît également que le fait de ne pas appliquer de sanction constitue un outil important pour assurer une réponse raisonnable (voir la décision sur la vidéo de maquillage iranienne pour un mariage d'enfant), dans la mesure où l'exigence de raisonnabilité prend en compte l'imposition de la restriction non seulement dans l’intérêt d'autres personnes, y compris les auditeurs, mais aussi dans l’intérêt de l'orateur (Rapporteur spécial des Nations Unies sur la liberté d'expression, Communication du Rapporteur spécial n° USA 6/2017, page 3).

Le Conseil a analysé ces cas en accord avec la marge de tolérance d’intérêt médiatique, car celle-ci reflète l’approche de la politique actuelle de Meta pour ces publications. Cependant, comme mentionné précédemment, la marge de tolérance d’intérêt médiatique a de nombreuses limitations d’accessibilité et de prédictibilité. Les commentaires du public ont mis en évidence des préoccupations similaires, ainsi que la crainte que les utilisateurs ne s'autocensurent pour éviter des pénalités appliquées à leur compte (PC-30727 Digital Speech Lab). Pour ces raisons, le Conseil considère que la tolérance d’intérêt médiatique n’est pas l’approche la plus efficace ou la moins restrictive disponible pour Meta.

Le Conseil a récemment souligné ces mêmes préoccupations au sujet de l’interdiction des images de tiers illustrant le moment d’attaques désignées sur des victimes visibles dans la décision sur l’Attaque terroriste de Moscou. Cette décision a conclu que la manière la plus efficace de protéger la liberté d’expression tout en limitant les préjudices et le risque de comportement d’imitation serait d’établir une exception dans la politique. Cette exception permettrait de diffuser des images de tiers d'un événement désigné illustrant le moment d'attaques contre des victimes visibles lors que lesdites images sont partagées dans le cadre d'un reportage d'actualité, d'une condamnation ou d’une sensibilisation. Le contenu devrait avoir un écran d’avertissement « Contenu dérangeant ». Meta évalue actuellement cette recommandation.

Le Conseil réitère que l’approche proposée serait plus respectueuse des droits. Pour répondre aux préoccupations de sécurité de Meta, l’entreprise pourrait également exiger aux utilisateurs publiant du contenu d’actualité, de condamnation ou de sensibilisation d’exprimer clairement leur objectif, comme c’est le cas conformément à la politique relative aux organisations et aux individus dangereux. Le Conseil remarque que Meta définit la sensibilisation dans ses directives comme « le partage, la discussion ou la communication d’informations ... dans le but d’améliorer la compréhension d’un problème ou la connaissance d’un sujet qui a une valeur d’intérêt public. La sensibilisation… ne devrait pas avoir pour but d’inciter à la violence, aux discours de haine ou à la diffusion de fausses informations » (voir les décisions sur le Rapport sur le discours au Parlement du Pakistan et la Violence communautaire dans l’État indien d’Odisha). L’entreprise pourrait continuer à retirer les contenus douteux ou ambigus au titre des préoccupations de sécurité. Meta pourrait également choisir d’appliquer l’exception uniquement en cas de remontée, si des protocoles clairs d’identification du contenu sont fournis. Bien que le Conseil émette régulièrement des réserves quant à l'efficacité des politiques fondées uniquement sur la remontée (voir les décisions relatives à la vidéo des captifs des forces de soutien rapide du Soudan et à la vidéo explicite du Soudan), il estime qu'une exception clairement formulée et spécifique à la politique appliquée à la remontée est préférable à l'application de la marge de tolérance d'intérêt médiatique (voir la décision relative à la vidéo sur les prisonniers de guerre arméniens).

Selon le cadre proposé par la décision relative à l'enregistrement de l'attaque terroriste de Moscou, le même résultat serait atteint ici sans qu'il soit nécessaire d'appliquer la marge de tolérance d'intérêt médiatique. La première, la deuxième et la quatrième publication resteraient sur la plateforme au titre de reportages d’actualité. Étant donné que l’objectif de la troisième publication n’était pas d’informer, de sensibiliser ni de condamner, la troisième publication devrait être supprimée. Alors que la décision relative à l’enregistrement de l’attaque terroriste de Moscou portait sur un enregistrement tiers avec des victimes visibles, mais non personnellement identifiables, la victime est identifiable dans ce cas. Cependant, étant donné qu’il s’agit d’une personnalité publique lors d’un événement public et qu’elle n’est pas dépeinte de manière humiliante ni dégradante, les préoccupations relatives à la vie privée sont amoindries de manière similaire et le contenu devrait bénéficier de l’exception recommandée.

En limitant le recours à la tolérance d'intérêt médiatique rarement accordée et imprévisible, une exception politique claire pour les reportages, les condamnations et la sensibilisation aiderait Meta à traiter les utilisateurs de manière équitable.

6. La décision du Conseil de surveillance

Le Conseil de surveillance confirme les décisions de Meta de conserver la première et la deuxième publication et de retirer la troisième publication.

Le Conseil de surveillance annule la décision de Meta visant à supprimer la quatrième publication et demande qu’elle soit restaurée et masquée par un écran d’avertissement « contenu dérangeant ».

7. Recommandations

Politique de contenu

Le Conseil de surveillance réitère sa recommandation préalable, exprimée dans la sa décision relative à l’Enregistrement de l’attaque terroriste de Moscou :

Meta devrait permettre les images tierces d’un événement désigné illustrant le moment des attaques sur des victimes visibles, mais pas personnellement identifiables, quand elles sont partagées dans des contextes d’information, de sensibilisation ou de condamnation, avec un écran d’avertissement « Contenu dérangeant » (décision relative à l’Enregistrement de l’attaque terroriste de Moscou, recommandation nº 1).

*Note de procédure :

  • Les décisions du Conseil de surveillance sont prises par des panels de cinq membres et approuvées par une majorité du Conseil dans son ensemble. Les décisions du Conseil ne représentent pas nécessairement les opinions de tous les membres.
  • En vertu de sa Charte, le Conseil de surveillance est habilité à examiner les appels déposés par les utilisateurs dont le contenu a été supprimé par Meta, les appels déposés par les utilisateurs ayant signalé un contenu que Meta n’a finalement pas supprimé, et les décisions que Meta lui transmet (article 2, section 1 de la Charte). Le Conseil dispose d’une autorité contraignante pour confirmer ou annuler les décisions de Meta relatives au contenu (article 3, section 5 de la Charte ; article 4 de la Charte). Le Conseil est habilité à émettre des recommandations non contraignantes auxquelles Meta doit répondre (article 3, section 4 de la Charte ; Article 4). Lorsque Meta s’engage à donner suite aux recommandations, le Conseil surveille leur mise en œuvre.
  • Pour la décision sur ce cas, des recherches indépendantes ont été commandées au nom du Conseil. Le Conseil a bénéficié de l’aide de Duco Advisors, une société de conseil spécialisée dans la géopolitique, la confiance et la sécurité, ainsi que la technologie.

Retour aux décisions de cas et aux avis consultatifs politiques