Renversé

Vidéo d’un poste de police haïtien

Le Conseil de surveillance a annulé la décision de Meta de supprimer une vidéo où l’on voit des personnes faire irruption dans un poste de police en Haïti afin de pénétrer dans la cellule d’un membre de gang présumé et proférer des menaces à son encontre.

Type de décision

Standard

Politiques et sujets

Sujet
Liberté d’expression, Sécurité, Violence
Norme communautaire
Violence et incitation

Régions/Pays

Emplacement
Haïti

Plate-forme

Plate-forme
Facebook

Pour consulter cette décision en créole haïtien, veuillez cliquer ici.

Pou li desizyon sa an Kreyòl Ayisyen, klike isit la.

Résumé

Le Conseil de surveillance a annulé la décision de Meta de supprimer une vidéo publiée sur Facebook où l’on voit des personnes faire irruption dans un poste de police en Haïti afin de pénétrer dans la cellule d’un membre de gang présumé et proférer des menaces à son encontre. Le Conseil considère que la vidéo n’a pas enfreint la politique de l’entreprise sur la violence et l’incitation. Toutefois, la majorité du Conseil ne partage pas l’avis de Meta dans son évaluation pour savoir s’il convient d’appliquer une tolérance d’intérêt médiatique dans le cas présent. Pour la majorité, Meta ayant tardé pendant près de trois semaines à supprimer le contenu, le risque de préjudice hors ligne avait suffisamment diminué pour qu’une tolérance d’intérêt médiatique soit appliquée. Le Conseil recommande par ailleurs à Meta d’évaluer l’efficacité et la rapidité de ses réponses face au contenu remonté par le biais du programme de partenaires de confiance.

À propos du cas

En mai 2023, un utilisateur de Facebook a publié une vidéo montrant des personnes habillées en civils faire irruption dans un poste de police pour essayer de pénétrer dans la cellule d’un homme qui, selon Meta, est suspecté d’appartenir à un gang, et crier « we’re going to break the lock » (nous allons forcer la serrure) et « they’re already dead » (c’est un homme mort). À la fin de la vidéo, une personne hurle « bwa kale na boudaw », que Meta a interprété comme un appel au groupe présent « to take action against the person ‘‘bwa kale style’’ » (à traiter cette personne « à la manière bwa kale », c’est-à-dire à la lyncher). D’après Meta, « bwa kale » fait référence au mouvement civique haïtien dans le cadre duquel la population se fait justice elle-même. La vidéo est accompagnée d’une légende en créole haïtien affirmant « the police cannot do anything » (la police ne peut rien faire). La publication a été vue plus de 500 000 fois et la vidéo environ 200 000 fois.

Haïti est confronté à une insécurité sans précédent, avec des gangs qui ont pris le contrôle de certains territoires et terrorisent la population. La police étant incapable de résoudre cette violence et, dans certains cas, présumée complice, un mouvement a apparu et a entraîné le « lynchage de plus de 350 personnes par la population locale et des groupes d’autodéfense » sur une période de quatre mois cette année, selon le Haut-Commissaire des Nations Unies aux droits de l’homme. En signe de représailles, les gangs s’en sont pris aux personnes qu’ils soupçonnent d’appartenir à ce mouvement ou de le soutenir.

Un partenaire de confiance a signalé la vidéo à Meta comme étant potentiellement en infraction de sa politique 11 jours après sa publication, en l’avertissant que le contenu pourrait inciter à une violence accrue. Le programme de partenaires de confiance de Meta représente un réseau d’organisations non gouvernementales, d’agences humanitaires et d’équipes de recherche sur les droits humains de 113 pays. Meta a indiqué au Conseil que « plus le niveau de risque [de violence dans un pays] est élevé, plus l’établissement de relations avec les partenaires de confiance est primordial », qui peuvent signaler du contenu à l’entreprise. Environ huit jours après le signalement du partenaire de confiance dans ce cas, Meta a jugé que la vidéo comportait à la fois une déclaration d’intention de commettre des violences et un appel à se livrer à une violence de haute gravité, et a fini par supprimer le contenu de Facebook. Meta a évoqué ce cas auprès du Conseil afin de résoudre les questions de modération complexes que soulève le contenu lié au mouvement « Bwa Kale » en Haïti. Elle n’a pas appliqué la tolérance d’intérêt médiatique, car elle a estimé que le risque de préjudice était élevé et l’emportait sur la valeur d’intérêt public de la publication, en faisant remarquer le cycle sans fin de représailles violentes et de meurtres en Haïti.

Principales observations

Le Conseil observe que le contenu n’a pas enfreint le Standard de la communauté de Facebook en matière de violence et d’incitation, car une menace crédible de préjudice hors ligne est exprimée à l’encontre de la personne détenue ainsi que des autres personnes. La majorité du Conseil ne partage cependant pas l’avis de Meta concernant l’application de la tolérance d’intérêt médiatique dans le cas présent. Compte tenu du retard de près de trois semaines entre la publication et la mise en application, Meta aurait dû appliquer la tolérance d’intérêt médiatique afin de conserver le contenu, le Conseil ayant conclu que le risque de préjudice et l’intérêt public induits lors d’une analyse d’intérêt médiatique devraient être évalués au moment où Meta envisage d’appliquer une tolérance, plutôt que lorsque le contenu est publié. Le Conseil estime que Meta devrait mettre à jour ses énoncés sur la tolérance d’intérêt médiatique afin que les utilisateurs la comprennent mieux.

Pour la majorité des membres du Conseil, Meta ayant tardé pendant près de trois semaines à supprimer le contenu, le risque de préjudice hors ligne avait suffisamment diminué pour qu’une tolérance d’intérêt médiatique soit appliquée. Ce groupe a pris en considération le contexte en Haïti, l’étendue et la portée de la publication, ainsi que la probabilité que des préjudices soient causés en raison du retard de la mise en application. Au moment où la vidéo avait déjà été vue 200 000 fois, les risques induits par le contenu se seraient probablement déjà concrétisés. Par ailleurs, face à une situation de violence généralisée continue et de troubles à l’ordre public, le partage d’informations devient encore plus important pour que les communautés puissent réagir aux évènements, cette vidéo permettant en effet d’informer les utilisateurs en Haïti et à l’étranger sur ce qu’il se passe réellement dans le pays.

Cependant, une minorité des membres du Conseil estime que Meta a fait preuve de bon sens en n’appliquant pas la tolérance. Compte tenu de la situation de risques accrus au moment de la publication de la vidéo, la probabilité qu’elle entraîne de nouveaux actes de représailles était toujours d’actualité lorsque Meta a examiné le contenu. Les membres de cette minorité estiment que la suppression est nécessaire en vue d’endiguer ces risques.

Le Conseil émet des inquiétudes quant à la capacité de Meta à modérer le contenu en Haïti en temps opportun en cette période de risques accrus. Le retard constaté dans ce cas semble attribuable à l’absence d’investissements de l’entreprise dans des ressources adaptées pour modérer le contenu en Haïti. Meta n’a pas été en mesure de mener une évaluation en temps opportun du signalement émis par son partenaire de confiance. Les signalements des partenaires de confiance constituent l’un des outils que Meta utilise en Haïti afin d’identifier des contenus potentiellement en infraction. D’après les conclusions du récent signalement d’un partenaire de confiance, Meta n’attribue pas de ressources suffisantes à ses équipes d’examen des contenus identifiés par les partenaires de confiance et les délais de réponse font l’objet d’irrégularités flagrantes.

Enfin, le Conseil remarque que Meta n’a pas appliqué son Protocole de politique de crise en Haïti. Bien que Meta lui ait indiqué qu’elle appliquait déjà des mesures d’atténuation des risques, le Conseil craint que le long retard dans le cas présent ne démontre l’inadaptation des mesures actuelles. Si l’entreprise ne parvient pas à adopter ce protocole dans ce type de situations, sa modération de contenu ne sera pas opportune et ne reposera sur aucun principe, ce qui nuira à la capacité de l’entreprise et du public à évaluer l’efficacité du protocole dans l’atteinte de ses objectifs.

Décision du Conseil de surveillance

Le Conseil de surveillance a annulé la décision de Meta visant à supprimer ce contenu et demande que la publication soit restaurée.

Le Conseil recommande à Meta ce qui suit :

  • Évaluer la rapidité et l’efficacité de ses réponses lorsqu’un contenu fait l’objet d’une remontée dans le cadre du programme de partenaires de confiance, afin de traiter les risques de préjudice, notamment dans des situations où Meta ne dispose d’aucun outil, processus ni mesure de modération proactifs, ou que ceux-ci sont limités, pour identifier et évaluer un contenu.
  • Le Conseil en profite également pour rappeler à Meta une précédente recommandation, émise pour le cas du Poème russe, qui appelle l’entreprise à rendre publique une exception de sa politique sur la violence et l’incitation. Ladite exception autorise le contenu qui « condamne ou sensibilise à la violence ». Meta demande cependant à l’utilisateur de préciser s’il publie le contenu pour l’une ou l’autre de ces raisons. *Les résumés de cas fournissent une présentation du cas et n’ont pas valeur de précédent.

Décision complète sur le cas

1 : Résumé de la décision

Le Conseil de surveillance annule la décision de Meta de supprimer une vidéo publiée sur Facebook où l’on voit un groupe de personnes faire irruption dans un poste de police en Haïti. À mesure qu’elle tente d’accéder à la cellule fermée à clé d’un membre de gang présumé, la foule crie « we’re going to break the lock » (nous allons forcer la serrure) et « they’re already dead » (c’est un homme mort), ainsi que d’autres propos menaçants. D’après le Conseil, la publication a enfreint la politique de Meta sur la violence et l’incitation, car elle incite à la violence dans un contexte où une menace crédible de préjudice hors ligne est exprimée à l’encontre de la personne détenue ainsi que des autres personnes. La majorité du Conseil ne partage toutefois pas l’avis de Meta dans son évaluation pour savoir s’il convient d’appliquer une tolérance d’intérêt médiatique dans le cas présent. Selon elle, Meta ayant tardé pendant près de trois semaines à supprimer le contenu, le risque de préjudice avait drastiquement diminué, et Meta aurait dû le conserver sur la plateforme en raison de la valeur d’intérêt public qu’il revêt. Pour une minorité du Conseil, Meta a eu raison de ne pas appliquer la tolérance d’intérêt médiatique dans le cas présent. Le risque que la vidéo entraîne de nouveaux actes de représailles était toujours d’actualité lorsque l’entreprise l’a examinée, compte tenu du contexte global de violence généralisée et continue perpétrée par les gangs et les groupes d’« autodéfense » en Haïti. Le Conseil est d’avis que, pour observer ses responsabilités en matière de droits humains, Meta doit garantir l’efficacité et la rapidité de sa modération de contenu en Haïti en cette période de risques accrus. Il recommande à Meta d’évaluer la rapidité et l’efficacité de ses réponses lorsqu’un contenu fait l’objet d’une remontée dans le cadre du programme de partenaires de confiance, notamment sa capacité à apporter des réponses opportunes aux remontées et à définir les mesures correctives à adopter pour améliorer les délais de réponse en cas de remontée d’un partenaire de confiance.

2: Description du cas et contexte

En mai 2023, un utilisateur a publié une vidéo accompagnée d’une légende en créole haïtien sur Facebook. La vidéo montre un grand groupe de personnes habillées en civils pénétrer dans un poste de police et s’approcher d’une cellule fermée à clé dans laquelle un homme est détenu. Meta indique que l’homme détenu est suspecté d’être un membre du « gang 5 secondes », un célèbre gang armé en Haïti. La vidéo montre également un individu de ce groupe tentant de forcer la serrure de la cellule. D’autres personnes expriment leurs encouragements, notamment « we’re going to break the lock » (nous allons forcer la serrure) et « they’re already dead » (c’est un homme mort). Vers la fin de la vidéo, quelqu’un crie « bwa kale na boudaw ». Selon Meta lors de sa présentation du cas auprès du Conseil, cette expression interprétée littéralement signifie « wooden stick up your ass » (tu vas tâter du bâton), ce qui dans ce contexte évoquait un appel au groupe « to take action against the person ‘‘bwa kale style’’ » (à traiter cette personne « à la manière bwa kale », c’est-à-dire à la lyncher). Meta a déduit que cette utilisation du terme « bwa kale » faisait référence au mouvement civil du même nom, qui organise des actes d’autodéfense contre les membres de gangs présumés.

La vidéo est accompagnée d’une légende décrivant ce qui se passe et indiquant que la « police cannot do anything, things are going to get weird » (la police ne peut rien faire, les choses vont mal tourner). D’après les linguistes experts que le Conseil a consultés, la légende témoigne d’une perte de confiance envers la police et d’une sombre perspective sur ce qui pourrait se passer ensuite. La publication a été vue plus de 500 000 fois et la vidéo environ 200 000 fois.

Un partenaire de confiance a signalé la vidéo à Meta comme étant potentiellement en infraction de sa politique 11 jours après sa publication sur Facebook, en l’avertissant que le contenu pourrait inciter à une violence accrue. Après évaluation du contenu, Meta l’a supprimé de Facebook pour infraction à son Standard de la communauté relatif à la violence et l’incitation. Le programme de partenaires de confiance de Meta est un réseau d’organisations non gouvernementales, d’agences humanitaires, d’activistes et d’équipes de recherche de 113 pays du monde entier. Meta a indiqué au Conseil que « plus le niveau de risque [de violence dans un pays] est élevé, plus l’établissement de relations avec les partenaires de confiance est primordial ». Les partenaires de confiance peuvent signaler du contenu à Meta et lui fournir des retours sur ses politiques relatives au contenu et sur leur mise en application. Environ huit jours après le signalement du partenaire de confiance dans ce cas, Meta a jugé que la vidéo comportait à la fois une déclaration d’intention de commettre des violences et un appel à se livrer à une violence de haute gravité, et a fini par supprimer le contenu.

Le contexte suivant est pertinent pour la décision du Conseil. Haïti est confronté à une « insécurité sans précédent », avec des gangs qui ont pris le contrôle de certains territoires et terrorisent la population. La police n’est pas à même de résoudre la violence et, dans certains cas, serait complice. Le Représentant spécial des Nations Unies en Haïti a constaté qu’« au cours du premier trimestre de l’année, 1 647 crimes (homicides, viols, enlèvements et lynchages) ont été enregistrés », soit plus du double qu’à la même période en 2022. Cette montée de la violence survient dans un contexte de crise politique et humanitaire. Haïti n’a pas élu de gouvernement depuis l’assassinat du président Jovenel Moïse en 2021 et a été confronté à une épidémie de choléra toujours en cours et à des catastrophes naturelles. En mars 2023, Médecins Sans Frontières (MSF) a expliqué avoir dû fermer l’un de ses hôpitaux en raison des graves violences commises dans la capitale du pays. Le Premier ministre par intérim Ariel Henry a appelé à maintes reprises la communauté internationale à envoyer des forces internationales afin de reprendre le pouvoir aux mains des gangs, expliquant qu’il s’agit là d’une première étape indispensable pour « créer un environnement propice pour que l’État fonctionne de nouveau ».

Un mouvement civique appelé « Bwa Kale » a apparu en réponse à la montée de la violence et à l’incapacité du gouvernement et de la police à protéger la population. Un évènement ayant fait couler beaucoup d’encre, survenu le 24 avril 2023, a marqué un tournant pour le mouvement. Lors de l’arrestation policière d’un bus transportant 14 hommes armés, présumés partis rejoindre un gang allié dans un district proche, un rassemblement s’est opéré sur les lieux. La foule a jeté des pierres sur des membres de gangs présumés et les a brûlés vifs, tandis que les agents de police se sont tenus à l’écart, certains ayant même été vus apporter leur aide. Des enregistrements de cet évènement ont largement circulé sur les réseaux sociaux. D’après un rapport du Réseau national de défense des droits humains en Haïti, suite à la diffusion de ces enregistrements sur les réseaux sociaux, d’autres groupes « en possession d’armes à feu, de machettes et de pneus ont commencé à chercher les bandits armés, leurs proches, ou toute personne suspectée d’avoir des liens avec eux, afin de les lyncher ». Le Haut-Commissaire des Nations Unies aux droits de l’homme a indiqué que, entre le 24 avril et la mi-août, « plus de 350 personnes ont été lynchées par la population locale et les groupes d’autodéfense ». En signe de représailles, les gangs s’en sont pris aux personnes qu’ils soupçonnent d’appartenir à ce mouvement ou de le soutenir.

Le 2 octobre 2023, le Conseil de sécurité des Nations Unies a autorisé la mise en place d’une mission de sécurité internationale en Haïti pendant un an. Les rapports indiquent qu’il faudra attendre des mois avant que ces forces soient déployées en Haïti.

3 : Champ d’application et autorité du Conseil de surveillance

Le Conseil est compétent pour examiner les décisions que Meta lui présente pour examen (article 2, section 1 de la Charte ; article 2, section 2.1.1 des Statuts).

Le Conseil peut confirmer ou annuler la décision de Meta (article 3, section 5 de la Charte), et ce, de manière contraignante pour l’entreprise (article 4 de la Charte). Meta doit également évaluer la possibilité d’appliquer sa décision à un contenu identique dans un contexte parallèle (article 4 de la Charte). Les décisions du Conseil peuvent inclure des recommandations non contraignantes auxquelles Meta doit répondre (article 3, section 4 de la Charte ; article 4 de la Charte). Lorsque Meta s’engage à donner suite aux recommandations, le Conseil surveille leur mise en œuvre.

4 : Sources d’autorité et conseils

Les standards suivants et les précédents ont éclairé l’analyse du Conseil dans ce cas :

I. Décisions du Conseil de surveillance

Les décisions antérieures les plus pertinentes du Conseil de surveillance comprennent les cas suivants :

II. Règles de Meta relatives au contenu

La politique de Meta en matière de violence et d’incitation « a pour but de prévenir le préjudice hors ligne potentiel qui peut être lié au contenu sur Facebook ». La justification de la Politique fait remarquer que tous les appels à la violence ne sont pas nécessairement à prendre au pied de la lettre ni susceptibles d’inciter à la violence. L’entreprise essaie donc de « tenir compte du langage et du contexte afin de distinguer les déclarations désinvoltes du contenu constituant une menace crédible contre la sécurité publique et des personnes ». Les règles énoncées dans la politique interdisent « les [d]éclarations d’intention de commettre une violence de haute gravité » et « les [a]ppels à la violence de haute gravité ». Meta définit la violence de haute gravité comme une menace susceptible d’entraîner la mort ou une issue probablement létale. Dans le cadre de sa justification de la Politique, Meta explique qu’elle « constat[e] des menaces aspirationnelles ou conditionnelles adressées contre les terroristes et d’autres acteurs violents (par exemple, « Les terroristes méritent d’être tués »), et les jug[e] peu crédibles, en l’absence de preuves spécifiques du contraire.

L’analyse du Conseil s’est également appuyée sur l’engagement de Meta en faveur de la liberté d’expression que l’entreprise qualifie de « primordiale », et sur sa valeur de sécurité. En expliquant son engagement envers la liberté d’expression, Meta indique que « dans certains cas, nous autorisons un contenu, qui irait par ailleurs à l’encontre de nos standards, et ce, s’il est pertinent et d’intérêt public. » Cette procédure s’appelle la tolérance d’intérêt médiatique. Il s’agit d’une exception de politique générale applicable à tous les Standards de la communauté. Pour éventuellement appliquer cette tolérance, Meta procède à un examen minutieux permettant d’évaluer l’intérêt public du contenu par rapport au risque de préjudice. Meta supprime le contenu « même si celui-ci est pertinent dans une certaine mesure, lorsque le fait de le laisser en ligne entraîne des risques de dommages physiques, émotionnels ou financiers, ou une menace directe pour la sécurité publique. »

III. Responsabilités de Meta en matière de droits humains

Les Principes directeurs relatifs aux entreprises et aux droits de l’homme des Nations Unies (PDNU), soutenus par le Conseil des droits de l’homme des Nations Unies en 2011, établissent un cadre de travail volontaire pour les responsabilités en matière de droits humains des entreprises privées. En 2021, Meta a annoncé l’entrée en vigueur de sa Politique relative aux droits humains au sein de l’entreprise, dans laquelle elle a réaffirmé son engagement à respecter les droits humains conformément aux PDNU.

En l’espèce, l’analyse du Conseil sur les responsabilités de Meta en matière de droits humains s’est appuyée sur les standards internationaux suivants :

· Les droits à la liberté d’opinion et d’expression : l’article 19 du Pacte international relatif aux droits civils et politiques (PIDCP), l’observation générale n° 34 du Comité des droits de l’homme, 2011 ; les rapports du Rapporteur spécial des Nations Unies sur la liberté d’opinion et d’expression : A/HRC/38/35 (2018) et A/74/486 (2019).

· Le droit à la vie : article 6 du PIDCP.

· L’interdiction des appels à la haine constituant une incitation à la discrimination, à l’hostilité ou à la violence : l’article 20, paragraphe 2 du PIDCP ; le Plan d’action de Rabat, le rapport du Haut-Commissaire des Nations Unies aux droits de l’homme : A/HRC/22/17/Add.4 (2013).

5 : Soumissions de l’utilisateur

À la suite du renvoi de Meta et de la décision du Conseil d’accepter le cas, l’utilisateur a reçu un message l’informant de l’examen du Conseil et lui donnant la possibilité de faire une déclaration au Conseil. L’utilisateur n’a pas émis de déclaration.

6 : Soumissions de Meta

Meta a estimé que la vidéo constituait à la fois une déclaration d’intention de commettre une violence de haute gravité et un appel à une violence de haute gravité contre l’homme détenu qui, selon Meta, est suspecté d’appartenir au « gang 5 secondes ». Le « gang 5 secondes » est un célèbre gang haïtien désigné sous ce nom en raison de « l’idée que ses membres peuvent tuer quelqu’un en 5 secondes ». L’un des membres du rassemblement affirme « We’re going to break the lock… They’re already dead » (Nous allons forcer la serrure… C’est un homme mort), ce que Meta a considéré être une déclaration d’intention de tuer l’homme en question. Elle a également interprété la phrase « bwa kale na boudaw » comme un appel à le tuer. Meta a fourni une analyse détaillée de la situation politique, sécuritaire et humanitaire en Haïti afin de contextualiser le risque de préjudice susceptible de découler de ce contenu. Elle a par ailleurs fait remarquer que la violence causée par les gangs était devenue endémique dans le pays ; les représentants du gouvernement ayant des difficultés à maintenir l’autorité et « les groupes d’auto-défense contribuant à la culture d’une violence punitive extrajudiciaire ».

Meta a tenu compte de deux exceptions spécifiques aux Standards de la communauté et de la tolérance d’intérêt médiatique lors de son analyse. Selon l’entreprise, elle autorisera le contenu qui enfreint la politique sur la violence et l’incitation s’il est « partagé à des fins de condamnation ou de sensibilisation à la violence. Il incombe à l’utilisateur de préciser que son intention vise l’une ou l’autre de ses fins ». Dans le cas présent, Meta n’a pas identifié d’intention claire de condamner la violence ou d’y sensibiliser l’opinion publique dans cette publication. D’après Meta, le partage de la vidéo sur une Page Facebook se décrivant elle-même comme une page d’actualité ne suffit pas pour observer cette exception.

Meta a également fait savoir qu’il peut lui arriver d’autoriser les appels à une violence de haute gravité si le contenu cible une personne ou une entité désignée en vertu de la politique de Meta relative aux organisations et personnes dangereuses (DOI). L’entreprise affirme appliquer cette exception uniquement si elle a confirmé que la cible est bien une personne ou une organisation dangereuse, ou l’un de ses membres. Meta a informé le Conseil avoir classé le « gang 5 secondes » dans la catégorie des organisations dangereuses. Elle n’a toutefois pas été en mesure de confirmer que l’homme détenu qui apparaît dans la vidéo est un membre du gang. Meta explique que si elle avait pu établir son appartenance, le contenu n’aurait pas constitué une infraction à l’interdiction des appels à l’action.

Enfin, après avoir réfléchi à l’application de la tolérance d’intérêt médiatique, Meta en a conclu que le risque de préjudice occasionné par la publication dépassait la valeur d’intérêt public. Elle a estimé que la vidéo pourrait contribuer à des violences contre le « gang 5 secondes » ou le mouvement Bwa Kale. Bien que le contenu comportât une certaine valeur en informant les autres utilisateurs sur les violents évènements en cours, d’après Meta, cette valeur était moins importante compte tenu de la portée généralisée du mouvement Bwa Kale.

Meta a examiné les critères du Plan d’action de Rabat des Nations Unies afin d’évaluer si la publication constitue une incitation à la violence et en a conclu que « le discours représentait une incitation à une violence imminente » car la menace était « spécifique et liée à de violents évènements en cours ».

En réponse aux questions du Conseil, Meta lui a fait savoir qu’elle n’a pas désigné la situation en Haïti comme une crise en vertu du Protocole de politique de crise (CPP) en raison des mesures d’atténuation qu’elle appliquait déjà lors du déploiement du protocole en août 2022.

Le Conseil a posé 18 questions par écrit à Meta. Les questions concernaient la capacité de Meta en matière de langage à appliquer ses Standards de la communauté en Haïti ; les processus d’examen des signalements émis par les partenaires de confiance et la façon dont le programme est lié aux autres systèmes que Meta emploie en situation de crise ; et comment Meta a utilisé le Protocole de politique de crise en Haïti, le cas échéant. Meta a répondu à toutes les questions.

7 : Commentaires publics

Le Conseil de surveillance a reçu neuf commentaires publics. Sept commentaires provenaient des États-Unis et du Canada, un de la zone Asie-Pacifique et Océanie, et un d’Europe.

Pour lire les commentaires publics envoyés dans ce cas-ci, veuillez cliquer ici.

8 : Analyse du Conseil de surveillance

Le Conseil a examiné si ce contenu devait être supprimé en analysant les politiques de contenu de Meta, ses responsabilités en matière de droits de l’homme et ses valeurs. Le Conseil a également évalué les implications de ce cas pour l’approche plus globale de la gouvernance du contenu par Meta.

Le Conseil a sélectionné le cas présent afin d’examiner le rôle des réseaux sociaux dans un contexte d’insécurité et de violence extrêmes, et comment les politiques et les systèmes de mise en application de Meta traitent le contenu partagé lors d’une crise en cours. Ce cas relève de la priorité stratégique « Situations de crise et de conflit » du Conseil.

8.1 Respect des politiques relatives au contenu de Meta

Le Conseil estime que le contenu en question enfreint le Standard de la communauté relatif à la violence et à l’incitation. Toutefois, la majorité du Conseil ne partage pas l’avis de Meta dans son évaluation pour savoir s’il convient d’appliquer une tolérance d’intérêt médiatique. D’après la majorité du Conseil, compte tenu du retard d’application de près de 3 semaines, Meta aurait dû appliquer la tolérance d’intérêt médiatique afin que le contenu demeure sur Facebook au moment où elle l’examinait.

I.Règles relatives au contenu

a.Violence et incitation

Meta interdit « les [d]éclarations d’intention de commettre une violence de haute gravité » et « les [a]ppels à la violence de haute gravité ». Le Conseil estime que le contenu du cas présent enfreint les deux mentions de cette politique. Le contenu incite à la violence dans un contexte où une menace crédible de préjudice hors ligne est exprimée à l’encontre de la personne détenue ainsi que des autres personnes. La vidéo montre un rassemblement de personnes tenter de pénétrer dans la cellule d’un homme suspecté d’appartenir à un gang. La foule crie qu’elle va entrer dans la cellule et que l’homme est « already dead » (un homme mort). Ces déclarations témoignent d’une intention d’utiliser la force pour donner la mort. L’une des personnes du groupe hurle « bwa kale na boudaw », une phrase qui, dans le contexte haïtien, constitue un appel à commettre une violence de haute gravité. Bien que la déclaration « bwa kale » ait apparu dans divers contextes, notamment la musique et les messages politiques, dans le cas présent elle est utilisée dans un contexte d’évènements meurtriers au cours desquels des civils ont tué des membres de gangs présumés ou leurs alliés.

Meta autorise le contenu qui enfreint sa politique relative à la violence et l’incitation à rester sur la plateforme s’il est partagé afin de « sensibiliser l’opinion publique à la violence ou la condamner ». Ces exceptions n’apparaissent pas dans le langage public de la politique, mais sont énoncées dans l’ensemble des instructions internes destinées aux modérateurs de contenu. En ce qui concerne l’exception d’application, l’entreprise exige que l’utilisateur précise qu’il publie le contenu pour l’une ou l’autre de ces raisons.

Le Conseil conclut que l’utilisateur du cas présent n’a pas observé cette obligation ; le contenu ne saurait donc être soumis à cette exception tel que Meta le définit. La légende qui accompagne la vidéo est descriptive et déclare que « [t]he police cannot do anything, things are going to get weird » ([l]a police ne peut rien faire, les choses vont mal tourner). Décrire la vidéo ou fournir une légende neutre ou ambiguë ne suffit pas pour satisfaire le standard que Meta a établi.

Il peut également arriver que Meta autorise les appels à la violence de haute gravité lorsque la cible est classée dans la catégorie organisation ou personne dangereuse. Cette exception est énoncée dans la justification de Meta relative à la politique sur la violence et l’incitation, bien qu’elle n’apparaisse pas dans les règles. Le Conseil reconnaît que cette exception ne s’applique pas en l’espèce. Il remarque cependant que cette exception fait l’objet d’un certain nombre d’inquiétudes. Tout d’abord, elle n’est pas clairement exprimée dans le Standard public de la communauté. Ensuite, compte tenu du fait que la liste des personnes et organisations désignées en vertu des politiques de Meta n’ait pas été communiquée au public, les utilisateurs n’ont aucune possibilité de savoir comment cette exception s’appliquerait à leur contenu. Le Conseil a maintes fois recommandé à Meta de reformuler sa politique sur les organisations et personnes dangereuses afin de gagner en clarté et transparence (voir Mention des talibans dans les informations d’actualité ; Publication partagée d’Al Jazeera ; Isolement d’Öcalan ; et Citation nazie). Enfin, Meta considère que la crédibilité de la menace n’est pas à prendre en compte dans l’application de cette exception. Si la cible représente une entité désignée ou un acteur violent, le contenu ne saurait être jugé en infraction. Le Conseil ne comprend pas que les menaces crédibles adressées à l’encontre de toute personne ou entité désignée en vertu de l’opaque politique relative aux organisations et personnes dangereuses ne relèvent pas du Standard de la communauté sur la violence et l’incitation.

b. Tolérance d’intérêt médiatique

Bien que le Conseil estime que le contenu enfreint le Standard de la communauté relatif à la violence et l’incitation, une majorité de ses membres ne partage pas l’avis de Meta sur l’application de la tolérance d’intérêt médiatique dans ce cas. Tout d’abord, le Conseil constate que le risque de préjudice et l’intérêt public induit dans l’analyse de l’intérêt médiatique doit être évalué lorsque Meta examine la possibilité d’appliquer cette tolérance, plutôt que lors de la publication du contenu. Meta doit mettre à jour le langage public relatif à la tolérance d’intérêt médiatique afin que les utilisateurs le comprennent mieux. Ces deux moments devraient idéalement être suffisamment proches pour éviter que la conclusion ne diffère, surtout dans un contexte d’escalade de la violence généralisée qui touche tout un pays. Malheureusement, dans ce cas, près de trois semaines se sont écoulées entre la publication de la vidéo et sa suppression par Meta.

D’après une majorité du Conseil, le risque de préjudice avait drastiquement diminué lorsque Meta a pris sa décision (près de trois semaines après la publication de la vidéo incitant à la violence) et Meta aurait dû conserver le contenu en appliquant la tolérance. La vidéo permet d’informer le public en Haïti, mais également dans les autres pays, des réalités de la violence et des troubles à l’ordre public à un moment où Haïti demande une aide et une intervention internationales. Indépendamment du risque encouru par le contenu, notamment aux individus identifiables dans la vidéo, il était considérablement moindre lorsque Meta a appliqué la tolérance, tel qu’indiqué en détail dans l’analyse de la section 8.2 (iii) ci-dessous. Si Meta avait examiné le contenu peu de temps après sa première publication, le risque de préjudice l’aurait emporté sur l’intérêt public, comme nous l’avons déjà vu dans le cas des Violences communautaires dans l’État indien de l’Odisha. Dans ce cas, Meta a identifié et supprimé le contenu quelques jours après sa publication, à une période de tensions accrues et de violence continue, et qu’il posait un risque sérieux et probable de violences supplémentaires, dépassant ainsi l’intérêt public du contenu. Dans ce cas, Meta ayant tardé à examiner le contenu, le risque de préjudice s’était considérablement réduit, et la valeur d’intérêt public l’emportait afin de garantir l’accès aux informations et d’expliquer au grand public la situation en Haïti à cette période. Au moment où Meta a examiné la possibilité d’appliquer une tolérance, la publication avait déjà été vue 500 000 fois et le risque de préjudice que la vidéo aurait pu entraîner se serait déjà concrétisé. La tolérance étant évaluée lors de la remontée par les équipes internes de Meta, cette dernière dispose des ressources et de l’expertise nécessaires pour réaliser une évaluation encore plus sensible au contexte et tenir compte du changement de circonstances au moment de prendre sa décision.

Une minorité des membres du Conseil estime que Meta a fait preuve de bon sens en n’appliquant pas la tolérance d’intérêt médiatique dans ce cas. Bien que le risque de préjudice à l’encontre des individus qui apparaissent dans la vidéo fut davantage prégnant dans les jours suivant la publication du contenu, la possibilité que la vidéo puisse accroître le risque de représailles était toujours aussi vif lorsque Meta a examiné le contenu, compte tenu du contexte global de violence généralisée continue et d’insécurité en Haïti. Les préjudices inhérents à la conservation du contenu sur la plateforme dépassaient donc toujours l’intérêt public du discours, tel qu’indiqué en détail dans la section 8.2 (iii) ci-dessous. Le risque que d’autres personnes, en voyant cette vidéo, puissent prendre les armes et rejoindre le mouvement et tenter de punir quelqu’un n’avait pas diminué. Sans parler de la possibilité qu’un membre du « gang 5 secondes », ou d’un gang affilié, reconnaisse une personne dans la vidéo et cherche à se venger d’elle, d’autres membres du mouvement Bwa Kale ou des agents des forces de l’ordre. Pour ces membres du Conseil, plusieurs personnes étant identifiables dans la vidéo et le risque de représailles étant bien établi et toujours d’actualité, le contenu ne devrait pas être soumis à la tolérance, même après le retard de Meta.

8.2 Respect des responsabilités de Meta en matière des droits humains

La majorité du Conseil estime que la suppression de ce contenu, trois semaines après sa publication, n’était pas nécessaire et proportionnée et que la restauration de la publication sur Facebook est conforme aux responsabilités de Meta en matière de droits humains. Le Conseil est d’avis que, pour observer ses responsabilités en matière de droits humains, Meta doit garantir l’efficacité et la rapidité de sa modération de contenu en Haïti en cette période de risques accrus.

Liberté d’expression (article 19 du PIDCP)

L’article 19 du PIDCP accorde une protection étendue de la liberté d’expression, y compris « le commentaire de ses affaires personnelles et des affaires publiques » et à la liberté d’expression que les personnes peuvent considérer comme offensantes (Observation générale 34, paragraphe 11). Lorsque des limitations de la liberté d’expression sont imposées par un État, elles doivent remplir des critères de légalité, d’objectif légitime, et de nécessité et de proportionnalité (article 19, paragraphe 3 du PIDCP). Ces exigences sont souvent reprises sous l’intitulé « test tripartite ». Le Conseil utilise ce cadre pour interpréter les engagements volontaires de Meta en matière de droits humains, à la fois pour la décision relative au contenu individuel en cours d’examen et pour ce que cela dit de l’approche plus large de Meta en matière de gouvernance du contenu. Comme l’a déclaré le Rapporteur spécial des Nations Unies sur la liberté d’expression disant que même si « les entreprises ne sont pas soumises aux mêmes devoirs que les gouvernements, leur influence est néanmoins telle qu’elle doit les inciter à se poser les mêmes questions qu’eux quant à la protection de la liberté d’expression de leurs utilisateurs » (A/74/486, paragraphe 41).

I. Légalité (clarté et accessibilité des règles)

Le principe de légalité nécessite que les règles qui limitent la liberté d’expression soient accessibles et claires, aussi bien pour les personnes qui appliquent ces règles que pour celles qu’elles touchent (observation générale n° 34, paragraphe 25). Les règles qui limitent la liberté d’expression « ne peu[ven]t pas conférer aux personnes chargées de [leur] application un pouvoir illimité de décider de la restriction de la liberté d’expression » et doivent « énoncer des règles suffisamment précises pour permettre aux personnes chargées de leur application d’établir quelles formes d’expression sont légitimement restreintes et quelles formes d’expression le sont indûment » ( Ibid). Le Rapporteur spécial des Nations Unies sur la liberté d’expression a déclaré que les règles régissant le discours en ligne devaient être claires et précises ( A/HRC/38/35, paragraphe 46). Les personnes utilisant les plateformes de Meta doivent pouvoir accéder aux règles et les comprendre, et les équipes d’examen de contenu doivent disposer de conseils clairs sur leur application.

D’après le Conseil, l’interdiction de Meta quant aux déclarations d’intention de commettre une violence de haute gravité et aux appels proférés à ces fins, telle qu’appliquée au cas présent, est énoncée avec précision. Le Conseil considère que la politique et ses objectifs, tels qu’ils sont appliqués à ce cas, sont suffisamment clairs pour satisfaire à l’exigence de légalité.

Le Conseil note cependant que l’exception de « condamnation et de sensibilisation à la violence » de la politique relative à la violence et à l’incitation n’est toujours pas disponible dans le langage public de la politique. La non-intégration de ces exceptions dans le langage public du Standard de la communauté et la justification selon laquelle il incombe à l’utilisateur de préciser son intention, soulève de sérieuses inquiétudes en matière de légalité (voir section 8.1 (1)(a) ci-dessus). Dans le cas du Poème russe, le Conseil a recommandé à Meta d’ajouter au langage public de son Standard de la communauté relatif à la violence et à l’incitation sa propre interprétation de la politique pour autoriser le contenu comportant des déclarations avec « une référence neutre à un résultat potentiel d’une action ou un avis consultatif » et le contenu qui « condamne ou sensibilise aux menaces violentes ». Meta s’est engagée à réaliser cette modification, mais n’a pas mis à jour le Standard de la communauté sur la violence et l’incitation en conséquence. Le Conseil insiste une nouvelle fois sur cette recommandation et exhorte Meta à ajouter cette exception au langage public du Standard de la communauté.

II.Objectif légitime

En vertu de l’article 19, paragraphe 3, du PIDCP, la liberté d’expression peut être restreinte pour toute une série de raisons limitées et définies. Dans le cas présent, le Conseil observe que l’interdiction liée aux déclarations d’intention de commettre une violence de haute gravité et aux appels proférés à ces fins énoncée dans le Standard de la communauté sur la violence et l’incitation sert l’objectif légitime de protéger l’ordre public et de respecter les droits d’autrui.

III. Nécessité et proportionnalité

Le principe de nécessité et de proportionnalité stipule que les restrictions de la liberté d’expression « doivent être appropriées pour remplir leur fonction de protection ; elles doivent constituer le moyen le moins perturbateur parmi ceux qui pourraient permettre d’obtenir le résultat recherché » [et] « elles doivent être proportionnées à l’intérêt à protéger » ( observation générale n° 34, paragraphe 34). Le Conseil a précédemment utilisé les critères énoncés dans le Plan de Rabat afin d’analyser la nécessité et la proportionnalité de supprimer du contenu en vertu du Standard de la communauté sur la violence et l’incitation lorsque la sécurité publique est en jeu (voir cas du Discours d’un général brésilien et du Premier ministre cambodgien). Dans le cas présent, le Conseil a examiné les critères du Plan de Rabat pour évaluer la nécessité et la proportionnalité de supprimer le contenu. Il a par ailleurs tenu compte du fait que Meta a particulièrement tardé à examiner ce contenu, et des conclusions que l’on peut en tirer concernant la capacité de l’entreprise à observer ses responsabilités en matière de droits humains lorsqu’elle modère du contenu en Haïti.

La majorité du Conseil considère que la suppression de ce contenu, près de trois semaines après la publication, n’était plus nécessaire. Elle a pris en considération le contexte en Haïti, l’étendue et la portée de la publication, ainsi que la probabilité que des préjudices soient causés en raison du retard entre la publication du contenu et sa suppression. Le risque représenté par une publication dépend du contexte de son partage. La situation a changé pendant l’inaction de Meta, c’est pourquoi la vidéo avait déjà été vue 200 000 fois au moment de l’examen. Ces membres du Conseil affirment que, en raison du retard de Meta dans l’examen du contenu et du nombre élevé de vues jusqu’alors, tout risque potentiellement occasionné par le contenu se serait déjà concrétisé. Si Meta avait mené une évaluation de cette publication en temps opportun, cela aurait eu une incidence sur la nécessité et la proportionnalité et aurait garanti sa suppression comme dans le cas des Violences communautaires dans l’État indien de l’Odisha, où la suppression est survenue quelques jours après la publication du contenu. Meta ayant tardé à examiner le contenu, la majorité estime qu’il n’était plus nécessaire de le supprimer.

Par ailleurs, dans un contexte de violence généralisée, de dégradation de l’autorité du gouvernement et de troubles à l’ordre public, il est d’autant plus important de partager les informations afin que les communautés réagissent face aux évènements d’ampleur qui les affectent. Les spécialistes que le Conseil a consultés ont insisté sur le fait que les Haïtiens ont besoin des informations partagées sur WhatsApp pour se tenir au courant des risques éventuels. Dans un contexte où le « travail journalistique se trouve limité par les menaces et la violence, [où les attaques] contre les journalistes sont fréquentes, et où l’impunité des délinquants est la norme », il s’avère encore plus fondamental d’assurer l’accès aux informations sur les réseaux sociaux. Garantir que le contenu relatant les évènements n’est pas supprimé inutilement peut favoriser l’accès du public aux informations, ainsi que l’identification et la responsabilisation de ceux qui incitent à la violence et s’y livrent en Haïti.

Dans le cas de la Revendication du remède contre le COVID-19, le Conseil a souligné le fait que Meta doit expliquer le continuum d’options dont il dispose pour atteindre des objectifs légitimes (comme la prévention des préjudices) et d’expliquer pourquoi l’option choisie est le moyen le moins intrusif. Comme nous l’avons vu dans cette décision, Meta doit démontrer publiquement trois critères pour déterminer le moyen le moins intrusif : (1) l’objectif d’intérêt public ne pouvait pas être atteint au moyen de mesures qui n’empiètent pas sur le discours ; (2) parmi les mesures qui enfreignent la politique sur le discours, Facebook (sic) a sélectionné la moins intrusive ; et (3) la mesure sélectionnée permet effectivement d’atteindre l’objectif recherché et n’est ni inefficace ni contre-productive (A/74/486, paragraphes 51-52).

Dans le cas présent, par exemple, compte tenu de l’intérêt de la communauté internationale quant à l’évaluation de la situation en vue d’aider les Haïtiens (tel qu’énoncé ci-dessus), Meta doit expliquer publiquement pourquoi les mesures telles que le blocage géographique s’avéreraient insuffisantes pour les prévenir des préjudices éventuels. Meta ayant tardé pendant près de trois semaines à examiner le contenu, l’entreprise doit par ailleurs indiquer pourquoi les mesures prises comme l’interdiction des interactions avec le contenu ou l’utilisation de rétrogradations ne suffiraient pas pour réduire le risque de préjudices à ce stade. Meta semble plutôt demander au Conseil d’évaluer la nécessité et la proportionnalité uniquement dans un contexte binaire au lieu de prendre en considération les conséquences de l’ensemble de ses outils, comme l’exige une approche de modération de contenu sérieuse axée sur les droits humains.

Pour une minorité du Conseil, la suppression du contenu s’avère nécessaire et proportionnée, notamment en raison du contexte en Haïti, de l’étendue et de la portée de la publication, ainsi que la probabilité qu’un préjudice survienne. Le Conseil a jugé que cette vidéo a été publiée à une période de risques accrus, avec une intensification de la violence des gangs et le lancement d’un mouvement civique d’« autodéfense » contre les membres de gangs présumés. Ce mouvement a déjà sorti des membres de gangs présumés de leur cellule pour les tuer en les lapidant, en les frappant et en les brûlant vivants. Le Haut-Commissaire des Nations Unies aux droits de l’homme a indiqué que, entre le 24 avril et la mi-août, « plus de 350 personnes ont été lynchées par la population locale et les groupes d’autodéfense. On compte parmi les victimes 310 membres de gangs présumés, 46 civils et un agent de police ». Des vidéos de ces évènements ont circulé sur les réseaux sociaux et ont été reliées à d’autres personnes ayant pris les armes en vue de rejoindre et de traquer des membres de gangs présumés, et de les tuer. En outre, selon des rapports du Haut-Commissaire des Nations Unies aux droits de l’homme, des membres du gouvernement municipal et des forces de police soupçonnés de soutenir les groupes locaux d’autodéfense ont été tués par des gangs en signe de représailles, ainsi que des personnes appartenant prétendument au mouvement. Le leader du « gang 5 secondes » a par le passé menacé ses opposants de représailles, notamment de meurtre, sur les réseaux sociaux. La publication nomme le poste de police et montre le visage de la personne qui tente de pénétrer dans la cellule, mais également celui des autres personnes du rassemblement. Cette publication a été vue plus de 500 000 fois. Étant donné les faits, la menace de violence exprimée dans cette vidéo circulant sur Facebook était directe et imminente (Observation générale 34, paragraphe 35), notamment juste après sa publication, mais également au moment où Meta a réalisé son examen. Par ailleurs, pour la minorité, aucune mesure, à part la suppression, ne suffirait pour protéger les personnes apparaissant dans la vidéo et celles qui risqueraient d’être victimes de violence suite à sa diffusion.

Le Conseil émet des inquiétudes quant à la capacité de Meta à identifier de façon proactive et à modérer efficacement le contenu en Haïti en temps opportun. Le Conseil constate que le contenu pourrait directement constituer un risque de préjudice accru dans un contexte où l’ordre public et les services gouvernementaux font défaut, et où les meurtres extrajudiciaires et décentralisés sont devenus le principal outil de lutte pour le pouvoir et le contrôle.

Dans le cas présent, Meta a considérablement tardé à évaluer le contenu puis à le supprimer. Ce retard semble attribuable à l’absence d’investissements de l’entreprise dans des ressources adaptées pour modérer le contenu diffusé en Haïti. Le Conseil a précédemment soulevé des interrogations sur le manque d’investissements de l’entreprise dans la modération de contenu dans les langues autres que l’anglais (voir les cas de la Mention des talibans dans les informations d’actualité, Publication partagée d’Al Jazeera et Isolement d’Öcalan). Meta n’a ici pas été en mesure de mener une évaluation en temps opportun du signalement émis par un partenaire de confiance, qui constitue l’un des principaux outils dont Meta dispose en Haïti afin d’identifier un contenu potentiellement en infraction. Le récent signalement d’un partenaire de confiance de Meta qui a évalué le programme a fait état d’une importante irrégularité dans les délais de réponse de Meta et en a conclu que le programme manquait de financement. Les partenaires de confiance mettent à la disposition de Meta leur temps et leurs ressources afin de l’alerter sur le contenu potentiellement dangereux sur ces plateformes. Le Conseil émet des inquiétudes quant au fait que Meta n’apporte pas les ressources suffisantes à ces équipes internes pour évaluer ces signalements en temps opportun.

Enfin, Meta n’a pas appliqué son Protocole de politique de crise en Haïti. Dans le cas de la Suspension de l’ancien président américain Trump, le Conseil a exhorté Meta à élaborer et à publier une politique pour contrôler ses réponses aux situations de crise et aux situations nouvelles lorsque ses processus habituels ne permettent pas de prévenir ou d’empêcher un préjudice imminent. En réponse, Meta a créé le Protocole de politique de crise, dont l’objectif est de « codifier les réponses spécifiques à la politique [de l’entreprise] afin de garantir que [Meta] agit de façon opportune, systématique et proportionnée dans une crise » ( Protocole de politique de crise, Procès-verbal du forum relatif à la politique, 25 janvier 2022). Dans le cas qui nous préoccupe, Meta a indiqué au Conseil qu’elle n’a pas considéré la situation en Haïti comme une crise en vertu du protocole car il est « destiné à favoriser l’évaluation et l’atténuation en temps opportun des crises nouvelles ou émergentes », et que des mesures d’atténuation des risques étaient déjà appliquées en Haïti au moment de l’entrée en vigueur du Protocole de politique de crise en août 2022. Le Conseil émet toutefois des inquiétudes en raison du fait que l’entreprise n’ayant pas pu utiliser le Protocole de politique de crise dans ces situations, elle ne pourra pas modérer ses contenus sur la base de principes et en temps opportun dans ces conditions. Le monde est touché par de nombreuses crises et conflits en cours ou par des périodes de violence ou de risque accru qui s’atténuent ou reprennent en fonction des circonstances. Meta doit mettre en place un mécanisme d’évaluation des risques lors de crises de ce type et de transition des mesures d’atténuation en vigueur à celles énoncées dans le Protocole de politique de crise. La non-utilisation du Protocole de politique de crise dans de telles circonstances nuit à la capacité de l’entreprise et du public à évaluer l’efficacité du protocole dans l’atteinte de ses objectifs.

Le Conseil comprend que Meta doit prendre des décisions difficiles concernant sa priorisation des ressources pour ses différents systèmes de modération de contenu (par exemple, la création de classificateurs spécifiques à une langue, le recours à des modérateurs de contenu, le déploiement du Protocole de politique de crise ou la priorisation des mesures opérationnelles telles que les partenaires de confiance). Cependant, afin d’observer ses responsabilités en matière de droits humains, Meta doit garantir l’efficacité et la rapidité de sa modération de contenu en Haïti en cette période de risques accrus.

9 : Décision du Conseil de surveillance

Le Conseil de surveillance a annulé la décision de Meta visant à supprimer le contenu et demande que la publication soit restaurée.

10 : Recommandations

Mise en application

1. Pour résoudre les risques de préjudice, notamment dans des situations où Meta ne dispose d’aucun outil, processus ni mesure de modération proactifs, ou que ceux-ci sont limités, pour identifier et évaluer un contenu, Meta doit évaluer la rapidité et l’efficacité de ses réponses lorsqu’un contenu fait l’objet d’une remontée dans le cadre du programme de partenaires de confiance.

Le Conseil jugera que cette recommandation aura été mise en place lorsque Meta lui communiquera les résultats de cette évaluation, notamment le délai moyen de résolution finale pour les remontées requises par les partenaires de confiance ventilées par pays, les propres objectifs internes de Meta en matière de délai de résolution finale, ainsi que toute mesure corrective adoptée si ces objectifs ne sont pas satisfaits, et publiera un résumé public de ses conclusions afin de justifier son observation de cette recommandation.

Politique

Le Conseil réitère par la même occasion la recommandation suivante inspirée du cas du Poème russe :

Meta devrait ajouter au langage public de son Standard de la communauté relatif à la violence et à l’incitation le fait qu’elle interprète la politique pour autoriser le contenu comportant des déclarations avec « une référence neutre à un résultat potentiel d’une action ou un avis consultatif » et le contenu qui « condamne ou sensibilise aux menaces violentes ».

*Note de procédure :

Les décisions du Conseil de surveillance sont préparées par des panels de cinq membres et approuvées par la majorité du Conseil. Les décisions du Conseil ne représentent pas nécessairement les opinions personnelles de tous les membres.

Pour la décision sur ce cas, des recherches indépendantes ont été commandées au nom du Conseil. Le Conseil était assisté d’un institut de recherche indépendant, dont le siège se trouve à l’université de Göteborg. Il avait mobilisé une équipe de plus de 50 experts en sciences sociales sur 6 continents ainsi que 3 200 experts nationaux du monde entier. Le Conseil a également bénéficié de l’aide de Duco Advisors, une société de conseil spécialisée dans la géopolitique, la confiance et la sécurité, ainsi que la technologie. Memetica, une organisation qui effectue des recherches open-source sur les tendances des réseaux sociaux, a également fourni une analyse. L’entreprise Lionbridge Technologies, LLC, dont les spécialistes parlent couramment 350 langues et travaillent dans 5 000 villes du monde entier, a fourni son expertise linguistique.

Retour aux décisions de cas et aux avis consultatifs politiques