Décision sur plusieurs affaires
Reportages sur l’actualité au Somaliland
30 octobre 2025
Le Conseil de surveillance a estimé que les systèmes de Meta avaient échoué à protéger le journalisme indépendant et les activités de reportage d’intérêt public dans la république autoproclamée du Somaliland.
4 cas inclus dans ce lot
FB-79J73LS1
Cas de discours haineux sur Facebook
FB-G8P83WBH
Cas de discours haineux sur Facebook
FB-ETWR07NV
Cas de discours haineux sur Facebook
FB-F91P3YE6
Cas de discours haineux sur Facebook
Résumé
Le Conseil de surveillance a estimé que les systèmes de Meta avaient échoué à protéger le journalisme indépendant et les activités de reportage d’intérêt public dans la république autoproclamée du Somaliland. Il a analysé la suppression d’une page Facebook et de quatre éléments de contenu qui traitaient de l’actualité au Somaliland, une région où les journalistes sont réprimés. Le Conseil a annulé les décisions de Meta de fermer la page et de retirer les quatre publications. Meta doit améliorer ses systèmes de prévention des erreurs et ses procédures d’appel pour veiller à ce que les pages des journalistes et leur contenu ne soient pas supprimés à tort.
À propos des cas
Les quatre cas examinés par le Conseil dans le cadre de cette décision sont liés à une page Facebook qui traite de l’actualité et des évènements au Somaliland. La page déclare se consacrer au journalisme indépendant et est suivie par quelque 90 000 personnes.
En janvier 2025, quatre publications y ont été publiées. Deux d’entre elles concernaient les récentes visites d’État du président du Somaliland, Abdirahman Mohamed Abdullah, et incluent des photos dont les légendes précisent qu’aucune couverture médiatique n’était autorisée. Les deux autres publications, également accompagnées de légendes descriptives, faisaient état d’une cérémonie officielle et d’une conférence politique au Somaliland. La page, les publications et les légendes étaient toutes rédigées en somali.
Après que des utilisateurs ont signalé la page, un modérateur humain a estimé qu’elle enfreignait la politique de Meta sur les conduites haineuses et a « annulé sa publication », c’est-à-dire qu’elle a été supprimée. Le modérateur a également retiré les quatre publications pour violation de ladite politique. Le compte de l’administrateur de la page a été pénalisé.
Ce dernier a interjeté des appels distincts contre la décision de Meta de fermer la page et de retirer chacune des quatre publications. Les appels relatifs à ces quatre dernières ont été examinés par six modérateurs, y compris par celui qui a pris les décisions initiales, qui ont été maintenues. Les systèmes de Meta n’ont pas accordé la priorité au réexamen de la décision liée à la page, et l’appel a été automatiquement classé sans suite. La page est donc restée « non publiée ». L’administrateur de la page a ensuite fait appel auprès du Conseil.
Lorsque le Conseil a sélectionné les cas en vue de leur examen, Meta est revenue sur toutes ses décisions initiales, a restauré la page et les quatre publications, et a levé la pénalité. Le Conseil a identifié 10 autres appels interjetés depuis le Somaliland et liés à des suppressions de contenu. Meta a confirmé qu’il s’agissait d’erreurs et a restauré ces contenus.
Bien que la République fédérale de Somalie considère le Somaliland comme l’une de ses provinces constituantes, celui-ci a déclaré son indépendance en 1991, sans toutefois être reconnu par la communauté internationale. La Somalie est l’un des pays les plus dangereux au monde pour les journalistes. Cela vaut également pour le Somaliland, dont les autorités répriment les médias locaux, sur lesquels elles exercent une énorme pression, selon des organisations de défense de la liberté de la presse.
Principales conclusions
Le Conseil estime qu’aucune règle des politiques de contenu de Meta ne justifiait le retrait de la page et des publications Facebook. Aucun élément de la page n’était en infraction, et la suppression était totalement arbitraire. Celle-ci n’était pas cohérente avec les responsabilités de Meta en matière des droits humains.
Les plateformes numériques comme Facebook constituent des espaces essentiels pour les journalistes indépendants au Somaliland, qui en ont besoin pour diffuser l’actualité et interagir avec des audiences nationales et internationales. La suppression arbitraire de contenu a de sérieuses répercussions sur la liberté d’expression dans la région et contribue sans le vouloir à la création d’un environnement hostile aux journalistes. L’annulation de la publication de pages peut avoir de lourdes conséquences, en particulier pour les journalistes, et de telles décisions devraient faire l’objet d’un examen plus approfondi avant d’être appliquées.
Composé de l’Examen secondaire général (GSR) et de l’Examen secondaire de l’entité sensible (SSR), le système de recoupement, qui aurait dû signaler les examens dans ces cas-ci, n’a pas suffisamment tenu compte du fait que la page se consacrait au journalisme indépendant. Deux autres systèmes de prévention des erreurs auraient dû être activés, mais ils n’ont été utilisés que partiellement, voire pas du tout.
Que Meta ait échoué à inclure la page dans son système de recoupement révèle un problème potentiellement plus systémique. Le Conseil s’inquiète tout particulièrement du fait que le système de lutte contre la surmodération n’a pas accordé une priorité suffisante à des journalistes dont le travail en somali est d’intérêt public. Cela est d’autant plus important que Meta a annoncé en janvier dernier que sa nouvelle approche en matière de modération de contenu devrait « accorder plus de place à la liberté d’expression tout en limitant les erreurs ». Le Programme d’inscription des journalistes de Meta, qui offrent de meilleurs mécanismes de sécurité, ne couvre pas la Somalie, y compris le Somaliland, et aurait pu être utile dans ce cas-ci.
Il manque à Meta une ressource unique et centralisée qui fait état de ses politiques de contenu relatives aux pages, ce qui soulève des problèmes de clarté et de transparence.
Décision du Conseil de surveillance
Le Conseil revient sur les décisions de Meta d’annuler la publication de la page et de supprimer les quatre éléments de contenu.
Le Conseil recommande également à Meta ce qui suit :
- Consolider les règles et les consignes de modérations relatives aux pages en vue de créer une ressource complète et compréhensible dans l’Espace modération
- Interdire aux modérateurs ayant décidé d’appliquer une sanction d’examiner tout appel relatif à leur décision
- Mettre à jour son système de classification GSR afin d’accorder explicitement la priorité aux examens liés à l’annulation de la publication de pages
- Établir de nouveaux critères et de nouveaux systèmes pour inscrire de manière proactive les pages ou les comptes qui se consacrent au journalisme dans les régions où la liberté de la presse est réprimée, selon des sources qui font autorité en la matière, comme l’indice d’impunité du Comité pour la protection des journalistes (CPJ)
* Les résumés de cas donnent un aperçu des cas et n’ont pas valeur de précédent.
Décision complète sur les cas
- Description des cas et contexte
En janvier 2025, quatre publications en somali ont été publiées sur une page Facebook ; elles abordaient de récents évènements sociopolitiques liés à la république autoproclamée du Somaliland. La page Facebook déclare se consacrer au journalisme indépendant et est suivie par quelque 90 000 personnes. Les pages Facebook sont gérées par des utilisateurs par l’intermédiaire de leur compte, à côté de leur profil personnel. Elles permettent aux individus et aux entreprises de créer un profil pour interagir avec leur audience.
Deux des publications traitent de récentes visites d’État du président du Somaliland, Abdirahman Mohamed Abdullahi. Elles comprennent des photos d’un voyage à l’étranger effectué par le Président Abdullahi, accompagnées de légendes en somali selon lesquelles les autorités du Somaliland ont interdit que le voyage soit couvert par les médias. Les deux autres publications, également accompagnées de légendes descriptives, font état d’une cérémonie officielle publique au Somaliland et d’une conférence politique.
Deux utilisateurs ont signalé la page pour infraction aux politiques sur les organismes et personnes dangereux, d’une part, et sur les conduites haineuses, d’autre part. Un modérateur humain a jugé que la page violait la politique en matière de conduite haineuse et a annulé sa publication(ce qui signifie que la page a été retirée, une mesure similaire à la désactivation d’un compte). Aucune des quatre publications n’a été signalée, mais le même modérateur humain les a toutes supprimées pour infraction à la politique relative aux conduites haineuses. Le compte du créateur de contenu qui gérait la page a obtenu une pénalité.
Ce dernier a interjeté des appels distincts contre la décision de Meta de fermer la page et de retirer chacune des quatre publications. Ses appels relatifs aux quatre éléments de contenu ont été examinés par six modérateurs humains, qui ont maintenu les décisions initiales. L’appel contre la décision de fermer la page n’a pas été priorisé pour un examen manuel, en conséquence de quoi la page est restée non publiée.
Après que le Conseil a sélectionné ces cas, Meta est revenue sur ses décisions initiales de fermer la page et de supprimer les quatre publications, les a restaurées et a annulé la pénalité infligée au compte du créateur de contenu.
En plus des quatre publications sélectionnées dans ce cas-ci, le Conseil a identifié 10 autres appels issus du Somaliland qui contestent la suppression de contenu. Meta a par la suite confirmé qu’il s’agissait d’erreurs et a restauré les publications concernées.
Le Conseil a tenu compte du contexte suivant pour prendre sa décision :
La république autoproclamée du Somaliland, bien que considérée par la République fédérale de Somalie comme l’une de ses provinces constituantes, a déclaré son indépendance de la Somalie en 1991. Malgré ses nombreux efforts, le Somaliland n’est pas reconnu par la communauté internationale. Des tensions locales et régionales, notamment des litiges frontaliers non résolus, des conflits périodiques entre clans et des menaces à la sécurité par des groupes terroristes tels que Al-Shabaab, persistent.
En dépit de la stabilité relative qui règne au Somaliland, la liberté de la presse y est une source d’inquiétude sérieuse, comme dans le reste de la Somalie. Le Comité pour la protection des journalistes (CPJ) a classé la Somalie à la troisième place de son Indice mondial d’impunité 2024 (un classement annuel par habitant de l’impunité pour les meurtres de journalistes), et à la première place de cet indice entre 2015 et 2022. Il qualifie le pays de l’un des « pires pays criminels de l’indice » (le CPJ ne considère pas le Somaliland comme un territoire distinct dans ses rapports). Selon l’organisation de défense de la liberté de la presse Reporters sans frontières (RSF), les journalistes qui travaillent en Somalie, y compris au Somaliland, risquent d’être arrêtés, détenus, voire mis à mort. Depuis 2010, plus de 50 journalistes ont été tués, ce qui fait de la Somalie l’un des pays les plus dangereux du monde pour les journalistes. RSF rapporte que les autorités au Somaliland sont particulièrement répressives et qu’elles exercent une pression énorme sur les médias locaux. De même, Freedom House rapporte que les journalistes et d’autres personnalités publiques font l’objet de contraintes de la part des autorités au Somaliland et que, bien que le territoire compte des organes de presse aussi bien écrite et télévisée qu’en ligne, nombre d’entre eux se caractérisent par leur affiliation politique.
La corruption du gouvernement, la politique étrangère et le statut politique d’une région sont des sujets de reportage délicats, qui entraînent régulièrement des représailles. En 2022, à la suite d’un reportage critique d’un engagement international du président alors en fonction du Somaliland, Muse Bihi Abdi, des agents des services de renseignement s’en seraient pris à trois journalistes indépendants, et un autre journaliste local qui bénéficiait d’une large audience sur Facebook aurait été arrêté. Quelque 14 journalistes ont été arrêtés en 2023 pour avoir couverts des manifestations d’opposition. Il arrive souvent qu’une simple allégation d’affiliation à des groupes d’opposition découle sur une détention. L’arrestation et la torture de membres du personnel de MM Somali TV qui ont été rapportées en janvier 2024 reflètent encore davantage la normalisation de la violence à l’encontre de ceux qui critiquent le gouvernement lorsqu’ils couvrent l’actualité. Outre la répression exercée à l’encontre de ceux qui contredisent les récits officiels, les terroristes menacent la sécurité physique des journalistes (cf. le commentaire public du Syndicat somalien des journalistes, PC-31295). Dans ce contexte, les journalistes au Somaliland ont inventé l’expression « reconnu coupable des faits reprochés » pour désigner la pratique, désormais fréquente, qui consiste à poursuivre en justice les professionnels des médias.
Au-delà des attaques physiques et des arrestations arbitraires, la censure institutionnelle systématique nuit au journalisme indépendant. En bannissant les émissions de la BBC depuis 2022, le gouvernement du Somaliland prouve qu’il refuse de se soumettre à l’œil critique des médias internationaux et que les habitants du pays ne bénéficient que d’un accès très limité à l’information. De manière similaire, l’interdiction d’un débat d’Universal TV en décembre 2023 – pour cause d’« immoralité » et de désaccord avec les valeurs culturelles et islamiques – reflète une tendance toujours plus poussée à mêler contrôle politique et tutelle religieuse et culturelle, ce qui laisse peu de place aux discours publics.
Dans cet environnement hostile aux médias traditionnels, les plateformes numériques se sont révélées être indispensables à la diffusion de l’actualité, aux interactions critiques et à la préservation de l’autonomie éditoriale. Les réseaux sociaux représentent un espace essentiel pour les journalistes et autres commentateurs qui veulent contourner les restrictions imposées par leur État et interagir avec des audiences aussi bien nationales qu’internationales. Facebook joue un rôle crucial dans le partage de l’actualité et de l’information : le Syndicat somalien des journalistes la décrit comme « la plus grande plateforme pour les journalistes et les communautés locales » au Somaliland et en Somalie, qui permet aux journalistes d’éviter la censure imposée par les institutions et d’interagir directement avec leur audience (cf. PC-31295). Des données pour juillet 2025 montrent que six visites de réseaux sociaux sur dix en Somalie, y compris au Somaliland, s’effectuent sur Facebook.
2. Soumissions de l’utilisateur
L’utilisateur qui a fait appel des décisions de Meta auprès du Conseil a expliqué que l’intention partagée par les quatre publications était de diffuser de l’information, et non d’attaquer un quelconque individu ou d’exercer de la discrimination à son encontre, et que les publications n’enfreignaient pas la politique en matière de conduite haineuse.
3. Politiques de Meta relatives au contenu et soumissions
I. Politiques de Meta relatives au contenu
Conduite haineuse
Meta définit les « conduites haineuses » comme « une attaque directe contre des personnes » fondée sur des caractéristiques protégées, mais l’entreprise a désormais reconnu que cette politique n’était pas concernée dans ces cas-ci.
Pages
Les pages sont distinctes des profils et des groupes et sont conçues pour offrir aux utilisateurs une présence séparée sur Facebook et leur permettre d’interagir avec des audiences plus larges. Elles se distinguent également des comptes personnels, qui sont associés à un individu, tandis que les pages, bien que créées et gérées par l’intermédiaire de comptes personnels, servent de profils distincts, avec des outils professionnels de monétisation et de diffusion de publicités.
L’Espace modération de Meta indique que les pages doivent être gérées par des représentants agréés et être conformes aux Standards de la communauté de la Meta au sens large, y compris à leurs restrictions contre les abus et le contenu interdit. Les pages peuvent être supprimées si leur nom, leur description, leur image de couverture ou le contenu créé par leur administrateur enfreignent les Standards de la communauté. Les administrateurs de pages peuvent être tenus responsables de leurs propres publications sur la page, mais également de l’approbation de contenu en infraction publié par d’autres personnes sur la page. Les pages qui enfreignent à plusieurs reprises les politiques peuvent être supprimées des recommandations, être moins largement diffusées, perdre l’accès aux fonctionnalités de monétisation ou être fermées.
Les pages d’aide de Facebook expliquent que les pages peuvent être fermées ou désactivées si elles « publient du spam [ou] du contenu qui peuvent tromper les gens », vont à l’encontre des Conditions de service de Meta ou violent les politiques en matière de conduite haineuse ou les règles publicitaires. S’il est considéré qu’une page génère des mentions J’aime « de manière trompeuse », Meta peut également imposer des restrictions à son encontre, comme en désactivant le bouton J’aime. La même section des pages d’aide fait remarquer que les utilisateurs peuvent interjeter des appels distincts contre chaque décision de restreindre des pages ou d’annuler leur publication en suivant la procédure ad hoc disponible sur la page.
II. Soumissions de Meta
Meta a fermé la page et supprimé chacune des quatre publications pour violation de la politique en matière de Conduite haineuse.
Après que le Conseil a sélectionné les cas, l’entreprise est revenue sur ses décisions initiales, invoquant une erreur humaine, a restauré toutes les publications et la page, et a levé la pénalité imposée au compte de l’utilisateur. Meta a reconnu qu’aucune des publications ne contenait d’attaques à l’encontre d’individus sur la base de caractéristiques protégées et qu’elles n’auraient pas dû être supprimées. À la demande du Conseil, Meta a enquêté sur l’origine de ces erreurs. L’entreprise n’a pas été en mesure de fournir au Conseil plus d’informations sur les raisons pour lesquelles les décisions initiales ont été prises. Pour ce qui est des huit examens d’appel, Meta a trouvé que ces erreurs avaient été causées par « un manque de concentration [des modérateurs humains] dû à de la fatigue » et par le dysfonctionnement d’un outil, qui exécutait automatiquement certaines tâches lorsque les modérateurs s’éloignaient de leur écran en laissant ouverte leur mission de révision. L’entreprise a indiqué qu’elle avait depuis lors organisé des sessions d’accompagnement et qu’elle avait prévu de mettre en place d’autres formations pour améliorer la concentration des modérateurs, actualiser leur compréhension des politiques et « gérer les partis pris ».
Examen de page
Une page peut être examinée à la suite de signalements effectués par des utilisateurs, des partenaires externes qui disposent de canaux spéciaux pour signaler les infractions potentielles, ou des systèmes de détection automatisés. Des modérateurs humains examinent le contenu publié par la page, ainsi que les éléments principaux de celle-ci (c’est-à-dire sa bio, son titre, sa description, sa photo de couverture ou de page).
Pour infliger des pénalités aux pages, Meta s’appuie sur des critères distincts qu’elle ne souhaite pas dévoiler au public. La suppression de plusieurs éléments de contenu sur une courte période débouche généralement sur une pénalité à l’encontre de la page.
Une page peut également être fermée lorsque sa finalité ou d’autres éléments de celle-ci enfreignent les Standards de la communauté. Cela inclut les violations dans le nom, la description ou la photo de couverture de la page, ou lorsque les administrateurs de la page créent du contenu, tel que des publications, des commentaires ou des salons, qui enfreint les Standards de la communauté. La décision de fermer une page peut être prise par un seul modérateur.
Dans ce cas-ci, puisque Meta a pris des mesures à l’encontre des quatre publications à la fois, une seule pénalité aurait dû être infligée à la page. Pour que la fermeture de la page se justifie, il aurait fallu qu’un de ses éléments soit en infraction. Après avoir réévalué sa décision initiale, Meta a conclu en l’absence de violation.
Appels
Les utilisateurs peuvent faire appel de la fermeture d’une page et de la suppression de contenu publié sur ladite page séparément. Ces appels sont toutefois redirigés vers des files d’attente différentes en fonction des marchés. Dans les deux files d’attente, les appels sont classés par ordre de priorité en fonction de critères similaires, tels que la viralité, la gravité, et la probabilité de l’infraction.
Les modérateurs humains peuvent prendre part à plusieurs tâches liées à la même mission de révision, aussi bien lors des examens initiaux que des appels. Dans ce cas-ci, le modérateur du marché somalien qui a supprimé les publications et fermé la page a également reçu pour mission d’examiner un appel contre l’une de ses propres décisions de suppression de contenu. Les appels contre les quatre décisions d’origine ont chacun fait l’objet de deux examens, par six modérateurs humains au total, dont faisait partie le modérateur initial. L’utilisateur a également interjeté appel de la décision de fermer la page, mais celui-ci n’a jamais été priorisé en vue de son examen.
Systèmes de prévention des erreurs
Recoupement
Le système de recoupement de Meta fait partie intégrante de sa stratégie de prévention des erreurs, conçue pour offrir des occasions supplémentaires d’examiner le contenu potentiellement en infraction, y compris sur les pages pour lesquelles des erreurs peuvent avoir des répercussions particulièrement négatives sur les partenaires commerciaux de Meta. Le recoupement est constitué de deux composants : l’Examen secondaire général (GSR), qui peut être appliqué à n’importe quel contenu sur la base de la priorisation automatisée, et l’Examen secondaire de l’entité sensible (SSR), qui s’applique à l’examen des publications d’entités inscrites sur les listes internes de Meta. Le contenu est classé par ordre de priorité en fonction de facteurs comme les risques de surmodération, la sensibilité du sujet et de l’entité, la gravité des potentielles infractions ou la sévérité des mesures de modération.
Les pages peuvent être incluses dans le SSR sur la base de critères comme : a) le type d’utilisateur ou d’entité, y compris les entités de la société civile et gouvernementales (p. ex., les élus et les organisations de défense des droits humains), « les organes de presse, les entreprises, les communautés et les créateurs, y compris les annonceurs » ; b) les entités qui sont traditionnellement victimes de surmodération ; c) les évènements mondiaux importants ; et d) les exigences légales et réglementaires (cf. l’Avis consultatif en matière de politique du Conseil sur le programme de recoupement de Meta).
Des entités, y compris des journalistes, sont souvent inscrites sur les listes du SSR après avoir été victimes de surmodération ou lorsqu’elles ont été portées à l’attention de Meta en raison de leur implication dans des évènements mondiaux importants, par exemple lorsqu’elles font état de crises ou de conflits. Le nombre de followers est l’un des critères utilisés par Meta pour déterminer quand inclure des pages au SSR. La page concernée dans ce cas-ci ne faisait pas partie du programme SSR au moment des publications. Meta a refusé de fournir au Conseil un aperçu des journalistes et des entités médiatiques d’Afrique de l’Est qui font partie du SSR, invoquant des contraintes opérationnelles et des inquiétudes liées à la mauvaise interprétation des données.
Les décisions de supprimer du contenu publié par des pages et celles de fermer des pages ou de désactiver des profils sont admissibles au recoupement, y compris au GSR. Dans ces cas-ci, Meta a suggéré que ses systèmes de classification avaient déterminé que la page et les quatre publications justifiaient un examen manuel initial, mais l’entreprise n’a pas été en mesure d’expliquer pourquoi la page n’avait pas fait l’objet d’examens plus approfondis (p. ex., par le biais d’un nouvel examen échelonné ou d’une remontée) dans le cadre du GSR.
Autres systèmes de prévention des erreurs
L’Examen multiple dynamique (DMR) est un système de prévention des erreurs qui permet à l’entreprise de renvoyer des cas déjà examinés aux équipes de modération pour obtenir une majorité de décisions cohérentes par différents modérateurs afin qu’une mesure soit prise. Le DMR n’a pas été activé pour les examens initiaux, mais l’a été pour la file d’attente des appels relatifs aux publications uniquement. Ainsi, chacun de ces appels a été examiné une fois de plus. Il n’a pas été mis à profit lors de l’examen de la page. Le DMR est activé sur la base de critères tels que la gravité de l’infraction et les disponibilités des modérateurs humains. Toutefois, dans ce cas-ci, il est difficile de savoir si toutes les tâches de révision ont été menées à bien ou si certaines d’entre elles ont été exécutées automatiquement à la suite du dysfonctionnement d’un outil. Ainsi, les décisions initiales sur le contenu ont été maintenues sans qu’un troisième examen ait lieu.
Ces examens ne remplissaient pas les conditions de l’entreprise pour activer d’autres systèmes de prévention des erreurs.
Programme d’inscription des journalistes
Le Programme d’inscription des journalistes de Meta permet aux journalistes inscrits de bénéficier de mécanismes de protection supplémentaires, notamment contre le harcèlement, l’usurpation d’identité, le piratage et d’autres menaces. L’inscription à ce programme ne garantit pas celle au SSR, mais elle permet à Meta de prendre en compte certains signaux, comme le fait d’être journaliste. Seuls les journalistes affiliés à un organe de presse enregistré en tant que « Page d’actualités » peuvent s’inscrire au Programme d’inscription des journalistes. Ils doivent vérifier leur identité en envoyant cinq articles à leur nom, un lien vers leur biographie dans l’annuaire du personnel de leur organisation ou l’adresse e-mail professionnelle qu’ils utilisent en son sein. L’inscription n’est possible que dans un nombre limité de régions, mais pas en Somalie ni au Somaliland. Meta n’a pas pu nous fournir les critères d’admissibilité des pays à ce programme.
Le Conseil a posé 26 questions à Meta sur les sujets suivants : procédures d’examen et d’appel pour les pages, prévention des erreurs, systèmes automatisés et de recoupement utilisés pour modérer les pages, ainsi que les ressources et les capacités de modération de contenu pour la Somalie, y compris le Somaliland. Ces questions traitaient également des programmes d’assistance et de protection de Meta pour les médias et les journalistes. Meta a répondu pleinement à 23 questions et partiellement aux trois autres.
4. Commentaires publics
Le Conseil de surveillance a reçu deux commentaires publics qui répondent aux critères de soumission. Un commentaire a été envoyé d’Afrique subsaharienne et l’autre d’Asie-Pacifique et Océanie. Pour consulter les commentaires publics soumis accompagnés d’un consentement à la publication, cliquez ici.
Les soumissions traitaient des thèmes suivants : bonnes pratiques à suivre en matière de modération pour le contenu d’intérêt public et les pages ; l’environnement médiatique et les défis pour le journalisme indépendant au Somaliland ; le rôle des réseaux sociaux en vue d’aider le journalisme indépendant dans la région ; et les répercussions des erreurs de modération de Facebook sur les discours civiques et le journalisme d’opposition.
5. Analyse du Conseil de surveillance
Le Conseil a analysé la décision de Meta dans ce cas-ci et l’a comparée aux politiques de contenu, aux valeurs et aux responsabilités de l’entreprise en matière de droits humains, ainsi que les implications de cette décision pour l’approche plus globale de la gouvernance du contenu par Meta. Il a tout particulièrement examiné à quel point il est important pour le journalisme d’intérêt public de modérer correctement les pages dans les régions où la liberté de la presse est mise à rude épreuve. Ce faisant, il a notamment tenu compte de l’annonce de Meta en date du 7 janvier 2025 : « accorder plus de place à la liberté d’expression tout en limitant les erreurs ».
5.1 Respect des politiques de Meta relatives au contenu
Règles relatives au contenu
Le Conseil estime que les quatre publications n’enfreignaient aucune des politiques de contenu de Meta, y compris ses règles en matière de conduite haineuse, et qu’elles n’auraient pas dû être supprimées. Même si elles avaient été en infraction, seule une pénalité aurait dû être infligée, ce qui ne constitue pas un motif suffisant pour fermer la page. Or, comme Meta le reconnaît désormais, aucun élément de la page ne violait ses règles. Puisque la page n’avait reçu aucune autre pénalité par le passé, aucune sanction n’aurait dû être imposée. La fermeture de la page était donc une réponse sévère et entièrement injustifiée.
L’incapacité de Meta à protéger le journalisme d’intérêt public dans ces cas-ci est une source d’inquiétude. Les plateformes de réseaux sociaux, en particulier Facebook, sont devenues des outils essentiels pour les journalistes indépendants au Somaliland. Comme la page semble être gérée par un journaliste indépendant et suivie par pas moins de 90 000 personnes et qu’elle traite de sujets sociaux et politiques sensibles, les répercussions des dysfonctionnements liés au contrôle qualité, aux systèmes de prévention des erreurs et à l’accès aux appels sont graves. Elles exacerbent encore davantage l’hostilité qui règne dans la région, marquée par la censure et la répression de la liberté d’expression par le gouvernement, alors que les signalements malveillants par des acteurs affiliés à l’État représentent un risque significatif (cf. le commentaire public du Legal Journal on Technology, PC-31314).
5.2 Respect des responsabilités de Meta en matière de droits humains
Le Conseil estime que la suppression du contenu et de la page n’était pas cohérente avec les responsabilités de Meta en matière de droits humains.
- Liberté d’expression (article 19 du PIDCP)
Les pratiques de modération de contenu de Meta peuvent nuire au droit à la liberté d’expression. L’article 19 du Pacte international relatif aux droits civils et politiques (PIDCP) prévoit de nombreuses protections pour la liberté d’expression, compte tenu de son importance pour les discours politiques (Observation générale n° 34, paragraphes 11 et 38). Le Comité des droits de l’homme des Nations Unies (ONU) souligne que l’« existence d’une presse […] libre[/], sans censure et sans entraves est essentielle » et « constitue l’une des pierres angulaires d’une société démocratique » (Observation générale n° 34, paragraphe 13).
Lorsque des restrictions de la liberté d’expression sont imposées par un État, elles doivent remplir des critères de légalité, d’objectif légitime, et de nécessité et de proportionnalité (article 19, paragraphe 3 du PIDCP). Ces exigences sont souvent reprises sous l’intitulé « test tripartite ». Le Conseil utilise ce cadre pour interpréter les engagements volontaires de Meta en matière de droits humains, à la fois pour la décision relative aux éléments de contenu individuels en cours d’examen et l’approche plus large de Meta en matière de gouvernance du contenu. Comme l’a déclaré le Rapporteur spécial sur la liberté d’opinion et d’expression, même si « les entreprises ne sont pas soumises aux mêmes devoirs que les gouvernements, leur influence est néanmoins telle qu’elle doit les inciter à se poser les mêmes questions qu’eux quant à la protection de la liberté d’expression de leurs utilisateurs » (A/74/486, paragraphe 41).
I. Légalité
Le principe de légalité prévoit que les règles qui limitent la liberté d’expression soient accessibles, claires et suffisamment précises pour permettre à un individu d’adapter son comportement en conséquence (Observation générale n° 34, paragraphe 25). En outre, ces règles « ne peu[ven]t pas conférer aux personnes chargées de [leur] application un pouvoir illimité de décider de la restriction de la liberté d’expression » et doivent « énoncer des règles suffisamment précises pour permettre aux personnes chargées de leur application d’établir quelles formes d’expression sont légitimement restreintes et quelles formes d’expression le sont indûment » (Ibid). Le Rapporteur spécial des Nations Unies sur la liberté d’expression a déclaré que lorsqu’elles s’appliquent aux acteurs privés, les règles régissant le discours en ligne devaient être claires et précises (A/HRC/38/35, paragraphe 46). Les personnes qui utilisent les plateformes de Meta doivent pouvoir accéder aux règles et les comprendre, et les équipes d’examen de contenu doivent disposer de conseils clairs sur leur application.
Meta ne dispose d’aucune ressource unique et centralisée qui fait état de ses politiques de contenu relatives aux pages, ce qui soulève des problèmes de clarté et de transparence. Les informations relatives à l’approche de Meta en matière de gouvernance des pages sont réparties à six endroits, y compris dans l’Espace modération, les pages d’aide et l’Espace Business. Les ressources liées aux politiques dans l’Espace Business de Meta nécessitent une connexion à un compte Facebook pour être consultées. Par exemple :
- À propos des Pages Facebook : informations générales à propos des pages. Meta requiert des utilisateurs qu’ils se connectent à un compte Facebook pour accéder à cette ressource.
- Politiques applicables aux pages, groupes et évènements et Conditions des pages Facebook : sur la manière de créer, de gérer et de modérer des pages.
- Supprimer des pages et des groupes et Limiter les comptes : sur les infractions aux politiques, les restrictions et le système de pénalités lié aux pages.
- Pour quelles raisons les pages Facebook sont-elles supprimées ou se voient-elles imposer des limites : sur les restrictions et les suppressions de pages.
Ces ressources sont incohérentes du point de vue du niveau de détail fourni et sont parfois vagues, voire contradictoires. Il est donc difficile et déroutant pour les utilisateurs et les modérateurs de comprendre les règles, ce qui soulève d’importants problèmes de légalité.
Les textes publics de Meta fournissent des informations limitées sur les processus et les critères suivis par Meta pour infliger des pénalités aux pages. Par exemple, l’entreprise ne donne aucun détail sur les critères de fermeture d’une page, en dehors des informations générales reprises dans les ressources susmentionnées. Bien que Meta indique publiquement qu’elle applique son système de pénalités au contenu publié sur les pages,elle dispose de critères distincts et confidentiels sur la fermeture des pages.
De même, alors que l’Espace modération liste les infractions qui peuvent être commises par l’intermédiaire des éléments clés de la page, tels que « le nom, la description ou la photo de couverture », il n’explique pas à partir de quel seuil une page peut être fermée, alors que ce dernier est indiqué aux modérateurs internes.
Meta devrait s’assurer que les règles relatives à la modération des pages soient faciles à consulter, à parcourir et à comprendre. Idéalement, elles devraient également être rassemblées dans une seule ressource centralisée.
II. Objectif légitime
En vertu du droit international relatif aux droits humains tel qu’il est appliqué aux États, toute restriction de la liberté d’expression doit également poursuivre un ou plusieurs objectifs légitimes, qui sont énumérés dans le PIDCP et qui comprennent la protection des droits d’autrui.
Le Conseil a précédemment estimé que la politique de Meta en matière de conduite haineuse visait à protéger les droits d’autrui, un objectif légitime reconnu par les normes internationales relatives aux droits humains (cf., p. ex., les décisions Publications soutenant les émeutes au Royaume-Uni et Bot au Myanmar).
III. Nécessité et proportionnalité
Conformément à l’article 19(3) du PIDCP, le principe de nécessité et de proportionnalité requiert que les restrictions de la liberté d’expression soient « appropriées pour remplir leur fonction de protection, elles doivent constituer le moyen le moins perturbateur parmi ceux qui pourraient permettre d’obtenir le résultat recherché et elles doivent être proportionnées à l’intérêt à protéger » (Observation générale n° 34, paragraphe 34). Toutefois, selon le Rapporteur spécial, les entreprises doivent « démontrer la nécessité et la proportionnalité de toute mesure prise à l’égard de contenus (comme les suppressions ou les suspensions de compte) » (A/HRC/38/35, paragraphe 28). Les entreprises sont tenues « de se poser les mêmes questions […] quant à la protection de la liberté d’expression de leurs utilisateurs » (A/74/486, paragraphe 41).
Le Conseil estime que la suppression de ces publications et la fermeture de cette page ne se fondaient sur aucune règle, et qu’elles n’étaient donc pas nécessaires, mais au contraire arbitraires et disproportionnées. Ces cas reflètent un problème de qualité systémique dans la modération de contenu en somali, associé à des inadéquations dans les processus d’appel et les programmes de prévention des erreurs de Meta. La confirmation par Meta qu’elle a supprimé par erreur dix autres publications ayant fait l’objet d’appels auprès du Conseil vient corroborer cette conclusion. Cela est particulièrement inquiétant compte tenu de l’environnement répressif pour la liberté de la presse et, de manière plus générale, la liberté d’expression au Somaliland. L’utilisation de la censure par le gouvernement, qui use de lois coercitives et de mesures d’intimidation pour contrôler les médias et réduire au silence les journalistes d’opposition, entraîne une grande dépendance envers les réseaux sociaux, en particulier Facebook, dont l’entreprise bénéficie (cf. le commentaire public du Syndicat somalien des journalistes, PC-31295). Dans un tel environnement, Meta a la responsabilité accrue de protéger la liberté d’expression et d’assurer l’accès à l’information. Compte tenu des répercussions graves qui peuvent découler des décisions liées à la fermeture de pages et à la suppression de contenu pour les journalistes de cette région, l’entreprise doit particulièrement veiller à assurer une modération exacte, de sorte qu’elle ne nuise pas davantage aux droits humains.
Prévention des erreurs
Les mesures de prévention des erreurs sont essentielles pour assurer que la liberté d’expression n’est pas indûment restreinte. Conçus pour réduire le nombre d’erreurs de suppression de contenu et de pages, ces systèmes aident Meta à atteindre ses objectifs en matière de sécurité grâce à des moyens moins intrusifs, qui visent à lutter contre le contenu nuisible sans que cela affecte excessivement la liberté d’expression.
Que Meta ait échoué à inclure la page dans son système de recoupement SSR révèle un problème potentiellement plus systémique : les pages comme celle dont il est question dans cette décision semblent répondre aux critères d’inscription, mais ne sont toutefois pas incluses de manière proactive. Si la page avait été inscrite, la suppression des quatre publications et la fermeture de la page auraient fait l’objet d’une remontée et un examen secondaire en interne aurait été effectué, ce qui aurait permis à Meta de détecter les erreurs et de les corriger, voire d’enquêter sur leur cause source. Tout cela souligne la nécessité d’identifier les acteurs vulnérables et de les inscrire dans le SSR de manière plus proactive, en particulier pour les journalistes et autres commentateurs de renom qui travaillent dans des territoires comme le Somaliland. Ces entités ne sont peut-être pas aussi importantes d’un point de commercial pour Meta, mais les conséquences sur la liberté d’expression qui découlent de leur exclusion de ces mécanismes de protection sont graves. Les critères SSR doivent être adaptés aux réalités du marché concerné : les seuils comme le nombre de followers doivent être pris en compte de manière proportionnée au nombre d’utilisateurs sur le marché. Les acteurs de la société civile qui traitent de sujets d’intérêt public, en particulier dans les environnements répressifs ou lorsque l’accès à l’information est difficile comme au Somaliland, doivent être priorisés.
Le système de recoupement GSR semble lui aussi ignorer le contenu d’intérêt public des journalistes et des reporters indépendants, et n’a pas compensé les limites de l’inscription au SSR dans ce cas-ci. Compte tenu de sa finalité, le GSR aurait dû détecter les publications et la page et les soumettre à un examen supplémentaire. Il ne l’a pas fait, ce qui suggère que le système n’accorde pas suffisamment de poids aux critères de détection les plus pertinents dans ce cas-ci. Le Conseil a fait déjà part de son inquiétude quant au fait que, même lorsque le système est activé, le contenu admissible est rarement redirigé vers les spécialistes de Meta et que, dès lors, il manque un niveau d’examen où le contexte peut être analysé (cf. l’Avis consultatif en matière de politique du Conseil sur le programme de recoupement de Meta). Grâce au GSR, le contexte qui entoure les reportages d’intérêt public dans la région, la portée de l’intervenant par rapport à la taille du marché et les défis plus généraux liés à la liberté civique et médiatique au Somaliland auraient dû entraîner la priorisation du contenu en vue de son examen supplémentaire en interne.
Les autres systèmes de prévention des erreurs de Meta, tels que le DMR, n’ont pas été efficaces pour empêcher les erreurs dans ce cas-ci ou n’ont pas été utilisés du tout. Bien que le DMR ait été activé dans le cadre des appels relatifs au contenu, il n’a pas réussi à corriger les décisions de modération erronées en raison de problèmes d’outils et de précision des modérateurs. Le DMR n’a pas été mis à profit lors de la décision de fermer la page ou lors des décisions initiales relatives au contenu. Ces décisions n’ont pas été signalées et renvoyées pour examen supplémentaire par d’autres systèmes de prévention des erreurs parce qu’elles n’atteignaient pas le seuil d’activation défini par Meta. Ces systèmes sont conçus pour prévenir les erreurs de modération dans les scénarios complexes ou aux conséquences potentielles graves, et le Conseil estime que ces cas-ci auraient dû remplir ce critère.
Le Programme d’inscription des journalistes est un mécanisme qui aurait pu aider dans ce cas-ci, étant donné qu’il peut influer sur l’inclusion d’un journaliste ou de son contenu dans le système de recoupement, bien que cela ne soit pas garanti. Que Meta n’ait pas été en mesure de fournir des informations sur les critères d’admissibilité des pays à ce programme est inquiétant, comme l’est le fait que la Somalie (y compris le Somaliland) n’y soit pas admissible en dépit des risques significatifs que les journalistes courent dans le pays. De même, les formalités d’inscription empêchent les journalistes indépendants de bénéficier de ce programme.
Toute cette série de lacunes met en évidence l’échec des systèmes de prévention des erreurs, un échec qui affecte la liberté d’expression de ceux qui ont le plus besoin de ces mécanismes de protection : les personnes qui se consacrent au journalisme dans des environnements répressifs où les audiences comptent sur Facebook pour accéder à des reportages indépendants. Si le Conseil ne s’était pas penché sur ces cas-ci, Meta ne prendrait peut-être pas de mesures pour combler ces lacunes. Ces cas doivent aider Meta à faciliter l’inscription des entités sensibles au système de recoupement SSR et à améliorer les capacités de détection et de classification du GSR, du DMR et des autres mécanismes similaires. Meta doit également s’assurer que son Programme d’inscription des journalistes dispose des ressources appropriées et qu’il est accessible sur plus de marchés, en particulier dans les environnements répressifs où le journalisme indépendant (y compris des reporters de renom) est menacé.
2. Accès au recours
L’article 2(3) du PIDCP prévoit de s’assurer que « toute personne dont les droits et libertés reconnus dans le présent Pacte auront été violés disposera d’un recours utile ». Cela signifie de pouvoir avoir accès à des mécanismes de nature « judiciaire, administrative ou législative, ou tout[/] autre [mécanisme] compétent[/] » pour identifier la violation et donner suite au recours. Le Comité des droits de l’homme de l’ONU a déclaré que les « recours doivent être adaptés comme il convient de façon à tenir compte des faiblesses particulières de certaines catégories de personnes » (Observation générale n° 31). Dans la Déclaration commune sur la liberté de la presse et la démocratie, le Rapporteur spécial des Nations Unies sur la liberté d’expression et des titulaires de mandat régionaux pour la liberté d’expression invitent « les grandes plateformes en ligne [à] privilégie[r] les médias indépendants de qualité et les contenus d’intérêt public sur leurs services afin de faciliter le discours démocratique » et « [à] remédie[r] rapidement et de manière adéquate aux suppressions injustifiées de médias indépendants de qualité et de contenus d’intérêt public, y compris par un examen manuel accéléré » (Recommandations à l’intention des plateformes de réseaux sociaux, page 8).
Les Principes directeurs des Nations Unies relatifs aux entreprises et aux droits de l’homme (PDNU), soutenus par le Conseil des droits de l’homme des Nations Unies en 2011, établissent un cadre de travail volontaire pour les responsabilités en matière de droits de l’homme des entreprises privées. Les PDNU comblent l’écart entre les obligations des États et les responsabilités des entreprises, et servent de cadre crucial à l’application du droit à un recours utile, encourageant les entreprises à établir des mécanismes de réclamation qui soient « légitimes, accessibles, prévisibles, équitables, transparents, compatibles avec les droits et une source d’apprentissage permanent », et à y participer (Principe 31 des PDNU). Bien que le droit international relatif aux droits de l’homme impose en premier lieu aux États le devoir de protéger des abus commis par les acteurs privés, les PDNU introduisent une « responsabilité [parallèle] de respecter les droits de l’homme », qui exige des entreprises, y compris des plateformes, qu’elles évitent de porter atteinte aux droits et qu’elles remédient à toutes répercussions. Les PDNU encouragent les entreprises à « établir des mécanismes de réclamation au niveau opérationnel ou y participer pour les individus et les collectivités qui risquent d’être lésés » (Principe 29), et ajoutent que de tels mécanismes doivent être capables de « fournir des indicateurs d’alerte avancée et de remédier rapidement aux réclamations avant qu’elles s’intensifient » (Principe 30).
Le Conseil comprend que des erreurs peuvent se produire dans la modération de contenu à grande échelle en raison du volume, de la complexité et des limites de l’automatisation et des capacités de jugement des êtres humains. Il rappelle également à Meta son engagement renouvelé le 7 janvier 2025 d’« accorder plus de place à la liberté d’expression tout en limitant les erreurs ». Il s’inquiète fortement de constater que les systèmes d’appel de Meta ont échoué à fournir les recours adéquats à l’utilisateur dans ces cas-ci. Cela est particulièrement inquiétant compte tenu de l’environnement fragile dans lequel évoluent les médias et les journalistes indépendants au Somaliland, et de l’accès limité du public aux informations d’actualité sur le territoire.
Le fait qu’un modérateur humain ait été chargé d’examiner un appel contre des décisions qu’il avait lui-même prises nuit encore plus à l’intégrité du processus. Le Conseil a déjà fait part de ses inquiétudes quant à ce problème (cf. la décision Violence faite aux femmes) et considère que le manque de moyens n’est pas une justification suffisante. Des mécanismes de protection plus sûrs sont nécessaires, en particulier pour les journalistes indépendants dans les territoires comme le Somaliland.
Le fait que ces lacunes n’aient été révélées qu’à la suite des appels de cet utilisateur auprès du Conseil montre à quel point il est important d’établir des recours efficaces et met en lumière de nombreuses faiblesses majeures dans les processus de l’entreprise. En dépit des huit examens auxquels ont été soumis les appels contre les décisions sur le contenu initiales, le bon résultat n’a pas été obtenu, et l’appel contre la fermeture initiale de la page qui a déclenché toutes ces suppressions n’a pas été examiné du tout. Il a fallu à Meta beaucoup de temps, lors de l’examen de ces cas-ci, pour ne fournir en fin de compte que des informations générales sur la cause source de ces erreurs. Cela révèle des lacunes systémiques dans l’identification et l’évaluation des erreurs. Bien que le Conseil reconnaisse que, pour des raisons techniques, Meta ne configure pas ses outils de modération pour capturer les processus de décision de ses modérateurs dans le moindre détail, les faiblesses identifiées dans ces cas-ci suggèrent que cela nuit sérieusement aux capacités de Meta à enquêter sur les problèmes de modération systémiques et à les résoudre.
6. Décision du Conseil de surveillance
Le Conseil de surveillance annule la décision de Meta de supprimer les quatre éléments de contenu et de fermer la page, ce qui implique que la page doit être elle aussi restaurée.
7. Recommandations
Politique de contenu
1. Pour mieux informer les utilisateurs sur les règles qui s’appliquent aux pages, Meta doit créer une ressource consolidée dans son Espace modération pour expliquer ses politiques de contenu et ses consignes de modération, y compris son système de pénalités, et s’assurer que les administrateurs de pages y aient facilement accès.
Le Conseil considérera que cette recommandation a été mise en œuvre lorsque Meta aura créé ladite ressource consolidée dans son Espace modération et qu’elle en aura prouvé la visibilité pour les administrateurs de pages.
Mise en application
2. Pour assurer l’accès à un recours efficace, Meta doit revoir ses processus d’appel pour empêcher les modérateurs humains d’examiner des appels contre leurs propres décisions, y compris en cas de fermeture de pages. Cette révision doit être faite de manière à n’entraîner aucune augmentation de la proportion des tâches de révision d’appel qui sont clôturées automatiquement.
Le Conseil considérera que cette recommandation a été mise en œuvre lorsque Meta aura fourni au Conseil des documents pour confirmer que ces règles ont été mises à jour et des données pour prouver qu’il n’y aucune diminution consécutive du taux d’appels examinés.
3. Pour s’assurer que les pages ne sont pas fermées par erreur, Meta doit mettre à jour l’algorithme de classification de son Examen secondaire général (GSR) pour accorder explicitement la priorité aux décisions de fermeture de pages et les rediriger en vue d’un examen en interne.
Le Conseil considérera que cette recommandation a été mise en œuvre lorsque Meta aura fourni au Conseil des documents qui définissent les nouveaux critères de priorisation, ainsi que des données qui font état des changements consécutifs dans la fréquence à laquelle les décisions de fermeture de pages sont examinées dans le cadre du programme GSR.
4. Pour protéger le journalisme dans les régions où la liberté de la presse est réprimée, Meta doit établir de nouveaux critères et de nouveaux systèmes pour inscrire proactivement à l’Examen secondaire de l’entité sensible (SSR) les pages ou les comptes qui se consacrent au journalisme dans ces régions. Les seuils de followers doivent être ajustés en fonction de la taille du marché, et les critères existants pour la désignation des organes de presse ne doivent pas empêcher l’adhésion. Des sources reconnues, comme l’indice d’impunité du Comité pour la protection des journalistes, doivent être utilisées pour accorder la priorité aux régions à haut risque.
Le Conseil considérera que cette recommandation a été mise en œuvre lorsque Meta aura partagé avec le Conseil des données et des informations qui détaillent ses nouveaux critères de désignation pour les protections SSR des médias et le nombre de nouvelles désignations qui en découlent pour chaque marché.
* Note de procédure :
- Les décisions du Conseil de surveillance sont prises par des panels de cinq membres et approuvées par une majorité du Conseil dans son ensemble. Les décisions du Conseil ne représentent pas nécessairement les opinions de tous les membres.
- En vertu de sa Charte, le Conseil de surveillance est habilité à examiner les appels déposés par les utilisateurs dont le contenu a été supprimé par Meta, les appels déposés par les utilisateurs ayant signalé un contenu que Meta n’a finalement pas supprimé, et les décisions que Meta lui transmet (article 2, section 1 de la Charte). Le Conseil dispose d’une autorité contraignante pour confirmer ou annuler les décisions de Meta relatives au contenu (article 3, section 5 de la Charte ; article 4 de la Charte). Le Conseil est habilité à émettre des recommandations non contraignantes auxquelles Meta doit répondre (article 3, section 4 de la Charte ; article 4). Lorsque Meta s’engage à donner suite aux recommandations, le Conseil surveille leur mise en œuvre.
- Pour la décision sur ce cas, des recherches indépendantes ont été commandées au nom du Conseil. Le Conseil a bénéficié de l’aide de Duco Advisors, une société de conseil spécialisée dans la géopolitique, la confiance et la sécurité, ainsi que la technologie.* *L’entreprise Lionbridge Technologies, LLC, dont les spécialistes parlent couramment plus de 350 langues et travaillent dans 5000 villes du monde entier, a fourni son expertise linguistique.*
Retour aux décisions de cas et aux avis consultatifs politiques