Renversé
Mention des talibans dans les informations d’actualité
Le Conseil de surveillance a annulé la décision initiale de Meta de supprimer une publication sur Facebook d’une Page d’un média informant sur une déclaration positive du régime taliban en Afghanistan sur l’éducation des femmes et des filles.
Cette décision est disponible à la fois en ourdou (via l’onglet « Langue », auquel vous pouvez accéder dans le menu situé en haut de l’écran), en pachto (ici), et en dari (ici).
په پښتو ژبه د دغې پريکړې د لوستلو لپاره دلته کليک وکړئ.
برای خواندن اين تصميم اينجا فشار دهيد.
Résumé du cas
Le Conseil de surveillance a annulé la décision initiale de Meta de supprimer une publication sur Facebook d’une Page d’un média informant sur une déclaration positive du régime taliban en Afghanistan sur l’éducation des femmes et des filles. La suppression de la publication n’était pas conforme aux Standards de la communauté de Facebook relatif aux personnes et aux organisations dangereuses. Ces standards autorisent le signalement de groupes terroristes et les responsabilités de Meta en matière de droits de l’homme. Le Conseil a constaté que Meta devrait mieux protéger la liberté d’expression des utilisateurs en ce qui concerne les déclarations sur les régimes terroristes. En outre, il formule des recommandations de politique générale pour y parvenir.
À propos du cas
En janvier 2022, un journal populaire en langue ourdoue, dont le siège est basé en Inde, a publié un article sur sa Page Facebook. La publication rapportait que Zabiullah Mujahid, membre du régime taliban en Afghanistan et son porte-parole central officiel, avait annoncé que les écoles et les collèges pour femmes et filles rouvriraient en mars 2022. La publication renvoyait à un article sur le site web du journal et a été vue environ 300 fois.
Meta a estimé que la publication enfreignait la règle relative aux personnes et organisations dangereuses, qui interdit de « faire l’éloge » d’entités réputées « commettre de graves actes de violence hors ligne », notamment des organisations terroristes. Meta a supprimé la publication, a imposé des « pénalités » à l’administrateur de la Page qui avait publié le contenu et a limité son accès à certaines fonctionnalités de Facebook (comme le fait d’être en direct sur Facebook).
L’utilisateur a fait appel et, après qu’un second examen manuel a jugé la publication contraire aux règles, celle-ci a été placée dans une file d’attente pour le système HIPO (High-Impact False Positive Override). HIPO est un système que Meta utilise pour identifier les cas où elle a agi de manière incorrecte, par exemple en supprimant à tort du contenu. Cependant, comme il y avait moins de 50 examinateurs parlant l’ourdou affectés à la plateforme HIPO à l’époque, et que la publication n’était pas classée priorité élevée, elle n’a jamais été examinée par le système HIPO.
Une fois le cas retenu par le Conseil, Meta a conclu que la publication n’aurait pas dû être supprimée, car ses règles autorisent des « informations sur » les organisations terroristes. Meta a restauré le contenu, annulé la pénalité et supprimé les restrictions sur le compte de l’utilisateur.
Principales observations
Le Conseil de surveillance estime que la suppression de cette publication n’est pas conforme aux Standards de la communauté Facebook relatifs aux personnes et organisations dangereuses, aux valeurs de Meta ou aux responsabilités de l’entreprise en matière de droits de l’homme.
Le standard de la communauté relatif aux personnes et aux organisations dangereuses interdit les « éloges » de certaines entités, dont les organisations terroristes. La définition du terme « éloge » est très large, tant au niveau du standard de la communauté spécifique que dans les conseils internes destinés aux modérateurs. Par conséquent, le Conseil comprend pourquoi deux examinateurs ont interprété le contenu comme un éloge. Toutefois, le standard de la communauté autorise les contenus qui « informent sur » les organisations dangereuses. Le Conseil estime que cette autorisation s’applique dans ce cas.
Le Conseil estime également que la suppression de la publication est incompatible avec les responsabilités de Meta en matière de droits de l’homme. Cette suppression restreint de manière injustifiée la liberté d’expression, qui englobe le droit de transmettre et de recevoir des informations, y compris sur les groupes terroristes. Ce droit est particulièrement important en période de conflit et de crise, notamment lorsque des groupes terroristes exercent un contrôle sur un pays.
Le Conseil est préoccupé par le fait que les systèmes et les politiques de Meta interfèrent avec la liberté d’expression lorsqu’il s’agit d’informer sur les régimes terroristes. Les Standards de la communauté de l’entreprise et les conseils internes destinés aux modérateurs ne sont pas clairs quant à l’application de l’interdiction de faire des éloges et de l’autorisation d’informer, ni quant à la relation entre les deux. Le fait que deux examinateurs aient jugé que la publication était en infraction suggère que ces points ne sont pas bien compris. Le Conseil s’inquiète du fait que Meta supprime par défaut les contenus relevant de la politique relative aux personnes et organisations dangereuses si les utilisateurs n’ont pas clairement indiqué que leur intention était d’« informer ». Le Conseil est également préoccupé par le fait que le contenu n’a pas été examiné dans le cadre du système HIPO.
Ce cas peut être révélateur d’un problème plus vaste. Le Conseil a examiné un certain nombre de plaintes concernant des erreurs dans l’application de la politique relative aux personnes et organisations dangereuses, notamment dans des langues autres que l’anglais. Cela soulève de graves préoccupations, en particulier pour les journalistes et les défenseurs des droits de l’homme. En outre, les sanctions en cas d’infraction à la politique ne sont pas claires et sont sévères.
Décision du Conseil de surveillance
Le Conseil de surveillance a annulé la décision initiale de Meta visant à supprimer la publication.
Le Conseil recommande à Meta de :
- Enquêter sur les raisons pour lesquelles les modifications apportées à la politique relative aux personnes et organisations dangereuses n’ont pas été traduites dans les délais prévus, et éviter que de tels retards ne se reproduisent.
- Rendre l’explication publique de son système de « sanctions » plus complète et plus accessible.
- Restreindre la définition de la notion d’« éloges » dans le document Sujets courants (conseils internes destinés aux modérateurs) en supprimant l’exemple d’un contenu qui « cherche à faire en sorte que les autres aient une meilleure opinion » des organisations dangereuses.
- Réviser ses Standards d’implémentation (conseils internes destinés aux modérateurs) afin de préciser que l’autorisation de déclaration prévue par la politique relative aux organisations et aux personnes dangereuses autorise les déclarations positives. Le document Sujets courants devrait clarifier l’importance de la protection des informations dans les situations de conflit ou de crise.
- Évaluer la précision avec laquelle les examinateurs appliquent l’autorisation de déclaration à la politique relative aux personnes et organisations dangereuses afin d’identifier la cause des erreurs.
- Procéder à un examen du système HIPO afin de déterminer s’il est en mesure de hiérarchiser plus efficacement les erreurs potentielles dans l’application des exceptions à la politique relative aux personnes et organisations dangereuses.
- Augmenter la capacité allouée à la révision du système HIPO dans toutes les langues.
*Les résumés de cas fournissent une présentation du cas et n’ont pas valeur de précédent.
Décision complète sur le cas
1. Résumé de la décision
Le Conseil de surveillance annule la décision initiale de Meta de supprimer une publication Facebook sur la Page d’un journal populaire en langue ourdoue en Inde. Cette publication rapporte une communication d’un membre éminent et porte-parole du régime taliban en Afghanistan concernant l’éducation des femmes et des filles en Afghanistan. Meta est revenu sur sa décision après que le Conseil a retenu ce cas, et a annulé les sanctions sur le compte de l’administrateur. Le Conseil estime que la publication ne porte pas atteinte aux Standards de la communauté sur les personnes et organisations dangereuses, car la politique autorise les « informations sur » les entités désignées. Le Conseil est préoccupé par la définition large de Meta de la notion d’« éloges », et par le manque de clarté des examinateurs sur la manière d’appliquer les exceptions à la politique sur les informations relatives aux actions prises par les entités désignées qui exercent le contrôle d’un pays. Cela nuit à la capacité des organes de presse d’informer sur des actions et des déclarations des entités désignées dans des situations comme celle-ci, où le régime des talibans a renversé par la force le gouvernement légitime en Afghanistan. Le Conseil estime que Meta n’a pas respecté ses responsabilités en matière de prévention ou d’atténuation des erreurs lors de l’application de ces exceptions à la politique. La décision recommande que Meta modifie sa politique et ses processus d’application des Standards de la communauté relatifs aux personnes et organisations dangereuses.
2. Description du cas et contexte
En janvier 2022, la page Facebook d’un média basé en Inde a partagé une publication en ourdou contenant un lien vers un article sur son propre site web. Meta indique que la publication a été vue environ 300 fois. La publication indiquait que Zabiullah Mujahid, agissant en tant que « ministre de la Culture et de l’Information » et porte-parole central officiel du régime taliban en Afghanistan, avait annoncé que les écoles et les universités pour les filles et les femmes ouvriraient au début de la nouvelle année afghane le 21 mars. L’article en lien contient un rapport plus complet sur cette annonce.
Le média est un journal en langue ourdoue basé à Hyderabad, en Inde, une ville qui compte un grand nombre de résidents parlant l’ourdou. Il s’agit du journal en langue ourdoue ayant le plus grand tirage dans le pays et qui revendique un lectorat quotidien de plus d’un million de personnes. Il y a environ 230 millions de personnes parlant l’ourdou dans le monde.
Aucun État n’a accordé de reconnaissance diplomatique officielle au régime taliban en Afghanistan depuis que le groupe a pris le pouvoir en août 2021. Les écoles et les universités pour les filles et les femmes n’ont pas ouvert au début de la nouvelle année afghane comme le porte-parole l’avait annoncé, et les filles âgées de 12 ans et plus (de niveau sixième), ainsi que les femmes restent interdites d’école au moment de la décision du Conseil dans ce cas.
Le 20 janvier 2022, un utilisateur de Facebook a cliqué sur « signaler la publication » du contenu mais n’a pas mené sa plainte à terme. Cela a déclenché un classificateur (un outil d’apprentissage automatique formé pour identifier les infractions aux Standards de la communauté Meta) qui a estimé que le contenu était susceptible d’enfreindre la politique relative aux personnes et organisations dangereuses et l’a envoyé pour examen manuel. Un examinateur parlant l’ourdou a déterminé que le contenu enfreignait la politique relative aux personnes et organisations dangereuses et l’a supprimé le jour même de sa publication. Meta a expliqué que c’était parce que le contenu faisait l’éloge d’une organisation désignée. Les talibans représentent une organisation terroriste désignée de niveau 1 en vertu de la politique de Meta relative aux personnes et organisations dangereuses. À la suite de cette violation, Meta a également appliqué une pénalité sévère et une pénalité standard à l’encontre de l’administrateur de la Page. En général, bien que le contenu publié sur les Pages Facebook semble provenir de la Page elle-même (par exemple, le média), il est rédigé par les administrateurs de la Page avec des comptes Facebook personnels. En cas de pénalités, Meta impose des restrictions temporaires à la capacité des utilisateurs d’exécuter des fonctions essentielles sur la plateforme (comme le partage de contenu), appelées « limites de fonctionnalités », ou désactive le compte. Les pénalités les plus sévères entraînent des sanctions plus sévères. Dans ce cas, les pénalités ont entraîné l’imposition d’une limite de 3 jours et d’une limite supplémentaire plus longue à l’administrateur de la Page. La première empêchait l’utilisateur de créer de nouveaux contenus publics et de créer ou de rejoindre des salons Messenger. La seconde empêchait l’utilisateur de lancer un direct sur Facebook, d’utiliser des produits publicitaires, et de créer ou de rejoindre des salons sur Messenger. En outre, la Page de l’agence de presse elle-même a également reçu une pénalité standard et une pénalité sévère.
Le 21 janvier, l’administrateur de la Page du média (« l’utilisateur») a fait appel de la suppression du contenu auprès de Meta. Le contenu a été analysé par un autre examinateur parlant l’ourdou, qui a également estimé que le contenu enfreignait le standard de la communauté sur les personnes et organisations dangereuses. Bien que le contenu ait ensuite été placé dans une file d’attente permettant d’identifier et d’annuler les « faux positifs » (contenu traité à tort pour avoir enfreint les Standards de la communauté), connue sous le nom de High Impact False Positive Override (HIPO), il n’a fait l’objet d’aucun examen supplémentaire. Selon Meta, cela s’explique par le nombre d’examinateurs HIPO parlant l’ourdou au milieu de l’année 2022 et par le fait que le contenu en question, après avoir été supprimé, n’a pas reçu des systèmes automatisés de Meta un score de priorité aussi élevé que les autres contenus de la file d’attente HIPO à ce moment-là.
Après que le Conseil a retenu l’appel de l’utilisateur pour examen, Meta a conclu que sa décision initiale de retrait était erronée, car ses Standards de la communauté autorisent le fait d’« informer sur » des organisations et des personnes désignées. Le 25 février 2022, Meta a donc rétabli le contenu. Meta a également supprimé la limite de fonctionnalité plus longue qu’elle avait imposée et a annulé la sanction contre le compte de l’administrateur et la Page.
3. Champ d’application et autorité du Conseil de surveillance
Le Conseil jouit de l’autorité nécessaire pour examiner la décision de Meta à la suite d’un appel interjeté par l’utilisateur dont le contenu a été supprimé (article 2, section 1 de la Charte ; article 3, section 1 des Statuts). Le Conseil peut confirmer ou annuler la décision de Meta (article 3, section 5 de la Charte), et ce, de manière contraignante pour l’entreprise (article 4 de la Charte). Meta doit également évaluer la possibilité d’appliquer la décision à un contenu identique dans un contexte parallèle (article 4 de la Charte). Les décisions du Conseil peuvent inclure des avis consultatifs sur la politique avec des recommandations non contraignantes auxquelles Meta doit répondre (article 3, section 4 ; article 4 de la Charte).
4. Sources d’autorité
Le Conseil de surveillance a pris en compte les autorités et les standards suivants dans sa décision :
I. Décisions du Conseil de surveillance :
Les décisions les plus pertinentes que le Conseil de surveillance a rendues par le passé incluent les éléments suivants :
- « Publication partagée d’Al Jazeera » (Décision sur le cas 2021-009-FB-UA) : Le Conseil a recommandé que Meta fournisse des critères et des exemples accessibles au public dans son standard de la communauté relatif aux personnes et organisations dangereuses pour les autorisations suivantes de la politique : « discussion neutre », « information » et « condamnation ».
- « Isolement d’Öcalan » (Décision sur le cas 2021-006-IG-UA) : Le Conseil a recommandé que Meta clarifie, dans ses Standards de la communauté des personnes et organisations dangereuses destinés au public, la manière dont les utilisateurs peuvent préciser leur intention lorsqu’ils publient un message. Il a réitéré les recommandations selon lesquelles Meta devrait divulguer soit la liste complète des personnes et organisations désignées, soit une liste à titre d’illustration. Le Conseil a également appelé à une plus grande transparence dans les rapports sur les taux d’erreur relatifs à l’application de son interdiction de faire l’éloge et de soutenir les personnes et organisations désignées, réparties par région et par langue.
- « Inquiétude pendjabie concernant le RSS en Inde » (Décision sur le cas 2021-003-FB-UA) : Le Conseil recommande que Meta rende ses Standards de la communauté accessibles dans toutes les langues parlées par un grand nombre de ses utilisateurs. Le Conseil a également exprimé son inquiétude à propos du fait que les règles de Meta relatives aux restrictions étaient éparpillées et qu’elles n’étaient pas reprises dans les Standards de la communauté, comme on aurait pu le croire.
- « Citation nazie » Décision sur le cas 2020-005-FB-UA) : Le conseil a recommandé que Meta fournisse des exemples des termes « éloge », « soutien » et « représentation » dans les Standards de la communauté concernant les personnes et organisations dangereuses.
II. Règles de Meta relatives au contenu :
Le standard de la communauté relatif aux personnes et organisations dangereuses stipule que « les organisations ou les personnes qui revendiquent des objectifs violents ou qui sont impliqués dans des activités violentes ne sont pas les bienvenus sur Facebook ».
Meta divise ses désignations d’entités « dangereuses » en 3 niveaux, expliquant que ceux-ci « indiquent le niveau de mise en application du contenu, le niveau 1 entraînant la mise en application la plus étendue, car Meta estime que ces entités possèdent les liens les plus directs avec la violence hors ligne ». Les désignations de niveau 1 sont axées sur les « entités qui se livrent à de graves préjudices hors ligne », notamment les « organisations terroristes, haineuses et criminelles ». Meta supprime les « éloges », les « soutiens techniques » et les « représentations » des entités de niveau 1 ainsi que de leurs dirigeants, de leurs fondateurs ou de leurs membres éminents. Meta désigne les talibans comme une entité de niveau 1.
Les Standards de la communauté donnent la définition suivante du terme « éloge » : « toute déclaration positive à l’égard d’une entité ou d’un évènement désignés », « tout sentiment de succès accordé à une entité ou à un évènement désignés », « tout propos visant à légitimer la cause d’une entité désignée en affirmant que son comportement haineux, violent ou criminel est légalement, moralement ou autrement justifié ou acceptable » ou « tout contenu s’alignant idéologiquement sur une entité ou un évènement désignés ».
Meta reconnaît que « les utilisateurs peuvent partager des contenus incluant des références à des organismes et des individus dangereux pour les signaler, les condamner ou engager une discussion neutre sur leurs activités ». Meta affirme que ses politiques sont conçues pour « laisser un espace à ces types de discussions tout en limitant simultanément les risques potentiels de violence hors ligne ». Toutefois, Meta exige que « les utilisateurs déclarent clairement leur intention lorsqu’ils créent ou partagent un tel contenu. Si l’intention d’un utilisateur est ambiguë ou peu claire, nous supprimons le contenu par défaut ».
III. Valeurs de Meta :
La « liberté d’expression » y est décrite comme « primordiale » :
L’objectif de nos Standards de la communauté est de créer un espace d’expression et de donner la parole au public. Meta souhaite que les personnes puissent s’exprimer ouvertement sur les sujets qui comptent pour elles, même si d’autres peuvent marquer leur désaccord ou y trouver à redire.
Facebook limite la « liberté d’expression » au profit de 4 valeurs. La « sécurité » est la valeur la plus pertinente dans le cas présent :
Nous nous engageons à faire de Facebook un endroit sûr. Nous supprimons les contenus susceptibles de menacer la sécurité physique. Les formes d’expression menaçantes peuvent intimider les autres personnes, les exclure ou les réduire au silence, et ne sont donc pas autorisées sur Facebook.
IV. Normes internationales relatives aux droits de l’homme :
Les Principes directeurs relatifs aux entreprises et aux droits de l’homme des Nations Unies (PDNU), soutenus par le Conseil des droits de l’homme des Nations Unies en 2011, établissent un cadre de travail volontaire pour les responsabilités relatives aux droits de l’homme des entreprises privées. En 2021, Meta a annoncé l’entrée en vigueur de sa Politique d’entreprise relative aux droits de l’homme, dans laquelle elle a réaffirmé son engagement à respecter les droits de l’homme conformément aux PDNU. L’analyse du Conseil sur les responsabilités de Meta en matière des droits de l’homme en l’espèce s’est appuyée sur les standards des droits de l’homme suivantes :
- Le droit à la liberté d’opinion et d’expression : l’article 19 du Pacte international relatif aux droits civils et politiques (PIDCP), l’Observation générale n° 34, Comité des droits de l’homme (2011) ; la Résolution du Conseil des droits de l’homme relative à la sécurité des journalistes, A/HRC/RES/45/18, 2020 ; Déclaration de Brisbane sur la liberté de l’information adoptée par l’UNESCO : le droit de savoir ; le rapport du Rapporteur spécial des Nations Unies sur la liberté d’opinion et d’expression, A/74/486, 2019.
- Le droit à l’éducation : l’article 13 du Pacte international relatif aux droits économiques, sociaux et culturels ; l’article 10 de la Convention sur l’élimination de toutes les formes de discrimination à l’égard des femmes ; Articles 28-29 sur la Convention des droits de l’enfant, la Convention de l’UNESCO contre la discrimination dans le domaine de l’enseignement, 1960.
- Le droit à la non-discrimination : articles 2 et 26 du PIDCP.
- Le droit à la vie : l’article 6 du PIDCP ; l’Observation générale n° 36, 2018, Comité des droits de l’homme ;
- Le droit à la sécurité de sa personne : l’article 9 du PIDCP, tel qu’interprété par l’Observation générale n° 35, paragraphe 9, Comité des droits de l’homme, 2014.
5. Soumissions de l’utilisateur
Dans sa déclaration au Conseil, l’utilisateur affirme représenter un organisme de presse et ne pas soutenir l’extrémisme. L’utilisateur affirme que ses articles sont basés sur des sources médiatiques nationales et internationales et que ce contenu a été partagé pour fournir des informations sur l’éducation des femmes et des filles en Afghanistan. De plus, l’utilisateur affirme toujours vérifier que le contenu qu’il partage est dans l’intérêt du public et qu’il est acceptable selon les Standards de la communauté de Meta.
6. Soumissions de Meta
Après avoir réexaminé sa décision initiale, Meta a conclu que le contenu dans ce cas n’aurait pas dû être supprimé au motif qu’il faisait l’éloge d’une organisation désignée dans le cadre de la politique relative aux personnes et organisations dangereuses. Meta a expliqué que le contexte d’actualité sous-jacent signifiait que le contenu aurait dû bénéficier de l’autorisation de la politique permettant aux utilisateurs d’informer sur les entités désignées.
Meta a expliqué que la publication et son article lié comprenaient des informations sur les dates et les détails de la réouverture des écoles, une question d’intérêt public. Selon Meta, la politique relative aux personnes et organisations dangereuses autorise les reportages qui mentionnent des entités désignées. Pour bénéficier des autorisations prévues par la politique relative aux personnes et organisations dangereuses, Meta a déclaré : « Nous demandons aux utilisateurs d’indiquer clairement leur intention. Si l’intention d’un utilisateur est ambiguë ou peu claire, nous supprimons le contenu par défaut ». Meta a également expliqué que l’entreprise préfère que ses examinateurs ne déduisent pas l’intention, car cela « permet de réduire la subjectivité, les préjugés et l’application inéquitable pendant l’examen du contenu tout en maintenant l’évolutivité de nos politiques ».
Meta a informé le Conseil de son incapacité à expliquer pourquoi deux examinateurs ont incorrectement supprimé le contenu et n’ont pas appliqué de manière appropriée l’autorisation d’informer. L’entreprise a fait remarquer que les modérateurs ne sont pas tenus de documenter les raisons de leur décision au-delà de la classification du contenu dans le cadre de leur examen. Dans ce cas, il s’agissait d’une infraction à la politique de Meta relative aux personnes et organisations dangereuses pour cause d’éloges.
En réponse au Conseil qui demandait si l’éloge d’organisations dangereuses pouvait être diffusé dans le cadre d’un reportage, Meta a déclaré que sa politique « autorise les reportages dans lesquels une ou plusieurs personnes peuvent faire l’éloge d’une personne ou d’une entité dangereuse désignée ».
En réponse à la question du Conseil sur la différence entre les pénalités standard et les pénalités sévères, Meta a expliqué que le système de pénalités comporte deux volets pour la mise en application des Standards de la communauté : un qui s’applique à tous les types d’infraction (standard), et un qui s’applique aux infractions les plus flagrantes (sévères). Meta déclare que toutes les infractions à la politique relative aux personnes et organisations dangereuses sont traitées comme des infractions graves. L’entreprise a expliqué au Conseil que les pénalités sévères sont celles qui s’appliquent aux violences les plus graves et qui limitent l’accès aux services à haut risque tels que les vidéos Facebook Live et les publicités. Meta a également fait référence à une Page de son Espace modération sur « Limiter les comptes » (mise à jour le 11 février 2022) qui, selon l’entreprise, explique son approche des pénalités.
En réponse aux questions du Conseil, Meta a fourni des explications supplémentaires sur ses systèmes de correction des erreurs de mise en application et sur l’impact de ces derniers sur ce cas, ce qui a amené le Conseil à poser plusieurs questions dans la foulée. Le contenu de ce cas a été automatiquement détecté et envoyé à un canal High Impact False Positive Override (appelé HIPO par Meta). Il s’agit d’un système conçu pour corriger les erreurs potentielles de faux positifs après qu’une action a été entreprise sur le contenu. Meta a clairement indiqué au Conseil que ce système s’oppose à celui d’examen secondaire général de Meta (qui fait partie du programme de vérification). Celui-ci est conçu pour prévenir les erreurs de faux positifs avant que des mesures soient prises sur le contenu. Le contenu envoyé au canal HIPO rejoint une file d’attente pour un examen supplémentaire, mais l’examen n’aura lieu que si la capacité le permet. La position du contenu dans la file d’attente dépend d’un score de priorité automatiquement attribué au contenu. Meta a expliqué que le contenu est classé par ordre de priorité pour l’examen HIPO en fonction de facteurs dont les suivants : sensibilité du sujet (si un sujet est tendance ou sensible), probabilité de faux positifs, portée prédite (le nombre estimé de vues que le contenu pourrait obtenir), et sensibilité de l’entité (l’identité du groupe ou de l’utilisateur qui partage le contenu). Meta a expliqué que le contenu peut être restauré de deux manières : soit l’élément du contenu spécifique est examiné par des modérateurs et reconnu exempt d’infractions, soit les systèmes automatisés de Meta constatent que le contenu correspond à un autre contenu qui a été examiné et reconnu exempt d’infractions.
La Page du média était auparavant soumise à une vérification, mais dans le cadre d’une mise à jour du système de vérification à l’échelle de la plateforme, la Page n’a pas été soumise à une vérification lorsque le contenu du cas a été examiné, et la vérification n’a pas eu d’impact sur l’examen du contenu du cas. Selon Meta, la vérification comprend désormais deux systèmes : L’examen secondaire général qui s’applique à tout le contenu organique sur Facebook et Instagram, l’examen secondaire de l’équipe d’intervention rapide qui s’applique à tout le contenu publié par des entités spécifiques répertoriées, y compris certains organes de presse. Meta a déclaré que lorsque le contenu de ces entités spécifiques est identifié comme enfreignant une politique de contenu, il est transmis pour un examen supplémentaire plutôt que d’être réprimé. Il est d’abord envoyé à l’équipe des marchés de Meta. Si un examinateur de cette équipe estime que le contenu n’est pas en infraction, le processus se termine et le contenu reste sur la plateforme. Cependant, si un examinateur de cette équipe trouve que le contenu est en infraction, il est transmis à une autre équipe. Cette équipe, l’équipe d’intervention rapide, est composée d’examinateurs spécialisés dans le contenu Meta. Il faut qu’un examinateur de cette équipe estime que le contenu est en infraction pour qu’il puisse être retiré.
Au moment où le contenu de l’affaire a été identifié comme étant en infraction, la Page du média ne figurait pas sur la liste d’examen secondaire de l’équipe d’intervention rapide dans le système actuel de vérification. De plus, le contenu du cas en question n’a pas été examiné dans le cadre du système d’examen secondaire général, qui impliquerait également un examen supplémentaire avant exécution. Selon Meta, le contenu a été envoyé au canal HIPO après avoir été supprimé, mais il n’a pas été classé prioritaire pour un examen manuel. Il n’a pas fait l’objet d’un examen manuel supplémentaire « en raison de la capacité allouée au marché » et parce que les systèmes automatisés de Meta n’ont pas attribué au contenu en question un score de priorité aussi élevé que celui des autres contenus de la file d’attente HIPO à ce moment-là. Le contenu classé prioritaire par HIPO est seulement révisé par des examinateurs externes après qu’une mesure d’exécution est prise. Meta affecte des examinateurs de langue ourdoue à différents flux de travail en fonction des besoins. Ces examinateurs sont répartis entre plusieurs types d’examen, ce qui signifie qu’ils ne sont pas exclusivement dédiés à un seul flux de travail. Au milieu de l’année 2022, le flux de travail HIPO de Meta comptait moins de 50 examinateurs parlant ourdou en fonction des besoins de l’époque.
Le Conseil a posé 34 questions à Meta. Meta a répondu à 30 demandes de manière complète, à 3 partiellement et a refusé de répondre à une seule. Les réponses partielles concernaient les sujets suivants : fournir le pourcentage de suppressions dans le cadre de la politique relative aux personnes et organisations dangereuses qui sont rétablies en appel ou lors d’un deuxième examen, les taux d’exactitude pour l’application des interdictions d’éloges et de soutien dans le cadre de l’examen à l’échelle, et la façon dont Meta définit l’intention relative à l’autorisation d’informer et les facteurs contextuels applicables. Meta n’a pas répondu à l’une des questions sur la fourniture de données concernant le volume de contenu sur les personnes et organisations dangereuses qui est supprimé par l’automatisation par opposition à l’examen manuel, car les équipes n’ont pas été en mesure de vérifier les données demandées dans le temps imparti.
7. Commentaires publics
Le Conseil de surveillance a reçu et examiné 6 commentaires publics liés à ce cas. Un des commentaires provenait de la zone Asie-Pacifique et Océanie, quatre d’Europe et un de la zone États-Unis et Canada.
Les observations portaient sur l’importance de l’accès aux médias sociaux pour les personnes qui vivent en Afghanistan ou à proximité, sur les préoccupations relatives aux limites imposées à la discussion des groupes désignés et sur l’intérêt public à permettre un plus large éventail d’informations médiatiques sur les actions des talibans. Plusieurs commentaires publics ont fait valoir que le fait que la politique de Meta concernant les personnes et organisations dangereuses repose sur les termes vagues que sont l’éloge et le soutien peut entraver toute discussion politique critique et affecter de manière disproportionnée les communautés minoritaires et les pays en développement ou pauvres. Les commentaires publics ont également critiqué Meta pour avoir utilisé la loi américaine comme une « excuse » pour interdire les « éloges » des groupes désignés, plutôt que d’être transparent sur le fait que c’est le choix politique de Meta de restreindre plus d’expressions que la loi américaine ne l’exige.
Pour lire les commentaires publics transmis pour ce cas, veuillez cliquer ici.
8. Analyse du Conseil de surveillance
Ce cas est important, car il montre qu’un manque de clarté dans la définition du terme « éloge » semble entraîner de l’incertitude chez les examinateurs et les utilisateurs. Il prend également en compte les questions importantes de modération des contenus dans le cadre de la discrimination sexuelle et des conflits. C’est un cas difficile parce qu’il y a un intérêt à s’assurer que les groupes terroristes ou leurs partisans n’utilisent pas les plateformes pour leurs efforts de propagande et de recrutement. Cependant, cet intérêt, lorsqu’il est appliqué de manière trop large, peut conduire à la censure de tout contenu qui informe sur ces groupes. Le Conseil a examiné la question de savoir si ce contenu devait être restauré, et les implications plus larges pour l’approche de Meta en matière de modération de contenu, et ce, à travers 3 volets : les politiques relatives au contenu de Meta, les valeurs de l’entreprise et ses responsabilités en matière de droits de l’homme.
8.1 Respect des politiques relatives au contenu de Meta
I. Règles relatives au contenu
Le Conseil estime que le contenu relève de l’autorisation selon laquelle « les utilisateurs peuvent partager du contenu qui comprend des références à des organisations dangereuses désignées (...) pour informer sur (...) ces organisations ou leurs activités » et qu’il n’est donc pas en infraction. Le contenu n’est pas en infraction malgré la définition large du mot « éloge » fournie dans les Standards de la communauté destinés au public, même si le contenu peut être compris comme parlant positivement d’une action d’une entité désignée, les talibans, et peut leur donner « un sentiment d’accomplissement ». Le Conseil constate que les conseils relatifs aux Sujets courants fournis aux modérateurs pour interpréter les éloges sont encore plus larges. Il demande aux examinateurs de supprimer les contenus à caractère élogieux s’ils « amènent le public à avoir une meilleure opinion » d’un groupe désigné, ce qui fait que la signification de « l’éloge » ne dépend pas tant de l’intention de l’intervenant que des effets sur l’audience. Une information sur les prétendues intentions d’une entité désignée de permettre aux femmes et aux filles d’accéder à l’éducation, aussi douteuses que soient ces affirmations, inciterait sans doute le public à avoir une opinion plus positive de ce groupe. Compte tenu des instructions qui leur ont été fournies, le Conseil comprend pourquoi deux examinateurs ont interprété (par erreur) le contenu comme un éloge.
Le Conseil accepte que Meta ait l’intention de faire en sorte que ses Standards de la communauté relatifs aux personnes et organisations dangereuses fassent une place aux informations sur les entités que Meta a désignées comme dangereuses, même si ces rapports répondent également à la définition de l’entreprise concernant les éloges. Cependant, le Conseil ne pense pas que le langage utilisé dans les Standards de la communauté ou dans les Sujets courants rende cette définition claire. En fait, sans spécification, le terme « éloge » reste trop large. Les Standards de la communauté ne fournissent aucun exemple de ce qui constituerait une information acceptable. Il n’existe pas non plus de conseils internes aux modérateurs sur la manière d’interpréter cette autorisation.
II. Mesures de mise en application
Le Conseil note que l’action de modération dans ce cas s’est produite après qu’un utilisateur a commencé à signaler le contenu mais n’a jamais terminé son rapport. Un système automatisé se déclenche lorsque ce processus est lancé, même si l’utilisateur ne va pas au bout de son signalement, et le contenu a donc été mis en file d’attente pour un examen manuel. L’utilisateur n’a pas été informé que son action pouvait entraîner des conséquences même s’il décide de ne pas terminer le rapport, alors qu’un utilisateur devrait être prévenu des conséquences de son information s’il la soumet. Meta fait valoir dans ses réponses que le « rapport automatisé n’est pas lié à l’utilisateur qui fournit [l’information] », mais le Conseil estime que cela mérite d’être souligné, étant donné que l’ensemble du processus dans cette affaire a commencé par un utilisateur qui a initié un rapport. Le Conseil est également préoccupé par le fait que le bouton de signalement ne fournit pas aux utilisateurs suffisamment d’informations sur les conséquences d’un clic.
Les mesures d’exécution prises dans ce cas (le retrait du contenu, les pénalités et la limitation des fonctionnalités) n’auraient pas dû être imposées, car il n’y a pas eu d’infraction sous-jacente aux Standards de la communauté. Le Conseil est préoccupé par le fait que les systèmes mis en place par Meta pour prévenir les erreurs de sanction de ce type étaient inefficaces, compte tenu notamment de la sévérité des sanctions imposées.
Le Conseil note que dans ce cas, la Page du média était auparavant soumise à une vérification, mais dans le cadre d’une mise à jour du système de vérification à l’échelle de la plateforme, la Page n’a pas été soumise à une vérification lorsque le contenu du cas a été examiné, et la vérification n’a pas eu d’impact sur l’examen du contenu du cas. Dans le système actuel de vérification de Meta, un examen manuel secondaire garanti est fourni aux utilisateurs figurant sur la liste d’examen secondaire de l’équipe d’intervention rapide. Si les Pages Facebook de certains médias figurent sur cette liste, ce n’est pas le cas de la Page en question. Le fait d’être sur une liste d’examen secondaire de l’équipe d’intervention rapide garantit également que des employés de Meta, et non des examinateurs à l’échelle, vérifient le contenu avant qu’il puisse être retiré. Le Conseil estime qu’il est peu probable que ce contenu aurait été supprimé si la Page avait figuré sur la liste d’examen secondaire de l’équipe d’intervention rapide à ce moment-là.
Le Conseil félicite Meta pour l’introduction de son système HIPO, mais s’inquiète du fait qu’il n’ait pas conduit à l’examen secondaire d’une publication conforme aux Standards de la communauté de Meta. Dans ce cas, le contenu n’a pas fait l’objet d’un examen manuel supplémentaire « en raison de la capacité allouée au marché » et parce que les systèmes automatisés de Meta n’ont pas attribué au contenu en question un score de priorité aussi élevé que celui des autres contenus de la file d’attente HIPO à ce moment-là. Compte tenu de la nature d’intérêt public de l’information dans ce cas, et de l’identité de la Page en tant qu’organe de presse affichant le contenu, le score aurait dû être suffisamment élevé pour qu’un examen supplémentaire puisse être effectué. Comme l’explique Meta, le facteur « sensibilité de l’entité » prend en compte l’identité de l’entité qui publie le contenu et peut conduire à un classement plus élevé pour le contenu des organes de presse, en particulier ceux qui traitent d’évènements mondiaux importants. Pour les mêmes raisons, le Conseil est préoccupé par le fait que la file d’attente en langue ourdoue ne comptait qu'à peine 50 examinateurs à la mi-2022. Le Conseil estime que la taille du marché indien, le nombre de groupes désignés comme dangereux par Meta dans cette région et, par conséquent, l’importance accrue des voix indépendantes, justifient que l’entreprise investisse davantage dans la correction (et, idéalement, la prévention) des erreurs sur des sujets aussi importants.
8.2 Respect des valeurs de Meta
Le contenu faisant l’éloge de groupes dangereux peut menacer la valeur « Sécurité » pour les utilisateurs de Meta et d’autres personnes en raison de ses liens avec la violence hors ligne et de son potentiel à « intimider, exclure ou faire taire les autres ». Cependant, il n’y a pas de problème de sécurité significatif dans ce cas, car le contenu ne fait que rapporter l’annonce d’une organisation désignée. Le « Droit à la parole » est particulièrement important en ce qui concerne les médias, car ils fournissent à leurs audiences des informations essentielles et jouent un rôle crucial en demandant des comptes aux gouvernements. Dans ce cas, le retrait du contenu n’a pas contribué de manière significative à la « Sécurité » et a constitué une restriction inutile du « Droit à la parole ».
8.3 Respect des responsabilités de Meta en matière des droits de l’homme
Le Conseil estime que le retrait du contenu de la plateforme était incompatible avec les responsabilités de Meta en matière de droits de l’homme, et que Meta devrait mettre en place des systèmes plus efficaces pour prévenir et corriger de telles erreurs. Le respect de Meta quant à ses responsabilités en matière de droits de l’homme est particulièrement important dans le contexte de situations de crise ou de conflit. Suite à la prise de pouvoir par la force d’un gouvernement par un groupe réputé pour ses violations des droits de l’homme et en raison de l’importance d’informer le public des actes de ces groupes désignés, l’entreprise devrait être particulièrement attentive à la protection des informations relatives à ce groupe.
Liberté d’expression (article 19 du PIDCP)
L’article 19 du PIDCP protège le droit à la liberté d’expression et englobe le droit de toute personne de communiquer des informations et de les recevoir. Le droit international sur les droits de l’homme accorde une valeur particulière au rôle du journalisme dans la transmission d’informations présentant un intérêt pour le public. Le Comité des droits de l’homme des Nations unies a déclaré qu’« un organe de presse ou d’autres médias libres, non censurés et sans entraves sont essentiels dans toute société pour garantir la liberté d’opinion et d’expression et la jouissance des autres droits énoncés dans le Pacte » (Observation générale n° 34, paragraphe 13). Les plateformes de médias sociaux comme Facebook sont devenues un moyen de transmettre les reportages des journalistes dans le monde entier, et Meta a reconnu ses responsabilités envers les journalistes et les défenseurs des droits de l’homme dans sa politique d’entreprise pour ce qui relève des droits de l’homme.
Le droit à la liberté d’expression englobe la capacité des utilisateurs de Meta à accéder à des informations sur les évènements d’intérêt public en Afghanistan, en particulier lorsqu’un groupe dangereux désigné a renversé par la force le gouvernement légitime. Il est impératif que les utilisateurs, notamment les commentateurs sur l’Afghanistan à l’intérieur comme à l’extérieur des frontières, ainsi que le grand public, aient accès à des informations en temps réel sur la situation dans le pays. L’approche des talibans en matière de liberté des médias dans le pays rend le rôle des reportages internationaux encore plus important. Dans ce cas, les informations seraient essentielles pour les personnes soucieuses du droit à l’égalité des filles et des femmes d’accéder à l’éducation. Cela reste le cas même lorsque les talibans ne respectent pas ces engagements.
En vertu de l’article 19, paragraphe 3 du PIDCP, tel qu’interprété par la Commission des droits de l’homme dans son Observation générale n° 34, là où un État impose des limitations à la liberté d’expression, celles-ci doivent remplir des critères de légalité, d’objectif légitime ainsi que de nécessité et de proportionnalité. Le Conseil applique ces normes internationales pour évaluer si Meta a respecté ses responsabilités en matière de droits de l’homme.
I. Légalité (clarté et accessibilité des règles)
Le principe de légalité exige des États qu’ils utilisent des lois claires et accessibles quand il est question de limiter l’expression, afin que la population comprenne ce qui est permis et ce qui ne l’est pas. En outre, il prévoit que les lois restreignant l’expression soient spécifiques, afin de garantir que les personnes chargées de leur mise en application ne disposent pas d’un pouvoir discrétionnaire illimité (Observation générale 34, paragraphe 25). Le Comité des droits de l’homme a averti que « les infractions consistant à ‘faire l’éloge’, à ‘glorifier’ ou à ‘justifier’ le terrorisme devraient être clairement définies afin de garantir qu’elles ne conduisent pas à une ingérence inutile ou disproportionnée dans la liberté d’expression. Les restrictions exagérées à l’accès à l’information doivent également être évitées » (Observation générale n° 34, au para. 46. Voir également : Rapporteur spécial des Nations unies sur le contre-terrorisme et les droits de l’homme, aux paragraphes 36-37(Rapport A/HRC/40/52)).
Suivant son approche dans les cas précédents, le Conseil applique ces principes aux règles de contenu de Meta. Bien que le Conseil se félicite que les politiques de Meta concernant les personnes et les organisations dangereuses soient plus détaillées aujourd’hui que lorsque le Conseil avait émis ses premières recommandations dans ce domaine, de graves préoccupations subsistent.
Pour les utilisateurs présentant des informations sur les talibans, la question de savoir si les talibans restent une entité dangereuse désignée après qu’ils ont renversé par la force le gouvernement légitime de l’Afghanistan n’est pas claire. Le Conseil a déjà recommandé à Meta de divulguer soit une liste complète des entités désignées, soit une liste à titre d’illustration, afin de clarifier la situation pour les utilisateurs (cas de la « Citation nazie », cas de l’« Isolement d’Öcalan »). Le Conseil regrette l’absence de progrès concernant cette recommandation et note que, bien que l’entreprise n’ait pas divulgué cette information de manière proactive, des lanceurs d’alerte et des journalistes ont cherché à informer le public en divulguant une version de la liste « secrète ».
Comme indiqué précédemment dans la présente décision (voir section 8.1), la définition du terme « éloge » dans les Standards de la communauté destinés au public, à savoir « parler en termes positifs » d’une entité désignée, est trop large. Pour les personnes travaillant dans le traitement de l’information, le lien entre cette règle et l’autorisation d’effectuer des reportages, prévue dans la même politique, n’est pas clair. Selon Meta, cette autorisation permet de couvrir l’actualité même lorsqu’un utilisateur fait l’éloge de l’entité désignée dans la même publication. Le Conseil estime que la relation entre l’autorisation d’« informer » contenue dans la politique relative aux personnes et organisations dangereuses et l’autorisation générale de publication de l’actualité n’est pas claire pour les utilisateurs. Dans le cas de la « publication partagée d’Al Jazeera », le Conseil a recommandé que Meta fournisse des critères et des exemples à titre d’illustration dans les Standards de la communauté sur ce qui constitue une information d’actualité. Dans son rapport d’implémentation, T1 2022, Meta a répondu être en train de consulter plusieurs équipes en interne pour développer des critères permettant aux utilisateurs de comprendre ce qui constitue une information d’actualité. L’entreprise a dit qu’elle prévoit de conclure ce processus d’ici le T4 2022.
Le Conseil reste préoccupé par le fait que les modifications apportées au standard de la communauté concerné ne sont pas traduites dans toutes les langues disponibles et qu’il existe des incohérences entre les langues. À la suite de la décision du Conseil dans l’affaire « Publication partagée d’Al Jazeera », la version anglaise américaine portant sur la politique relative aux personnes et organisations dangereuses a été modifiée en décembre 2021. La formulation discrétionnaire « nous pouvons retirer le contenu » a été remplacée par « nous retirons le contenu par défaut » lorsque les intentions d’un utilisateur ne sont pas claires. Cependant, les autres versions linguistiques des Standards de la communauté, notamment en ourdou et en anglais britannique, ne reflètent pas ce changement. Bien que l’entreprise ait déclaré publiquement en réponse aux recommandations précédentes du Conseil ( Mise à jour trimestrielle sur le Conseil de surveillance, T4 2021) qu’elle vise à terminer les traductions dans toutes les langues disponibles en 4 à 6 semaines, il semble que la ligne de politique pertinente pour ce cas n’ait pas été terminée après 5 mois. Par conséquent, la politique n’est pas accessible de manière égale à tous les utilisateurs, ce qui fait qu’il est alors difficile pour eux de comprendre ce qui est autorisé et ce qui ne l’est pas.
Par ailleurs, le Conseil est préoccupé par le fait que Meta n’a pas fait suffisamment d’efforts pour expliquer à ses utilisateurs le fonctionnement du système de pénalités. Bien qu’une Page sur « Limiter les comptes » dans l’Espace modération de Meta contienne quelques détails, elle ne liste pas de manière exhaustive les limitations de fonctionnalités que l’entreprise peut appliquer et leur durée. Elle n’énumère pas non plus les « périodes de temps définies » pour les pénalités graves comme elle le fait pour les pénalités standard. Ceci est particulièrement inquiétant, car les pénalités sévères sont plus importantes et il n’existe aucun mécanisme permettant de faire appel des sanctions au niveau du compte indépendamment de la décision relative au contenu. Même lorsque le contenu est rétabli, les limitations de fonctionnalités ne peuvent pas toujours être entièrement annulées. Dans le cas présent, par exemple, l’utilisateur avait déjà subi plusieurs jours de limitations de fonctionnalités qui n’ont pas été entièrement corrigées lorsque Meta est revenu sur sa décision.
Le fait que deux personnes parlant l’ourdou aient jugé que ce contenu était en infraction indique que l’interdiction des éloges et sa relation avec les autorisations de déclaration ne sont pas claires pour les personnes chargées de faire respecter les règles. Les examinateurs de contenu reçoivent des conseils internes (Sujets courants et Standards d’implémentation) sur la manière d’interpréter les règles. Le document « Sujets courants » définit l’éloge comme un contenu qui « amène le public à avoir une meilleure opinion » d’un groupe désigné. Cette définition est sans doute plus large que la définition publique des Standards de la communauté. Ainsi, la signification du terme « éloges » dépend moins de l’intention de l’orateur que des effets sur l’audience. En outre, ni les Standards de la communauté, ni le document sur les Sujets courants ne limitent la discrétion des examinateurs lorsqu’ils restreignent la liberté d’expression. Les définitions standard du dictionnaire concernant le terme « éloge » ne sont pas aussi larges, et telle qu’elle est formulée, la règle englobe les déclarations de faits, y compris les déclarations journalistiques impartiales, ainsi que les opinions. En réponse aux questions du Conseil, Meta a précisé que l’autorisation d’informer permet à n’importe qui, et pas seulement aux journalistes, de parler positivement d’une organisation désignée dans le cadre d’un reportage. Cependant, cette clarification n’est pas fournie aux examinateurs dans les conseils internes. Meta admet que ces conseils ne fournissent pas aux examinateurs une définition de la façon d’interpréter le fait « d’informer sur ».
II. Objectif légitime
Le Conseil de surveillance a précédemment reconnu que la politique relative aux personnes et organisations dangereuses vise à protéger les droits d’autrui, notamment le droit à la vie, à la sécurité de la personne, à l’égalité et à la non-discrimination (article 19(3) du PIDCP, décision du Conseil de surveillance « Inquiétude pendjabie concernant le RSS en Inde »). Le Conseil reconnaît en outre que la propagande des entités désignées, y compris par le biais de mandataires se présentant comme des médias indépendants, peut présenter des risques d’atteinte aux droits d’autrui. Chercher à atténuer ces violences à travers la présente politique est un objectif légitime.
III. Nécessité et proportionnalité
Toutes les restrictions de la liberté d’expression « doivent être appropriées pour remplir leur fonction de protection, elles doivent constituer le moyen le moins perturbateur parmi ceux qui pourraient permettre d’obtenir le résultat recherché et elles doivent être proportionnées à l’intérêt à protéger » (Observation générale 34, paragraphe 34). Meta a reconnu que le retrait du contenu dans ce cas n’était pas nécessaire, et que des sanctions supplémentaires n’auraient donc pas dû être imposées à l’utilisateur.
Le Conseil comprend qu’en modérant du contenu à grande échelle, des erreurs seront commises. Toutefois, le Conseil reçoit des plaintes concernant des erreurs dans l’application de la politique relative aux personnes et organisations dangereuses qui affectent les informations, en particulier dans des langues autres que l’anglais, ce qui soulève de graves préoccupations (voir la décision « Publication partagée d’Al Jazeera », la décision « Isolement d’Öcalan »). Le Comité des droits de l’homme de l’ONU a souligné que « les médias jouent un rôle crucial en informant le public sur les actes de terrorisme, et leur capacité d’action ne devrait pas être indûment limitée. À cet égard, les journalistes ne devraient pas être pénalisés pour avoir exercé leurs activités légitimes » (Observation générale 34, paragraphe 46). Meta a donc la responsabilité de prévenir et d’atténuer l’impact négatif de ses plateformes sur les informations d’actualité en matière de droits de l’homme.
Le Conseil est préoccupé par le fait que le type d’erreur de mise en application de ces règles dans ce cas puisse être le signe de défaillances plus larges à cet égard. Les commentateurs réguliers sur les activités de personnes et d’organisations dangereuses de niveau 1 sont confrontés à des risques accrus d’erreurs de mise en application entraînant des sanctions sévères pour leurs comptes. Cela peut compromettre leurs moyens de subsistance et priver le public de l’accès à l’information à des moments clés. Le Conseil est inquiet du fait que la politique de suppression par défaut du contenu lorsque l’intention d’informer sur des entités dangereuses n’est pas clairement indiquée par l’utilisateur puisse conduire à une suppression excessive de contenu non violent, même lorsque des indices contextuels montrent clairement que la publication est, en fait, une information. De plus, le système de prévention et de correction des erreurs n’a pas profité à cet utilisateur comme il aurait dû le faire. Cela indique des problèmes dans la manière dont le classificateur du système HIPO a hiérarchisé la décision de contenu pour un examen supplémentaire, ce qui signifie qu’elle n’a jamais atteint le début de la file d’attente. Cela soulève également des questions sur les ressources allouées à l’examen manuel de la file d’attente HIPO, qui pourraient être insuffisantes pour le contenu en langue ourdoue. En l’espèce, l’erreur de mise en application et le fait de ne pas l’avoir corrigée ont privé un certain nombre d’utilisateurs de Facebook de l’accès à des informations sur des questions d’importance mondiale et ont empêché un média d’exercer sa fonction journalistique d’information du public.
Les journalistes peuvent rendre compte des évènements de manière impartiale en évitant le type de condamnation ouverte que les examinateurs pourraient rechercher. Pour éviter les suppressions de contenu et les sanctions de compte, les journalistes peuvent s’adonner à l’autocensure, et peuvent même être incités à s’écarter de leurs responsabilités professionnelles éthiques. Par ailleurs, il a été rapporté que des utilisateurs de Facebook anti-talibans évitent de mentionner les talibans dans leurs publications parce qu’ils craignent de faire l’objet de sanctions erronées.
Le Conseil note également que Meta a émis ce que l’entreprise appelle des exceptions liées à « l’esprit de la politique » concernant les talibans. Cela indique que Meta reconnaît que, parfois, son approche dans le cadre de la politique relative aux personnes et organisations dangereuses produit des résultats qui sont incompatibles avec les objectifs de la politique, et ne répondent donc pas à l’exigence de nécessité. Des documents internes à l’entreprise obtenus par des journalistes révèlent qu’en septembre 2021, l’entreprise a créé une exception « pour autoriser le contenu partagé par le ministère de l’Intérieur [afghan] » sur des questions telles que les nouvelles règles de circulation, et pour autoriser deux publications spécifiques du ministère de la Santé en relation avec la pandémie de COVID-19. D’autres exceptions auraient été plus adaptées et de plus courte durée. Pendant 12 jours en août 2021, des « personnalités gouvernementales » pourraient reconnaître les talibans comme le « gouvernement officiel de l’Afghanistan [ sic] » sans risquer des sanctions sur leurs comptes. De la fin août au 3 septembre 2021, les utilisateurs pourraient « publier les déclarations publiques des talibans sans avoir à ‘discuter de manière neutre, informer ou condamner’ ces déclarations ». Les porte-parole de Meta ont reconnu que certaines exceptions ponctuelles ont été émises. Lors d’un forum politique sur le protocole de politique de crise, le 25 janvier 2022, Meta a déclaré vouloir déployer des « leviers politiques » dans les situations de crise et a fourni l’exemple de l’autorisation de « l’éloge en faveur d’une organisation désignée spécifique (par exemple, un groupe de guérilleros signant un traité de paix) ». Ces exceptions à l’interdiction générale des éloges pourraient causer plus d’incertitude pour les examinateurs, ainsi que pour les utilisateurs qui pourraient ne pas savoir si ou quand une exception s’applique. Elles démontrent qu’il existe des situations où Meta aurait reconnu qu’une approche plus nuancée du contenu est justifiée lorsqu’il s’agit d’une entité désignée qui renverse un gouvernement légitime et prend le contrôle du territoire.
Le Conseil estime que la suppression du contenu de la plateforme était une mesure non nécessaire et disproportionnée. Le volume de ces erreurs de mise en application, leurs effets sur l’activité journalistique et l’échec des systèmes de prévention des erreurs de Meta ont tous contribué à ce constat.
9. Décision du Conseil de surveillance
Le Conseil de surveillance a annulé la décision initiale de Meta visant à supprimer le contenu.
10. Avis consultatif sur la politique
Politique de contenu
1. Meta devrait enquêter sur les raisons pour lesquelles les modifications apportées en décembre 2021 à la politique relative aux personnes et organisations dangereuses n’ont pas été mises à jour dans le délai prévu de 6 semaines, et veiller à ce que de tels retards ou omissions ne se reproduisent pas. Le Conseil demande à Meta de l’informer dans les 60 jours des conclusions de son enquête et des mesures qu’elle a mises en place pour éviter les retards de traduction à l’avenir.
2. Meta devrait rendre plus complète et plus accessible l’explication publique de son système de pénalités à deux volets, en particulier pour les « pénalités graves ». L’entreprise devrait inclure toutes les infractions aux politiques qui entraînent des pénalités sévères, les caractéristiques du compte qui peuvent être limitées en conséquence et préciser les durées applicables. Les politiques qui entraînent des pénalités sévères doivent également être clairement identifiées dans le texte des Standards de la communauté, avec un lien vers la section « Limiter les comptes » expliquant le système de pénalités. Le Conseil invite Meta à l’informer dans les 60 jours de la mise à jour de l’explication du système de pénalités par l’Espace modération et de l’inclusion des liens vers cette explication pour toutes les politiques de contenu qui entraînent des pénalités sévères.
Mise en application
3. Meta devrait restreindre la définition du terme « éloge » figurant parmi les conseils sur les Sujets courants destinés aux examinateurs, en supprimant l’exemple d’un contenu qui « cherche à faire en sorte que les autres aient une meilleure opinion » d’une entité désignée en lui attribuant des valeurs positives ou en approuvant ses actions. Le Conseil demande à Meta de lui fournir, dans un délai de 60 jours, la version complète de la mise à jour du document Sujets courants sur les personnes et les organisations dangereuses.
4. Meta doit réviser ses Standards d’implémentation internes afin d’indiquer clairement que l’autorisation d’« informer » de la politique relative aux personnes et organisations dangereuses permet de faire des déclarations positives sur les entités désignées dans le cadre de l’information, et comment distinguer cela des « éloges » interdits. Le document « Sujets courants » devrait être élargi afin d'indiquer clairement l’importance des informations dans les situations de conflit ou de crise et de fournir des exemples pertinents, et que cela peut inclure des déclarations positives sur les entités désignées, comme l’information sur les talibans dans ce cas. Le Conseil demande à Meta de partager les Standards d’implémentation mis à jour avec le Conseil dans les 60 jours.
5. Meta doit évaluer l’exactitude des examinateurs qui appliquent l’autorisation d’informer en vertu de la politique relative aux personnes et organisations dangereuses afin d’identifier les problèmes systémiques à l’origine des erreurs de mise en application. Le Conseil demande à Meta d’informer le Conseil dans un délai de 60 jours des résultats détaillés de son examen de cette évaluation, ou des évaluations de l’exactitude que Meta effectue déjà pour sa politique relative aux personnes et organisations dangereuses, y compris la manière dont les résultats permettront d’améliorer les opérations de mise en application, notamment pour le système HIPO.
6. Meta devrait procéder à un examen du système de classement HIPO afin de déterminer s’il est possible de hiérarchiser plus efficacement les erreurs potentielles dans la mise en application des autorisations dans le cadre de la politique relative aux personnes et organisations dangereuses. Il s’agirait notamment d’examiner si le système de classement HIPO doit être plus sensible au contenu des informations liées à l’actualité, où la probabilité de suppressions de faux positifs ayant un impact sur la liberté d’expression semble élevée. Le Conseil demande à Meta de l’informer, dans un délai de 60 jours, des résultats de son examen et des améliorations qu’elle apportera pour éviter des erreurs de ce type à l’avenir.
7. Meta devrait renforcer la capacité allouée à l’examen HIPO dans toutes les langues afin de s’assurer qu’un plus grand nombre de décisions relatives au contenu susceptibles d’être des erreurs de mise en application passent par un examen manuel supplémentaire. Le Conseil demande à Meta d’informer le Conseil dans les 60 jours des améliorations de capacité prévues.
*Note de procédure :
Les décisions du Conseil de surveillance sont préparées par des panels de cinq membres et approuvées par une majorité du Conseil. Elles ne représentent pas nécessairement les opinions personnelles de tous ses membres.
Pour la décision sur ce cas, des recherches indépendantes ont été commandées au nom du Conseil. Le Conseil était assisté d’un institut de recherche indépendant, dont le siège se trouve à l’université de Göteborg. Il avait mobilisé une équipe de plus de 50 experts en sciences sociales sur 6 continents ainsi que 3 200 experts nationaux du monde entier. Duco Advisers, une société de conseil qui se concentre sur les recoupements entre la géopolitique, la confiance, la sécurité et la technologie, a également prêté assistance au Conseil. L’entreprise Lionbridge Technologies, LLC, dont les spécialistes parlent couramment 350 langues et travaillent dans 5 000 villes du monde entier, a fourni son expertise linguistique.
Retour aux décisions de cas et aux avis consultatifs politiques