Le Conseil de surveillance confirme la décision initiale de Meta : Cas 2021-014-FB-UA

Le 28 octobre 2021, il a été annoncé que le groupe Facebook s’appellerait désormais Meta. Dans ce texte, Meta fait référence au groupe, et Facebook continue de faire référence au produit et aux politiques liées à l’application spécifique.

Le Conseil de surveillance a confirmé la décision originale de Meta de supprimer une publication prétendant que des personnes civiles d’origine tigréenne étaient impliquées dans des atrocités survenues dans la région Amhara, en Éthiopie. Cependant, puisque Meta avait restauré la publication après l’appel de la personne qui en est à l’origine auprès du Conseil, l’entreprise doit une nouvelle fois supprimer le contenu de la plate-forme.

À propos du cas

Fin juillet 2021, une personne utilisant Facebook en Éthiopie a publié ce contenu en amharique. La publication contenait des allégations selon lesquelles des membres du Front de libération du peuple du Tigré (FLPT) avaient tué et violé des femmes et des enfants, et pillé des propriétés de personnes civiles dans le district de Raya Kobo et dans d’autres villes de la région Amhara, en Éthiopie. La personne à l’origine de la publication affirmait également que des personnes civiles d’origine tigréenne avaient aidé le FLPT à perpétrer ces atrocités. Dans sa publication, elle affirme avoir reçu cette information de personnes résidant dans le district de Raya Kobo. La publication se terminait par les mots suivants : « nous assurerons notre liberté en nous battant ».

Après que les systèmes automatiques de langue amharique ont signalé la publication, une personne chargée de modérer le contenu a déterminé que celle-ci enfreignait le Standard de la communauté Facebook relatif au discours haineux. Après appel de cette décision de Meta, une seconde personne chargée de modérer le contenu a confirmé que la publication enfreignait les Standards de la communauté Facebook. Les deux personnes font partie de l’équipe d’examen du contenu en amharique de Meta.

La personne à l’origine de la publication a alors fait appel auprès du Conseil de surveillance. Après que le Conseil a décidé d’examiner ce cas, Meta a considéré sa décision originale de supprimer la publication comme incorrecte et l’a restaurée le 27 août. Meta a déclaré au Conseil que le groupe indique généralement aux utilisateurs et utilisatrices que leur contenu a été restauré le jour où il le restaure. Cependant, en raison d’une erreur humaine, Meta a informé la personne concernée de la restauration de sa publication le 30 septembre – plus d’un mois plus tard. Cette notification a été envoyée après que le Conseil a demandé à Meta s’il avait informé la personne de la restauration de son contenu.

Principales observations

Le Conseil estime que le contenu enfreignait les Standards de la communauté Facebook en matière de violence et d’incitation.

Alors que Meta avait initialement supprimé la publication, car elle enfreint le Standard de la communauté relatif au discours haineux, l’entreprise a restauré le contenu après que le Conseil a décidé d’examiner le cas, car elle affirmait que la publication ne ciblait pas l’origine tigréenne et que les allégations de la personne qui en était à l’origine ne constituaient pas un discours haineux. Le Conseil estime que cette explication de la restauration du contenu est incorrecte et insuffisamment détaillée.

Au lieu de cela, le Conseil a appliqué le Standard de la communauté Facebook en matière de violence et d’incitation à cette publication. Ce standard proscrit également les « fausses informations et rumeurs invérifiables présentant un risque d’actes de violence ou de dommages physiques imminents ». Le Conseil estime que, dans ce cas, le contenu inclut une rumeur invérifiable conformément à la définition de Meta de ce terme. Alors que la personne concernée affirme que ses sources sont d’anciens signalements anonymes et des personnes de terrain, elle ne fournit aucune preuve circonstancielle étayant ses allégations. Les rumeurs prétendant qu’un groupe ethnique est complice d’atrocités de masses, telles qu’elles apparaissent dans cette publication, sont dangereuses et augmentent significativement le risque de violence imminente.

Le Conseil estime également que la suppression de la publication est conforme aux responsabilités d’entreprise de Meta en matière de droits de la personne. Des rumeurs invérifiables dans un contexte de conflit passionné et en cours peuvent entraîner de terribles atrocités, comme ce fut le cas en Birmanie. Dans la décision 2020-003-FB-USA, le Conseil a déclaré que « le risque d’expressions haineuses et déshumanisantes qui s’accumule et se diffuse sur une plate-forme et entraîne des actions hors ligne ayant un impact sur le droit à la sécurité de la personne et potentiellement à la vie est particulièrement prononcé dans des situations de conflits armés ». L’impact cumulé peut constituer un lien de causalité par le biais d’une « accumulation progressive d’effets », comme ce fut le cas lors du génocide rwandais.

Le Conseil est parvenu à cette décision en ayant conscience des tensions entre la protection de la liberté d’expression et la réduction de la menace de conflit sectaire. Le Conseil est conscient de l’implication de personnes civiles dans les atrocités qui surviennent dans différentes parties de l’Éthiopie, même si ce n’est pas dans le district de Raya Kobo, et du fait que Meta ne pouvait pas vérifier les allégations de la publication au moment où elles ont été publiées. Le Conseil est également conscient du fait que des signalements authentiques sur les atrocités en cours peuvent sauver des vies dans des régions en conflit, bien que des affirmations non fondées concernant l’implication de personnes civiles aient de fortes chances d’amplifier le risque de violence à court terme.

La décision du Conseil de surveillance

Le Conseil de surveillance a confirmé la décision originale de Meta visant à supprimer la publication. Puisque Meta avait restauré le contenu après l’appel de la personne qui en était à l’origine auprès du Conseil, l’entreprise doit une nouvelle fois supprimer le contenu de la plate-forme.

En guise d’avis consultatif en matière de politiques, le Conseil recommande à Meta :

  • de reformuler sa valeur de « Sécurité » afin de refléter que les discours en ligne peuvent créer un risque pour la sécurité physique des personnes et le droit à la vie, en plus des risques d’intimidation, d’exclusion et de réduction au silence ;
  • de refléter dans les Standards de la communauté Facebook que des rumeurs non vérifiées peuvent représenter un risque plus accru pour le droit à la vie et la sécurité des personnes dans des contextes de guerre ou de conflit violent. Cela doit se refléter à tous les niveaux du processus de modération ;
  • commander une évaluation indépendante de la diligence raisonnable en matière de droits de la personne sur la manière dont Facebook et Instagram ont été utilisés pour diffuser un discours haineux et des rumeurs non vérifiées qui accroissent le risque de violence en Éthiopie. L’évaluation doit examiner l’efficacité des mesures prises par Meta pour empêcher l’utilisation de manière détournée de ses produits et services en Éthiopie. L’évaluation doit également examiner l’efficacité des mesures prises par Meta pour autoriser les signalements corroborés et d’intérêt public sur les atrocités en matière de droits de la personne en Éthiopie. L’évaluation doit examiner les capacités linguistiques de Meta en Éthiopie et évaluer si elles sont appropriées en vue de protéger les droits de ses utilisateurs et utilisatrices. L’évaluation doit porter sur une période allant du 1er juin 2020 à aujourd’hui. L’entreprise doit procéder à l’évaluation dans les six mois à compter du moment où elle répond à ces recommandations. L’intégralité de l’évaluation devra être publiée.

Pour en savoir plus :

Pour lire l’intégralité de la décision, cliquez ici.

Pour lire un résumé des commentaires publics relatifs à ce cas, cliquez sur la pièce jointe ci-dessous.

Retour Aux Actualités