Renversé

Éducation des jeunes filles en Afghanistan

Un utilisateur a fait appel de la décision de Meta de supprimer une publication Facebook qui abordait l’importance de l’éducation pour les jeunes filles en Afghanistan.

Type de décision

Résumé

Politiques et sujets

Sujet
Discrimination, Égalité des sexes et des genres, Enfants / Droits des enfants
Norme communautaire
Personnes et organisations dangereuses

Régions/Pays

Emplacement
Afghanistan

Plate-forme

Plate-forme
Facebook

Il s’agit d’un résumé de la décision. Les résumés des décisions examinent les cas où Meta est revenue sur sa décision initiale concernant un élément de contenu après que le Conseil a porté l’affaire à l’attention de l’entreprise. Ces décisions comprennent des informations sur les erreurs reconnues de Meta. Elles sont approuvées par un groupe de membres du Conseil, et non par le Conseil tout entier. Elles n’impliquent pas de processus de commentaires publics et n’ont pas valeur de précédent pour le Conseil. Les résumés des décisions assurent la transparence des corrections apportées par Meta et mettent en évidence les domaines dans lesquels l’entreprise pourrait améliorer l’application de sa politique.

Résumé du cas

Un utilisateur a fait appel de la décision de Meta de supprimer une publication Facebook qui abordait l’importance de l’éducation pour les jeunes filles en Afghanistan. Ce cas met en évidence une faille dans les pratiques de modération de l’entreprise relatives à sa politique sur les organismes et les individus dangereux. Après que le Conseil a porté l’appel à l’attention de Meta, l’entreprise est revenue sur sa décision initiale et a restauré la publication.

Description du cas et contexte

En juillet 2023, un utilisateur Facebook en Afghanistan a publié un texte en pachto qui souligne l’importance de l’éducation pour les jeunes filles en Afghanistan. L’utilisateur a appelé les utilisateurs et les utilisatrices à continuer à faire part de leurs préoccupations et a souligné les conséquences qui s’ensuivraient si ces préoccupations n’étaient pas transmises aux Talibans. L’utilisateur a également déclaré que la nation y perdrait si elle empêchait les jeunes filles d’avoir accès à l’éducation.

Meta a d’abord supprimé la publication de Facebook, invoquant sa politique relative aux organismes et aux individus dangereux, en vertu de laquelle l’entreprise supprime les types de contenu qui « glorifient », « soutiennent techniquement » ou « représentent » des organismes et des individus qu’elle désigne comme dangereux, y compris les Talibans. La politique autorise les types de contenu qui discutent d’un organisme ou d’un individu dangereux de manière neutre ou qui condamnent ses actions.

Après que le Conseil a porté ce cas à l’attention de Meta, l’entreprise a déterminé que le contenu n’enfreignait pas sa politique relative aux organismes et aux individus dangereux et que la suppression de la publication était injustifiée. L’entreprise a ensuite restauré le contenu.

Autorité et champ d’application du Conseil

Le Conseil jouit de l’autorité nécessaire pour examiner la décision de Meta à la suite d’un appel interjeté par la personne dont le contenu a été supprimé (article 2, section 1 de la Charte ; article 3, section 1 des Statuts).

Lorsque Meta reconnaît avoir commis une erreur et revient sur sa décision dans un cas soumis à l’examen du Conseil, ce dernier peut décider de ne statuer que sommairement sur ce cas (article 2, section 2.1.3 des Statuts). Le Conseil réexamine la décision initiale afin de mieux comprendre les processus de modération de contenu impliqués, de réduire les erreurs et d’accroître l’équité pour les personnes qui utilisent Facebook et Instagram.

Importance du cas

Ce cas met en évidence les erreurs de modération de Meta liées à la politique sur les organismes et les individus dangereux, des erreurs qui peuvent avoir des répercussions sur la capacité des utilisateurs et des utilisatrices à faire part de leurs opinions politiques sur les plateformes de Meta. Dans ce cas précis, la discussion concernait l’éducation des femmes en Afghanistan après l’arrivée au pouvoir des Talibans.

Précédemment, le Conseil a recommandé à Meta d’« ajouter des critères et des exemples concrets à sa politique relative aux individus et aux organismes dangereux afin de permettre aux utilisateurs de mieux comprendre les exceptions accordées en cas de discussions neutres, de condamnation et de reportages » (recommandation n° 1 de la décision sur la Publication partagée d’Al Jazeera). Meta a indiqué dans sa mise à jour trimestrielle du T2 2023 que cette recommandation a bien été mise en place. En outre, le Conseil a recommandé à Meta d’« implémente[r] une procédure d’examen interne pour analyser continuellement un échantillon statistiquement représentatif des décisions de suppression de contenu automatisées afin d’annuler les erreurs de modération et d’en tirer des leçons » (recommandation n° 5 de la décision sur les Symptômes du cancer du sein et nudité). Meta a indiqué qu’elle travaillait sur cette recommandation, mais n’a pas publié d’informations pour prouver sa mise en œuvre.

Décision

Le Conseil a annulé la décision initiale de Meta visant à supprimer le contenu. Le Conseil reconnaît que Meta a corrigé son erreur initiale une fois que le Conseil a porté le cas à l’attention de l’entreprise. Le Conseil encourage également Meta à accélérer la mise en œuvre des recommandations restantes pour limiter ce type d’erreurs.

Retour aux décisions de cas et aux avis consultatifs politiques