Renversé

Gloire à Dieu

Une utilisatrice a fait appel de la décision de Meta de supprimer sa publication Instagram contenant une photo d’elle en robe de mariée, accompagnée d’une légende qui déclare « alhamdulillah ».

Type de décision

Résumé

Politiques et sujets

Sujet
Communautés marginalisées, Culture, Origine ou identité ethnique
Norme communautaire
Personnes et organisations dangereuses

Régions/Pays

Emplacement
Inde, Pakistan, Royaume-Uni

Plate-forme

Plate-forme
Instagram

Il s’agit d’un résumé de la décision Les résumés des décisions examinent les cas où Meta est revenue sur sa décision initiale concernant un élément de contenu après que le Conseil a porté l’affaire à l’attention de l’entreprise. Ces décisions comprennent des informations sur les erreurs reconnues de Meta. Elles sont approuvées par un groupe de membres du Conseil, et non par le Conseil dans son ensemble. Elles ne tiennent pas compte des commentaires publics et n’ont pas valeur de précédent pour le Conseil. Les résumés des décisions assurent la transparence des corrections apportées par Meta et mettent en évidence les domaines dans lesquels l’application de sa politique pourrait être améliorée.

Résumé du cas

Une utilisatrice a fait appel de la décision de Meta de supprimer sa publication Instagram contenant une photo d’elle en robe de mariée, accompagnée d’une légende qui déclare « alhamdulillah », une expression courante signifiant « Gloire à Dieu ». Après que le Conseil de surveillance a porté l’appel à l’attention de Meta, l’entreprise est revenue sur sa décision initiale et a restitué la publication.

Description du cas et contexte

En juin 2023, une utilisatrice d’Instagram basée au Pakistan a publié une photo d’elle en robe de mariée à l’occasion d’un évènement précédant le mariage. La légende qui accompagne la publication indiquait « alhamdulillah », une expression utilisée par de nombreuses personnes dans les sociétés musulmanes et arabes signifiant « Gloire à Dieu ». La publication a été vue moins de 1 000 fois.

La publication a été supprimée pour infraction à la politique sur les personnes et les organisations dangereuses de l’entreprise. Cette politique interdit le contenu qui fait l’éloge, soutient ou représente de façon appuyée des personnes ou des organisations que Meta considère comme dangereuses.

Dans sa déclaration au Conseil, l’utilisatrice a souligné que la phrase « alhamdulillah » représente une expression culturelle courante utilisée pour exprimer la gratitude et dépourvue de « liens directs ou indirects avec un groupe haineux, de nature haineuse ou d’association à une organisation dangereuse ». Le Conseil estime qu’il s’agit d’un discours protégé en vertu des Standards de la communauté de Meta, observant la liberté d’expression et la valeur de l’entreprise en matière de protection de l’« expression ».

L’utilisatrice a insisté sur la popularité de la phrase en affirmant ce qui suit : « il s’agit d’une des phrases les plus populaires dans la population musulmane qui réunit plus 2 milliards de fidèles sur la planète… si c’est la raison pour laquelle la publication a été supprimée, je considère que cette décision est particulièrement préjudiciable pour la population musulmane sur Instagram et le signe manifeste d’une certaine ignorance ».

Après que le Conseil a porté ce cas à l’attention de Meta, l’entreprise a déterminé que le contenu « ne contenait pas de référence à une organisation ni à une personne désignée », et que par conséquent il n’enfreignait pas sa politique sur les personnes et les organisations dangereuses. Meta a ensuite restauré le contenu sur Instagram.

Autorité et champ d’application du Conseil

Le Conseil jouit de l’autorité nécessaire pour examiner la décision de Meta à la suite d’un appel interjeté par l’utilisatrice dont le contenu a été supprimé (article 2, section 1 de la Charte ; article 3, section 1 des Statuts).

Lorsque Meta reconnaît avoir commis une erreur et revient sur sa décision dans un cas soumis à l’examen du Conseil, ce dernier peut sélectionner ce cas pour un résumé de la décision (article 2, section 2.1.3 des Statuts). Le Conseil réexamine la décision initiale afin de mieux faire comprendre le processus de modération des contenus, de réduire les erreurs et d’accroître l’équité pour les utilisateurs de Facebook et d’Instagram.

Importance du cas

Ce cas souligne l’application incohérente de Meta de sa politique sur les personnes et les organisations dangereuses, qui peut conduire à des suppressions de contenu erronées. De telles erreurs d’application discréditent la responsabilité de Meta quant au traitement équitable de ses utilisateurs.

Le Conseil a précédemment émis des recommandations relatives à la mise en œuvre de la politique de Meta sur les personnes et les organisations dangereuses. Le Conseil a recommandé à Meta d’« évaluer les processus de modération automatisés pour la mise en application de la politique sur les personnes et les organisations dangereuses » ( Décision sur la Mise à l’isolement d’Öcalan, recommandation n° 2). Meta a refusé de mettre en place cette recommandation. En outre, le Conseil a recommandé à Meta d’« améliorer la capacité attribuée au système de rejet des faux positifs à impact élevé appliqué aux langues afin de garantir que davantage de décisions émises sur des contenus susceptibles d’être des erreurs d’application fassent l’objet d’un examen manuel supplémentaire ( Décision sur la Mention des talibans dans les informations d’actualité, recommandation n° 7). Meta a déclaré qu’elle y travaille déjà, mais n’a pas publié d’informations pour prouver ses dires. Enfin le Conseil a recommandé à Meta de publier « des informations plus complètes sur les taux d’erreur dans l’application des règles relatives aux « éloges » et au « soutien » envers les personnes et organisations dangereuses, réparties par région et par langue » dans les rapports de transparence de Meta (Décision sur la Mise à l’isolement d’Öcalan, recommandation n° 12). Meta a refusé de mettre en place cette recommandation.

Le présent cas ne mentionne aucune personne ou organisation pouvant être considéré comme dangereuse. Le Conseil a remarqué dans plusieurs cas que des problèmes de compréhension culturelle et d’erreurs de traduction peuvent entraîner une mise en application incorrecte des politiques de Meta. Il a également émis des recommandations sur la modération du contenu en langue arabe. Le Conseil a recommandé à Meta de « traduire les Standards d’application internes ainsi que les Questions courantes », qui apportent des conseils aux modérateurs de contenu en « arabe standard moderne » (Décision sur la Récupération des mots en arabe, recommandation n° 1). Meta a refusé de mettre en place cette recommandation.

Le Conseil réaffirme que la mise en application intégrale des recommandations ci-dessus permettra de réduire les erreurs d’application en vertu de la politique sur les personnes et les organisations dangereuses, en diminuant le nombre d’utilisateurs victimes de suppressions erronées.

Décision

Le Conseil a annulé la décision initiale de Meta visant à supprimer le contenu. Le Conseil reconnaît que Meta a corrigé son erreur initiale après que le Conseil a porté le cas à l’attention de Meta.

Retour aux décisions de cas et aux avis consultatifs politiques