Renversé
Manifestation en Syrie
27 février 2024
Un utilisateur d’Instagram a contesté la décision de Meta de supprimer une vidéo qui incitait les Syriens à résister face au régime de Bachar Al-Assad. Après que le Conseil a porté l’appel à l’attention de Meta, l’entreprise est revenue sur sa décision initiale et a restauré la publication.
Il s’agit d’un résumé de la décision. Les résumés des décisions examinent les cas où Meta est revenue sur sa décision initiale concernant un élément de contenu après que le Conseil a porté l’affaire à l’attention de l’entreprise. Ces décisions incluent des informations sur les erreurs reconnues de Meta, et informent le public sur l’impact du travail du Conseil. Elles sont approuvées par un groupe de membres du Conseil, et non par le Conseil tout entier. Elles ne tiennent pas compte des commentaires publics et n’ont pas valeur de précédent pour le Conseil. Les résumés des décisions assurent la transparence des corrections apportées par Meta et mettent en évidence les domaines dans lesquels l’entreprise pourrait améliorer l’application de sa politique.
Résumé du cas
Un utilisateur d’Instagram a contesté la décision de Meta de supprimer une vidéo qui incitait les Syriens à résister face au régime de Bachar Al-Assad. Après que le Conseil a porté l’appel à l’attention de Meta, l’entreprise est revenue sur sa décision initiale et a restauré la publication.
Description du cas et contexte
En août 2023, un utilisateur d’Instagram a publié une vidéo montrant Abdul Basset Al-Sarout, joueur de football syrien, militant et icône publique de l’opposition au président du pays, Bachar Al-Assad. Abdul Basset Al-Sarout a été assassiné en 2019. Dans cette vidéo, ce dernier tient les propos suivants en arabe afin d’encourager les Syriens à résister au régime de Bachar Al-Assad : « nous avons un quartier libéré en Syrie, nous sommes l’épine dans le pied de ce régime, nous retournerons dans ce quartier » et « la révolution continue ». La vidéo a été visionnée environ 30 000 fois.
La publication Instagram avait été supprimée pour infraction à la politique relative aux organismes et individus dangereux qui interdit la représentation de et certains propos concernant les groupes et les individus que l’entreprise juge comme liés à des préjudices dans le monde réel.
Dans sa réclamation adressée au Conseil, l’utilisateur a décrit son compte comme une page à but non lucratif « dédiée à la diffusion d’informations et à la sensibilisation ». De plus, l’utilisateur a affirmé que le contenu n’enfreignait en rien les règles d’Instagram.
Après que le Conseil a porté ce cas à l’attention de Meta, l’entreprise a déterminé que le contenu ne contenait pas de référence à une organisation ni à une personne désignée et qu’il n’enfreignait pas ses politiques. L’entreprise a alors restauré le contenu sur la plateforme.
Autorité et champ d’application du Conseil
Le Conseil jouit de l’autorité nécessaire pour examiner la décision de Meta à la suite d’un appel interjeté par l’utilisateur dont le contenu a été supprimé (article 2, section 1 de la Charte ; article 3, section 1 des Statuts).
Lorsque Meta reconnaît avoir commis une erreur et revient sur sa décision dans un cas soumis à l’examen du Conseil, ce dernier peut décider de ne statuer que sommairement sur ce cas (article 2, section 2.1.3 des Statuts). Le Conseil réexamine la décision initiale afin de mieux comprendre le processus de modération de contenu, de réduire les erreurs et d’accroître l’équité pour les personnes qui utilisent Facebook et Instagram.
Importance du cas
Ce cas met en évidence la suppression incorrecte d’un contenu qui ne contenait aucune référence à une organisation ni à une personne désignée.
Afin de réduire les erreurs d’application dans les lieux en conflit ou dans d’autres circonstances sensibles, le Conseil a recommandé à Meta d’« améliorer la capacité attribuée au système de rejet des faux positifs à impact élevé appliqué aux langues afin de garantir que davantage de décisions émises sur des contenus susceptibles d’être des erreurs d’application fassent l’objet d’un examen manuel supplémentaire (Mention des talibans dans les informations d’actualité, recommandation n° 7). Par ailleurs, le Conseil a recommandé à Meta d’« évaluer les processus de modération automatisés pour la mise en application de la politique sur les personnes et les organisations dangereuses » (Mise à l’isolement d’Öcalan, recommandation n° 2), recommandation que Meta a refusée.
Ce cas met en lumière l’application excessive de la politique de Meta sur les personnes et organisations dangereuses. Les cas soumis au Conseil suggèrent que ce type d’erreurs surviennent trop fréquemment. La réduction de ces erreurs doit être une priorité pour l’entreprise. La mise en œuvre complète de ces recommandations, ainsi que la publication d’informations démontrant le succès de leur mise en œuvre, pourraient réduire le nombre de suppressions incorrectes au titre de la politique de Meta relative aux organismes et individus dangereux.
Décision
Le Conseil a annulé la décision initiale de Meta visant à supprimer le contenu. Le Conseil reconnaît que Meta a corrigé son erreur initiale une fois que le Conseil a porté le cas à son attention.
Retour aux décisions de cas et aux avis consultatifs politiques