Décision sur plusieurs affaires
Article d’actualité sur le groupe Proud Boys
27 février 2024
Le Conseil a examiné deux publications Facebook supprimées par Meta. Ces publications renvoyaient vers un article d’actualité sur la condamnation criminelle de membres du groupe Proud Boys. Après que le Conseil a porté ces deux appels à l’attention de Meta, l’entreprise est revenue sur ses décisions initiales et a restauré les deux publications.
2 cas inclus dans ce lot
FB-2JHTL3QD
Cas relatif à des personnes et organisations dangereuses sur Facebook
FB-ZHVJLX60
Cas relatif à des personnes et organisations dangereuses sur Facebook
Il s’agit d’un résumé de la décision. Les résumés des décisions examinent les cas où Meta est revenue sur sa décision initiale concernant un élément de contenu après que le Conseil a porté l’affaire à l’attention de l’entreprise. Ces décisions incluent des informations sur les erreurs reconnues de Metaet informent le public sur l’impact du travail du Conseil. Elles sont approuvées par un groupe de membres du Conseil, et non par le Conseil tout entier. Elles ne tiennent pas compte des commentaires publics et n’ont pas valeur de précédent pour le Conseil. Les résumés des décisions assurent la transparence des corrections apportées par Meta et mettent en évidence les domaines dans lesquels l’entreprise pourrait améliorer l’application de sa politique.
Résumé du cas
Le Conseil a examiné deux publications Facebook supprimées par Meta. Ces publications renvoyaient vers un article d’actualité sur la condamnation criminelle de membres du groupe Proud Boys. Après que le Conseil a porté ces deux appels à l’attention de Meta, l’entreprise est revenue sur ses décisions initiales et a restauré les deux publications.
Description du cas et contexte
En septembre 2023, deux utilisateurs de Facebook ont publié un lien qui renvoyait vers un article d’actualité sur le jugement et la condamnation d’un membre du groupe Proud Boys ayant participé à l’assaut contre le Capitole des États-Unis le 6 janvier 2021. Dans l’article figure une photo d’un groupe d’hommes arborant tous un t-shirt portant la mention « proud boys » ainsi que le logo du groupe. Aucun des deux utilisateurs n’a ajouté de commentaire ni de légende lors de son partage du lien.
Le groupe Proud Boys est une organisation d’extrême droite créée en 2016 qui s’est rapidement fait connaître pour des faits de violence et d’extrémisme, notamment par le biais de son rôle important dans l’assaut du Capitole des États-Unis le 6 janvier 2021, acte pour lequel de nombreux membres du groupe ont été poursuivis en justice.
Meta a d’abord supprimé la publication de Facebook, invoquant sa politique relative aux organismes et individus dangereux, en vertu de laquelle l’entreprise interdit la représentation de et certains propos concernant les groupes et les individus que Meta estime dangereux ainsi que les références imprécises à ces derniers. Cependant, la politique reconnaît que « les utilisateurs peuvent partager des contenus incluant des références à des organismes et individus dangereux pour les signaler, les condamner ou engager une discussion neutre sur leurs activités ».
Dans leurs appels adressés au Conseil, les deux utilisateurs ont expliqué que leur contenu n’enfreignait pas les Standards de la communauté de Meta. Le premier utilisateur affirmait avoir republié l’article d’actualité pour informer les autres de la condamnation du chef des Proud Boys et indiquait que si le contenu avait été examiné par un humain et non par un bot, il n’aurait pas été considéré comme en infraction des Standards de la communauté de Meta. Le second utilisateur affirmait que l’objectif de la publication était d’informer les autres du fait que justice avait été faite dans le cadre d’un acte terroriste. Il soulignait également l’importance de la modération par les humains dans ce genre de cas, étant donné que les systèmes automatisés de Meta ont pris une mauvaise décision, certainement en raison des termes utilisés dans l’article et sans se pencher sur le contexte.
Après que le Conseil a porté ces deux cas à l’attention de Meta, l’entreprise a déterminé que les publications n’enfreignaient pas ses politiques. Même si les publications font référence au groupe Proud Boys, une certaine organisation, il ne s’agit que d’informations sur ce groupe. Meta a conclu que la suppression initiale des publications était infondée, car les publications tombent sous l’exception permettant aux utilisateurs « de signaler, de condamner ou d’engager une discussion neutre » sur les organismes et individus dangereux. Meta a restauré les deux publications sur la plateforme.
Autorité et champ d’application du Conseil
Le Conseil jouit de l’autorité nécessaire pour examiner la décision de Meta à la suite d’un appel interjeté par l’utilisateur dont le contenu a été supprimé (article 2, section 1 de la Charte ; article 3, section 1 des Statuts).
Lorsque Meta reconnaît avoir commis une erreur et revient sur sa décision dans un cas soumis à l’examen du Conseil, ce dernier peut décider de ne statuer que sommairement sur ce cas (article 2, section 2.1.3 des Statuts). Le Conseil réexamine la décision initiale afin de mieux comprendre le processus de modération de contenu, de réduire les erreurs et d’accroître l’équité pour les personnes qui utilisent Facebook et Instagram.
Importance du cas
Ces cas illustrent les difficultés associées à l’application des exceptions pour la diffusion d’informations d’actualité, comme qu’indiquées dans le Standard de la communauté relatif aux organismes et individus dangereux. Ce type d’erreur a des conséquences directes sur la capacité des utilisateurs à partager sur les plateformes Meta des liens provenant d’organes de presse lorsqu’ils font référence à certains groupes ou organismes, même lorsque les propos sont neutres et ont un intérêt public.
Précédemment, le Conseil a émis plusieurs recommandations au sujet de la politique de Meta relative aux organismes et individus dangereux ainsi qu’à la diffusion d’informations d’actualité. Le Conseil a également recommandé à Meta d’« ajouter des critères et illustrations à la politique de Meta sur les organismes et individus dangereux afin de mieux appréhender les exceptions, notamment concernant les discussions neutres et les reportages d’actualités », une recommandation que Meta a appliquée en publiant des informations connexes (Publication partagée d’Al Jazeera, recommandation n° 1). Le Conseil a demandé à Meta « d’évaluer l’exactitude des examinateurs qui appliquent l’autorisation d’informer en vertu de la politique relative aux organismes et individus dangereux afin d’identifier les problèmes systémiques à l’origine des erreurs de mise en application » (Mention des talibans dans les informations d’actualité, recommandation n° 5). Le Conseil a également recommandé à Meta de « réviser l’outil HIPO [système de classement des faux positifs à fort impact] afin de déterminer s’il est possible de hiérarchiser plus efficacement les erreurs potentielles dans la mise en application des exceptions à la politique relative aux organismes et individus dangereux, notamment le contenu visant à apporter des informations, pour lequel la probabilité de suppressions dues à des faux positifs semble être élevée » (Mention des talibans dans les informations d’actualité, recommandation n° 6). Meta indique avoir appliqué ces deux recommandations sans publier davantage d’informations. L’application ne peut donc pas être vérifiée.
Le Conseil reste préoccupé par le fait qu’en dépit du rapport du Meta selon lequel il a mis en œuvre toutes ces recommandations, ces deux cas soulignent la nécessité de prendre des mesures plus efficaces conformes aux recommandations du Conseil.
Le Conseil souligne que la mise en œuvre complète de ces recommandations, ainsi que la publication d’informations démontrant le succès de leur mise en œuvre, pourraient réduire le nombre de suppressions incorrectes d’informations d’actualité au titre de la politique de Meta relative aux organismes et individus dangereux.
Décision
Le Conseil a annulé la décision initiale de Meta visant à supprimer ces deux éléments de contenu. Le Conseil reconnaît que Meta a corrigé ses erreurs initiales une fois qu’il a porté ces cas à son attention.
Retour aux décisions de cas et aux avis consultatifs politiques