Décision sur plusieurs affaires
Entretien avec un négociateur d’otages thaïlandais
18 avril 2024
Le Conseil a examiné deux publications Facebook contenant des segments presque identiques d’une interview vidéo de Sky News avec un négociateur d’otages thaïlandais décrivant son expérience de travail dans la libération des otages capturés par le Hamas. Après que le Conseil a porté ces appels à l’attention de Meta, l’entreprise est revenue sur ses décisions initiales et a restauré les publications.
2 cas inclus dans ce lot
FB-XO941WWQ
Cas relatif à des personnes et organisations dangereuses sur Facebook
FB-U3Y5VV2E
Cas relatif à des personnes et organisations dangereuses sur Facebook
Il s’agit d’un résumé de la décision. Les décisions sommaires concernent les cas pour lesquels Meta est revenue sur sa décision initiale après que le Conseil les a portés à l’attention de l’entreprise. Elles contiennent des informations relatives aux erreurs reconnues par Meta. Elles sont approuvées par une partie du Conseil (et pas par l’ensemble de ses membres), n’impliquent pas de commentaires publics et n’ont pas valeur de précédent pour le Conseil. Les décisions sommaires ont une influence directe sur les décisions de Meta en assurant la transparence quant à ses corrections et en identifiant les domaines dans lesquels Meta pourrait améliorer son application des politiques.
Résumé
Le Conseil a examiné deux publications Facebook contenant des segments presque identiques d’une interview vidéo de Sky News avec un négociateur d’otages thaïlandais décrivant son expérience de travail dans la libération des otages capturés par le Hamas. Après que le Conseil a porté ces appels à l’attention de Meta, l’entreprise est revenue sur ses décisions initiales et a restauré les publications.
À propos des cas
En décembre 2023, deux utilisateurs ont fait appel des décisions de Meta de supprimer leurs publications, chacune contenant des extraits presque identiques d’une interview diffusée par Sky News en novembre 2023. Cette vidéo présente un négociateur thaïlandais qui a dirigé une équipe officieuse de négociateurs et a contribué à la libération des ressortissants thaïlandais pris en otage par le Hamas le 7 octobre en Israël.
Dans cette séquence, l’homme interviewé décrit son rôle dans les négociations. Il estime que les otages thaïlandais et tous les otages « ont été bien traités » par le Hamas, car ils suivent la loi islamique et que le Hamas n’a imposé aucune condition à la libération des prisonniers thaïlandais.
Le négociateur, qui éprouve de la sympathie pour le peuple palestinien, mentionne les décennies de mauvais traitements infligés par Israël aux Palestiniens dans les territoires occupés. Il affirme que le Hamas « visait les soldats » et que la prise d’otages par le Hamas était justifiée « pour aider les Palestiniens » et « pour attirer l’attention du monde sur la façon dont Israël traite les Palestiniens ».
Dans leurs appels auprès du Conseil, les deux utilisateurs ont déclaré avoir publié la vidéo pour attirer l’attention sur les déclarations du négociateur thaïlandais, mais pour des raisons différentes. L’un des utilisateurs a déclaré que son intention était de mettre en évidence une interview qui « montre le Hamas sous un jour plus équilibré », contrairement aux attitudes courantes de la « machine de propagande occidentale ». Cet utilisateur indique dans la légende que le négociateur refuse de s’en tenir au récit et explique en outre que son message a été précédemment censuré parce que son contenu mentionnait une organisation politique en particulier. Dans la seconde publication, l’utilisateur, qui a publié la vidéo sans légende ni autre commentaire, a déclaré qu’il « dénonçait les collaborateurs qui mentent et manipulent » pour soutenir le Hamas.
Meta a d’abord retiré les publications de Facebook, en invoquant sa politique relative aux personnes et organisations dangereuses, en vertu de laquelle l’entreprise interdit la « glorification » (anciennement « louange »), le « soutien » et la « représentation » de personnes et d’organisations qu’elle désigne comme dangereuses. Cependant, la politique reconnaît que « les utilisateurs peuvent partager des contenus incluant des références à des personnes et à des organisations dangereuses dans le cadre d’un discours social et politique. Cela inclut les contenus qui apportent des informations, discutent en toute neutralité ou condamnent les personnes et les organisations dangereuses ou leurs activités. »
Lorsque le Conseil a porté ces cas à l’attention de Meta, l’entreprise a déterminé que les publications « n’incluent aucune légende qui glorifie, soutient ou représente une organisation ou une personne dangereuse ». En outre, la vidéo a été « précédemment partagée par Sky News, et d’autres organes d’information, sur Facebook... et relève [donc] du champ d’application de l’exception relative aux reportages d’actualité ». Meta a restauré les deux publications.
Autorité et champ d’application du Conseil
Le Conseil jouit de l’autorité nécessaire pour examiner la décision de Meta à la suite d’un appel interjeté par l’utilisateur dont le contenu a été supprimé (article 2, section 1 de la Charte ; article 3, section 1 des Statuts).
Lorsque Meta reconnaît avoir commis une erreur et revient sur sa décision dans un cas soumis à l’examen du Conseil, ce dernier peut décider de ne statuer que sommairement sur ce cas (article 2, section 2.1.3 des Statuts). Le Conseil réexamine la décision initiale afin de mieux faire comprendre le processus de modération des contenus, de réduire les erreurs et d’accroître l’équité pour les utilisateurs de Facebook et d’Instagram.
Signification des cas
Ces cas soulignent la persistance d’une application excessive du Standard de la communauté de l’entreprise relatif aux personnes et organisations dangereuses, comme cela a été souligné dans des décisions antérieures du Conseil. Les erreurs persistantes dans l’application de cette politique réduisent l’accès des utilisateurs à des commentaires neutres, à des reportages et à des messages de condamnation, au détriment de la liberté d’expression.
Dans une décision précédente, le Conseil a invité Meta à « inclure dans son rapport de transparence des données plus complètes sur les taux d’erreur du Standard de la communauté relatif aux personnes et organisations dangereuses » ( Isolement d’Öcalan, recommandation n° 12), ce que l’entreprise a refusé de faire après une évaluation de faisabilité.
En outre, le Conseil a recommandé l’inclusion de « critères et d’exemples illustratifs à la politique de Meta sur les Standards de la communauté relatifs aux personnes et aux organisations dangereuses afin de mieux comprendre les exceptions, en particulier en ce qui concerne les discussions neutres et les reportages d’actualité », afin de mieux guider les équipes d’examen manuel ( Publication partagée par Al Jazeera, recommandation n° 1). Cette recommandation est particulièrement pertinente, car elle concernait la suppression d’une publication d’information sur une menace de violence émanant des Brigades Izz al-Din al-Qassam, la branche militaire du groupe palestinien Hamas. Le Conseil a également conseillé à Meta « d’évaluer l’exactitude des équipes d’examen qui appliquent l’autorisation d’informer... afin d’identifier les problèmes systémiques à l’origine des erreurs de mise en application » (Mention des talibans dans les informations d’actualité, recommandation n° 5). Bien que Meta ait fait état de la mise en œuvre des deux recommandations, elle n’a pas publié d’informations démontrant la mise en œuvre de la recommandation nº 5 relative à la Mention des talibans dans les reportages d’actualité.
Le Conseil a recommandé d’améliorer la modération des publications contenant des vidéos, en demandant à l’entreprise d’adopter « des modifications au niveau des produits et/ou des conseils opérationnels qui permettent un examen plus précis des vidéos de longue durée » ( Premier ministre cambodgien, recommandation n° 5). En réponse, Meta a déclaré qu’elle « continuerait à itérer sur de nouvelles améliorations pour nos processus d’examen des vidéos de longue durée et la création et l’évaluation d’indicateurs » dans sa mise à jour trimestrielle du T3 2023 sur le Conseil de surveillance.
Le Conseil est convaincu du fait que l’observation de toutes ces recommandations pourrait réduire le nombre d’erreurs d’application de la politique de Meta sur les organismes et individus dangereux.
Décision
Le Conseil a annulé les décisions initiales de Meta visant à supprimer le contenu. Le Conseil reconnaît que Meta a corrigé ses erreurs initiales une fois qu’il a porté ces cas à son attention.
Retour aux décisions de cas et aux avis consultatifs politiques