Renversé

Traite d’êtres humains en Thaïlande

Un utilisateur a fait appel de la décision de Meta de supprimer une publication Facebook attirant l’attention sur les pratiques de traite des êtres humains en Thaïlande.

Type de décision

Résumé

Politiques et sujets

Sujet
Liberté d’expression, Sécurité
Norme communautaire
Exploitation humaine

Régions/Pays

Emplacement
Thaïlande

Plate-forme

Plate-forme
Facebook

Il s’agit d’un résumé de la décision. Les résumés des décisions examinent les cas où Meta est revenue sur sa décision initiale concernant un élément de contenu après que le Conseil a porté l’affaire à l’attention de l’entreprise. Ces décisions incluent des informations sur les erreurs reconnues de Meta, et informent le public sur l’impact du travail du Conseil. Elles sont approuvées par un groupe de membres du Conseil, et non par le Conseil dans son ensemble. Elles n’impliquent pas de processus de commentaires publics, et n’ont pas valeur de précédent pour le Conseil. Les résumés des décisions assurent la transparence des corrections apportées par Meta et mettent en évidence les domaines dans lesquels l’entreprise pourrait améliorer l’application de sa politique.

Résumé du cas

Un utilisateur a fait appel de la décision de Meta de supprimer une publication Facebook attirant l’attention sur les pratiques de traite des êtres humains en Thaïlande. L’appel souligne l’importance de concevoir des systèmes de modération sensibles aux contextes de sensibilisation, d’ironie, de sarcasme et de satire. Après que le Conseil a porté l’appel à l’attention de Meta, l’entreprise est revenue sur sa décision initiale et a restitué la publication.

Description du cas et contexte

Un utilisateur de Facebook a publié une publication en thaï au sujet d’une entreprise de traite des êtres humains qui cible les Thaïlandais et les transporte pour les vendre au Myanmar. La publication aborde ce que l’utilisateur estime être des pratiques courantes de l’entreprise, comme le fait de faire pression sur les victimes pour qu’elles recrutent d’autres personne pour les intégrer à l’entreprise. Elle présente également des déclarations ironiques, telles que « si vous voulez être victime de la traite des êtres humains, n’attendez pas ». Le contenu contient également des captures d’écran de ce qui semble être des messages de l’entreprise tentant de recruter des victimes, ainsi que du contenu faisant la promotion de l’entreprise.

Meta a d’abord supprimé la publication de Facebook, citant sa politique en matière d’exploitation humaine, en vertu de laquelle l’entreprise supprime les « contenus qui recrutent des personnes, facilitent ou exploitent des personnes par le biais de l’une des formes suivantes de traite d’êtres humains », telles que « l’exploitation du travail (y compris le travail en servitude) ». La politique définit la traite des êtres humains comme « une activité privant un individu de sa liberté pour en tirer profit. » Elle autorise les « contenus condamnant ou sensibilisant à la traite des êtres humains ou au trafic de migrants ».

Après que le Conseil a porté ce cas à l’attention de Meta, l’entreprise a déterminé que la suppression était incorrecte et a rétabli le contenu sur Facebook. L’entreprise a expliqué au Conseil que, si les images prises séparément constituent une infraction à la politique relative à l’exploitation humaine, le contexte général est clair, ce qui fait que le contenu ne constitue pas une infraction.

Autorité et champ d’application du Conseil

Le Conseil jouit de l’autorité nécessaire pour examiner la décision de Meta à la suite d’un appel interjeté par l’utilisatrice dont le contenu a été supprimé (article 2, section 1 de la Charte ; article 3, section 1 des Statuts).

Lorsque Meta reconnaît avoir commis une erreur et revient sur sa décision dans un cas soumis à l’examen du Conseil, ce dernier peut sélectionner ce cas pour un résumé de la décision (article 2, section 2.1.3 des Statuts). Le Conseil réexamine la décision initiale afin de mieux comprendre les processus de modération de contenu impliqués, de réduire les erreurs et d’accroître l’équité pour les utilisateurs de Facebook et d’Instagram.

Importance du cas

Le cas souligne l’importance de concevoir des systèmes de modération sensibles aux contextes de sensibilisation, d’ironie, de sarcasme et de satire. Il s’agit de formes importantes de commentaires, qui ne devraient pas être supprimées en raison d’interprétations trop littérales. En ce qui concerne l’automatisation, le Conseil a invité Meta à mettre en œuvre une procédure d’audit interne pour analyser en permanence un échantillon statistiquement représentatif des décisions de suppression automatisées, afin d’annuler les erreurs de modération et d’en tirer des leçons (« Symptômes du cancer du sein et nudité », recommandation n° 5). En ce qui concerne la modération manuelle, le Conseil a demandé à Meta de s’assurer qu’elle dispose de procédures adéquates pour évaluer correctement le contenu satirique et le contexte pertinent, et que les appels fondés sur des exceptions à la politique soient examinés en priorité lors d’un examen manuel (« Meme aux deux boutons », recommandations nº 3 et 5). Meta a déclaré avoir mis en œuvre les deux premières de ces recommandations, mais n’a pas publié d’informations démontrant une mise en œuvre complète ; pour la première recommandation, au quatrième trimestre 2022, Meta a déclaré avoir « achevé le déploiement mondial d’un nouveau message plus spécifique qui permet aux personnes de savoir si l’automatisation ou l’examen manuel a conduit à la suppression de leur contenu sur Facebook », mais n’a pas fourni d’informations prouvant cette mise en œuvre. En ce qui concerne la troisième recommandation, Meta a indiqué qu’elle avait « presque terminé son travail sur les moyens de permettre aux utilisateurs d’indiquer si leur appel relève d’une exception de politique » ; une fois ce travail terminé, Meta commencera à évaluer si la prise en compte des exceptions de politique est bénéfique pour le workflow global de hiérarchisation.

Décision

Le Conseil a annulé la décision initiale de Meta visant à supprimer le contenu. Le Conseil reconnaît que Meta a corrigé son erreur initiale une fois que le Conseil a porté le cas à l’attention de l’entreprise.

Retour aux décisions de cas et aux avis consultatifs politiques