Anulado

Tráfico de pessoas na Tailândia

Um usuário apelou da decisão da Meta de remover uma publicação do Facebook chamando a atenção para práticas de tráfico de pessoas na Tailândia.

Tipo de decisão

Resumo

Políticas e tópicos

विषय
Liberdade de expressão, Proteção
Padrão da comunidade
Exploração humana

Regiões/países

Localização
Tailândia

Plataforma

Plataforma
Facebook

Esta é uma decisão sumária. As decisões sumárias examinam os casos em que a Meta reverteu a decisão original dela sobre um conteúdo depois que o Comitê o levou à atenção da empresa. Essas decisões incluem informações sobre os erros reconhecidos pela Meta, informam o público sobre o impacto do trabalho do Comitê e são aprovadas por um painel de Membros do Comitê, não pelo Comitê inteiro. Elas não envolvem um processo de comentários públicos e não têm valor precedente para o Comitê. As decisões sumárias dão transparência às correções da Meta e destacam áreas em que a empresa poderia melhorar a aplicação de suas políticas.

Resumo do caso

Um usuário apelou da decisão da Meta de remover uma publicação do Facebook chamando a atenção para práticas de tráfico de pessoas na Tailândia. A apelação destaca a importância de desenvolver sistemas de moderação que sejam sensíveis a contextos de conscientização, ironia, sarcasmo e sátira. Após o Comitê levar a apelação ao conhecimento da Meta, a empresa reverteu a decisão anterior e restaurou a publicação.

Descrição do caso e histórico

Um usuário do Facebook fez uma publicação em tailandês sobre um esquema de tráfico de pessoas que tinha os tailandeses como alvo de venda em Mianmar. A publicação discute o que o usuário acredita serem práticas comuns empregadas pelo esquema, como pressionar as vítimas a recrutar outras pessoas. Também faz declarações irônicas, como “if you want to be a victim of human trafficking, don't wait” (se você quer ser vítima de tráfico de pessoas, não perca a oportunidade). O conteúdo também contém capturas de tela do que parecem ser mensagens de membros do esquema tentando recrutar vítimas, além de conteúdo que promove a ação.

A Meta removeu originalmente a publicação do Facebook, citando sua Política sobre Exploração Humana, na qual se baseia para remover “[c]onteúdo que recruta ou explora pessoas para ou facilita qualquer uma das seguintes formas de tráfico de pessoas”, como “exploração laboral (incluindo trabalho escravo)”. A política define o tráfico de pessoas como a “atividade que prive uma pessoa da sua liberdade para fins lucrativos”. Ela permite “conteúdo que condena o tráfico de pessoas ou o contrabando de migrantes ou aumenta a conscientização sobre esses temas”.

Após o Comitê levar esse caso à atenção da Meta, a empresa determinou que a remoção foi um erro e restaurou o conteúdo no Facebook. A empresa afirmou ao Comitê que, embora as imagens isoladas violassem a Política sobre Exploração Humana, o contexto geral é claro, tornando o conteúdo não violador.

Autoridade e escopo do Comitê

O Comitê tem autoridade para analisar a decisão da Meta após uma apelação do usuário cujo conteúdo foi removido (Artigo 2, Seção 1 do Estatuto; e Artigo 3, Seção 1 dos Regulamentos Internos).

Quando a Meta reconhece que cometeu um erro e reverte a decisão em um caso sob consideração para análise do Comitê, ele pode selecionar esse caso para uma decisão sumária (Artigo 2, Seção 2.1.3 dos Regulamentos Internos). O Comitê analisa a decisão original para aumentar a compreensão do processo de moderação de conteúdo envolvido, reduzir erros e aumentar a justiça para os usuários do Facebook e do Instagram.

Significância do caso

O caso destaca a importância de desenvolver sistemas de moderação que sejam sensíveis a contextos de conscientização, ironia, sarcasmo e sátira. Essas são formas importantes de comentário e não devem ser removidas como resultado de interpretações excessivamente literais. Em termos de automação, o Comitê pediu para a Meta implementar um procedimento de auditoria interna a fim de analisar continuamente uma amostra estatisticamente representativa de decisões de remoção automatizadas para reverter e aprender com os erros de aplicação (“Sintomas de câncer de mama e nudez,” recomendação n.º 5). Em termos de moderação humana, o Comitê pediu que a Meta garantisse a existência de procedimentos adequados para avaliar, de forma apropriada, o conteúdo satírico e o contexto relevante e que as apelações baseadas em exceções de política fossem priorizadas para análise humana ("Meme dos dois botões," recomendações n.º 3 e 5). A Meta relatou que implementou as duas primeiras recomendações, mas não publicou informações que demonstrem a implementação completa. Para a primeira recomendação, no quarto trimestre de 2022, ela relatou ter "concluído o lançamento global de comunicações novas e mais específicas que permitem às pessoas saber se a automação ou a análise humana causou a remoção de seu conteúdo do Facebook", mas não forneceu informações que comprovem essa ação. Para a terceira recomendação, ela informou que “quase concluiu o processo sobre formas de permitir que os usuários indiquem se a sua apelação se enquadra em uma exceção de política”. Assim que isso for concluído, ela começará a avaliar se levar em consideração as exceções de política é benéfico para o fluxo de trabalho geral de priorização.

Decisão

O Comitê revoga a decisão original da Meta de remover o conteúdo. Além disso, após levar o caso ao conhecimento da empresa, ele reconhece que ela corrigiu o erro inicial.

Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas