Anulado

Educação de meninas no Afeganistão

Um usuário apelou da decisão da Meta de remover uma publicação do Facebook que discutia a importância da educação de meninas no Afeganistão.

Tipo de decisão

Resumo

Políticas e tópicos

विषय
Crianças/direitos das crianças, Discriminação, Igualdade de gênero e sexo
Padrão da comunidade
Indivíduos e organizações perigosos

Regiões/países

Localização
Afeganistão

Plataforma

Plataforma
Facebook

Esta é uma decisão sumária. As decisões sumárias examinam os casos em que a Meta reverteu a decisão original dela sobre um conteúdo depois que o Comitê o levou à atenção da empresa. Essas decisões incluem informações sobre os erros reconhecidos da Meta e são aprovadas por um painel de Membros do Comitê, não pelo Comitê inteiro. Elas não envolvem um processo de comentários públicos e não têm valor precedente para o Comitê. As decisões sumárias dão transparência às correções da Meta e destacam áreas em que a empresa poderia melhorar a aplicação de suas políticas.

Resumo do caso

Um usuário apelou da decisão da Meta de remover uma publicação do Facebook que discutia a importância da educação de meninas no Afeganistão. Esse caso destaca um erro na aplicação, por parte da empresa, da Política sobre Organizações e Indivíduos Perigosos. Depois que o Comitê levou a apelação à atenção da Meta, a empresa reverteu a decisão original e restaurou a publicação.

Descrição do caso e histórico

Em julho de 2023, um usuário do Facebook no Afeganistão publicou um texto em pachto descrevendo a importância da educação de meninas no país. O usuário pediu que as pessoas continuassem expressando suas preocupações e destacou as consequências de não levar essas preocupações ao conhecimento do Talibã. Além disso, o usuário afirma que impedir o acesso das meninas à educação será uma perda para a nação.

A Meta removeu originalmente a publicação do Facebook, citando sua Política sobre Organizações e Indivíduos Perigosos, na qual se baseia para remover conteúdo que “elogia, apoia substancialmente ou representa” indivíduos e organizações que a empresa designa como perigosos, incluindo o Talibã. A política permite conteúdo que discuta uma organização ou indivíduo perigoso de forma neutra ou que condene suas ações.

Depois que o Comitê trouxe esse caso à atenção da Meta, a empresa determinou que o conteúdo não violava a Política sobre Organizações e Indivíduos Perigosos e que a remoção da publicação estava incorreta. A empresa então restaurou o conteúdo.

Autoridade e escopo do Comitê

O Comitê tem autoridade para analisar a decisão da Meta após uma apelação do usuário cujo conteúdo foi removido (Artigo 2, Seção 1 do Estatuto; e Artigo 3, Seção 1 dos Regulamentos Internos).

Quando a Meta reconhece que cometeu um erro e reverte a decisão em um caso sob consideração para análise do Comitê, ele pode selecionar esse caso para uma decisão sumária (Artigo 2, Seção 2.1.3 dos Regulamentos Internos). O Comitê analisa a decisão original para aumentar a compreensão do processo de moderação de conteúdo envolvido, reduzir erros e aumentar a justiça para os usuários do Facebook e do Instagram.

Significância do caso

Esse caso destaca erros na aplicação da Política sobre Organizações e Indivíduos Perigosos da Meta, o que pode ter um impacto negativo na capacidade dos usuários de compartilhar comentários políticos nas plataformas da Meta. Neste caso, tratava-se especificamente de uma discussão sobre a educação das mulheres no Afeganistão após a tomada do controle pelo Talibã.

Em um caso anterior, o Comitê recomendou que a Meta "adicionasse critérios e exemplos ilustrativos à sua Política sobre Organizações e Indivíduos Perigosos para aumentar a compreensão das exceções para discussões neutras, condenações e reportagens" (Decisão sobre a publicação compartilhada da AI Jazeera, recomendação nº 1). A Meta informou, em sua atualização trimestral do 2º trimestre de 2023, que essa recomendação foi totalmente implementada. Além disso, o Comitê recomendou que a Meta “implemente um procedimento de auditoria interna para analisar continuamente uma amostra estatisticamente representativa de decisões automatizadas de remoção de conteúdo para reverter e aprender com os erros de aplicação” (Decisão sobre sintomas de câncer de mama e nudez, recomendação n.º 5). A Meta informou que está implementando essa recomendação, mas não publicou informações que demonstrem a implementação.

Decisão

O Comitê revoga a decisão original da Meta de remover o conteúdo. Além disso, após levar o caso ao conhecimento da empresa, ele reconhece que ela corrigiu o erro inicial. O Comitê também pede à Meta que acelere a implementação das recomendações ainda em aberto para reduzir esses erros.

Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas