Decisão de múltiplos casos
Artigo de notícias sobre o Proud Boys
27 de Fevereiro de 2024
O Comitê analisou duas publicações no Facebook, removidas pela Meta, que continham um link para uma reportagem sobre a condenação criminal de membros do Proud Boys. Após o Comitê levar essas duas apelações à atenção da Meta, a empresa reverteu suas decisões originais e restaurou ambas as publicações.
2 casos incluídos neste pacote
FB-2JHTL3QD
Caso sobre organizações e indivíduos perigosos no Facebook
FB-ZHVJLX60
Caso sobre organizações e indivíduos perigosos no Facebook
Esta é uma decisão sumária. As decisões sumárias examinam os casos em que a Meta reverteu a decisão original dela sobre um conteúdo depois que o Comitê o levou à atenção da empresa. Essas decisões incluem informações sobre os erros reconhecidos pela Metae informam o público sobre o impacto do trabalho do Comitê e são aprovadas por um painel de Membros dele, não por ele inteiro. Elas não consideram comentários públicos e não têm valor precedente para o Comitê. As decisões sumárias dão transparência às correções da Meta e destacam áreas em que a empresa poderia melhorar a aplicação de suas políticas.
Resumo do caso
O Comitê analisou duas publicações no Facebook, removidas pela Meta, que continham um link para uma reportagem sobre a condenação criminal de membros do Proud Boys. Após o Comitê levar essas duas apelações à atenção da Meta, a empresa reverteu suas decisões originais e restaurou ambas as publicações.
Descrição do caso e histórico
Em setembro de 2023, dois usuários do Facebook publicaram um link para uma notícia sobre a condenação e sentença de um membro do Proud Boys que participou do ataque de 6 de janeiro de 2021 ao Capitólio dos EUA. Como parte do artigo, há a foto de um grupo de homens, cada um vestindo uma camiseta com a frase “proud boys” (garotos orgulhosos) e o logotipo do grupo. Nenhum usuário adicionou comentário ou legenda ao compartilhar o link.
O Proud Boys é um grupo de extrema direita fundado em 2016 que rapidamente se tornou conhecido pela violência e pelo extremismo, inclusive desempenhando um papel significativo no ataque de 6 de janeiro de 2021 ao Capitólio dos EUA, pelo qual muitos membros do grupo foram processados.
A Meta originalmente removeu a publicação do Facebook, citando sua Política sobre Organizações e Indivíduos Perigosos, na qual a empresa se baseia para proibir a representação e certos discursos sobre indivíduos e organizações que a Meta designa como perigosos, incluindo referências pouco claras a eles. Entretanto, a política reconhece que os “usuários podem compartilhar conteúdo que inclui referências a organizações e indivíduos perigosos designados com a finalidade de denunciar, condenar ou discutir de forma neutra sobre eles ou suas atividades”.
Em suas apelações ao Comitê, ambos os usuários argumentaram que o conteúdo não violava os Padrões da Comunidade da Meta. O usuário do primeiro caso alegou que a notícia foi republicada para informar as pessoas sobre a condenação do líder do Proud Boys e afirmou que se o conteúdo tivesse sido analisado por um humano, em vez de um bot, ele concluiria que o conteúdo não violou os Padrões da Comunidade da Meta. No segundo caso, o usuário afirmou que o objetivo da publicação era informar às pessoas que a justiça havia sido feita em relação a um ato de terrorismo. Ele também enfatizou a importância da moderação humana nesses casos, uma vez que os sistemas automatizados da Meta tomaram uma decisão incorreta, provavelmente influenciada pelas palavras usadas no artigo, em vez de analisarem o contexto.
Depois que o Comitê levou esses dois casos à atenção da Meta, a empresa determinou que as publicações não violavam suas políticas. Embora as publicações se refiram ao Proud Boys, uma organização designada, elas simplesmente informam sobre o grupo. A Meta concluiu que sua remoção inicial foi incorreta, pois as publicações se enquadram na exceção que permite aos usuários “relatar, condenar ou discutir de forma neutra” organizações e indivíduos perigosos. Ela restaurou ambos os conteúdos na plataforma.
Autoridade e escopo do Comitê
O Comitê tem autoridade para analisar a decisão da Meta após uma apelação do usuário cujo conteúdo foi removido (Artigo 2, Seção 1 do Estatuto; e Artigo 3, Seção 1 dos Regulamentos Internos).
Quando a Meta reconhece que cometeu um erro e reverte a decisão em um caso sob consideração para análise do Comitê, ele pode selecionar esse caso para uma decisão sumária (Artigo 2, Seção 2.1.3 dos Regulamentos Internos). O Comitê analisa a decisão original para aumentar a compreensão do processo de moderação de conteúdo, reduzir erros e aumentar a justiça para os usuários do Facebook e do Instagram.
Significância do caso
Esses casos ilustram os desafios associados à aplicação de exceções para reportagens, conforme estabelecido no Padrão da Comunidade sobre Organizações e Indivíduos Perigosos da Meta. Esse tipo de erro impacta diretamente a capacidade dos usuários de compartilhar links externos de um meio de comunicação, quando relacionados a um determinado grupo ou organização, nas plataformas da Meta, mesmo quando estas sejam neutras e tenham valor público.
Anteriormente, o Comitê emitiu várias recomendações em relação à Política sobre Organizações e Indivíduos Perigosos da Meta e reportagens. Isso inclui uma recomendação para “adicionar critérios e exemplos ilustrativos à Política sobre Organizações e Indivíduos Perigosos da Meta para aumentar a compreensão das exceções, especificamente em torno de discussões neutras e reportagens”, que a Meta implementou conforme demonstrado por meio de informações publicadas ( Publicação compartilhada da Al Jazeera , recomendação n.º 1). O Comitê instou a Meta a “avaliar a precisão dos analistas que aplicam a permissão para reportagens conforme a Política sobre Organizações e Indivíduos Perigosos a fim de identificar problemas sistêmicos que causam erros de aplicação” (Menção ao Talibã em reportagens, recomendação n.º 5). Além disso, o Comitê recomendou que Meta “deveria realizar uma análise do classificador HIPO [sistema de substituição de falsos positivos de alto impacto] para examinar se pode priorizar de forma mais eficaz possíveis erros na aplicação de permissões à Política sobre Organizações e Indivíduos Perigosos, incluindo conteúdo de reportagens em que a probabilidade de remoções de falsos positivos que afetam a liberdade de expressão parece ser alta,” ( Menção ao Talibã em reportagens, recomendação n.º 6). A Meta relatou a implementação das duas últimas recomendações sem publicar mais informações e, portanto, essa implementação não pode ser verificada.
O Comitê continua preocupado porque, apesar do relatório da Meta que informa sobre a implementação de todas essas recomendações, esses dois casos destacam a necessidade de medidas mais eficazes, de acordo com as recomendações do Comitê.
O Comitê enfatiza que a adoção total dessas recomendações, juntamente com as informações publicadas para demonstrar a implementação bem-sucedida, poderia reduzir o número de remoções incorretas de reportagens no âmbito da Política sobre Organizações e Indivíduos Perigosos da Meta.
Decisão
O Comitê anula as decisões originais da Meta de remover esses dois itens de conteúdo. Além disso, após levar esses casos ao conhecimento da empresa, reconhece que ela corrigiu os erros iniciais.
Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas