Relatório de transparência do primeiro trimestre de 2021: O Comitê publica novos dados sobre o impacto das suas recomendações

Hoje, o Comitê de Supervisão publicou o relatório de transparência do primeiro trimestre de 2023. Além de um resumo das atividades do Comitê no trimestre, ele também inclui novos dados sobre os impactos das recomendações dos nossos casos “Slogan de protesto no Irã” e “Sintomas de câncer de mama e nudez”.

Documentando o impacto em nossos usuários

Mudar a abordagem da Meta sobre a moderação de conteúdo é um processo longo. Em dois anos e meio, desde que fizemos nossas primeiras recomendações, observamos a Meta assumir novos compromissos que levaram a mudanças nas suas regras e na aplicação das políticas. Muitas delas foram incluídas em nosso Relatório Anual de 2022.

A próxima etapa é documentar como essas mudanças estão melhorando as experiências de usuários do Facebook e do Instagram no mundo todo. Para fazer isso, a Meta está nos fornecendo dados sobre o impacto de recomendações específicas. Nossa Equipe de Implementação também está usando ferramentas como o CrowdTangle para documentar os efeitos das mudanças feitas pela Meta devido às nossas decisões e recomendações. Hoje, publicamos mais dois pontos de dados que ilustram nosso impacto.

Empoderando manifestantes iranianas no Instagram

Em nossa decisão “Slogan de protesto no Irã”, instamos a Meta a melhorar a proteção do discurso político no Irã, onde protestos históricos foram violentamente reprimidos. Em resposta, ela anunciou que permitiria que o termo “Marg bar Khamenei” (traduzido literalmente como “Morte ao [líder supremo do Irã] Khamenei”) fosse compartilhado no contexto dos protestos em andamento no Irã e reverteu as ações de aplicação anteriores contra esse tipo de conteúdo.

Comparamos as publicações usando a frase “Marg bar Khamenei” retiradas do mesmo conjunto de páginas, grupos e contas do Instagram públicas durante o mesmo período antes e após a Meta implementar nossa recomendação. Descobrimos que, após a empresa implementar nossa recomendação em janeiro de 2023, o número de publicações usando a frase “Marg bar Khamenei” dessas páginas, grupos e contas do Instagram aumentou em quase 30%. Nossa análise estatística demonstrou que é improvável que esse aumento seja devido apenas a variações aleatórias, e é muito provável que tenha sido causado pela Meta ter implantado nossa recomendação.

Novas melhorias sobre como a Meta identifica publicações conscientizando sobre o câncer de mama

Também recebemos mais informações sobre a implementação de recomendações da nossa decisão “Sintomas de câncer de mama e nudez”, que insta a Meta a “melhorar a detecção automática de imagens com sobreposição de texto, para que as publicações que visam a conscientização sobre os sintomas de câncer de mama não sejam erroneamente sinalizadas para análise”.

A empresa compartilhou anteriormente que as melhorias na detecção da sobreposição de texto, feitas de acordo com nossa recomendação, levaram 2.500 itens de conteúdo, que antes teriam sido removidos, a serem enviados para análise humana dentro de um período de só 30 dias entre fevereiro e março de 2023.

Além dessas mudanças, a Meta nos informou que testou e implementou um novo classificador de conteúdo sobre saúde para melhorar ainda mais as técnicas do Instagram para identificar conteúdo com imagens sobre o câncer de mama. Essas melhorias estão em vigor desde julho de 2021 e, nos 28 dias entre 21 de março e 18 de abril de 2023, contribuíram para o envio de mil itens de conteúdo, que antes teriam sido removidos, para análise humana.

Os novos dados demonstram nosso impacto na forma como a Meta modera o conteúdo que conscientiza sobre o câncer de mama, incluindo mudanças sistêmicas e nova ferramentas, e mostra as diferentes formas como a Meta está respondendo a essa importante recomendação.

O Comitê de Supervisão no primeiro trimestre de 2023

Nosso relatório de transparência do primeiro trimestre de 2023 também contém uma visão geral das atividades e das interações do Comitê com a Meta durante o período.

Abaixo estão alguns destaques:

  • No primeiro trimestre de 2023, publicamos decisões sobre quatro casos: “Slogan de protesto no Irã”, “identidade de gênero e nudez” (que aborda dois casos) e “Produtos farmacêuticos do Sri Lanka”.
  • As partes interessadas enviaram quase 300 comentários públicos para o Comitê antes das deliberações sobre os casos.
  • A Meta respondeu a 53 das 56 perguntas que fizemos enquanto analisamos os casos, e três foram respondidas parcialmente. Isso corresponde a 95%, a maior porcentagem de perguntas respondidas pela Meta desde que começamos a registrar esses dados no primeiro trimestre de 2021.
  • Também anunciamos quatro novos casos para apreciação, bem como um parecer consultivo sobre política em relação ao termo árabe “Shaheed”, que gerou mais remoções de conteúdo de acordo com os Padrões da Comunidade do que qualquer outra palavra ou frase nas plataformas da Meta.
  • Os usuários do Facebook e do Instagram enviaram mais de 140 mil casos para o Comitê no primeiro trimestre de 2023.
  • A grande maioria das apelações dos usuários (81%) ao Comitê durante o primeiro trimestre de 2023 dizia respeito a conteúdo compartilhado no Facebook, enquanto 19% dos casos diziam respeito a conteúdo compartilhado no Instagram. O valor de 19% é a maior porcentagem de apelações enviadas ao Comitê sobre conteúdo compartilhado no Instagram já registrada, que antes representavam apenas 1% das apelações no primeiro trimestre de 2022.
  • Em resposta às nossas preocupações quanto ao sistema de penalidades pouco transparente da Meta e às reclamações dos usuários sobre serem colocados na “prisão do Facebook”, a empresa mudou o sistema de “avisos”, tornando-o mais justo e transparente.

A Meta responde às nossas recomendações sobre a remoção de desinformação sobre COVID-19

Analisamos as políticas sobre desinformação sobre COVID-19 da Meta anteriormente neste ano, e, recentemente, a empresa respondeu a nossas recomendações. Das 17 recomendações que fizemos em nossa análise que ainda se aplicam, a Meta se comprometeu a implementar completa ou parcialmente mais de três quartos dela.

Nossa análise sobre as políticas de COVID da Meta foi uma visão detalhada sobre os sistemas, as políticas e as experiências anteriores da empresa em lidar com desinformação e informações enganosas nas plataformas dela. Como visto na recente resposta da Meta às nossas recomendações, nossa análise terá um grande impacto na forma como a Meta gerencia esse tipo de conteúdo no futuro.

Apenas para destacar algumas mudanças interessantes que a Meta fez ou se comprometeu em fazer devido a nossa análise:

  • A Meta se comprometeu em avaliar a possibilidade de uma abordagem localizada à desinformação sobre COVID-19, incluindo se ela continuará removendo esse tipo de desinformação em países que ainda consideram a doença como uma emergência de saúde pública, uma vez que a Organização Mundial de Saúde (OMS) declarou o fim da respectiva emergência. Isso é importante, pois a Meta sempre esteve fortemente comprometida com uma única política global até o momento para essa e outras questões.
  • A empresa afirmou que esclarecerá a política de “desinformação sobre saúde pública durante emergências de saúde pública” explicando que a exigência de que as informações sejam “falsas” refere-se a informações falsas de acordo com as melhores evidências disponíveis no momento em que a política foi reavaliada mais recentemente. Os pesquisadores da área de desinformação defenderam por muito tempo a adoção desse tipo de política para permitir a aplicação de políticas em boa-fé, mesmo com as situações em andamento.
  • Ferramentas de acesso como o CrowdTangle e a Researcher API, anteriormente conhecida como FORT, foram um ponto de discussão delicado para a Meta durante os últimos meses. A empresa se comprometeu a manter o nível de acesso a dados fornecido a pesquisadores e acadêmicos e a fornecer, no futuro, maior acesso não apenas para pesquisadores que se enquadram no Regulamento de Serviços Digitais, mas também para aqueles que estiverem em países de maioria global (“Global Majority”).

A Meta reconheceu que ferramentas como o CrowdTangle e a Researcher API fornecem “apoio significativo para a comunidade de pesquisadores e ajudarão a trazer mais transparência para as decisões sobre política da Meta enquanto melhoram o entendimento social sobre assuntos complexos”. O Comitê dá as boas-vindas ao compromisso da Meta com a transparência e espera vê-lo em ação.

Informações sobre a decisão da Meta de restaurar o ex-presidente Trump

Após a decisão da Meta de janeiro de 2023 para restaurar o ex-presidente Trump no Facebook e no Instagram, o Comitê de Supervisão solicitou informações sobre os fundamentos da Meta para a decisão. Em resposta, a empresa informou ao Comitê sobre o processo de tomada de decisões dela. O Comitê acredita que as informações confidenciais enviadas pela Meta demonstram uma abordagem à tomada de decisões baseada em princípios e mostrou que a empresa realmente seguiu a maioria das nossas recomendações sobre o caso. Nós parabenizamos o processo e a transparência com o Comitê. No entanto, como uma organização que preza pela transparência, pedimos que a Meta seja mais transparente publicamente sobre a tomada de decisões em casos como este no futuro.

Próximos passos

Como parte do nosso compromisso com a transparência, vamos continuar publicando relatórios a cada trimestre. Eles incluirão novos dados sobre os impactos das nossas recomendações nos usuários.

Voltar às Notícias