Relatório Anual de 2022: o Comitê de Supervisão de Supervisão analisa as mudanças da Meta para trazer justiça e transparência às plataformas da empresa

Hoje, publicamos nosso Relatório Anual de 2022. Ele fornece um relato abrangente do trabalho do Comitê em 2022, incluindo a publicação dos nossos primeiros pareceres consultivos sobre política e o crescente impacto das nossas recomendações em como as pessoas usam o Facebook e o Instagram.

Leia nosso Relatório Anual em inglês aqui.

Leia nosso Relatório Anual em espanhol aqui.

Observação: também publicaremos esse relatório em árabe, chinês, francês, hindi e russo nas próximas semanas.

Transformando compromissos em impacto

Desde que publicamos as primeiras decisões em janeiro de 2021, a Meta implementou muitas das nossas recomendações. Essas mudanças tornaram a empresa mais transparente e justa no tratamento dos usuários.

De janeiro de 2021 até o início de abril de 2023, quando este Relatório Anual foi finalizado, o Comitê havia feito um total de 191 recomendações à Meta. Para cerca de dois terços deles, a Meta implementou total ou parcialmente a recomendação ou relatou que a implementação seria feita.

Em 2022, foi ótimo notar que, pela primeira vez, a Meta fez mudanças sistêmicas nas regras e como são aplicadas, inclusive em relação a notificações de usuários e organizações perigosas. Embora saibamos que ainda há mais a fazer, o Relatório Anual de hoje destaca vários exemplos do impacto do Comitê até o momento.

Informar às pessoas por que o conteúdo delas foi removido

A recomendação que o Comitê faz mais frequentemente é que a Meta diga às pessoas por que o conteúdo delas foi removido.

No passado, os usuários tinham que adivinhar o motivo da remoção. Em resposta às nossas recomendações, a Meta lançou globalmente mensagens informando às pessoas qual política elas violaram em relação às políticas de discurso de ódio, organizações e indivíduos perigosos e bullying e assédio. Em resposta a mais uma recomendação, a Meta também lançou, no mundo todo, mensagens informando se a remoção do conteúdo foi causada por análise humana ou automatizada. Acreditamos que fornecer às pessoas mais informações sobre como e por que o conteúdo delas foi removido aumentará a confiança e ajudará a Meta a aplicar as regras de forma mais justa.

Tornar as regras mais consistentes e transparentes

O Relatório Anual de hoje também mostra como nossas recomendações estão tornando as regras da Meta mais claras e consistentes.

Em resposta às nossas propostas, a Meta lançou um Protocolo de Política de Crise para tornar as respostas dela a situações de crise mais consistentes e recentemente anunciou planos para criar uma nova equipe de gerenciamento de crises a fim de fornecer atendimento dedicado 24 horas por dia, 7 dias por semana, em caso de crises iminentes e emergentes.

Ela também lançou uma versão revisada da política de organizações e indivíduos perigosos e criou um novo Padrão da Comunidade sobre desinformação, consolidando e esclarecendo as regras em um só lugar. Por fim, em resposta às nossas preocupações quanto ao sistema de penalidades pouco transparente da Meta e às reclamações dos usuários sobre serem colocados na “prisão do Facebook”, a empresa mudou o sistema de “avisos”, tornando-o mais justo e transparente.

Proteger o importante direito de expressão de jornalistas, manifestantes e ativistas em relação à conscientização sobre o câncer de mama

Nosso Relatório Anual também mostra como nossas recomendações estão ajudando a proteger o importante direito de expressão de jornalistas, manifestantes e ativistas em torno da conscientização sobre o câncer de mama no Facebook e no Instagram.

Em resposta ao nosso parecer consultivo sobre política quanto ao programa de verificação cruzada da Meta, por exemplo, a empresa comprometeu-se a aumentar a proteção daqueles com risco particular de ter o próprio conteúdo removido indevidamente, incluindo jornalistas e defensores dos direitos humanos.

Também protegemos a voz dos usuários durante as transformações políticas e sociais. Como parte da nossa decisão “Slogan de protesto no Irã”, instamos a Meta a melhorar a proteção do discurso político no Irã, onde protestos históricos foram violentamente reprimidos. Em resposta, ela permitiu que o termo “Marg bar Khamenei” (traduzido literalmente como “Morte ao [líder supremo do Irã] Khamenei”) fosse compartilhado no contexto dos protestos em andamento no Irã e reverteu as ações de aplicação anteriores contra esse tipo de conteúdo.

Por fim, na nossa decisão sobre “sintomas de câncer de mama e nudez”, instamos a Meta a melhorar a detecção de imagens com sobreposição de texto para que as publicações que conscientizem sobre sintomas de câncer de mama não sejam sinalizadas erroneamente para revisão. Em resposta, a Meta aprimorou as técnicas para identificar contexto de câncer de mama no conteúdo do Instagram.

Essas melhorias estão em vigor desde julho de 2021 e, entre 26 de fevereiro e 27 de março de 2023, contribuíram para o envio de 2.500 conteúdos para análise humana que, antes, teriam sido removidos. Embora seja difícil contextualizar isso sem um denominador, essa primeira métrica de impacto mostra como nossa recomendação ajudou a Meta a mitigar um risco sistêmico resultante de como a empresa lidava com esse tipo de conteúdo.

Um diálogo novo e transparente

Ao fazer essas recomendações e monitorar publicamente as respostas e a implementação da Meta, abrimos um espaço de diálogo transparente com a empresa que não existia anteriormente. Esperamos que nossas recomendações desencadeiem o debate público sobre como as plataformas podem abordar alguns dos desafios mais complexos na moderação de conteúdo.

Em muitos casos, nossas propostas ecoam ou se baseiam em apelos que grupos da sociedade civil e outras partes interessadas vêm fazendo há muitos anos, forçando a Meta a considerar e responder publicamente a pedidos de ação de longa data. Nós, como Comitê, gostaríamos de reiterar nossa gratidão a essas organizações por compartilharem suas ideias e conhecimentos.

O trabalho do Comitê em 2022

Além de destacar nosso crescente impacto sobre a Meta, nosso Relatório Anual também fornece uma visão geral dos casos submetidos ao Comitê.

Em 2022, recebemos quase 1,3 milhão de apelos de usuários para restaurar ou remover conteúdo no Facebook ou no Instagram, um aumento de cerca de 25% em relação a 2021. Mais de dois terços dos apelos de restauração de conteúdo em 2022 diziam respeito a publicações removidas com base nas regras do Meta sobre violência e incitação ou discurso de ódio.

Depois que o Conselho de Seleção de Casos do Comitê seleciona o conteúdo para revisão, a Meta às vezes determina que a decisão original dela estava incorreta e a reverte. Em 2022, a Meta identificou que a decisão original estava incorreta em 32 dos 50 casos selecionados pelo Comitê. Embora essa seja uma pequena amostra e o Comitê busque intencionalmente os casos mais desafiadores e difíceis, é preocupante que, em quase dois terços dos casos pré-selecionados, a Meta tenha considerado que sua decisão original tenha sido incorreta.

Nosso Relatório Anual também descreve que, em 2022, nós:

  • Publicamos nossos primeiros pareceres consultivos sobre política quanto ao compartilhamento de informações residenciais privadas e o programa de verificação cruzada da Meta.
  • Anulamos a decisão original da Meta para um conteúdo em 75% das nossas decisões sobre o caso.
  • Recebemos mais de 600 comentários públicos de indivíduos e organizações de todo o mundo.
  • Expandimos nosso escopo para incluir a capacidade de adicionar telas de aviso a conteúdo qualificado.
  • Anunciamos sete prioridades estratégicas: eleições e espaço cívico, situações de crise e conflito, gênero, discurso de ódio contra grupos marginalizados, uso governamental das plataformas da Meta, tratamento justo dos usuários, aplicação automatizada de políticas e seleção de conteúdo.

Evoluindo nosso trabalho com a Meta

Em fevereiro de 2023, anunciamos planos para revisar mais casos com mais rapidez. Aumentar o número de decisões que tomamos e a velocidade com que fazemos isso vai nos possibilitar abordar mais dos grandes desafios de moderação de conteúdo. Desde fevereiro, anunciamos dez novos casos para apreciação, bem como um parecer consultivo sobre política em relação ao termo árabe “Shaheed” (que geralmente é traduzido como “mártir”). Vamos publicá-los nas próximas semanas e meses.

Nosso Relatório Anual define seis metas para ajudar a aumentar nosso impacto em 2023. Isso inclui a publicação das nossas primeiras decisões resumidas, que analisam casos em que a Meta reverteu a decisão original dela sobre um conteúdo depois que os levamos à atenção da empresa. Também planejamos emitir nossas primeiras decisões céleres em 2023, que analisam a decisão da Meta sobre uma publicação dentro de dias, e esperamos receber nosso primeiro caso célere da empresa. Também pretendemos concluir a composição inicial do Comitê, aprofundar o envolvimento em torno das nossas sete prioridades estratégicas, buscar planos a longo prazo para expansão do escopo e pressionar a Meta a fornecer evidências de implementação e impacto.

Compartilhando os benefícios da supervisão independente

O Comitê foi projetado para testar uma abordagem independente de moderação de conteúdo, que, se bem-sucedida, também poderia ser aplicada a outras empresas. Nos últimos três anos, adquirimos uma vasta experiência em supervisão independente que pode ajudar as empresas a tomar decisões mais sólidas com base no respeito à liberdade de expressão e a outros direitos humanos.

Nosso Relatório Anual compartilha ideias sobre como um comitê de supervisão de governança de conteúdo deve funcionar, desde a importância da diversidade até o valor dos padrões internacionais de direitos humanos na tomada de decisões. Como a nova regulamentação traz novos requisitos, também existem áreas específicas, como transparência e notificações ao usuário, que acreditamos poder fazer parte da solução.

Próximos passos

Como parte do nosso compromisso com a transparência, também publicamos relatórios de transparência trimestrais ao longo do ano. Nos próximos dias, publicaremos nosso relatório de transparência trimestral do 1º trimestre de 2023. Ele destacará mais exemplos do impacto do Comitê sobre a Meta e incluirá uma revisão do anúncio da Meta em janeiro de 2023 sobre o ex-presidente Trump.

Voltar às Notícias