O Comitê de Supervisão é ampliado para o Threads

Hoje o Comitê de Supervisão está expandindo seu escopo para incluir o Threads, um app da Meta que permite aos usuários compartilhar conteúdo em formato de texto e participar de conversas públicas. Apesar de analisarmos e decidirmos sobre apelações de usuários do Facebook e do Instagram desde outubro de 2020, isso representa um marco: é a primeira vez que a análise do Comitê amplia seu escopo para incluir um novo app.

Quando as plataformas de redes sociais abrem espaço na tomada de decisões sobre moderação de conteúdo para uma supervisão independente, isso leva a decisões melhores e mais responsáveis. E, assim, é possível conquistar a confiança das pessoas que usam essas plataformas. O Comitê saúda a decisão da Meta de expandir essa abordagem para o Threads. Nós acreditamos que podemos ajudar o Threads a ser mais transparente, adotar uma abordagem global e respeitar a liberdade de expressão e outros direitos humanos.

O que está acontecendo?

A partir de hoje, as pessoas que usam o Threads poderão contestar as decisões da Meta fazendo uma apelação relacionada a conteúdo elegível para o Comitê de Supervisão. O processo de apelações do Threads é similar ao do Facebook e do Instagram. Após o encerramento do processo de apelações interno da Meta, a empresa emitirá uma identificação de referência do Comitê de Supervisão que permite aos usuários enviar seus casos para análise no site do Comitê de Supervisão. Além dos 130 milhões de pessoas que usam o Threads, a Meta também poderá indicar casos sobre conteúdo no Threads para o Comitê.

Como o Comitê tomará decisões sobre conteúdo no Threads?

No Threads, assim como no Facebook e no Instagram, selecionaremos os casos que têm potencial de afetar muitas pessoas, apresentam grande importância para o debate público ou suscitam questões relevantes sobre as políticas da Meta. Abordando problemas compartilhados por milhões de usuários e propondo soluções para eles, nosso trabalho gera um impacto que vai muito além de casos individuais.

Assim como ocorre no Facebook e no Instagram, o Comitê poderá analisar casos em vários prazos diferentes, dependendo da natureza, da oportunidade e da complexidade deles. Alguns casos serão tratados como decisões padrão (em um prazo de 90 dias, com comentários públicos). Já outros (em que a Meta reconhece seu erro após a seleção do caso pelo Comitê) serão decisões sumárias, publicadas apenas com uma breve opinião. E, por fim, alguns (de urgência especial) serão decididos de forma mais célere.

Os membros do Comitê examinarão as decisões da Meta sobre conteúdo com base nas Diretrizes da Comunidade do Instagram (que são aplicáveis ao Threads), nos valores da empresa e nos seus compromissos com os direitos humanos internacionais, especialmente os princípios de liberdade de expressão. Nossas decisões serão vinculantes, e a Meta deverá implementá-las em até sete dias. Também poderemos fazer recomendações sobre como a Meta pode melhorar sua abordagem na moderação de conteúdo. A empresa deverá responder a elas em até 60 dias.

A Meta nos informou que, como o Threads ainda está em um processo de rápida evolução, durante 12 meses, e enquanto ele se estabiliza, a empresa poderá implementar recomendações de política e monitoramento relacionadas a decisões sobre o Threads, mas não poderá implementar recomendações específicas ao produto.

Mudando a abordagem da Meta na moderação de conteúdo

O histórico de impacto do Comitê no Facebook e no Instagram sugere que também podemos fazer uma grande diferença no Threads.

Por exemplo, em resposta às nossas recomendações, a Meta criou o Status da Conta, que informa às pessoas quais penalidades a empresa aplicou à conta delas e por quê. A Meta também criou novos classificadores para que conteúdos de conscientização sobre o câncer de mama deixem de ser automaticamente removidos. Além disso, está desenvolvendo uma abordagem nova e consistente para a preservação de possíveis evidências de atrocidades e violações graves das leis de direitos humanos. Esses são apenas alguns exemplos de como o trabalho do Comitê está tornando a abordagem da Meta mais transparente, mais baseada em princípios e mais global em sua visão.

O Comitê usará seus quase quatro anos de experiência nas análises do Threads. Durante esse tempo, evoluímos nossa abordagem, como as alterações que fizemos no último ano para aceitar mais casos, com mais rapidez. Em 2023, publicamos decisões importantes sobre prisioneiros de guerra, o ex-primeiro ministro do Camboja Hun Sen e nossos primeiros casos céleres sobre o conflito entre Israel e Hamas. Também publicamos um parecer consultivo sobre política a respeito da desinformação relacionada à COVID-19. Estamos mantendo esse ritmo em 2024, publicando decisões sobre a negação do Holocausto, a mídia manipulada e o ódio contra pessoas transgênero. Há mais trabalho a fazer, mas continuaremos estimulando a Meta a tratar seus usuários de forma justa em todas as plataformas da empresa.

Qual é o próximo passo?

Quando selecionarmos nossos primeiros casos comuns sobre conteúdo no Threads, anunciaremos isso no nosso site e convidaremos as pessoas a enviar comentários públicos. Publicaremos nossas decisões finais no site do Comitê de Supervisão.

Nota: o Comitê de Supervisão é uma organização independente que analisa as decisões da Meta de remover ou deixar ativo um conteúdo no Facebook, no Instagram e no Threads em um número selecionado de casos emblemáticos. O Comitê analisa e, quando necessário, reverte as decisões da empresa. As decisões dele são vinculantes para a Meta. O Comitê também faz recomendações para melhorar a abordagem da Meta na moderação de conteúdo.

Voltar às Notícias