Anulado

Enchentes na Líbia

Um usuário apelou da decisão da Meta de remover uma publicação do Facebook discutindo as recentes enchentes na Líbia. Esse caso destaca a aplicação excessiva da Política sobre Organizações e Indivíduos Perigosos da empresa.

Tipo de decisão

Resumo

Políticas e tópicos

विषय
Desastres naturais, Jornalismo, Liberdade de expressão
Padrão da comunidade
Indivíduos e organizações perigosos

Regiões/países

Localização
Líbia

Plataforma

Plataforma
Facebook

Esta é uma decisão sumária. As decisões sumárias examinam os casos em que a Meta reverteu a decisão original dela sobre um conteúdo depois que o Comitê o levou à atenção da empresa. Essas decisões incluem informações sobre os erros reconhecidos pela Meta e informam o público sobre o impacto do trabalho do Comitê e são aprovadas por um painel de Membros dele, não por ele inteiro. Elas não envolvem um processo de comentários públicos e não têm valor precedente para o Comitê. As decisões sumárias dão transparência às correções da Meta e destacam áreas em que a empresa poderia melhorar a aplicação de suas políticas.

Resumo do caso

Um usuário apelou da decisão da Meta de remover uma publicação do Facebook discutindo as recentes enchentes na Líbia. Em setembro de 2023, ocorreram enchentes devastadoras no nordeste da Líbia causadas pela tempestade Daniel e pelo colapso de duas barragens. Um vídeo de apoio às vítimas das enchentes, especialmente na cidade de Derna, foi removido por violar a Política sobre Organizações e Indivíduos Perigosos da Meta. Esse caso destaca uma aplicação excessiva da Política sobre Organizações e Indivíduos Perigosos da empresa, o que afeta negativamente a liberdade dos usuários de expressar solidariedade e empatia em situações difíceis. Após o Comitê levar a apelação ao conhecimento da Meta, a empresa reverteu a decisão anterior e restaurou a publicação.

Descrição do caso e histórico

Em setembro de 2023, um usuário do Facebook publicou um vídeo contendo duas imagens sem legenda. A imagem de fundo mostrava dois indivíduos em uniforme militar com distintivos. Um dos distintivos continha uma frase em árabe que dizia “Brigade 444 – Combat” (Brigada 444 – Combate). Essa imagem foi sobreposta à segunda, que mostrava duas pessoas puxando uma terceira pessoa para fora de um corpo d'água. As pessoas nas laterais tinham as palavras árabes para “west” (oeste) e “south” (sul) escritas no peito, enquanto a pessoa no meio tinha a palavra “east” (leste) escrita.

Em agosto de 2023, eclodiram confrontos armados em Trípoli entre a 444ª Brigada de Combate e a Força Especial de Dissuasão. Essas são duas das milícias que disputam o poder desde a queda de Muammar Gaddafi em 2011. No envio ao Comitê, o usuário afirmou que publicou o vídeo para esclarecer que a Líbia era “one people” (um povo) com “one army” (um exército) apoiando a cidade de Derna, no nordeste, após as enchentes que resultaram do colapso de barragens após a tempestade Daniel em setembro de 2023.

A Meta originalmente removeu a publicação do Facebook, citando sua Política sobre Organizações e Indivíduos Perigosos.

Após o Comitê levar esse caso à atenção da Meta, a empresa determinou que a remoção foi um erro e restaurou o conteúdo no Facebook. A empresa disse ao Comitê que o conteúdo não continha nenhuma referência a uma organização ou indivíduo designado e, portanto, não violava as políticas da Meta.

Autoridade e escopo do Comitê

O Comitê tem autoridade para analisar a decisão da Meta após uma apelação do usuário cujo conteúdo foi removido (Artigo 2, Seção 1 do Estatuto; e Artigo 3, Seção 1 dos Regulamentos Internos).

Quando a Meta reconhece que cometeu um erro e reverte a decisão em um caso sob consideração para análise do Comitê, ele pode selecionar esse caso para uma decisão sumária (Artigo 2, Seção 2.1.3 dos Regulamentos Internos). O Comitê analisa a decisão original para aumentar a compreensão do processo de moderação de conteúdo, reduzir erros e aumentar a justiça para os usuários do Facebook e do Instagram.

Significância do caso

Esse caso destaca a aplicação excessiva da Política sobre Organizações e Indivíduos Perigosos da Meta, inclusive por meio de sistemas automatizados, o que pode ter um impacto negativo na liberdade de expressão dos usuários em compartilhar comentários sobre eventos atuais nas plataformas da Meta.

No caso Isolamento de Öcalan, o Comitê recomendou que a Meta “avalie processos automatizados de moderação para aplicação da Política sobre Organizações e Indivíduos Perigosos” (recomendação n.º 2). A Meta informou que não tomaria nenhuma ação sobre essa recomendação, pois “a orientação política nesse caso não contribui diretamente para o desempenho da aplicação automatizada”.

Em termos de automação, o Comitê pediu para a Meta implementar um procedimento de auditoria interna a fim de analisar continuamente uma amostra estatisticamente representativa de decisões de remoção automatizadas para reverter e aprender com os erros de aplicação ( Sintomas de câncer de mama e nudez, recomendação n.º 5). A Meta informou que está implementando essa recomendação, mas não publicou informações que demonstrem a conclusão dessa implementação. No quarto trimestre de 2022, a Meta relatou ter “concluído o lançamento global de mensagens novas e mais específicas que permitem às pessoas saber se a automação ou a análise humana levaram à remoção do conteúdo delas do Facebook”, mas não forneceu informações como prova disso. Na mesma decisão, o Comitê também recomendou que a Meta “expanda os relatórios de transparência para divulgar dados sobre o número de decisões de remoção automatizadas de acordo com o Padrão da Comunidade e a proporção dessas decisões posteriormente revertidas após análise humana” (Sintomas de câncer de mama e nudez, recomendação n.º 6). No terceiro trimestre de 2023, a Meta informou que estava estabelecendo uma metodologia contábil consistente para essas métricas. No caso Preocupação de Punjab com a RSS na Índia, o Comitê instou a Meta a “melhorar seus relatórios de transparência para aumentar as informações públicas sobre as taxas de erro, tornando essas informações visíveis por país e idioma para cada Padrão da Comunidade”, (recomendação n.º 3). No terceiro trimestre de 2023, a Meta informou que estava trabalhando para definir suas métricas de precisão, juntamente com seu trabalho na recomendação nº. 6 no caso Sintomas de câncer de mama e nudez.

O Comitê reitera que a implementação integral das suas recomendações ajudará a diminuir os erros de aplicação no âmbito da Política sobre Organizações e Indivíduos Perigosos, reduzindo o número de usuários cuja liberdade de expressão é violada por remoções ilícitas.

Decisão

O Comitê revoga a decisão original da Meta de remover o conteúdo. Além disso, após levar o caso ao conhecimento da empresa, ele reconhece que ela corrigiu o erro inicial. O Comitê enfatiza que a adoção total dessas recomendações, juntamente com as informações publicadas para demonstrar a implementação bem-sucedida, poderia reduzir o número de erros de aplicação no âmbito da Política sobre Organizações e Indivíduos Perigosos nas plataformas da Meta.

Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas