Decisão de múltiplos casos
Declarações direcionadas aos indígenas australianos
1 de Agosto de 2024
Um usuário apelou das decisões da Meta de deixar ativas duas publicações no Facebook, ambas compartilhadas por outro usuário, que respondem a reportagens com comentários direcionados à população indígena da Austrália.
2 casos incluídos neste pacote
FB-CRZUPEP1
Caso sobre discurso de ódio no Facebook
FB-XJP78ARB
Caso sobre discurso de ódio no Facebook
As decisões sumárias examinam casos em que a Meta reverteu a decisão original dela sobre um conteúdo depois que o Comitê o levou à atenção da empresa e incluem informações sobre os erros reconhecidos por ela. Elas são aprovadas por um painel de membros do Comitê, e não por ele inteiro, não envolvem comentários públicos e não têm valor precedente para o Comitê. As decisões sumárias geram mudanças diretas nas decisões da Meta, proporcionando transparência nessas correções e identificando em que área a empresa poderia melhorar seu monitoramento.
Resumo
Um usuário apelou das decisões da Meta de deixar ativas duas publicações no Facebook, ambas compartilhadas por um único usuário, que respondem a reportagens com comentários direcionados à população indígena da Austrália. Após o Comitê levar as apelações à atenção da empresa, ela reverteu suas decisões originais e removeu ambas as publicações.
Sobre os casos
Entre dezembro de 2023 e janeiro de 2024, um usuário australiano compartilhou duas publicações no Facebook sobre indígenas australianos. A primeira publicação contém um link para um artigo detalhando o esforço de um conselho de terras indígenas na compra de terras em um parque localizado em um dos subúrbios de Sydney. A legenda da publicação pede para os povos indígenas “bugger off to the desert where they actually belong” (irem embora para o deserto, onde eles realmente pertencem). A segunda publicação compartilha um artigo sobre uma perseguição de carro no nordeste da Austrália. A legenda pede que os “Aboriginal ratbags” (aborígenes idiotas) cumpram pena de prisão e recebam “100 strokes of the cane” (100 chicotadas de vara).
A Política sobre Discurso de Ódio da Meta proíbe declarações que apoiem ou defendam a segregação ou exclusão de pessoas com base em raça e etnia. A Meta proíbe especificamente conteúdo que pede de forma explícita a “expulsão de determinados grupos” e conteúdo que apoia a “negação de acesso a espaços (físicos e online)”. A política também proíbe “xingamentos direcionados” e “generalizações que afirmem inferioridade”, incluindo “características mentais” direcionadas a uma pessoa ou grupo de pessoas com base em suas características protegidas.
Depois que o Comitê levou o caso à atenção da Meta, a empresa determinou que ambos os itens de conteúdo não seguiam sua Política sobre Discurso de Ódio e que as decisões originais de deixá-los ativos estavam incorretas. A empresa então removeu o conteúdo do Facebook.
A Meta explicou ao Comitê que a publicação incita a expulsão dos indígenas australianos do parque e que a frase “bugger off” (ir embora) em referência a eles é um exemplo de xingamento direcionado contra membros de um grupo protegido. Além disso, ela reconheceu que o termo “ratbag” (idiota) é depreciativo, com significados que incluem “pessoa burra” no inglês australiano, violando, portanto, a proibição da Política sobre Discurso de Ódio da Meta de declarações que se referem a membros de um grupo característico protegido como mentalmente inferiores.
Autoridade e escopo do Comitê
O Comitê tem autoridade para analisar as decisões da Meta após apelações dos usuários que denunciaram que o conteúdo estava ativo (Artigo 2, Seção 1 do Estatuto; e Artigo 3, Seção 1 dos Regulamentos Internos).
Quando a Meta reconhece que cometeu um erro e reverte a decisão em um caso sob consideração para análise do Comitê, ele pode selecionar esse caso para uma decisão sumária (Artigo 2, Seção 2.1.3 dos Regulamentos Internos). O Comitê analisa a decisão original para aumentar a compreensão do processo de moderação de conteúdo, reduzir erros e aumentar a justiça para os usuários do Facebook, do Instagram e do Threads.
Significância dos casos
O Comitê enfatizou repetidamente a importância particular de abordar o discurso de ódio direcionado a grupos que historicamente foram e continuam sendo discriminados (decisões sobre os casos Calúnias na África do Sul e Publicação em polonês contra pessoas trans). Ele também manifestou sérias preocupações em relação às práticas de monitoramento da Meta que podem impactar desproporcionalmente os povos das Primeiras Nações. Na decisão do caso Cinto Wampum, o Comitê observou que, embora os erros sejam inevitáveis, “os tipos de erros e as pessoas ou comunidades que carregam o fardo desses erros refletem escolhas de design que devem ser constantemente avaliadas e examinadas”. Nesse caso, ele enfatizou a importância da Meta de supervisionar a precisão do seu monitoramento sobre discurso de ódio não apenas de forma geral, mas com particular sensibilidade a erros de monitoramento em “subcategorias de conteúdo em que decisões incorretas têm um impacto particularmente alto em relação aos direitos humanos”. O Comitê explicou que, portanto, “cabe à Meta demonstrar que realizou a devida diligência em matéria de direitos humanos para garantir que seus sistemas estejam operando de forma justa e não estejam agravando a opressão histórica e contínua”.
Sobre as incitações à expulsão, ele recomendou que a Meta “reescrevesse o valor de ‘Segurança’ da empresa para refletir que a expressão online pode representar um risco à segurança física das pessoas e ao direito à vida, além dos riscos de intimidação, exclusão e silenciamento” (Alegação de crimes em Raya Kobo, recomendação n.º 1). A implementação dessa recomendação foi demonstrada por meio de informações publicadas.
Decisão
O Comitê anula as decisões originais da Meta de deixar ativo o conteúdo. Além disso, após levar os casos ao conhecimento da empresa, reconhece que ela corrigiu os erros iniciais.
Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas