Anulado
Comentário sobre a política queniana usando uma calúnia designada
9 de Dezembro de 2025
O Comitê de Supervisão revogou a decisão original da Meta de remover um comentário sobre a política queniana que continha o termo “tugeges”.
Resumo
O Comitê de Supervisão revogou a decisão original da Meta de remover um comentário sobre a política queniana que continha o termo “tugeges”. Embora o comentário descreva de forma negativa um grupo de eleitores quenianos, ele não cria, por si só, uma atmosfera de exclusão discriminatória nem de intimidação. Quando o conteúdo foi postado, o termo não deveria ter sido qualificado como uma calúnia. Esse caso mostra como a resposta excessivamente ampla da Meta levou à supressão do discurso político e do debate público.
Sobre o caso
Em fevereiro de 2025, o ex-primeiro-ministro do Quênia, Raila Odinga, candidatou-se à presidência da União Africana. Antes dessa eleição, um usuário do Facebook postou uma imagem do ex-vice-presidente do Quênia, Rigathi Gachagua. O texto na imagem descreve o apoio de Gachagua à nomeação de Odinga. Na legenda, o usuário afirma que Gachagua, pertencente ao grupo étnico quicuios, só está apoiando Odinga, que pertence ao grupo étnico luo, para aumentar sua popularidade entre os luos.
Um segundo usuário fez um comentário zombando do conteúdo do post original, classificando-o como destinado aos “tugeges” (“quicuios retardados”), uma referência direta aos apoiadores de Gachagua.
Na época, a Meta designou o termo “tugeges” como uma calúnia de acordo com os Padrões da Comunidade sobre Conduta de Ódio. O comentário do usuário foi removido automaticamente, e uma advertência foi aplicada à conta dele. No entanto, a Meta removeu o termo da sua lista de calúnias em julho de 2025, quando o Comitê questionou essa designação. A empresa também restaurou o comentário e anulou a advertência aplicada ao usuário no mês seguinte.
Principais descobertas
O Comitê incentiva a Meta a ser criteriosa em seu processo de designação antes de banir palavras. O termo “tugeges” não se encaixa na definição de calúnia da empresa. Durante as eleições de 2022 no Quênia, a forma como a palavra vinha sendo usada fazia com que ela pudesse ser considerada uma calúnia. No entanto, seu uso evoluiu rapidamente, gerando dúvidas sobre a designação de janeiro de 2024. Quando o conteúdo foi postado, “tugeges” não deveria ter sido qualificado como uma calúnia.
Embora o termo possa ser depreciativo do ponto de vista étnico, muitas pessoas o usam para criticar a lealdade política cega. Outros dialetos quenianos têm termos equivalentes, geralmente usados para expressar críticas políticas. A Coalizão Nacional do Quênia sobre Liberdade de Expressão e Moderação de Conteúdo não classificou o termo como discurso de ódio. Especialistas e comentários públicos apontam que as conotações étnicas discriminatórias do termo não são fixas e que a palavra tem vários significados coloquiais. Isso deveria ter sido considerado pela Meta e ressalta a importância de a empresa envolver as partes interessadas nacionais tanto na designação quanto na auditoria das listas de calúnias.
As deliberações sobre o caso também incluíram discussões sobre como a Meta pode continuar oferecendo aos usuários a oportunidade de agir quando seus conteúdos violarem a Política sobre Conduta de Ódio. A recomendação do Comitê sugere a implementação de um recurso no produto para lidar com possíveis violações da Política sobre Conduta de Ódio.
A decisão do Comitê de Supervisão
O Comitê revoga a decisão original da Meta de remover o conteúdo.
Ele recomenda que a Meta faça o seguinte:
- Ofereça aos usuários uma oportunidade de autocorreção semelhante à intervenção pós-postagem criada em decorrência do caso “Protestos a favor de Navalny na Rússia”, recomendação n.º 6. Se essa intervenção não estiver mais em vigor, a Meta deverá fornecer uma intervenção equivalente.
- O Comitê também reitera uma recomendação de uma decisão anterior, com a qual a Meta se comprometeu integralmente e está implementando:
- Quando auditar suas listas de calúnias, a Meta deve se certificar de que há ampla participação externa com partes interessadas relevantes.
*Os resumos de casos fornecem uma visão geral dos casos e não têm valor de precedente.
Decisão completa sobre o caso
1. Descrição do caso e histórico
Na véspera da eleição para a presidência da União Africana, em fevereiro de 2025, um usuário do Facebook postou uma imagem do ex-vice-presidente do Quênia, Rigathi Gachagua, com uma sobreposição de texto mostrando o apoio de Gachagua à nomeação de Raila Odinga para presidente da União Africana. Na legenda, o usuário afirma que Gachagua, pertencente ao grupo étnico quicuios, apoiava Odinga, do grupo étnico luo, apenas para aumentar sua popularidade entre os luos. Um segundo usuário, que foi marcado no post, fez um comentário zombando da reação do autor do post à declaração de Gachagua e classificando-a como destinada aos “tugeges”, referindo-se aos apoiadores de Gachagua. O usuário que fez o comentário esclareceu que o apoio de Gachagua se destina a um público externo, e não aos quenianos.
A ferramenta de detecção proativa da Meta identificou e removeu o comentário do usuário por conter o termo “tugeges” e violar os Padrões da Comunidade sobre Conduta de Ódio. A Meta designou a palavra como uma calúnia em janeiro de 2024. Na época, a Meta definiu o termo como significando “quicuio retardado”. A Meta removeu o comentário e aplicou uma advertência padrão à conta do usuário. O usuário fez uma apelação da decisão da Meta de remover o comentário, mas o moderador que analisou a apelação manteve a decisão. O usuário então fez uma apelação ao Comitê de Supervisão. Em julho de 2025, após questionamentos do Comitê sobre a designação do termo, a Meta o removeu da lista de calúnias. Como resultado, o conteúdo foi restaurado e a advertência aplicada à conta do usuário foi anulada. O usuário foi notificado sobre a restauração do conteúdo e informado de que essa decisão foi resultado da análise do caso pelo Comitê.
O Comitê observa o seguinte contexto ao tomar uma decisão:
Na democracia multipartidária do Quênia, políticos e partidos políticos frequentemente usam a etnia e as alianças entre grupos para conseguir votos nas eleições. Entre as pessoas mencionadas no post, Odinga conta com um apoio significativo da comunidade luo. O atual presidente, William Ruto, é originário da comunidade kalenjin, o terceiro maior grupo étnico do Quênia, enquanto o Sr. Gachagua é da comunidade quicuio, o maior grupo étnico. O presidente Ruto e Gachagua uniram-se e venceram as eleições gerais de 2022, com Gachagua ocupando o cargo de vice-presidente de 2022 até seu impeachment em 2024.
A relação entre política e etnia é frequentemente debatida publicamente no Quênia e tende a gerar controvérsias. A promoção do ódio étnico que incita à violência entre comunidades, especialmente durante as eleições, tem sido motivo de preocupação. A violência pós-eleitoral de 2008, que resultou em 1.200 mortes e no deslocamento de centenas de milhares de pessoas, teve causas múltiplas e complexas, mas foi em parte alimentada por discursos de ódio e incitação com base na etnia. Incidentes semelhantes ocorreram após as eleições gerais de 2017. A Comissão Nacional de Coesão e Integração (NCIC, na sigla em inglês), agência de coesão social do Quênia, emitiu um alerta contra o uso de discurso de ódio nas plataformas de redes sociais, inclusive por políticos como Gachagua, que insinuou a possibilidade de violência nas próximas eleições gerais de 2027. Em setembro de 2023, em resposta às especulações, a NCIC afirmou que não tinha planos de proibir a palavra “tugeges” como discurso de ódio. No entanto, em junho de 2024 emitiu um alerta contra o uso do termo para se referir a pessoas que apoiam uma ideologia política diferente, considerando a palavra “ofensiva, humilhante e desumanizante”. Contudo, o termo não está incluído no léxico de discurso de ódio da NCIC.
Em junho de 2024, protestos liderados por jovens eclodiram no Quênia em resposta à proposta de aumento de impostos pelo governo. Os protestos evoluíram para apelos mais amplos por um governo mais responsável, transcendendo as alianças étnicas. Em junho de 2025, protestos liderados por jovens eclodiram novamente, exigindo a renúncia do presidente Ruto e evidenciando uma insatisfação contínua com o governo. Em resposta, as autoridades policiais reprimiram os manifestantes, inclusive abrindo fogo contra eles, o que causou mortes, lesões e prisões. Em julho de 2025, o presidente Ruto acusou a oposição, que agora inclui Gachagua, de planejar sua destituição, o que Gachagua negou.
2. Envios de usuários
Em sua declaração ao Comitê, o usuário que fez o comentário afirmou que não insultou, ameaçou nem usou linguagem abusiva. Ele disse que estava fazendo um simples comentário político “in a civil way” (de maneira civilizada) e que a remoção do post pela Meta foi injusta.
3. Políticas de conteúdo e envios da Meta
I. Políticas de conteúdo da Meta
Padrões da Comunidade sobre Conduta de Ódio
De acordo com a Política sobre Conduta de Ódio, a Meta remove conteúdo que “descreve ou se direciona às pessoas negativamente por meio de calúnia”. A empresa define conduta de ódio como “ataques diretos contra pessoas, em vez de conceitos ou instituições”, com base em características protegidas, como raça, etnia ou deficiência, entre outras. Calúnias são “palavras que criam, de modo inerente, uma atmosfera de exclusão e intimidação contra pessoas com base em uma característica protegida, frequentemente porque essas palavras estão associadas a discriminação, opressão e violência históricas”.
Conforme declarado no fundamento da Política sobre Conduta de Ódio, a Meta acredita que as pessoas “usam suas vozes e se conectam mais livremente quando não se sentem atacadas com base em quem são”. O fundamento da política também especifica situações em que o uso de calúnias é permitido: para condenar a calúnia, denunciá-la, usá-la de forma autorreferencial ou usá-la de forma empoderadora. A Meta afirma que permite esses usos quando a intenção do autor é clara.
II. Envios da Meta
A Meta inicialmente removeu o conteúdo por violar a regra dos Padrões da Comunidade sobre Conduta de Ódio contra calúnias. No momento em que foi postado, o termo “tugege” foi designado como uma calúnia, e a Meta concluiu que seu uso não se encaixava em nenhuma das exceções.
Em janeiro de 2024, a Meta adicionou o termo “tugege” à sua lista de calúnias para os mercados suaíli, após a palavra ganhar destaque durante as eleições gerais do Quênia em 2022. A designação da palavra seguiu o processo de designação da Meta. Segundo a análise qualitativa e quantitativa feita pela empresa na época, o termo era entendido como “quicuio retardado” e é o plural de “kagege”, um termo quicuio para descrever “uma pessoa extremamente confusa, a ponto de olhar para o mundo com um olhar vazio”. O termo deriva da palavra “gega”, que significa “olhar fixamente com perplexidade”. As equipes regionais e de políticas da Meta determinaram então que a palavra era usada para atacar os quicuios com base na origem étnica.
Quando anunciou suas alterações na política em 7 de janeiro de 2025, a Meta declarou que as violações da Política sobre Conduta de Ódio seriam tratadas como “violações de políticas menos graves” e que a empresa reduziria sua dependência da automação para a aplicação das regras contra essas violações. Em vez disso, a empresa passará a contar com “denúncias de usuários e outros sinais externos” para complementar os classificadores na detecção de possíveis violações. Ela também poderá usar classificadores para remover proativamente o conteúdo violador assim que detectado, sem análise humana. Em países que enfrentam crises (sejam eles designados ou não de acordo com o Protocolo de Política de Crise (CPP, na sigla em inglês) da empresa), a Meta continuará detectando e removendo proativamente violações de Conduta de Ódio, sem depender de denúncias de usuários ou outros sinais externos.
Na época em que o conteúdo foi postado, a Meta havia implantado a detecção e remoção proativas de possíveis violações da Política sobre Conduta de Ódio no Quênia, como parte das medidas mais amplas de integridade da empresa, em antecipação às eleições nacionais de 2027, já que a campanha política havia começado. A empresa destacou a longa história de tensões étnicas nas eleições do Quênia e a política fortemente influenciada por afiliações tribais como justificativa para essas medidas, embora não tenha declarado um estado de crise no país segundo o CPP para a eleição do presidente da União Africana. Na decisão Regras de votação da Comissão Eleitoral da Austrália, a Meta informou ao Comitê que seu sistema automatizado pode ser configurado para detectar proativamente o conteúdo e colocá-lo na fila para análise humana ou removê-lo automaticamente.
No caso em questão, a empresa usou seu sistema automatizado para identificar e remover o conteúdo por violar a Política sobre Conduta de Ódio. O sistema automatizado detecta o uso de calúnias designadas pela Meta nos mercados em suaíli como parte de uma iniciativa de pesquisa direcionada, em resposta ao aumento da tensão política e com base na avaliação interna da empresa sobre os riscos fora da plataforma. Esse sistema automatizado de detecção e remoção de conteúdo violador continuará em funcionamento até as eleições gerais de 2027, após as quais a Meta avaliará se ele deve ser mantido ou desativado.
Em junho de 2025, durante a deliberação sobre o caso, o Comitê questionou a Meta sobre a designação do termo “tugeges” como calúnia, considerando as opiniões de especialistas e partes interessadas. O Comitê destacou os vários significados coloquiais do termo no discurso político queniano, indicando que ele nem sempre é considerado um ataque baseado na etnia. Isso levou a empresa a realizar uma investigação mais aprofundada, que resultou na reavaliação da designação em consulta com suas equipes internas de políticas públicas e na remoção do termo da lista de calúnias em julho de 2025. A Meta descobriu que o termo também passou a ser usado “para atacar políticos com base em suas funções como figuras políticas”, e não em características protegidas. A empresa confirmou que o conteúdo do caso foi restaurado e a advertência contra o usuário removida em 23 de julho de 2025, cinco meses após a postagem do conteúdo.
A Meta realiza auditorias globais de sua lista de calúnias como prática padrão, a fim de garantir que o significado dos termos designados se mantenha atualizado. A frequência dessas auditorias depende da alocação de recursos disponíveis, incluindo conhecimento regional. Além da auditoria, as equipes regionais e de políticas de conteúdo da Meta também analisam solicitações ad hoc para adicionar ou remover termos, conforme necessário. A auditoria deste ano, que abrange os mercados suaíli, começou em julho, após a remoção do termo “tugeges” da lista de calúnias em razão desse caso, e está prevista para ser concluída em setembro.
O Comitê questionou a Meta sobre a designação e a posterior remoção do termo “tugeges” da lista de calúnias, as medidas adotadas para lidar com conteúdo potencialmente violador, a forma como a empresa audita sua lista de calúnias e a detecção proativa de possíveis discursos de ódio, no contexto dos esforços de integridade eleitoral da Meta após as mudanças anunciadas em janeiro. A empresa respondeu a todas as perguntas.
4. Comentários públicos
O Comitê de Supervisão recebeu quatro comentários públicos que cumpriam os termos para envio. Dois dos comentários foram enviados da África Subsaariana e dois da Ásia Central e do Sul. Para ler comentários públicos enviados com consentimento de publicação, clique aqui.
Os envios abordaram os seguintes temas: os usos coloquiais do termo “tugeges”; como o monitoramento automatizado não leva em consideração as nuances da linguagem e do contexto; e como a moderação automatizada de conteúdo pela Meta para discursos de ódio pode levar tanto à underenforcement quanto à overenforcement.
5. Análise do Comitê de Supervisão
O Comitê selecionou esse caso para ajudar a Meta a equilibrar seu compromisso com a liberdade de expressão e a aplicação da Política sobre Conduta de Ódio contra calúnias em países com histórico de tensões étnicas. Ele analisou a decisão da Meta nesse caso em relação às políticas de conteúdo, aos valores e às responsabilidades de direitos humanos da empresa. Também avaliou as implicações desse caso quanto à abordagem mais ampla da Meta em relação à governança de conteúdo.
5.1 Conformidade com as políticas de conteúdo da Meta
O Comitê considera que o conteúdo do caso não viola a Política sobre Conduta de Ódio, já que o uso do termo “tugeges” não se enquadra na definição de “calúnia” da Meta.
O Comitê reconhece que, quando a Meta removeu o conteúdo, o termo estava designado como uma calúnia, e a automação e os analistas humanos da empresa removeram o conteúdo de acordo com as orientações internas. Diante do histórico de tensões étnicas no Quênia e do potencial de violência durante o período eleitoral, a atuação da empresa na remoção de discursos de ódio estava de acordo com os procedimentos e as designações de calúnias na época. No entanto, o uso do termo designado em questão evoluiu rapidamente, colocando em dúvida a adequação da designação feita pela Meta em janeiro de 2024. No momento em que o conteúdo foi postado, e provavelmente também no início de 2024, quando foi designado pela primeira vez, ele não deveria ter sido considerado uma calúnia.
Nesse caso, o termo “tugeges” foi usado para abordar questões políticas relacionadas à nomeação do presidente da União Africana e para expressar críticas sobre o assunto. Embora o comentário descreva negativamente os apoiadores de Gachagua, o termo não gera, por si só, uma atmosfera de exclusão discriminatória e intimidação e, portanto, não se enquadra como calúnia. Os comentários públicos enviados enfatizaram a importância de que a moderação de conteúdo seja sensível ao contexto e às nuances do discurso político no Quênia, a fim de evitar a overenforcement (ver PC-31266, PC-31269, PC-31270, PC-31272).
Os especialistas consultados pelo Comitê confirmaram que, durante as eleições gerais de 2022, o termo “tugeges” foi amplamente usado para descrever os eleitores quicuios, considerados por alguns como votantes que não consideram plenamente as consequências de seus votos. Embora o termo possa ser depreciativo em relação à etnia em determinadas circunstâncias, nos últimos anos ele também adquiriu um sentido mais amplo, referindo-se a indivíduos, independentemente da etnia, que votam sem avaliar profundamente suas políticas e alianças políticas. O termo é frequentemente usado para criticar a lealdade política cega ou a falta de discernimento, sem configurar discurso de ódio, mesmo quando lealdade política e etnia estão relacionadas. Segundo especialistas, outros dialetos quenianos têm termos equivalentes, o que demonstra que o uso dessas palavras é típico ao tratar de política ou fazer críticas políticas no Quênia. O Comitê observa que, em junho de 2024, a NCIC alertou que o termo era “ofensivo, humilhante e desumanizante” no discurso político, sem, no entanto, tratá-lo como discurso de ódio ou propor sua proibição. De acordo com a Coalizão Nacional do Quênia sobre Liberdade de Expressão e Moderação de Conteúdo, o uso de termos em quicuio no discurso político é comum, e a dificuldade da Meta em distinguir discurso de ódio de comentários políticos protegidos pode afetar a liberdade de expressão (PC-31272). A organização sem fins lucrativos Global Initiative on Tech and Human Rights, sediada no Quênia, afirmou que o uso da palavra no conteúdo do caso é satírico, “para criticar a postura política e a aparente credulidade dos seguidores de um determinado grupo político”, e não para menosprezar pessoas com base na etnia (PC-31266).
O Comitê observa que a Meta adotou uma abordagem diferente para a remoção automatizada (chamada de “proativa” pela própria empresa) de violações da Política sobre Conduta de Ódio após o anúncio de janeiro de 2025, exceto em países em crise, onde a remoção automatizada continua sendo usada. Em decisões anteriores, o Comitê recomendou que a Meta desenvolvesse um protocolo para gerenciar danos específicos em situações de crise ou conflito (ver, por exemplo, as decisões Gabinete de Comunicações da Região do Tigré , Vídeo explícito do Sudão e Suspensão do ex-presidente Trump) e reforçasse suas medidas de integridade mesmo fora de períodos eleitorais (ver decisão Discurso de general brasileiro). Na decisão Protestos a favor de Navalny na Rússia, o Comitê recomendou que a Meta implementasse formas de alertar prontamente os usuários caso palavras ou frases em seus posts pudessem violar a política sobre alegações negativas sobre o caráter.
Dado o contexto no Quênia, o Comitê entende a escolha da Meta de ativar a detecção e remoção automatizadas de discursos de ódio bem antes das eleições nacionais de 2027. A empresa não deve aguardar a eclosão de uma crise, como episódios de violência, para implementar medidas preventivas que assegurem a aplicação adequada da Política sobre Conduta de Ódio. O Comitê também entende a justificativa da Meta para aplicar de forma proativa a Política sobre Conduta de Ódio em países onde há crises em andamento. Situações de conflito armado prolongado podem justificar uma designação de crise de longo prazo, permitindo a implementação tanto da remoção quanto da detecção proativa de conteúdo violador. No entanto, o Comitê incentiva a Meta a ser cautelosa com essas abordagens, pois elas podem aumentar o risco de remoções excessivas de conteúdo. Também é preciso ter cautela com o monitoramento automatizado de modo geral, pois ele pode ser excessivo e levar à remoção incorreta de discursos, especialmente durante eleições, como ocorreu no caso em questão.
5.2 Conformidade com as responsabilidades da Meta relativas aos direitos humanos
O Comitê considera que remover o conteúdo da plataforma não foi coerente com as responsabilidades da Meta relativas aos direitos humanos.
Liberdade de expressão (Artigo 19 do PIDCP)
O artigo 19 do Pacto Internacional sobre Direitos Civis e Políticos (PIDCP) prevê uma proteção ampla da expressão, inclusive sobre opiniões políticas, assuntos públicos e direitos humanos (Comentário Geral n.º 34 , parágrafos 11 e 12). Ele fornece proteção “particularmente alta” para “debate público sobre figuras públicas no domínio político e instituições públicas” como um componente essencial para a conduta em relações públicas (Comentário Geral n.º 34, parágrafo 38, 20; veja também Comentário Geral n.º 25, parágrafo 12 e 25) e protege a liberdade de expressão que possa ser considerada “profundamente ofensiva” (Comentário Geral n.º 34, (2011), parágrafo 11).
Quando um Estado aplica restrições à expressão, elas devem atender aos requisitos de legalidade, objetivo legítimo e necessidade e proporcionalidade (Artigo 19, parágrafo 3 do PIDCP). Esses requisitos costumam ser chamados de “teste tripartite”. O Comitê usa essa estrutura para interpretar as responsabilidades de direitos humanos da Meta de acordo com os Princípios Orientadores da Organização das Nações Unidas (ONU) sobre Empresas e Direitos Humanos, com os quais a própria Meta se comprometeu em sua Política Corporativa sobre Direitos Humanos. O Comitê faz isso em relação tanto à decisão de conteúdo individual sob análise quanto ao que isso diz sobre a abordagem mais ampla da empresa à governança de conteúdo. Como afirmou o Relator Especial da ONU sobre liberdade de expressão, embora “as empresas não tenham obrigações governamentais, o impacto delas exige que avaliem o mesmo tipo de questões sobre a proteção do direito de seus usuários à liberdade de expressão” (A/74/486, parágrafo 41).
I. Legalidade (clareza e acessibilidade das regras)
O princípio da legalidade exige que as regras que limitam a expressão sejam acessíveis e claras, formuladas com precisão suficiente para permitir que um indivíduo regule sua conduta de acordo com elas (Comentário Geral n.º 34, parágrafo 25). Além disso, essas regras “não podem conceder liberdade de ação irrestrita para a restrição da liberdade de expressão aos encarregados de [sua] execução” e devem “fornecer instrução suficiente aos encarregados de sua execução para permitir-lhes determinar quais tipos de expressão são adequadamente restritas e quais tipos não são” (ibid.). O Relator Especial da ONU sobre a liberdade de expressão declarou que, quando aplicadas à governança do discurso online por parte de intervenientes privados, as regras devem ser claras e específicas (A/HRC/38/35, parágrafo 46). As pessoas que usam as plataformas da Meta devem ser capazes de acessar e entender as regras, e os analistas de conteúdo devem ter orientações claras sobre sua aplicação.
No que diz respeito ao conteúdo desse caso, a regra dos Padrões da Comunidade sobre Conduta de Ódio relacionada a calúnias é bastante clara. O Comitê nota o maior grau de transparência da Meta em seu processo de designação de calúnias, decorrente da aplicação das recomendações do Comitê (ver, por exemplo, as decisões Ressignificação de palavras árabes, Disputa política antes das eleições turcas e Críticas às políticas de imigração da UE e aos imigrantes).
II. Objetivo legítimo
Qualquer restrição à liberdade de expressão deve perseguir um ou mais dos objetivos legítimos listados no PIDCP, o que inclui a proteção dos direitos de terceiros (artigo 19, parágrafo 3 do PIDCP). O Comitê reconheceu previamente que os Padrões da Comunidade sobre Conduta de Ódio buscam o objetivo legítimo de proteger os direitos de outras pessoas (decisão Posts exibindo a bandeira da África do Sul da época do Apartheid; Artigo 2, parágrafo 1 do PIDCP; Artigo 2 e 5, Convenção Internacional sobre a Eliminação de Todas as Formas de Discriminação Racial).
III. Necessidade e proporcionalidade
Nos termos do artigo 19(3) do PIDCP, a necessidade e a proporcionalidade exigem que as restrições à expressão “devem ser adequadas para cumprir sua função de proteção; devem ser o instrumento menos intrusivo entre aqueles que podem cumprir sua função de proteção; devem ser proporcionais ao interesse a ser protegido” (Comentário Geral n.º 34, parágrafo 34). Como parte de suas responsabilidades com os direitos humanos, as empresas de redes sociais devem considerar uma série de possíveis respostas a conteúdo problemático além da sua exclusão, para garantir que as restrições sejam ajustadas de forma restrita (A/74/486, parágrafo 51; ver decisão Alegação sobre cura da COVID).
O Comitê considera que a remoção do comentário do Facebook não era necessária, pois o termo não atacava ninguém com base na etnia, sendo claramente uma discussão política. A remoção do post não protegeu os direitos de terceiros, e, em vez disso, impôs uma restrição desnecessária à liberdade de expressão política (ver decisão Disputa política antes das eleições turcas). Várias partes interessadas observaram que políticos já instrumentalizaram a etnia no passado para criar divisões e obter ganhos políticos (ver PC-31272, Coalizão Nacional sobre Liberdade de Expressão e Moderação de Conteúdos, Quênia), levando, por vezes, à violência durante eleições. Embora a Meta esteja certa em estar atenta a esses danos potenciais, o uso geral do termo e o uso nesse caso não tiveram como objetivo intimidar, excluir ou incitar violência ou discriminação.
Embora o uso de termos como “tugeges” possa gerar preocupação quando empregado como ataque étnico, especialmente por políticos influentes, não se pode afirmar que todos os usos do termo causem danos suficientes para justificar sua inclusão em uma lista de palavras proibidas. Esse caso demonstra que a proibição do termo pela Meta foi excessiva e levou à supressão do discurso político e do debate público. Antes de adicionar termos à sua lista de palavras proibidas, a Meta deve agir com cautela e critério. A NCIC não considerou a palavra como discurso de ódio, embora tenha alertado o público sobre seus usos problemáticos. Pesquisas especializadas e comentários públicos confirmaram que as conotações étnicas discriminatórias do termo são flexíveis e sujeitas a contestação. A Meta deveria ter considerado esse aspecto quando ela realizou a análise qualitativa e quantitativa antes de designar o termo em janeiro de 2024. Isso ressalta a importância de a empresa envolver as partes interessadas em nível nacional para determinar quais termos são apropriados para serem designados como calúnias e permanecer vigilante, pois termos que antes eram considerados adequados à definição podem mudar de significado em períodos relativamente curtos.
Conforme a recomendação do Comitê na decisão Protestos a favor de Navalny na Rússia, a Meta deve criar intervenções menos invasivas do que a remoção de conteúdo para lidar com os danos causados por discursos de ódio e conteúdo discriminatório. No entanto, quando questionada pelo Comitê, a empresa apresentou informações ainda provisórias sobre a eficácia dessas intervenções. O Comitê incentiva a Meta a continuar avaliando cuidadosamente essas medidas, assegurando que sejam eficazes e não causem impactos adversos aos direitos humanos.
6. A decisão do Comitê de Supervisão
O Comitê revoga a decisão original da Meta de remover o conteúdo.
7. Recomendações
Aplicação
Para garantir que as intervenções atuais da Meta nos produtos ajudem os usuários a evitar violações da Política sobre Conduta de Ódio, a Meta deve oferecer aos usuários uma oportunidade de autocorreção semelhante à intervenção pós-postagem criada em decorrência do caso “Protestos a favor de Navalny na Rússia”, recomendação n.º 6. Se essa intervenção não estiver mais em vigor, a Meta deverá fornecer uma intervenção equivalente.
O Comitê considerará essa recomendação implementada quando a Meta fornecer dados de monitoramento que demonstrem a eficácia dessas intervenções no produto.
O Comitê também reitera a recomendação n.º 3 da decisão Crítica às políticas de imigração da UE e aos imigrantes, com a qual a Meta se comprometeu totalmente e está em processo de implementação:
Quando a Meta auditar suas listas de calúnias, ela deve se certificar de que há ampla participação externa com partes interessadas relevantes. Isso deve incluir a consulta com grupos afetados e a sociedade civil. O Comitê considerará que esta recomendação foi implementada quando a Meta alterar sua explicação de como audita e atualiza suas listas de calúnias específicas de cada mercado na sua Central de Transparência.
*Nota processual:
- As decisões do Comitê de Supervisão são tomadas por painéis de cinco membros e aprovadas por maioria de votos do Comitê inteiro. As decisões dele não representam, necessariamente, as opiniões de todos os membros.
- De acordo com seu Estatuto, o Comitê de Supervisão pode analisar apelações de usuários cujo conteúdo foi removido pela Meta, apelações de usuários que denunciaram conteúdo que a Meta manteve ativo e decisões que a Meta encaminha a ele (Seção 1 do Artigo 2 do Estatuto). O Comitê tem autoridade vinculativa para manter ou anular as decisões de conteúdo da Meta (Seção 5 do Artigo 3 e Artigo 4 do Estatuto). Ele pode emitir recomendações não vinculativas às quais a Meta é obrigada a responder (Seção 4 do Artigo 3 e Artigo 4 do Estatuto). Quando a Meta se compromete a agir de acordo com as recomendações, o Comitê monitora sua implementação.
- Para a decisão sobre o caso em questão, uma pesquisa independente foi encomendada em nome do Comitê. O Comitê recebeu assistência da Duco Advisors, uma empresa de consultoria especializada na intercessão entre as áreas de geopolítica, confiança e segurança, e tecnologia. A empresa Lionbridge Technologies, LLC, cujos especialistas são fluentes em mais de 350 idiomas e trabalham de 5 mil cidades pelo mundo, forneceu a consultoria linguística.
Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas