Decisão de múltiplos casos
Notícias relacionadas a medicina na Malásia
29 de Janeiro de 2026
Um administrador da página do Facebook de um jornal da Malásia em chinês fez uma apelação da decisão da Meta de remover seis posts. Cada post contém uma imagem de medicamentos específicos ou de um conjunto de pílulas, acompanhado de texto relacionado a notícias de medicina envolvendo políticas comerciais, de preço e de seguros. Após o Comitê levar as apelações à atenção da Meta, a empresa reverteu suas decisões originais e restaurou todos os seis posts.
6 casos incluídos neste pacote
FB-B62RICO9
Caso sobre produtos regulamentados no Facebook
FB-ZXUSCDPR
Caso sobre produtos regulamentados no Facebook
FB-AXRVP1HM
Caso sobre produtos regulamentados no Facebook
FB-XK19OFNP
Caso sobre produtos regulamentados no Facebook
FB-CE3DVJNQ
Caso sobre produtos regulamentados no Facebook
FB-W5MM5R60
Caso sobre produtos regulamentados no Facebook
As decisões sumárias examinam casos em que a Meta reverteu a decisão original dela sobre um conteúdo depois que o Comitê o levou à atenção da empresa e incluem informações sobre os erros reconhecidos por ela. Elas são aprovadas por um painel de membros do Comitê, e não por ele inteiro, não envolvem comentários públicos e não têm valor precedente para o Comitê. As decisões sumárias geram mudanças diretas nas decisões da Meta, proporcionando transparência nessas correções e identificando em que área a empresa poderia melhorar sua aplicação.
Resumo
Um administrador da página do Facebook de um jornal da Malásia em chinês fez uma apelação da decisão da Meta de remover seis posts. Cada post contém uma imagem de medicamentos específicos ou de um conjunto de pílulas, acompanhado de texto relacionado a notícias de medicina envolvendo políticas comerciais, de preço e de seguros. Após o Comitê levar as apelações à atenção da Meta, a empresa reverteu suas decisões originais e restaurou todos os seis posts.
Sobre os casos
Entre novembro de 2024 e maio de 2025, um jornal em chinês situado na Malásia postou seis itens de conteúdo na sua página do Facebook noticiando progressos na área de medicina envolvendo políticas comerciais, de preços e de seguros:
- Três posts contêm uma imagem de um conjunto de pílulas não identificadas, acompanhado de manchetes noticiando aspectos dos valores de medicamentos na Malásia, como testes aleatórios em clínicas e preços de remédios em clínicas e farmácias privadas, assim como a transparência acerca dos preços de medicamentos implementada pelo governo em resposta aos aumentos nos preços de seguros médicos.
- Um post contém uma imagem de um conjunto de pílulas não identificadas com uma nota de dólar americano, acompanhada de uma manchete sobre a oferta pela China de isenções de tarifas alfandegárias para determinados produtos, incluindo medicamentos.
- Um post contém uma imagem do remédio com prescrição Saxenda junto com uma foto do então Presidente dos EUA, Joe Biden, acompanhada de uma manchete sobre uma proposta pelo governo Biden de incluir a droga em seguros médicos.
- Um post contém uma imagem do remédio com prescrição Wegovy, acompanhada de uma manchete sobre a reintrodução pelo atual Presidente dos EUA, Donald Trump, de uma política que reduziu os preços dos medicamentos nos Estados Unidos.
A Meta removeu todos os seis posts de acordo com a Política sobre Bens e Serviços Restritos, e a página do jornal no Facebook foi “impedida de publicar” (ou seja, a página foi removida, uma medida similar à desativação de uma conta).
Em apelações ao Comitê, o administrador da página explicou que eles são uma “organização de mídia legalmente registrada e regulamentada pelo governo na Malásia” e que eles “aderem a padrões editoriais rigorosos” com um “compromisso de manter o público informado”. Ele argumentou que sua intenção ao postar conteúdo no Facebook é de relatar assuntos de interesse público, como acesso a serviços de saúde, preços de remédios locais e políticas farmacêuticas globais. Ele também enfatizou que a remoção de conteúdo jornalístico “não só prejudica a liberdade de imprensa na Malásia, mas também levanta sérias preocupações sobre a função do Facebook no controle do acesso a notícias sobre políticas internacionais”.
Como contexto relevante para essa decisão, o Comitê destaca o relatório de 2025 da Freedom’s House sobre a Malásia, que definiu o país como “parcialmente livre”, ressaltando, entre outros problemas, que, em 2024, “o governo e os tribunais tomaram uma série de medidas que afetaram a liberdade de imprensa e na internet durante o ano”. O Repórteres sem Fronteiras, na sua Índice de Liberdade de Imprensa (World Press Freedom Index) de 2025, observou, de forma similar, que “as ameaças recentes ao jornalismo [na Malásia] incluíram ações judiciais envolvendo gastos exorbitantes, revistas policiais em centrais de veículos de notícias, desconsideração pela confidencialidade das fontes e expulsões de repórteres ou denunciantes estrangeiros”.
A Política sobre Produtos e Serviços Restritos da Meta proíbe “tentativas de comprar, vender ou trocar medicamentos vendidos com receita”, assim como “solicitações de medicamentos vendidos com receita, exceto quando o conteúdo discute a acessibilidade, o preço ou a eficácia de medicamentos prescritos em um contexto médico”. Medicamentos vendidos com receita são definidos na política como “medicamentos que exigem receita médica ou administração por profissionais médicos”.
Depois que o Comitê selecionou os casos, a Meta analisou sua decisão inicial de remover a página e determinou que a remoção de todos os seis posts foi incorreta. A Meta explicou que, de acordo com a Política sobre Bens e Serviços Restritos, a empresa permite “conteúdo de notícias que informa ou conscientiza acerca de remédios com prescrição e seus efeitos, contanto que não promova a compra, a venda, a troca ou a solicitação de medicamentos”. A Meta considerou que a página do Facebook, em todos os seis posts, não tentou comprar, vender, trocar ou solicitar remédios com prescrição. Consequentemente, a Meta restaurou todos os posts, tornou a página pública novamente e reverteu as advertências contra a conta do administrador e a página.
Autoridade e escopo do Comitê
O Comitê tem autoridade para analisar a decisão da Meta após uma apelação do usuário cujo conteúdo foi removido (Artigo 2, Seção 1 do Estatuto; e Artigo 3, Seção 1 dos Regulamentos Internos).
Quando a Meta reconhece que cometeu um erro e reverte a decisão em um caso sob consideração para análise do Comitê, ele pode selecionar esse caso para uma decisão sumária (Artigo 2, Seção 2.1.3 dos Regulamentos Internos). O Comitê analisa a decisão original para aumentar a compreensão do processo de moderação de conteúdo, reduzir erros e aumentar a justiça para os usuários do Facebook, do Instagram e do Threads.
Significância dos casos
Esse conjunto fornece diversos exemplos sobre a overenforcement do Padrão da Comunidade sobre Bens e Serviços Restritos da Meta e como ela pode impactar a cobertura jornalística de problemas de interesse público, como políticas e progressos relacionados a medicina. A Meta não só removeu os seis itens de conteúdo, mas a página foi retirada do ar pela Meta, evitando que ela seguisse produzindo conteúdo jornalístico no Facebook. Ao discutir quatro erros de aplicação que impactaram uma única página na decisão da Cobertura jornalística sobre assuntos atuais da Somalilândia, o Comitê declarou que, enquanto “entende que erros ocorram na moderação de conteúdo em escala devido ao volume, à complexidade e aos limites da automação e do julgamento humano,” ele está “profundamente preocupado que os sistemas de apelação da Meta não tenham sido capazes de fornecer soluções adequadas ao usuário nesses casos”. A decisão concluiu que a interação da Meta com o Comitê durante sua investigação destaca uma “fraqueza sistêmica na avaliação e na identificação de erros”, enfatizando ainda mais a importância de fornecer soluções eficazes aos usuários.
Na decisão, o Comitê recomendou que, “a fim de proteger o jornalismo em regiões onde a liberdade de imprensa é reprimida, a Meta deve desenvolver novos critérios e sistemas que permitam a inscrição proativa de Páginas ou contas dedicadas ao jornalismo na Análise Secundária de Entidade Sensível (SSR, na sigla em inglês). Os limites de seguidores devem ser ajustados proporcionalmente ao tamanho do mercado, e os critérios atuais para designação de organizações de notícias não devem impedir a inclusão. Autoridades confiáveis, como o índice de impunidade do Comitê para a Proteção de Jornalistas, devem ser usadas para priorizar regiões de alto risco”. (Cobertura jornalística sobre assuntos atuais da Somalilândia, recomendação nº 4). A Análise Secundária de Entidades Sensíveis é parte do sistema de verificação cruzada, projetado a fim de fornecer camadas adicionais de análise para conteúdo possivelmente violador. A Meta ainda precisa fornecer sua resposta inicial sobre essa recomendação.
Além disso, o Comitê acredita que a Meta deve buscar o aprimoramento da sua aplicação de taxas de precisão relacionadas ao Padrão da Comunidade sobre Bens e Serviços Privados em todos os idiomas e as regiões. A este respeito, o Comitê já recomendou anteriormente que a “Meta deve avaliar regularmente as taxas de precisão do analista com foco na política sobre produtos e serviços restritos”. O Comitê esperava que, implementando essa recomendação, a Meta compartilhasse os resultados dessas avaliações com ele, incluindo como esses resultados orientarão as melhorias das operações de aplicação e desenvolvimento de políticas, e resumir os resultados nos relatórios trimestrais de transparência do Comitê (Questionamento sobre Adderall®, recomendação nº 3.) O Comitê considera que essa recomendação foi reformulada pela Meta, uma vez que a resposta da empresa não abordou o objetivo principal da recomendação. Em novembro de 2023, a Meta declarou que “já coleta e avalia dados com base em remoções e restaurações”, incluindo remoções conforme a Política sobre Produtos e Serviços Restritos, e “relata a quantidade de conteúdo com apelações enviadas e conteúdo restaurado no Facebook e no Instagram em [seu] Relatório de Aplicação de Padrões da Comunidade” (Atualização trimestral do Comitê de Supervisão do 3º trimestre de 2023 da Meta). O Comitê observa, no entanto, que as métricas de remoção e restauração referenciadas pela Meta não são as mesmas que as métricas de precisão do analista mencionadas na recomendação, que visam mensurar a frequência com que os moderadores de conteúdo cometem erros em uma análise independente, não vinculada aos recursos. Ele também observa que a Meta não compartilhou como os dados coletados pela empresa embasam melhorias nas operações de aplicação e desenvolvimento de políticas.
Na mesma decisão, o Comitê também recomenda que a Meta “estude as consequências e contrapartidas da implementação de um sistema de priorização dinâmica que encaminhe apelações para análise humana e considere se o fato de uma decisão de monitoramento resultar em uma restrição de conta deve ser um critério nesse sistema” (Questionamento sobre Adderall®, recomendação nº 2). A Meta relatou progresso na implementação dessa recomendação. No seu Relatório do Primeiro Semestre de 2025 sobre o Comitê de Supervisão, a Meta afirmou que seus “sistemas de classificação de avaliação humana atuais, incluindo [seus] sistemas de prevenção de erros e de gerenciamento de apelações, por fim, permitem múltiplas análises de suas decisões de aplicação. Os modelos de classificação [da Meta] são otimizados para garantir que o conteúdo de maior prioridade receba uma análise humana no momento certo. [A Meta] continua mantendo sua transparência priorizando conteúdo para análise com ênfase na gravidade, na viralidade e na probabilidade de violar [suas] políticas. [A Meta] consolida esses sinais para criar pontuações de classificação que determinam como a análise humana é priorizada. De acordo com a última atualização [da Meta], [a empresa] continua avaliando os diversos fatores que informam a priorização para a análise humana e vão informar os avanços nesse trabalho em futuras atualizações”.
O Comitê acredita que implementar integralmente as recomendações mencionadas acima permitiria que a Meta identificasse falhas com prontidão, alocando recursos para melhorar as taxas de precisão onde necessário. Além disso, a implementação total forneceria aos usuários interagindo com conteúdo jornalístico recursos mais eficazes, especialmente para reverter restrições errôneas de contas. Por fim, a divulgação pública da precisão das análises realizadas conforme a Política sobre Produtos e Serviços Restritos aumentaria a transparência e geraria engajamento com a Meta, o que pode levar a melhorias adicionais.
Decisão
O Comitê revoga as decisões originais da Meta de remover os seis itens de conteúdo. Além disso, após levar os casos ao conhecimento da empresa, ele reconhece que ela corrigiu os erros iniciais.
Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas