Decisão de múltiplos casos
Posts de conscientização sobre distúrbios alimentares
4 de Novembro de 2025
O Comitê de Supervisão, ao analisar dois casos de posts de conscientização sobre distúrbios alimentares durante a Semana de Conscientização sobre Distúrbios Alimentares, entende que a Meta deve reforçar sua preparação para picos de engajamento durante esses períodos, quando há a possibilidade de discursos de interesse público serem removidos indevidamente.
2 casos incluídos neste pacote
IG-XMV96DJO
Caso sobre suicídio e automutilação no Instagram
IG-3YAH57M8
Caso sobre suicídio e automutilação no Instagram
Resumo
O Comitê de Supervisão, ao analisar dois casos de posts de conscientização sobre distúrbios alimentares durante a Semana de Conscientização sobre Distúrbios Alimentares, entende que a Meta deve reforçar sua preparação para picos de engajamento durante esses períodos, quando há a possibilidade de discursos de interesse público serem removidos indevidamente. O Comitê está preocupado quanto ao potencial impacto sobre a visibilidade do conteúdo de conscientização. As plataformas da Meta devem permitir que os usuários se apoiem mutuamente em vez de impedir a liberdade de expressão deles em relação a conteúdos úteis. Os usuários devem ter a possibilidade de fornecer contexto adicional em apelações sobre se seu conteúdo se enquadra em exceções à Política sobre Suicídio, Automutilação e Distúrbios Alimentares, com o intuito de aprimorar as análises e reduzir os erros de aplicação. O Comitê revoga a decisão original da Meta de remover o conteúdo nesses casos.
Sobre os casos
No primeiro caso, um usuário do Instagram nos Estados Unidos postou um carrossel de fotos que incluía fotos de si mesmo. A legenda compartilhava um relato pessoal da sua experiência com um distúrbio alimentar, como um desejo de informar as pessoas sobre esses distúrbios e agradecer o apoio.
No segundo caso, outro usuário do Instagram, também nos Estados Unidos, compartilhou um carrossel de fotos que incluía imagens com textos dando conselhos sobre como falar sobre pessoas consideradas magras ou abaixo do peso. A terceira imagem do carrossel aconselhava as pessoas a não tentarem adivinhar o tamanho das roupas dos outros e a evitarem comentar que as pessoas podem estar definhando.
Ambos os posts tinham hashtags comuns de conscientização e foram compartilhados durante a Semana de Conscientização sobre Distúrbios Alimentares, separadamente, em 2023 e 2025.
Em 2025, os sistemas automatizados da Meta identificaram o post do primeiro caso e a terceira imagem do segundo caso como potenciais violações. Os analistas humanos determinaram que ambos violavam a Política sobre Suicídio, Automutilação e Distúrbios Alimentares. No primeiro post, o carrossel inteiro de fotos estava visível para o analista; já no segundo post, apenas a terceira imagem estava visível. A Meta removeu o primeiro post na íntegra e a terceira imagem do segundo post.
Após ambos os usuários apelarem quanto às remoções, a empresa acabou mantendo suas decisões. Em seguida, os usuários fizeram uma apelação ao Comitê. Quando o Comitê selecionou os casos, a Meta concluiu que os posts foram compartilhados em contextos não violadores, os quais acabaram sendo restaurados.
Principais descobertas
O Comitê considera que os posts não violaram o Padrão da Comunidade sobre Suicídio, Automutilação e Distúrbios Alimentares da Meta. A remoção dos posts também foi inconsistente com as responsabilidades de direitos humanos da Meta, pois não era necessária nem proporcional para a proteção da saúde pública.
Esses casos indicam três áreas de melhoria para o cumprimento dos compromissos da Meta com os direitos humanos quanto a conteúdos de conscientização e de apoio: preparação para períodos globais e recorrentes de conscientização; visibilidade do conteúdo de conscientização; e melhorias na análise de apelações. As plataformas da Meta devem permitir que os usuários se apoiem mutuamente em vez de impedir a liberdade de expressão deles em relação a conteúdos úteis.
Ela deve reforçar a sua preparação para as semanas de conscientização, considerando-as como períodos previsíveis e recorrentes em que há a possibilidade de discursos de interesse público serem removidos indevidamente. Por ser uma empresa global, a empresa deveria desenvolver um calendário de períodos globais de conscientização e usá-lo para ajustar as práticas de aplicação.
É necessário ter ferramentas adequadas, e os usuários precisam ter a possibilidade de apresentar contexto adicional em suas apelações para aprimorar a respectiva análise e reduzir a quantidade de erros de aplicação. O Comitê está preocupado com o fato de que, nas apelações de ambos os casos, os analistas secundários não conseguiram concluir a análise devido a falhas no carregamento de conteúdo nas ferramentas internas. Embora outro analista já tivesse considerado ambos os posts como não violações, a decisão inicial de removê-los foi mantida. A Meta deve fornecer ferramentas adequadas para uma análise humana inicial holística e para a análise de apelações de todos os tipos de conteúdo e recursos do produto, incluindo carrosséis de fotos.
A decisão do Comitê de Supervisão
O Comitê de Supervisão revoga a decisão original da Meta de remover o conteúdo.
Ele também recomenda que a empresa faça o seguinte:
- Compartilhe as medidas específicas adotadas para evitar a aplicação excessiva de conteúdo durante os períodos de conscientização e se essas medidas diferem daquelas aplicadas em outros momentos na aplicação desse conteúdo.
O Comitê reitera a importância de suas recomendações anteriores quanto às avaliações da taxa de precisão dos analistas, que a Meta deve:
- Realizar avaliações regulares das taxas de precisão dos analistas.
- Melhorar seus relatórios de transparência por meio do aumento da informação do público sobre as taxas de erros, tornando essas informações visíveis por país e idioma para cada Padrão da Comunidade.
*Os resumos de casos fornecem uma visão geral dos casos e não têm valor de precedente.
Decisão completa sobre o caso
- Descrição do caso e histórico
Essa decisão aborda dois casos dos Estados Unidos com posts em inglês que incluem várias imagens e que a Meta chama de “carrossel de fotos”. Ambos os posts tinham legendas e hashtags comuns de conscientização e foram compartilhados durante a Semana de Conscientização sobre Distúrbios Alimentares, separadamente, em 2023 e 2025.
No primeiro caso, um usuário do Instagram postou um carrossel de fotos que incluía fotos de si mesmo. A legenda compartilhava a experiência pessoal do usuário de um distúrbio alimentar, um desejo de informar as pessoas sobre esse distúrbio e incluía hashtags de conscientização sobre distúrbios alimentares e da Semana de Conscientização sobre Distúrbios Alimentares.
No segundo caso, outro usuário do Instagram, que se identifica como um profissional de saúde mental, compartilhou um carrossel de fotos que incluía várias imagens com textos dando conselhos sobre como falar sobre o peso e o tamanho de pessoas consideradas magras ou abaixo do peso. As imagens continham exemplos de afirmações inadequadas com sugestões alternativas sobre como abordar esses assuntos com mais sensibilidade. A terceira imagem do carrossel aconselhava as pessoas a não tentarem adivinhar o tamanho das roupas dos outros e a evitarem comentar que as pessoas podem estar definhando. A legenda observava que, embora o usuário não tivesse sido pessoalmente acometido por um distúrbio alimentar, as pessoas tinham feito comentários sobre seu peso aparentemente baixo. A legenda continha vários hashtags, incluindo a conscientização sobre distúrbios alimentares e a Semana de Conscientização sobre Distúrbios Alimentares.
Em março de 2025, mais de dois anos depois do post ter sido feito, os sistemas automatizados da Meta identificaram o primeiro post como uma potencial violação e o enviaram para análise humana. De modo semelhante, em fevereiro de 2025, no dia seguinte ao post do segundo carrossel, os sistemas automatizados da Meta identificaram a terceira imagem do post como uma potencial violação e a enviaram para análise humana. Os analistas determinaram que ambos os posts violavam a Política sobre Suicídio, Automutilação e Distúrbios Alimentares da Meta. No primeiro post, o carrossel inteiro de fotos estava visível para o analista; já no segundo post, apenas a terceira imagem do carrossel estava visível.
A Meta removeu o primeiro post na íntegra e a terceira imagem do segundo post, mantendo o restante do carrossel no Instagram. O usuário que publicou o primeiro post não recebeu uma advertência, pois o analista determinou que o conteúdo foi compartilhado em um contexto promocional “positivo”. O segundo usuário recebeu uma advertência grave e uma limitação de recursos de 30 dias, o que o impedia de fazer lives e postar anúncios, uma vez que o analista concluiu que o post tinha sido compartilhado em um contexto promocional “encorajador”. Em seus envios ao Comitê, a Meta disse que fazia uma diferenciação entre um conteúdo “encorajador” de distúrbios alimentares, seja explicitamente ou por meio de recursos como o fornecimento de instruções, e um conteúdo que fala “positivamente” sobre o distúrbio alimentar, sem encorajar outras pessoas a assumir esse comportamento. Ambos estão sujeitos à remoção, mas somente o primeiro levaria a uma advertência.
Ambos os usuários apelaram das decisões da Meta. Durante a primeira análise de cada post, os analistas não os consideraram como uma violação. Posteriormente, os posts foram enviados para uma segunda análise, mas os novos analistas não conseguiram concluir sua análise porque as imagens não carregaram na ferramenta de revisão interna do moderador. Embora os primeiros analistas já tivessem considerado os posts como não violações, a Meta manteve suas decisões iniciais de removê-los. Os usuários apelaram das decisões da Meta ao Comitê.
Quando o Comitê selecionou os casos, os especialistas da Meta reanalisaram os posts e concluíram que eles foram compartilhados em contextos de não violação. A empresa reverteu suas decisões originais, restaurou ambos os posts na íntegra e reverteram a advertência na conta do segundo usuário.
2. Envios de usuários
Os usuários que fizeram a apelação ao Comitê explicaram que a intenção deles era conscientizar sobre distúrbios alimentares e a devida recuperação. O primeiro usuário observou que apenas compartilhou seu relato pessoal sem nenhuma imagem explícita. O segundo usuário afirmou que fez uma comparação entre expressões nocivas e conselhos sobre como se comunicar com mais sensibilidade.
3. Políticas de conteúdo e envios da Meta
I. Políticas de conteúdo da Meta
A Política sobre Suicídio, Automutilação e Distúrbios Alimentares proíbe que as pessoas “celebrem ou promovam, intencionalmente ou não, o suicídio, a automutilação ou os distúrbios alimentares”, mas permite que os usuários “compartilhem suas experiências, gerem conscientização sobre essas questões e busquem apoio mútuo”.
São permitidas admissões por escrito ou verbais de suicídio, automutilação ou distúrbios alimentares, porém, apenas de adultos com 18 anos ou mais podem ver o conteúdo, e a Meta envia recursos aos usuários que fizerem o post. As diretrizes internas da Meta para analistas humanos só permitem esse conteúdo se não houver imagem explícita de automutilação presente.
O fundamento da política observa que são permitidos conteúdos sobre recuperação de suicídio, automutilação ou distúrbios alimentares. De acordo com as diretrizes internas, o conteúdo é compartilhado em um contexto de recuperação caso contenha uma declaração clara de que o usuário está se curando ou já se curou de um distúrbio alimentar passado. As diretrizes internas especificam que o conteúdo sobre distúrbios alimentares passados é permitido caso haja uma clara indicação de recuperação e caso nenhuma imagem explícita ou cortes já curados estejam presentes.
Elas também permitem conteúdos criados como um recurso de apoio para vítimas de distúrbios alimentares, caso não haja imagens explícitas. Os recursos de apoio são definidos como o compartilhamento de informações sobre as opções de tratamento, incluindo terapia e programas de internação, informações de contato de linhas de apoio a crises, nomes de organizações e sites que oferecem apoio e o encorajamento às pessoas buscarem ajuda médica ou aconselhamento profissional.
II. Envios da Meta
Depois de o Comitê ter selecionado esses casos, a Meta considerou que nenhum post violava o Padrão da Comunidade sobre Suicídio, Automutilação e Distúrbios Alimentares.
A Meta considerou que o primeiro post compartilha imagens não explícitas do usuário e descreve sua experiência pessoal com distúrbios alimentares de modo não explícito. Ela observou que o post foi feito durante a Semana de Conscientização sobre Distúrbios Alimentares e continha uma legenda de conscientização sobre a recuperação de distúrbios alimentares.
A empresa determinou que o segundo post não promovia nem encorajava distúrbios alimentares. Em vez disso, o conteúdo tinha como objetivo “fornecer recursos úteis para pessoas que estejam lidando com distúrbios alimentares e seus entes queridos, a fim de incentivar conversas atenciosas e produtivas”.
O Comitê fez 14 perguntas à Meta sobre as especificidades e a aplicação do Padrão da Comunidade sobre Suicídio, Automutilação e Distúrbios Alimentares. Ela não respondeu a nenhuma das perguntas do Comitê.
4. Comentários públicos
O Comitê de Supervisão recebeu quatro comentários públicos que cumpriam os termos para envio. Três dos comentários foram enviados dos Estados Unidos e do Canadá e um da Ásia Pacífico e da Oceania. Para ler comentários públicos enviados com consentimento de publicação, clique aqui.
Os envios abrangeram os seguintes temas: abordagens para distinguir e sinalizar um conteúdo que promova distúrbios alimentares em relação àqueles focados na recuperação; estudos sobre os efeitos do compartilhamento ou recebimento de informações ou recursos sobre distúrbios alimentares nas redes sociais; a importância de priorizar o conteúdo relacionado a distúrbios alimentares para fins de análise humana e considerar outras abordagens além da remoção do conteúdo.
5. Análise do Comitê de Supervisão
O Comitê selecionou esses casos para avaliar como as políticas e práticas de aplicação da Meta abordam conteúdos de conscientização ou recursos de apoio relacionados a distúrbios alimentares e sua recuperação. Os casos se enquadram na prioridade do Comitê de Aplicação Automatizada de Políticas e Curadoria de Conteúdo.
O Comitê analisou a decisão da Meta nesse caso em relação às políticas de conteúdo, aos valores e às responsabilidades de direitos humanos da Meta. Ele também avaliou as implicações desse caso quanto à abordagem mais ampla da Meta em relação à governança de conteúdo.
5.1 Conformidade com as políticas de conteúdo da Meta
Regras sobre conteúdo
O Comitê acredita que os posts não violaram o Padrão da Comunidade sobre Suicídio, Automutilação e Distúrbios Alimentares da Meta e foram feitos claramente para conscientizar e fornecer recursos úteis sobre distúrbios alimentares.
O primeiro post continha um relato pessoal da recuperação de um distúrbio alimentar. Postar um relato de recuperação durante a Semana de Conscientização sobre Distúrbios Alimentares, juntamente com hashtags de conscientização na legenda, claramente indica que o usuário estava espalhando conscientização sobre a recuperação de um distúrbio alimentar. Portanto, esse post se enquadra na exceção de geração de conscientização conforme a Política sobre Suicídio, Automutilação e Distúrbios Alimentares.
No segundo post, o usuário, que se identifica como um profissional de saúde mental, compartilhou conselhos sobre como falar sobre o peso e o tamanho de pessoas consideradas magras ou abaixo do peso. Na terceira imagem, o usuário estava fazendo a comparação, sem ambiguidades, entre expressões nocivas e conselhos sobre como se comunicar de modo mais respeitoso. Mesmo se visualizada isoladamente, é difícil entender como essa imagem pode ter sido considerada uma violação. O compartilhamento do post durante a Semana de Conscientização sobre Distúrbios Alimentares, juntamente com as hashtags de conscientização e explicações na legenda, é uma confirmação adicional de que o usuário estava compartilhando conselhos e recursos de apoio.
5.2. Conformidade com as responsabilidades da Meta relativas aos direitos humanos
O Comitê considera que remover o conteúdo não era coerente com as responsabilidades da Meta com os direitos humanos.
Liberdade de expressão (Artigo 19 do PIDCP)
O artigo 19 do Pacto Internacional sobre Direitos Civis e Políticos (PIDCP) oferece ampla proteção à expressão. Esse direito inclui a “liberdade de procurar, receber e difundir informações e ideias de qualquer natureza”. O acesso à informação é uma parte essencial da liberdade de expressão. O Artigo 12 do Pacto Internacional dos Direitos Econômicos, Sociais e Culturais (PIDESC) garante o direito à saúde, incluindo o direito a acessar educação e informação relacionadas com a saúde (Artigo 12, PIDESC; Comitê dos Direitos Econômicos, Sociais e Culturais, Comentário geral n.º 14 (2000), parágrafo 3).
Quando um Estado aplica restrições à expressão, elas devem atender aos requisitos de legalidade, objetivo legítimo e necessidade e proporcionalidade (Artigo 19, parágrafo 3 do PIDCP). Esses requisitos costumam ser chamados de “teste tripartite”. O Comitê usa essa estrutura para interpretar as responsabilidades de direitos humanos da Meta de acordo com os Princípios Orientadores da Organização das Nações Unidas (ONU) sobre Empresas e Direitos Humanos, com os quais a própria Meta se comprometeu em sua Política Corporativa sobre Direitos Humanos. O Comitê faz isso em relação tanto à decisão de conteúdo individual sob análise quanto ao que isso diz sobre a abordagem mais ampla da empresa à governança de conteúdo. Como afirmou o Relator Especial da ONU sobre liberdade de expressão, embora “as empresas não tenham obrigações governamentais, o impacto delas exige que avaliem o mesmo tipo de questões sobre a proteção do direito de seus usuários à liberdade de expressão” (A/74/486, parágrafo 41).
I. Legalidade (clareza e acessibilidade das regras)
O princípio da legalidade exige que as regras que limitam a expressão sejam acessíveis e claras, formuladas com precisão suficiente para permitir que um indivíduo regule sua conduta de acordo com elas (Comentário Geral n.º 34, parágrafo 25). Além disso, essas regras “não podem conceder liberdade de ação irrestrita para a restrição da liberdade de expressão aos encarregados de [sua] execução” e devem “fornecer instrução suficiente aos encarregados de sua execução para permitir-lhes determinar quais tipos de expressão são adequadamente restritas e quais tipos não são” (ibid.). O Relator Especial da ONU sobre a liberdade de expressão declarou que, quando aplicadas à governação do discurso online por parte de intervenientes privados, as regras devem ser claras e específicas (A/HRC/38/35, parágrafo 46). As pessoas que usam as plataformas da Meta devem ser capazes de acessar e entender as regras, e os analistas de conteúdo devem ter orientações claras sobre sua aplicação.
O Comitê considera que as regras sobre admissão e recuperação de distúrbios alimentares são suficientemente claras na aplicação a esses casos.
II. Objetivo legítimo
Qualquer restrição à liberdade de expressão também deve perseguir um ou mais dos objetivos legítimos listados no Artigo 19, parágrafo 3 do PIDCP. Nestes casos, o Comitê considera que o Padrão da Comunidade sobre Suicídio, Automutilação e Distúrbios Alimentados quanto a conteúdos sobre distúrbios alimentares contribui para o objetivo legítimo de proteger a saúde pública e respeitar os direitos dos outros à saúde física e mental, especialmente de pessoas jovens e adolescentes (Artigo 12 do ICESCR, Artigo 19, CRC; Comentário Geral n.º 13, (2011), parágrafo 28; Comentário Geral n.º 15, (2013), parágrafo 84; veja também Dieta do suco de frutas).
III. Necessidade e proporcionalidade
Nos termos do artigo 19(3) do PIDCP, a necessidade e a proporcionalidade exigem que as restrições à expressão “devem ser adequadas para atingir sua função de proteção; devem ser o instrumento menos intrusivo entre aqueles que podem atingir sua função de proteção; devem ser proporcionais ao interesse a ser protegido” (Comentário Geral n.º 34, parágrafo 34).
Sem o benefício de ter obtido respostas da Meta às perguntas do Comitê nesses casos, houve uma limitação da capacidade do Comitê de explorar mais profundamente os erros de aplicação e apresentar orientações mais específicas sobre as responsabilidades da Meta quanto aos direitos humanos, especialmente aqueles relacionados a conteúdos de conscientização ou que fornecem recursos de apoio. Claramente, a remoção desses posts não era necessária nem proporcional quanto à proteção da saúde pública. Ambos os posts continham sinais não ambíguos de que os usuários estavam compartilhando um conteúdo de conscientização e apoio durante a Semana de Conscientização sobre Distúrbios Alimentares.
O Comitê manifestou anteriormente que, para mostrar que a Meta tinha escolhido os meios menos intrusivos para atingir um objetivo legítimo, a empresa deveria considerar as seguintes questões: (1) se o objetivo de interesse público pode ser tratado por meio de medidas que não prejudiquem a liberdade de expressão; (2) se não, se, entre as medidas que infringem a liberdade de expressão, a plataforma escolheu a menos intrusiva; e (3) se a medida escolhida realmente ajuda a atingir o objetivo legítimo (Alegação sobre cura da COVID, citando A/74/486, parágrafo 52). A consideração dessas perguntas em relação a esses casos indica três áreas de melhoria para cumprir o compromisso da Meta com o respeito à liberdade de expressão ao não recorrer à remoção desnecessária de manifestações: preparação períodos de conscientização recorrentes globais; visibilidade do conteúdo de conscientização; e melhorias da análise de apelações. As melhorias em cada uma dessas áreas ajudarão a Meta a mostrar que está usando a estrutura de Relator Especial da ONU para demonstrar etapas de auditoria afirmativa e evitar a remoção desnecessária de declarações de suas plataformas.
Preparação para eventos de conscientização e precisão da aplicação
Esses casos levantam questões sobre a preparação da Meta para semanas de conscientização pública periódicas com pico de engajamento, incluindo se a Meta aproveita de forma satisfatória as avaliações de precisão da aplicação para ajudar a empresa a melhorar sua preparação para esses períodos recorrentes.
Os eventos de conscientização são períodos dedicados a informar as pessoas sobre questões de importância pública. Esses eventos geram uma oportunidade específica para aumentar a compreensão, compartilhar informações, atrair atenção e gerar apoio por meio do engajamento comunitário, educação e arrecadação de fundos, entre outras ações. As redes sociais são um dos meios mais importantes pelos quais as pessoas podem se comunicar e se expressar livremente. Os erros de aplicação que restringem o conteúdo de conscientização ou compartilhamento de recursos prejudicam essas conversas e oportunidades. Isso fica ainda mais evidente quando, assim como ocorreu no segundo caso, advertências e restrições de contas são aplicadas aos usuários que publicam o conteúdo, impedindo-os de participar abertamente dessas conversas durante esses períodos importantes.
A Meta deve, portanto, esforçar-se para garantir que as políticas da plataforma e as práticas de aplicação sejam adequadas durante os eventos de conscientização. Isso inclui tanto as de natureza local quanto global, como a conscientização sobre distúrbios alimentares, de câncer de mama, entre outras.
Como parte da sua pesquisa sobre esse caso, o Comitê buscou, na Biblioteca de Conteúdo da Meta, por conteúdos de conscientização sobre distúrbios alimentares e de recuperação no Instagram entre 2023 e 2025. O Comitê analisou uma amostra representativa de mais de 18 mil posts, que incluíram apenas posts visíveis na plataforma. Essa análise revelou picos consistentes no volume de conteúdos do tipo durante a Semana de Conscientização sobre Distúrbios Alimentares, indicando um padrão recorrente de maior engajamento do usuário nesses períodos. Mais da metade dos posts publicados encorajou o público a compartilhar o conteúdo ou participar de eventos de conscientização. Os posts restantes envolviam, principalmente, pessoas compartilhando as experiências vividas com distúrbios alimentares, incluindo relatos pessoais sobre o diagnóstico, enfrentamento e recuperação, assim como posts oferecendo orientações terapêuticas. Isso indica a importância de a empresa estar atenta e preparada para eventos de conscientização como esse.
O Comitê avaliou a preparação para outros períodos de pico de engajamento em que envolve discussões de interesse público e momentos de conscientização associados com campanhas de saúde pública. Por exemplo, ele examinou 15 posts que conscientizavam obre câncer de mama, compartilhados durante o Mês de conscientização do câncer de mama em 2024. O Comitê solicitou que a Meta mantenha seus esforços para implementar as recomendações do Comitê quanto à decisão sobre os Sintomas de câncer de mama e nudez para evitar e corrigir erros e continuar melhorando sua capacidade de detectar com precisão os conteúdos que se enquadrem nas exceções à Política sobre Nudez e Atividade Sexual de Adultos.
O Comitê também abordou a necessidade da Meta de estabelecer mecanismo que avaliem a eficácia dos esforços para reforçar suas políticas em outros períodos de maior necessidade de uma aplicação precisa, como nas eleições. Como resposta a essas recomendações no Discurso de general brasileiro, a Meta desenvolveu uma estrutura para avaliar os esforços da empresa para a integridade eleitoral, estabelecendo oito pilares fundamentais para tal, incluindo processos de gerenciamento de riscos eleitorais, cooperação com partes interessadas externas e ferramentas para apoiar o engajamento cívico (consulte o Apêndice Relatório bianual do 1º semestre de 2025).
Ainda que devam ser feitos esforços para preservar o conteúdo de conscientização todos os dias, a Meta deve reforçar a sua preparação para as semanas de conscientização, considerando-as como períodos previsíveis e recorrentes em que há a possibilidade de discursos de interesse público serem removidos indevidamente. Por ser uma empresa global, a empresa deveria desenvolver um calendário de períodos globais de conscientização e usá-lo para ajustar as práticas de aplicação. Medidas específicas durante esses períodos poderiam incluir o estabelecimento de procedimentos para supervisionar ativamente o conteúdo sobre distúrbios alimentares durante esses períodos de conscientização, monitorar hashtags de campanhas para reduzir a remoção indevida de posts ou implementar um processo rápido de análise para apelações relacionadas a violações ligadas a eventos de conscientização. Medidas adicionais poderiam incluir o monitoramento de dados em tempo real para detectar picos de remoções indevidas.
O Comitê já abordou esse problema anteriormente em vários casos de diferentes áreas da política, destacando a importância de realizar auditorias periódicas sobre precisão. Isso permite que a empresa avalie e gere relatórios sobre a precisão do analista, além de usar esses resultados para embasar suas operações de aplicação e o desenvolvimento da política. Isso é especialmente importante em relação à aplicação das políticas relevantes antes e depois de períodos específicos de conscientização. É preciso fazer a implementação total das recomendações relevantes anteriores do Comitê (veja abaixo) quanto à precisão do analista e aos erros de aplicação para que a Meta garanta que o discurso de conscientização seja preservado, o que pode ajudar a combater narrativas prejudiciais relacionadas a distúrbios alimentares e sua recuperação. O Comitê também solicita que a Meta compartilhe as medidas específicas adotadas para evitar a aplicação excessiva de conteúdo durante os períodos de conscientização, indicando se essas medidas diferem daquelas aplicadas em outros momentos na aplicação desse conteúdo. Isso é importante não apenas para conscientizar sobre distúrbios alimentares e sua recuperação, mas também para outros períodos de engajamento público que focam na prevenção de dados e na conscientização.
O Comitê solicitou repetidamente que a Meta conduza avaliações regulares das taxas de precisão dos analistas e compartilhe como esses resultados embasariam as melhorias no desenvolvimento e aplicação da política (consulte, por exemplo, Questionamento sobre Adderall®, Recomendação n.º 3). Como resposta, a Meta declarou que “já coleta e avalia dados com base em remoções e restaurações” e “relata a quantidade de conteúdo com apelações enviadas e conteúdo restaurado no Facebook e no Instagram em [seu] Relatório de Aplicação de Padrões da Comunidade” (consulte a Atualização trimestral do Comitê de Supervisão do 3º trimestre de 2023 da Meta). O Comitê considera que essa recomendação foi omitida ou reformulada, uma vez que as métricas de remoção e restauração relacionadas a apelações de usuários mencionadas pela Meta não são as mesmas que as métricas de precisão dos analistas mencionadas na recomendação. Ele também observa que a empresa não compartilhou como os dados coletados por ela embasam a melhoria das operações de aplicação e desenvolvimento de políticas.
Além disso, o Comitê solicitou que a Meta aumente a quantidade de informações públicas sobre as taxas de erro, tornando-as visíveis por país e idioma para cada Padrão da Comunidade em seu relatório de transparência (Preocupação de Punjab com a RSS na Índia, Recomendação n.º 3). Como resposta, a Meta compartilhou com o Comitê, de modo confidencial, um resumo dos dados de aplicação, o que inclui “uma visão geral dos dados de precisão da aplicação” (consulte o Apêndice Relatório bianual do 1º semestre de 2025). O Comitê considera essa recomendação como omitida ou reformulada. Os dados compartilhados pela Meta não são o mesmo que fornecer relatórios de transparência mais detalhados sobre taxas de erro que possam ser visualizadas por país e idioma para cada Padrão da Comunidade. O Comitê reitera que os relatórios de transparência mais detalhados ajudarão o público a identificar áreas onde os erros são mais comuns, incluindo possíveis impactos específicos sobre grupos minoritários e alertar a Meta para sua correção.
Visibilidade do conteúdo de conscientização
O Comitê está preocupado quanto ao potencial impacto sobre a visibilidade do conteúdo de conscientização que já está limitado a usuários adultos.
Sem o benefício de ter as respostas da Meta para as perguntas do Comitê sobre esses casos, houve uma limitação da capacidade do Comitê de explorar como intervenções alternativas de moderação de conteúdo, além de remoções, impactam o conteúdo de conscientização ou o compartilhamento de conteúdo de apoio sobre distúrbios alimentares.
O Comitê aprendeu que, muitas vezes, essas intervenções alternativas vêm acompanhadas de limitações na visibilidade do conteúdo. Por exemplo, conteúdos classificados como falsos ou alterados por verificadores de fatos terceirizados são rebaixados, o que significa que aparecerão em posições mais abaixo nos feeds dos usuários. (consulte, por exemplo, Vídeo adulterado do Presidente Biden;Posts em apoio aos motins no Reino Unido). De modo semelhante, quando um conteúdo é encoberto por uma tela de aviso, ele é removido das recomendações para usuários que não seguem a conta que o postou (consulte, por exemplo, Hospital Al-Shifa; Reféns sequestrados de Israel;Candidato a prefeito assassinado no México).
Embora a Meta permita que as pessoas usem suas plataformas para se apoiarem mutuamente e compartilharem recursos úteis sobre distúrbios alimentares e sua recuperação, os sistemas da Meta não devem impedir que esse conteúdo chegue aos públicos pretendidos, especialmente quando o conteúdo é visível apenas para usuários adultos. Por exemplo, anteriormente o Comitê considerou que a exclusão da recomendação do conteúdo de conscientização posicionada atrás de uma tela de advertência e visível apenas para maiores de 18 anos não constituía uma restrição necessária ou proporcional à liberdade de expressão (Hospital Al-Shifa; Reféns sequestrados de Israel).
Análise do App
Esses casos indicam a necessidade de garantir que as ferramentas apropriadas e permitir que os usuários apresentem contexto adicional em suas apelações para aprimorar a respectiva análise e reduzir a quantidade de erros de aplicação.
É preocupante que, na apelação, os analistas secundários de ambos os casos não conseguiram concluir a análise dos carrosséis devido à falha de carregamento das imagens nas ferramentas internas dos analistas. Embora outro analista já tivesse considerado ambos os posts como não violações, a decisão inicial de removê-los foi mantida mesmo assim.
Sem o benefício de ter as respostas da Meta para as perguntas do Comitê sobre esses casos, houve uma limitação da capacidade do Comitê de entender o que causou os erros de aplicação, se e quando o problema da ferramenta foi corrigido e a natureza e escala do seu impacto no conteúdo postado durante a Semana de Conscientização sobre Distúrbios Alimentares. A Meta deve ter sistemas em vigor para corrigir rapidamente quaisquer problemas nas ferramentas que ela fornece aos analistas.
6. A decisão do Comitê de Supervisão
O Comitê de Supervisão revoga a decisão original da Meta de remover o conteúdo em ambos os casos sob análise.
7. Recomendações
Transparência
- A Meta deve compartilhar as medidas específicas adotadas para evitar a aplicação excessiva de conteúdo durante os períodos de conscientização, como a Semana de Conscientização sobre Distúrbios Alimentares, e se essas medidas diferem daquelas aplicadas em outros momentos na aplicação desse conteúdo.
O Comitê considerará essa recomendação como implementada quando a Meta compartilhar as etapas concretas que foram tomadas para evitar a aplicação excessiva nos períodos de conscientização.
O Comitê também reitera a importância de suas recomendações anteriores quanto às avaliações da taxa de precisão dos analistas. Em linha com essas recomendações, a Meta deve:
- Realizar avaliações regulares das taxas de precisão dos analistas (Questionamento sobre Adderall®, Recomendação n.º 3).
- Melhorar seus relatórios de transparência por meio do aumento da informação do público sobre as taxas de erros, tornando essas informações visíveis por país e idioma para cada Padrão da Comunidade (Preocupação de Punjab com a RSS na Índia, Recomendação n.º 3).
*Nota processual:
- As decisões do Comitê de Supervisão são tomadas por painéis de cinco membros e aprovadas por maioria de votos do Comitê inteiro. As decisões dele não representam, necessariamente, as opiniões de todos os membros.
- De acordo com seu Estatuto, o Comitê de Supervisão pode analisar apelações de usuários cujo conteúdo foi removido pela Meta, apelações de usuários que denunciaram conteúdo que a Meta manteve ativo e decisões que a Meta encaminha a ele (Seção 1 do Artigo 2 do Estatuto). O Comitê tem autoridade vinculativa para manter ou anular as decisões de conteúdo da Meta (Seção 5 do Artigo 3 e Artigo 4 do Estatuto). Ele pode emitir recomendações não vinculativas às quais a Meta é obrigada a responder (Artigo 3; Seção 4; Artigo 4 do Estatuto). Quando a Meta se compromete a agir de acordo com as recomendações, o Comitê monitora sua implementação.
Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas