Mantido
Imagens de protesto combinadas com cânticos pró-Duterte
25 de Novembro de 2025
O Comitê de Supervisão confirmou a decisão da Meta de deixar ativo um post no Facebook que compartilhava um vídeo manipulado durante uma crise política nas Filipinas, mas observou que o conteúdo deveria ter sido classificado como "de alto risco" devido ao significativo potencial de enganar os usuários em uma questão de importância pública.
Para ler esta decisão em tagalo, clique aqui
Para basahin ang desisyong ito sa wikang Tagalog, i-click ito
Para ler esta decisão no idioma cebuano, clique aqui
Aron mabasa kini nga desisyon sa Bisaya, pag-click dinhi
Resumo
O Comitê de Supervisão confirmou a decisão da Meta de deixar ativo um post no Facebook que compartilhava um vídeo manipulado durante uma crise política nas Filipinas, mas observou que o conteúdo deveria ter sido classificado como "de alto risco" devido ao significativo potencial de enganar os usuários em uma questão de importância pública. O Comitê recomenda que a Meta explique publicamente seus rótulos para mídia manipulada e como os aplica. O vídeo deveria ter tido prioridade na verificação de fatos, e o Comitê considera que ele é praticamente idêntico a outros conteúdos já verificados. Além disso, a Meta deveria fornecer aos verificadores de fatos melhores ferramentas para combater conteúdo enganoso.
Sobre o caso
Em março de 2025, o ex-presidente filipino Rodrigo Duterte foi extraditado para o Tribunal Penal Internacional, nos Países Baixos, para responder por acusações de crimes contra a humanidade cometidos durante seu mandato, de 2016 a 2022. Poucos dias após a prisão, um usuário do Facebook compartilhou novamente um vídeo manipulado que havia sido postado por outro usuário. O vídeo republicado contém imagens de um protesto na Sérvia que não tinha relação com a prisão de Duterte, com legendas e áudio adicionados para dar a impressão de ser uma manifestação pró-Duterte ocorrendo nos Países Baixos.
O vídeo tinha uma sobreposição de texto que dizia: “Netherland” (Países Baixos). No áudio adicionado, as pessoas cantam repetidamente "Duterte", enquanto a música "Bayan Ko" toca em tagalo. “Bayan Ko” tornou-se popular durante os protestos contra a lei marcial nas Filipinas na década de 1980.
O post original, que foi compartilhado centenas de vezes e recebeu cerca de 100 mil visualizações, foi sinalizado pelos sistemas automatizados da Meta como possível desinformação. A Meta incluiu o conteúdo na fila online para verificação de fatos. Separadamente, a Meta reduziu temporariamente a visibilidade dos posts nos feeds do Facebook de usuários fora dos EUA. Vários vídeos semelhantes viralizaram, e vários foram classificados como falsos pelos parceiros de verificação de fatos da Meta nas Filipinas. No entanto, devido ao grande volume de posts na fila, os verificadores de fatos não puderam analisar esse post específico. Outro usuário do Facebook denunciou o post recompartilhado por disseminar desinformação. A Meta manteve o post no ar após o usuário ter enviado uma apelação. Um analista humano analisou a apelação e manteve a decisão inicial. O usuário então fez uma apelação ao Comitê de Supervisão.
Principais descobertas
O Comitê concorda com a Meta que o post deveria ter permanecido ativo, pois não incluía os tipos de conteúdo proibidos pela Política sobre Desinformação da Meta, como discussões sobre locais de votação, processos ou elegibilidade de candidatos. No entanto, o Comitê observa que, além de encaminhar o conteúdo para verificação de fatos e exibir temporariamente o post em uma posição mais baixa nos feeds dos usuários, a Meta deveria ter aplicado um rótulo de "Alto risco" ao conteúdo, pois ele continha um vídeo fotorrealista alterado digitalmente, com alto risco de enganar o público durante um evento público significativo.
Dada a importância de proporcionar transparência em relação à rotulagem de mídias manipuladas, o Comitê recomenda que a Meta descreva seus diferentes rótulos e os critérios para aplicá-los. Atualmente, as informações mais detalhadas sobre a rotulagem de mídia manipulada pela Meta encontram-se nas decisões do Comitê.
A Meta deveria ter tomado mais medidas para garantir que o post fosse verificado. Embora a Meta priorize conteúdo semelhante para verificação de fatos durante eleições, a prisão de alto perfil de um ex-chefe de Estado e outras crises políticas que sejam "oportunas, relevantes e consequentes" devem ser tratadas como eventos críticos que justificam verificações mais rigorosas. Além disso, após sua análise, o Comitê considera que o conteúdo do caso também deveria ter sido qualificado como quase idêntico ao conteúdo previamente verificado e rotulado como tal, embora reconheça que a Meta enfrenta desafios para fazer essa determinação em larga escala.
O Comitê observa que vídeos manipulados podem fazer parte de campanhas coordenadas de desinformação, nas quais conteúdo semelhante, mas não idêntico, é postado e compartilhado com ajustes sutis para burlar a verificação de fatos. Isso torna imperativo que a Meta tenha processos robustos para lidar com posts virais enganosos, incluindo priorizar conteúdo idêntico ou quase idêntico para análise e aplicar todas as suas políticas e ferramentas relevantes. Os verificadores de fatos também devem receber melhores ferramentas para identificar rapidamente conteúdo viral que provavelmente esteja repetindo alegações enganosas.
A decisão do Comitê de Supervisão
O Comitê confirma a decisão da Meta de manter o conteúdo online.
Ele também recomenda que a empresa faça o seguinte:
- Descreva os diferentes rótulos informativos que a empresa utiliza para mídias manipuladas e quando os aplica.
- Crie uma fila separada dentro da interface de verificação de fatos que inclua conteúdo semelhante, mas não idêntico ou quase idêntico, ao conteúdo que já foi verificado em um determinado mercado.
*Os resumos de casos fornecem uma visão geral dos casos e não têm valor de precedente.
Decisão completa sobre o caso
- Descrição do caso e histórico
Após a prisão do ex-presidente filipino Rodrigo Duterte em março de 2025 para responder a acusações no Tribunal Penal Internacional (TPI) nos Países Baixos, um usuário do Facebook compartilhou novamente o vídeo de outro usuário. O vídeo original mostra multidões reunidas em uma rua segurando cartazes e a bandeira da Sérvia. O vídeo apresenta uma sobreposição de texto com a inscrição "Países Baixos" e uma canção patriótica em tagalo, "Bayan Ko", tocando ao fundo. Também é possível ouvir áudios de pessoas gritando repetidamente "Duterte!". A canção “Bayan Ko” tornou-se popular durante os protestos contra a lei marcial na década de 1980, contra o falecido ditador e ex-presidente Ferdinand Marcos Sr. O post original tinha uma legenda em inglês: “Netherlands supporters” (Apoiadores dos Países Baixos). O post recompartilhado no Facebook, que é o objeto deste caso, tem três emojis de rosto suplicante como legenda. O post parece, portanto, ser de um protesto na Sérvia sem relação com a prisão de Duterte, com legendas e áudio que a fazem parecer uma manifestação pró-Duterte nos Países Baixos.
O post original no Facebook foi compartilhado centenas de vezes e recebeu cerca de 100 mil visualizações desde que foi feito. Quando foi postado, um classificador da Meta sinalizou o conteúdo como possível desinformação. A empresa então incluiu o conteúdo na fila online fornecida aos seus parceiros de verificação de fatos independente. Versões semelhantes a esse vídeo tornaram-se virais no Facebook em março de 2025; várias foram verificadas e classificadas como Falsas pelos verificadores de fatos da Meta. Devido ao grande volume desses posts e à sua rápida disseminação na plataforma, os verificadores de fatos não conseguem avaliar todos os posts nessa fila, que pode incluir posts semelhantes a conteúdos que eles já verificaram. Segundo a Meta, os verificadores de fatos não avaliaram o post original, e as classificações de "falsos" aplicadas a posts semelhantes não foram aplicadas automaticamente nesse caso. Apesar de não ter sido classificado, a Meta exibiu temporariamente o conteúdo do caso em uma posição inferior no feed do Facebook de usuários fora dos EUA, incluindo aqueles nas Filipinas, com base em sinais que previam que ele continha desinformação.
Dias depois, um usuário denunciou o post compartilhado, mas, segundo a Meta, a denúncia não foi priorizada para análise humana. A Meta não tomou nenhuma providência em relação à denúncia e a encerrou. Após ser notificado de que a empresa havia removido o conteúdo da plataforma, o usuário que fez a denúncia enviou uma apelação da decisão da Meta. Um analista humano confirmou a decisão inicial de manter o conteúdo ativo, o que levou o usuário que fez a denúncia a enviar uma apelação da decisão junto ao Comitê de Supervisão. Quando o Comitê selecionou esse caso, a Meta adicionou novamente o post a uma fila de verificação de fatos, mas ele não foi avaliado.
O Comitê observa o seguinte contexto ao tomar uma decisão.
Durante seu mandato como presidente das Filipinas, de 2016 a 2022, Rodrigo Duterte conduziu uma campanha contra as drogas ilegais, caracterizada pelo uso excessivo da força e assassinatos por grupos de vigilantes. O Tribunal Penal Internacional (TPI) iniciou um exame preliminar sobre o assunto, seguido de uma investigação completa. Em 11 de março de 2025, Duterte foi levado aos Países Baixos para responder por acusações de crimes contra a humanidade no Tribunal Penal Internacional.
O atual presidente Ferdinand Marcos Jr., filho do falecido ditador, venceu as eleições nacionais de 2022, com Sara Duterte, filha de Rodrigo Duterte, conquistando a vice-presidência. Logo após vencerem as eleições, a aliança política entre eles se desfez. Em 2024 e 2025, o conflito político se intensificou. No início deste ano, foram apresentadas denúncias de impeachment contra a vice-presidente Sara Duterte. Em fevereiro, a Câmara dos Representantes das Filipinas votou pelo impeachment de Sara Duterte, que acabou não sendo concretizado. A prisão de Duterte em março foi vista por alguns como um resultado de sua disputa política. A vice-presidente Sara Duterte afirmou que a prisão equivalia a um “sequestro”, enquanto ativistas de direitos humanos e familiares das vítimas mortas na guerra contra as drogas trataram a prisão como uma vitória para a responsabilização.
Pouco depois da prisão de Duterte, protestos em apoio a ele irromperam nas Filipinas e nos Países Baixos. Ativistas e familiares de vítimas da guerra às drogas também se manifestaram, exigindo responsabilização. Durante esse período, vários vídeos com imagens de um comício da Sérvia apresentado como um protesto pró-Duterte nos Países Baixos, semelhante ao conteúdo em análise, viralizaram nas redes sociais.
Três organizações de verificação de fatos com as quais a Meta trabalha nas Filipinas classificaram alguns desses vídeos como "Falsos" com base em indícios de que as imagens do protesto retratavam um protesto na Sérvia, não nos Países Baixos, e não estavam relacionadas à prisão do ex-presidente Duterte. Esses verificadores de fatos também publicaram suas classificações de "Falso" em seus respectivos sites. Segundo a AFP, esses vídeos estavam "fazendo uso indevido de imagens não relacionadas para inflar o tamanho das multidões" (PC-31360). Outro vídeo semelhante, que obteve mais de três milhões de visualizações nas redes sociais, mostrou uma procissão católica que foi deturpada como um comício pró-Duterte.
Na época em que apresentou um parecer público sobre esse caso, a AFP havia verificado “mais de 30 alegações falsas ou enganosas” relacionadas à prisão de Duterte (PC-31360). Rappler, outro verificador de fatos da Meta nas Filipinas, observou que “múltiplas versões deste vídeo manipulado específico” se tornaram virais no Facebook como parte de um “ressurgimento de operações de informação” e faziam parte de uma “campanha inautêntica e organizada” destinada a “manipular a opinião pública e o comportamento a seu favor” (PC-31349). Especialistas consultados pelo Comitê afirmaram que, desde 2016, os verificadores de fatos e os grupos da sociedade civil têm suportado o peso maior do combate à desinformação.
De forma mais ampla, o uso de redes sociais nas Filipinas é um dos mais altos do mundo, sendo o Facebook a plataforma mais usada. As redes sociais desempenham um papel significativo na formação do discurso público em torno dos acontecimentos atuais. Por exemplo, nas eleições nacionais de 2016, os estrategistas de publicidade e relações públicas funcionaram como “arquitetos de desinformação em rede” para gerenciar campanhas políticas, contratando influenciadores e trolls online para disseminar narrativas políticas específicas. Nas eleições nacionais de 2022, o revisionismo histórico sobre o legado da família Marcos se espalhou nas redes sociais, o que alguns acreditam ter contribuído para a vitória presidencial de Marcos Jr. Especialistas consultados pelo Comitê explicaram que “influenciadores de redes sociais, vloggers e profissionais da área digital, de agências de publicidade e relações públicas desempenharam papéis significativos na produção e na disseminação de desinformação em plataformas de redes sociais”. À medida que a rivalidade entre o Presidente Marcos e a Vice-presidente Sara Duterte se intensificou e deu origem a narrativas políticas concorrentes online, os filipinos ficaram ainda mais preocupados com a desinformação, com um estudo revelando que um “recorde de 67%” das pessoas tinham aumentado a preocupação com a desinformação em meados de 2025. No início deste ano, o Congresso da Filipinas iniciou uma investigação para combater a desinformação nas redes sociais, convidando influenciadores, vloggers e representantes de empresas de redes sociais para prestar depoimento.
Tanto sob o governo anterior de Duterte quanto sob o atual governo de Marcos, houve sérios desafios à liberdade de expressão nas Filipinas. Jornalistas e veículos de comunicação considerados críticos a Duterte foram atacados ou fechados pelo governo durante sua presidência e alvos de trolls online. “Red-tagging (marcação vermelha),” ou a prática de rotular grupos ou indivíduos como "apoiadores, recrutadores ou membros do Novo Exército Popular ou do Partido Comunista das Filipinas" tornou-se comum, frequentemente visando jornalistas e ativistas de direitos humanos. As ameaças contra a mídia continuam sob o governo do presidente Marcos Jr. Em junho de 2025, o Relator Especial da ONU sobre a liberdade de expressão pediu ao governo filipino que abordasse a intimidação e o assédio a jornalistas e ativistas de direitos humanos no país. Esses desafios, juntamente com o aumento das campanhas de desinformação nas redes sociais, corroeram a confiança pública nas instituições de mídia nas Filipinas.
2. Envios de usuários
Segundo o usuário que fez a denúncia, o conteúdo do caso alega mostrar uma manifestação em apoio a Duterte após sua detenção pelo TPI, mas, na verdade, ela não ocorreu. O usuário afirmou que o conteúdo se referia a um evento diferente e, portanto, era "enganoso". Ele afirma ainda que o conteúdo já havia sido verificado por um dos verificadores de fatos da Meta nas Filipinas.
3. Políticas de conteúdo e envios da Meta
I. Políticas de conteúdo da Meta
Padrões da Comunidade sobre Desinformação
Conteúdo sujeito a remoção
De acordo com seus Padrões da Comunidade sobre Desinformação, a Meta remove a desinformação quando é provável que ela contribua diretamente para o risco de dano físico iminente ou para “interferência no funcionamento dos processos políticos [interferência eleitoral ou censitária]”. A desinformação relacionada à interferência eleitoral, sujeita a remoção, é definida por uma lista de desinformação proibida sobre cronogramas ou locais de votação, e sobre a elegibilidade de eleitores ou candidatos.
Conteúdo elegível para verificação de fatos independente
Para outros tipos de desinformação política, a Meta afirma que seu foco não é a remoção, mas sim "reduzir sua prevalência ou criar um ambiente que promova um diálogo produtivo". Nos Estados Unidos, a Meta descontinuou seu programa de verificação de fatos independente e agora aborda conteúdo enganoso por meio de Notas da Comunidade. Fora dos Estados Unidos, a verificação de fatos continua disponível. Para esse fim, a Meta estabelece parcerias com organizações de verificação de fatos independente certificadas pela não partidária International Fact-Checking Network (ou pela European Fact-Checking Standards Network na Europa) para analisar e avaliar a precisão do conteúdo mais viral nas plataformas da Meta.
Os verificadores de fatos podem analisar e classificar a precisão dos posts abertos do Facebook, do Instagram e do Threads, incluindo anúncios, artigos, fotos, vídeos, reels, áudio e conteúdos que contenham apenas texto. As opções de classificação são Falso, Alterado, Parcialmente falso, Fora de contexto, Sátira e Verdadeiro.
Os verificadores de fatos decidem qual conteúdo analisar e concluem sua verificação de fatos independentemente da Meta. Eles podem identificar conteúdo por iniciativa própria ou selecionar de uma fila de referências da Meta de possível desinformação. A Meta refere-se a conteúdo com base em vários sinais, incluindo "como as pessoas estão reagindo", se os usuários sinalizam um conteúdo como "desinformação" ou quando os comentários em um post "expressam descrença" em sua autenticidade.
Os verificadores de fatos priorizam informações falsas virais e alegações comprovadamente falsas que são "oportunas, populares e consequentes" em seu país e idioma relevantes. Conteúdos inelegíveis para verificação de fatos incluem “conteúdo que não inclui uma alegação verificável”, “opiniões e discursos de políticos” e “mídia criada ou editada digitalmente que contenha um dos rótulos de transparência de IA da Meta ou marcas d'água com base em sua autenticidade”. No entanto, quando a mídia manipulada contém uma alegação falsa que não faz parte do uso de mídia criada ou editada digitalmente, os verificadores de fatos ainda podem classificar o post. Conteúdo verificado classificado como Falso, Alterado ou Parcialmente Falso pode ser rebaixado, não recomendado e rejeitado para anúncios.
Conteúdo elegível para rotulagem de mídia manipulada
De acordo com as regras de mídia manipulada da Política sobre Desinformação, conteúdo enganoso que seja “criado ou alterado digitalmente”, mas que “não viole outros Padrões da Comunidade”, pode receber um rótulo informativo “no próprio conteúdo” ou ser rejeitado se enviado como anúncio. Isso se aplica a uma “imagem ou vídeo fotorrealista, ou áudio com som realista, que foi criado ou alterado digitalmente e que cria um risco particularmente alto de enganar materialmente o público em uma questão de importância pública”. A Meta não inclui em sua política outros critérios para quando "pode" aplicar esse rótulo.
Ela exige que as pessoas divulguem, por meio de sua “ferramenta de divulgação de IA”, sempre que os usuários postarem “conteúdo orgânico com vídeo fotorrealista ou áudio com som realista que foi criado ou alterado digitalmente”. A Meta afirma que poderá aplicar penalidades caso os usuários não o façam.
A empresa aplica três rótulos informativos diferentes para mídias manipuladas: o rótulo “Alto risco”, o rótulo “Informações de IA” e o rótulo “IA de alto risco”. No caso Ligação de áudio atribuído a uma suposta tentativa de manipular as eleições no Curdistão iraquiano, a Meta informou ao Comitê que, para aplicar um rótulo de Alto risco, (i) o conteúdo deve criar um risco particularmente alto de enganar materialmente o público sobre um assunto de importância pública; e (ii) devem existir indicadores confiáveis de que o conteúdo foi criado ou alterado digitalmente. O rótulo de "IA de alto risco" é semelhante ao rótulo de "Alto risco", mas aplica-se a conteúdo que apresenta indicadores confiáveis de ter sido criado ou alterado com IA. O rótulo de “Informações de IA” é destinado para imagens, não vídeo ou áudio, feitas com IA que a Meta detecta por meio de “indicadores de imagem de IA padrão do setor ou quando as pessoas divulgam que estão enviando conteúdo gerado por IA”.
A aplicação de um rótulo de Alto risco não resulta no rebaixamento do conteúdo nem na sua remoção das recomendações. Em vez disso, quando os usuários tentam compartilhar novamente um post marcado como de Alto risco no Facebook, Instagram ou Threads, eles recebem um aviso pop-up alertando-os de que o conteúdo pode ter sido criado ou alterado digitalmente.
Políticas de rebaixamento
As Diretrizes sobre Distribuição de Conteúdo da Meta descrevem os tipos de conteúdo que podem ser rebaixados por serem “problemáticos” ou de “baixa qualidade”. A Meta baseia sua decisão de rebaixar esse tipo de conteúdo em seu “com os valores de responder aos feedbacks diretos das pessoas, incentivar os publishers a investir em conteúdo de alta qualidade e fomentar uma comunidade mais segura”. Segundo a Meta, isso permite que as pessoas compartilhem conteúdo "sem serem afetadas por conteúdo problemático ou de baixa qualidade".
Entre os tipos de conteúdo que a Meta afirma rebaixar estão informações falsas verificadas, bem como conteúdo avaliado como "provavelmente violando" os Padrões da Comunidade da Meta. Quando o conteúdo é postado no Facebook, ele é avaliado por uma série de classificadores para determinar se viola um dos Padrões da Comunidade da plataforma. Esses classificadores relatam um grau de "confiança" na probabilidade de uma violação, que a empresa usa como um sinal para tomar certas ações. Quando essa pontuação de confiança para determinado conteúdo é alta, mas não alta o suficiente para desencadear a remoção imediata, a Meta pode rebaixar o conteúdo. Se for constatado que o conteúdo viola alguma das políticas abrangidas, ele é removido. A empresa pode ajustar o limite de confiança que os classificadores individuais exigem para tomar certas ações, como em momentos de crise.
II. Envios da Meta
A Meta afirma que não é possível para os verificadores de fatos analisar todas as possíveis desinformações, portanto, a empresa instrui os verificadores de fatos a priorizarem "tópicos virais e relevantes que tenham potencial para causar danos ou se espalhar rapidamente".
A Meta informou ao Comitê que utiliza dois métodos para priorizar o conteúdo a ser verificado em momentos críticos. Primeiro, a empresa pode marcar determinados conteúdos enfileirados como urgentes. Em segundo lugar, durante eventos globais de alta prioridade, como certas crises ou eleições que a Meta considera "Eventos em alta", a Meta filtra e coloca em fila o conteúdo relacionado para verificação de fatos. Esse filtro utiliza uma lista de palavras-chave relevantes identificadas por especialistas locais em operações de mercado com conhecimento linguístico e contextual, seguindo diretrizes definidas. O conteúdo identificado por meio desse processo recebe um rótulo de tópico com o nome do evento correspondente e é incluído em uma visualização de filtro dedicada e com prazo definido, chamada "Eventos em alta", dentro da ferramenta de verificação de fatos. Para ser considerado um Evento em alta, um assunto deve ser importante (como uma crise no mundo real, um debate cívico ou risco de danos no meio físico) e considerado de alto risco para disseminação de desinformação. Os verificadores de fatos mantêm a discricionariedade de selecionar ou não conteúdo urgente ou em alta para análise.
Além de selecionar conteúdo da fila da Meta, os verificadores de fatos podem identificar conteúdo para análise de forma independente nas plataformas da Meta. A Meta informou ao Comitê que os verificadores de fatos têm acesso à Biblioteca de Conteúdo da Meta, uma ferramenta baseada na web que permite que aqueles que têm acesso realizem buscas sistemáticas em alguns conteúdos publicamente acessíveis nas plataformas da Meta. Os verificadores de fatos podem selecionar conteúdo descoberto na Biblioteca de Conteúdo da Meta para verificação de fatos. A Meta afirmou que “convida proativamente” os verificadores de fatos a usar essa ferramenta.
Ela não tratou a prisão do ex-presidente pelo TPI como um evento em alta e não certificou o conteúdo como urgente para verificação de fatos. A empresa informou ao Comitê que não recebeu informações sobre tendências de desinformação que levassem à violência iminente ou a danos físicos em relação às eleições de meio de mandato nas Filipinas, em maio de 2025. No entanto, a empresa também informou que seus parceiros de verificação de fatos identificaram "alegações de desinformação generalizadas, como alegações falsas relacionadas à prisão do ex-presidente Rodrigo Duterte pelo TPI e ao impeachment de sua filha [a vice-presidente] Sara Duterte".
A Meta explicou que, depois que um verificador de fatos avalia um conteúdo, ele informa à Meta onde a desinformação está presente no conteúdo (seja na legenda, apenas no áudio ou vídeo, ou em parte deles, ou quando a mídia e a legenda são consideradas em conjunto). A Meta utiliza então uma tecnologia de correspondência para aplicar essa classificação apenas a conteúdos idênticos ou quase idênticos nesse aspecto específico (ou seja, a mesma mídia ou a mesma mídia combinada com a mesma legenda). Se o verificador de fatos avaliar apenas o vídeo do post, a Meta aplicará a classificação a qualquer post que contenha o mesmo vídeo ou um vídeo muito semelhante. No entanto, se o verificador de fatos avaliar tanto o vídeo quanto a legenda em conjunto, a classificação será aplicada apenas aos posts com vídeo e legenda idênticos ou muito semelhantes.
A Meta define conteúdo "idêntico" para descrever o compartilhamento de conteúdo como aquele que possui os "mesmos atributos" da mídia avaliada por verificadores de fatos. Conteúdo "quase idêntico" e "praticamente igual" apresenta "pequenas variações na formatação ou no texto sobreposto, mas transmite a mesma alegação desmentida". A Meta não aplica automaticamente rótulos em larga escala se o conteúdo não atender aos padrões de conteúdo idêntico ou quase idêntico. Isso ocorre porque a empresa constatou que pequenas diferenças na forma como uma afirmação é formulada podem afetar sua veracidade. Para a Meta, essa abordagem "ajuda a evitar a aplicação incorreta das classificações de verificação de fatos".
No presente caso, a Meta concluiu que o conteúdo do caso não atendia ao limiar de conteúdo idêntico ou quase idêntico necessário para aplicar a mesma classificação que os verificadores de fatos da Meta haviam aplicado a vídeos semelhantes que retratavam o protesto na Sérvia como um protesto pró-Duterte nos Países Baixos. Por exemplo, alguns vídeos que foram avaliados por verificadores de fatos tinham áudio diferente, como esse post que tinha a música “Bayan Ko” ao fundo, ou legendas diferentes.
O conteúdo encaminhado para verificação de fatos sai da fila de encaminhamento após sete dias se os verificadores de fatos não o selecionarem para análise. A Meta explicou que esse período reflete a tendência de que "a maioria das visualizações ocorre nos primeiros dias do ciclo de vida de um conteúdo". Os verificadores de fatos ainda podem selecionar conteúdo para analisar fora da fila de referência da Meta e classificar o conteúdo "independentemente de quanto tempo ele esteja na plataforma. Por exemplo, embora os verificadores de fatos geralmente se concentrem em tópicos atuais, conteúdo antigo pode ressurgir à luz de novas questões.”
Com relação às regras de mídia manipulada de sua Política sobre Desinformação, a Meta não aplicou nenhum de seus rótulos, incluindo o rótulo de Alto risco, ao conteúdo do caso. A Meta informou ao Comitê que isso ocorreu porque o problema não foi levado a instâncias superiores internamente. Quando foi analisado após a seleção do caso pelo Comitê, o conteúdo já tinha "mais de 2 meses". Considerando “a idade do conteúdo e a falta de efeito viral”, a Meta decidiu também não aplicar o rótulo de mídia manipulada naquele momento. A Meta enfatizou que o rótulo de Alto risco é uma política de apenas escalation para casos de emergência. Ele é utilizado com parcimônia para "lidar com conteúdo criado digitalmente que represente um risco particularmente grave de induzir o público em erro sobre uma questão importante em um momento crítico". Segundo a Meta, isso inclui "quando o conteúdo é postado próximo a um evento crítico, como uma eleição, e não há tempo suficiente para que o ecossistema de informações ou os verificadores de fatos abordem o conteúdo em questão". Como o conteúdo foi postado dois meses antes das eleições de meio de mandato de maio de 2025 nas Filipinas, para Meta esse foi um período suficiente para que o “ecossistema de informação ou o contradiscurso corrigissem qualquer desinformação no post (e, nesse caso, versões semelhantes do vídeo foram verificadas)”. Ao que tudo indica, a Meta não considerou nem a prisão de Duterte nem os protestos subsequentes como "eventos críticos" independentes.
A única medida de aplicação tomada pela Meta em relação a esse conteúdo foi reduzir temporariamente a visibilidade do post no feed do Facebook de usuários fora dos EUA, incluindo nas Filipinas, com base em indícios de que o post continha desinformação.
O Comitê fez perguntas sobre como funciona a verificação de fatos, como a Meta aloca recursos para os verificadores de fatos, como vídeos semelhantes sobre a prisão de Duterte foram comparados ao vídeo compartilhado novamente e se a Meta considerou as regras de mídia manipulada da Política sobre Desinformação ao moderar o conteúdo do caso. A empresa respondeu a todas as perguntas.
4. Comentários públicos
O Comitê de Supervisão recebeu seis comentários públicos que atenderam aos termos para envio. Cinco dos comentários foram enviados da região Ásia-Pacífico e da Oceania, e um da Europa. Para ler comentários públicos enviados com consentimento de publicação, clique aqui.
Os envios abordaram os seguintes temas: as limitações enfrentadas pelos verificadores de fatos, a experiência local dos verificadores de fatos, as inadequações da abordagem atual da Meta para lidar com campanhas coordenadas de desinformação e as contas responsáveis por compartilhar desinformação nas Filipinas.
Em julho de 2025, como parte do engajamento contínuo com as partes interessadas, o Comitê consultou representantes de organizações de checagem de fatos, acadêmicos e outros especialistas em desinformação. A mesa-redonda discutiu como a verificação de fatos funciona na prática, a verificação de fatos da Meta fora dos Estados Unidos, o volume de conteúdo potencialmente enganoso que os verificadores de fatos enfrentam e a capacidade daqueles que espalham desinformação de fazer alterações no post para evitar a detecção, bem como o risco de overenforcement de medidas por parte da tecnologia de correspondência para detectar conteúdo idêntico e quase idêntico.
5. Análise do Comitê de Supervisão
As campanhas de desinformação representam ameaças à integridade da informação, à confiança pública e à própria democracia. O Comitê selecionou esse caso para examinar como a Meta lida com informações falsas ou enganosas em suas plataformas, especialmente quando compartilhadas em momentos de tensão política elevada e em contextos onde a desinformação influencia o debate público. O Comitê analisou a decisão da Meta nesse caso em relação às políticas de conteúdo, aos valores e às responsabilidades de direitos humanos da Meta. Ele também avaliou as implicações desse caso quanto à abordagem mais ampla da Meta em relação à governança de conteúdo.
5.1 Conformidade com as políticas de conteúdo da Meta
I. Regras sobre conteúdo
O Comitê considera que o conteúdo do caso não atende aos critérios para remoção de acordo com o padrão da Política sobre Desinformação. Ele não fornece informações sobre nenhuma das categorias proibidas por esta diretriz, incluindo locais de votação ou recenseamento, processos de votação ou elegibilidade de eleitores ou candidatos. O Comitê também considera que o conteúdo do caso atende aos critérios de elegibilidade para verificação de fatos de acordo com a Política sobre Desinformação da Meta e concorda com a Meta em enviar o post à verificação de fatos. O conteúdo do caso atende aos critérios de elegibilidade para rotulagem de mídia manipulada de acordo com a Política sobre Desinformação da Meta. Portanto, a Meta deveria ter atribuído um rótulo de "Alto risco" ao conteúdo.
Padrões da Comunidade sobre Desinformação e Verificação de Fatos Independente
O conteúdo do caso atende aos critérios de elegibilidade para verificação de fatos de acordo com a Política sobre Desinformação da Meta. O post contém uma alegação verificável, não envolve discursos de políticos e não possui um rótulo de transparência de IA que tornaria o conteúdo inelegível para verificação de fatos (ou seja, a natureza enganosa do post reside em como ela foi criada ou alterada digitalmente, e não no que o post afirma). Além disso, ele atende a um dos requisitos para que o conteúdo seja priorizado na verificação de fatos: ele é “oportuno, relevante e consequente”. O post foi compartilhado pouco depois da prisão do ex-presidente Duterte, quando as circunstâncias de sua prisão estavam sendo contestadas online e offline. Na época em que o conteúdo do caso foi postado, protestos haviam eclodido tanto a favor quanto contra a prisão de Duterte. Posts semelhantes ao conteúdo do caso, alegando que protestos pró-Duterte estavam ocorrendo, estavam se tornando virais nas redes sociais na época. Um dos verificadores de fatos da Meta relatou que vídeos semelhantes obtiveram mais de três milhões de visualizações. Além disso, a prisão ocorreu em um contexto mais amplo de intensa disputa política entre o presidente Marcos e a vice-presidente Sara Duterte, em um país onde a desinformação influencia o debate político.
A Meta deveria ter tomado medidas para priorizar esse tipo de conteúdo na fila que fornece aos verificadores de fatos. A empresa deveria ter marcado o conteúdo do caso como urgente quando o colocou na fila para verificação de fatos. A Meta também deveria ter designado a possível desinformação em torno da prisão do ex-presidente Duterte como um Evento em alta e identificado e destacado proativamente conteúdo semelhante depois que os verificadores de fatos da Meta classificaram vídeos semelhantes como falsos. De acordo com os próprios critérios da Meta, a questão é importante para o “debate cívico” e havia um “alto risco de disseminação de desinformação”. Com base nas informações fornecidas ao Comitê, parece que a Meta foi negligente nesse aspecto.
O conteúdo do caso também deveria ter sido qualificado como quase idêntico ao conteúdo previamente verificado e rotulado como tal. Verificadores de fatos que avaliaram vídeos semelhantes identificaram a imprecisão na combinação das imagens do protesto na Sérvia com o áudio de pessoas gritando "Duterte!" ao fundo. Os vídeos classificados não continham a música “Bayan Ko” além dos cânticos. Como o conteúdo do caso incluía essa música, ele era suficientemente diferente para que a tecnologia de correspondência da Meta não o identificasse como idêntico ou quase idêntico a vídeos semelhantes classificados anteriormente como Falso.
Para o Comitê, as alterações introduzidas constituem "variações menores", e o conteúdo repete "a mesma alegação desmentida" que vídeos semelhantes classificados como falsos pelos verificadores de fatos da Meta. As pequenas diferenças no áudio, no texto e nas legendas não alteraram as características fundamentalmente enganosas desse conteúdo. Quando alterações sutis não afetam a natureza enganosa, o resultado deve ser considerado praticamente idêntico.
O Comitê também reconhece que os sistemas automatizados que a Meta utiliza atualmente podem ser incapazes de fazer essa determinação em grande escala. Aplicar o rótulo a conteúdos com áudios diferentes sem qualquer avaliação pode levar à rotulagem de conteúdos com áudio que criticam ou desmentem o vídeo enganoso. As partes interessadas consultadas pelo Comitê observaram que a tecnologia de correspondência não seria capaz de antecipar todos os usos e nuances possíveis da expressão e que expandi-la, sem desenvolver outras ferramentas para combater a desinformação, poderia levar a uma overenforcement. Ao mesmo tempo, a abordagem atual da Meta não é eficaz para responder a agentes que manipulam o conteúdo de forma sutil para burlar o sistema e evitar a aplicação. A Meta deve alocar recursos suficientes, automatizados ou não, para garantir que as avaliações dos verificadores de fatos sejam aplicadas de forma eficaz.
Padrões da Comunidade sobre Desinformação e Mídia Manipulada
O Comitê considera que o conteúdo do caso configurava mídia manipulada que deveria ter recebido um rótulo. Com base em verificações de fatos públicas semelhantes, o conteúdo é um “vídeo fotorrealista” que parece ter sido “criado ou alterado digitalmente”. O Comitê considera que a filmagem do protesto na Sérvia atende ao requisito de “fotorrealismo” da Política sobre Mídia Manipulada. A combinação das imagens do protesto na Sérvia com o áudio de pessoas gritando o nome de Duterte e a sobreposição do texto "Países Baixos" é uma alteração digital da filmagem original. A sobreposição de texto "Netherland" (Países Baixos) distorce ainda mais o significado do vídeo, dando a impressão de que o protesto ocorreu nos Países Baixos, quando, na verdade, aconteceu na Sérvia. O post também “não viola outros Padrões da Comunidade” que justificaria um tratamento diferente, como a remoção. O conteúdo apresenta um "risco particularmente elevado de enganar materialmente o público em matéria de importância pública", uma vez que diz respeito a uma questão política significativa na política das Filipinas. Vídeos semelhantes estavam circulando nas plataformas da Meta e haviam sido classificados como falsos pelos verificadores de fatos da Meta nas Filipinas. O volume de conteúdo enganoso semelhante aumentou, portanto, o risco de enganar materialmente o público. Com base nesses fatores, a Meta deveria ter aplicado seu rótulo de Alto risco.
A Meta argumentou que não aplicou nenhum rótulo de mídia manipulada, pois o conteúdo não foi encaminhado às equipes internas da Meta e foi postado com antecedência suficiente das eleições de maio de 2025 para que houvesse contradiscurso suficiente para desmentir a alegação falsa. Além disso, na época em que o Comitê selecionou o caso, a Meta não considerou adicionar o rótulo devido à idade do post e à falta de efeito viral.
O Comitê discorda da Meta. Em primeiro lugar, essas justificativas não parecem ter qualquer fundamento nas políticas públicas da Meta. Em segundo lugar, mesmo utilizando esses critérios internos, o Comitê chega a conclusões diferentes.
A Meta deveria ter tratado a prisão do ex-presidente Duterte como um evento crítico que justificasse a intensificação da vigilância em posts relevantes para possível aplicação da etiqueta Alto risco. Segundo o próprio critério da Meta, o período da prisão de Duterte representou um momento político tenso nas Filipinas, gerando um discurso público crítico sobre as circunstâncias da prisão e protestos a favor e contra o ex-presidente, tanto nas Filipinas quanto no exterior. As partes interessadas consultadas pelo Comitê destacaram a rapidez com que as narrativas sobre a prisão de Duterte proliferaram nas plataformas da Meta. Como a Meta observou, versões semelhantes do vídeo foram verificadas. A prisão também ocorreu em meio a uma longa disputa política entre os dois mais altos representantes do governo do país, com a vice-presidente Sara Duterte alegando que seu pai havia sido sequestrado.
Com base em suas ações aqui, a Meta parece limitar sua interpretação de eventos críticos passíveis de rotulagem como mídia manipulada a eleições, excluindo outras crises políticas. O Comitê considera a prisão e subsequente extradição para o TPI de um ex-chefe de Estado um evento crítico. Considerando a situação política nas Filipinas na época da prisão do ex-presidente, foi um erro da Meta tratar as eleições de maio de 2025 como o único evento crítico em questão. Portanto, ao limitar efetivamente a designação de um evento crítico às eleições, a Meta minou a utilidade de suas próprias regras para ajudar a restringir a disseminação de mídia manipulada durante situações de alta tensão política. O conteúdo abrangido pelas regras sobre mídia manipulada na prática parece ser significativamente mais restrito do que o que a política aparenta transmitir.
Mesmo supondo que o evento crítico nesse caso fossem as eleições de maio de 2025, a Meta não deveria ter se baseado exclusivamente na capacidade de seus parceiros de verificação de fatos de identificar e classificar alegações de desinformação. Os verificadores de fatos consultados pelo Comitê, bem como os envios do público, destacaram de forma esmagadora as severas restrições de recursos que os verificadores de fatos enfrentam ao realizar seu trabalho (PC-31362, PressOne (Filipinas); (PC-31357, Foundation for Media Alternatives (Filipinas)). Outros verificadores de fatos explicaram que não conseguem avaliar todas as versões possíveis de vídeos semelhantes. Juntamente com o volume de conteúdo, os propagadores de desinformação fazem ajustes sutis no conteúdo para distinguir novos posts de conteúdo previamente verificado e, assim, evitar a tecnologia de correspondência da Meta para conteúdo idêntico e quase idêntico (PC-31357, Foundation for Media Alternatives (Filipinas); PC-31349, Rappler (Filipinas)). As partes interessadas enfatizaram que a proliferação contínua de posts enganosos sem rótulos nas plataformas da Meta tende a ofuscar as alegações factuais. (PC-31358, European Fact-Checking Standards Network). Um dos verificadores de fatos da Meta observou que esses posts fazem parte de uma campanha organizada mais ampla para disseminar desinformação online. (PC-31349, Rappler (Filipinas)). Dadas essas circunstâncias, a Meta deveria ter concluído que “não havia tempo suficiente para o ecossistema de informação ou para os verificadores de fatos abordarem o conteúdo em questão”, o que teria levado à priorização desse tipo de conteúdo para verificação de fatos.
Quando informações enganosas parecem fazer parte de uma campanha sistêmica mais ampla de desinformação para influenciar a opinião pública sobre uma questão política ou social específica em um contexto de tensões elevadas, torna-se ainda mais necessário combater os posts enganosos que se tornam virais, especialmente quando as estratégias de proliferação evoluem rapidamente para evitar a detecção e a análise. Em casos como esse, a Meta deve aplicar todas as suas políticas relevantes (incluindo verificação de fatos e rotulagem) e ferramentas relacionadas.
II. Medida de aplicação
Na decisão sobre o caso Vídeo adulterado do presidente Biden, o Comitê expressou sua preocupação com a prática da Meta de rebaixar conteúdo que verificadores de fatos independente classificam como “falso” ou “alterado”, sem informar os usuários ou fornecer mecanismos de apelação. O Comitê afirmou nessa decisão que a "[d]esvalorização do conteúdo tem impactos negativos significativos na liberdade de expressão". A Meta deve examinar essas políticas para garantir que elas definam claramente por que e quando o conteúdo é rebaixado e forneçam aos usuários acesso a uma solução eficaz (Artigo 2 do Pacto Internacional sobre Direitos Civis e Políticos). Ao mesmo tempo, o Comitê reconhece que pode haver casos em que o rebaixamento pode ser justificado como uma medida menos intrusiva do que a remoção de conteúdo (ver, por exemplo, casos Posts Sem apoio aos motins no Reino Unido, Alegações criminais com base em nacionalidade, Vídeo de maquiagem para casamento infantil no Irã).
No presente caso, a ação da Meta de exibir temporariamente o conteúdo do caso em uma posição inferior no feed para usuários fora dos EUA, incluindo aqueles nas Filipinas, alinhou-se com sua prática de rebaixar conteúdo que viola, ainda que superficialmente, as políticas da plataforma. Como o Comitê também considera o conteúdo praticamente idêntico a conteúdo previamente classificado como falso, ele também será rebaixado de acordo com a política da Meta de rebaixar conteúdo classificado como falso por verificadores de fatos independente. No entanto, o Comitê reitera também a sua profunda preocupação relativamente à falta de clareza nas políticas de rebaixamento, às oportunidades de apelação e ao potencial impacto na expressão política.
5.2 Conformidade com as responsabilidades da Meta relativas aos direitos humanos
O Comitê considera que manter o conteúdo na plataforma, com a etiqueta de "Mídia manipulada de alto risco", conforme exigem as próprias políticas da Meta, teria sido consistente com as responsabilidades da Meta em matéria de direitos humanos. O Comitê concorda que o encaminhamento do conteúdo para verificação de fatos por parte da Meta está alinhado com suas responsabilidades em matéria de direitos humanos e, neste caso, aprimorar as ferramentas disponíveis para verificadores de fatos independente, a fim de viabilizar suas análises, seria uma forma de cumprir essas responsabilidades.
Liberdade de expressão (Artigo 19 do PIDCP)
O artigo 19 do Pacto Internacional sobre Direitos Civis e Políticos (PIDCP) prevê ampla proteção da liberdade de expressão, incluindo o discurso político ( Comentário Geral n.º 34, parágrafos. 11 e 12). Ele fornece uma proteção “particularmente elevada” ao “debate público relativo a figuras públicas no domínio político e às instituições públicas” (Observação Geral n.º 34, parágrafo 38 20; veja também Comentário Geral n.º 25, parágrafo. 12 e 25). O Comitê dos Direitos Humanos da ONU enfatizou que a liberdade de expressão é essencial para a condução dos assuntos públicos e para o exercício efetivo do direito ao voto (Comentário Geral n.º 34, parágrafo 20, veja também o Comentário Geral n° 25, parágrafos 12 e 25).
A mera mentira não pode ser a única base para a remoção de um discurso conforme o direito internacional dos direitos humanos ( Relatório do Secretário-Geral da ONU sobre o combate à desinformação, A/77/287, parágrafo 13). Só pode ser restringido se passar pelo teste triplo de legalidade, legitimidade, necessidade e proporcionalidade. Em 2024, vários relatores especiais da ONU e grupos de trabalho da ONU fizeram uma declaração conjunta sobre o fortalecimento da democracia e dos direitos humanos durante as eleições em todo o mundo: “As empresas de redes sociais devem rever e tornar transparentes os seus processos de moderação de conteúdo e algoritmos para garantir que não contribuam para a censura da dissidência e a promoção da desinformação.” As empresas de tecnologia devem realizar a devida diligência, investir na verificação de fatos e na compreensão dos idiomas e contextos locais em suas políticas de moderação de conteúdo.”
Quando um Estado aplica restrições à expressão, elas devem atender aos requisitos de legalidade, objetivo legítimo e necessidade e proporcionalidade (Artigo 19, parágrafo 3 do PIDCP). Esses requisitos costumam ser chamados de “teste tripartite”. O Comitê usa essa estrutura para interpretar as responsabilidades de direitos humanos da Meta de acordo com os Princípios Orientadores da ONU sobre Empresas e Direitos Humanos, com os quais a própria Meta se comprometeu em sua Política Corporativa sobre Direitos Humanos. O Comitê faz isso em relação tanto à decisão de conteúdo individual sob análise quanto ao que isso diz sobre a abordagem mais ampla da empresa à governança de conteúdo. Como afirmou o Relator Especial da ONU sobre liberdade de expressão, embora “as empresas não tenham obrigações governamentais, o impacto delas exige que avaliem o mesmo tipo de questões sobre a proteção do direito de seus usuários à liberdade de expressão” (A/74/486, parágrafo 41).
I. Legalidade (clareza e acessibilidade das regras)
O princípio da legalidade exige que as regras que limitam a expressão sejam acessíveis e claras, formuladas com precisão suficiente para permitir que um indivíduo regule sua conduta de acordo com elas (Comentário Geral n.º 34, parágrafo 25). Além disso, essas regras “não podem conceder liberdade de ação irrestrita para a restrição da liberdade de expressão aos encarregados de [sua] execução” e devem “fornecer instrução suficiente aos encarregados de sua execução para permitir-lhes determinar quais tipos de expressão são adequadamente restritas e quais tipos não são” (ibid.). O Relator Especial da ONU sobre a liberdade de expressão declarou que, quando aplicadas à governação do discurso online por parte de intervenientes privados, as regras devem ser claras e específicas (A/HRC/38/35, parágrafo 46). As pessoas que usam as plataformas da Meta devem ser capazes de acessar e entender as regras, e os analistas de conteúdo devem ter orientações claras sobre sua aplicação.
Os Padrões da Comunidade sobre Desinformação da Meta e as políticas relacionadas são claras em relação ao conteúdo nesse caso, mas devem ser aprimoradas. A linguagem acessível ao público na Política sobre Desinformação informa claramente os usuários sobre as regras aplicáveis e as diferentes consequências da postagem de desinformação e mídia manipulada nas plataformas da Meta (ou seja, o conteúdo é removido, verificado ou recebe um rótulo de mídia manipulada). Entretanto, os tipos de conteúdo elegíveis para verificação de fatos, os critérios para nomeação de verificadores de fatos e as políticas de rebaixamento podem ser encontrados em diferentes páginas da Central de Transparência.
Na decisão do caos Ligação de áudio atribuído a uma suposta tentativa de manipular as eleições no Curdistão iraquiano, o Comitê afirmou que a Meta deveria considerar “integrar as informações sobre todos os diferentes rótulos de mídia manipulada em uma página na Central de Transparência para que os usuários possam facilmente aprender mais sobre eles”, e reitera esta orientação aqui.
Além disso, o Comitê está preocupado com o fato de a interpretação da Meta sobre suas regras de Mídia Manipulada para rotulagem de IA resultar em um escopo mais restrito do que o que a política pública implica. A meta deve descrever os diferentes tipos de rótulos de IA que aplica, os critérios para aplicá-los e suas consequências. Atualmente, a descrição mais detalhada dos três rótulos de IA que a Meta usa está na recente decisão do Comitê sobre o caso Ligação de áudio atribuído a uma suposta tentativa de manipular as eleições no Curdistão iraquiano. As regras públicas devem refletir a regra interna da Meta de que um evento crítico é necessário para aplicar um rótulo de Alto risco a um conteúdo, bem como o que se qualifica como um evento crítico.
II. Objetivo legítimo
Qualquer restrição à liberdade de expressão também deve perseguir um ou mais dos objetivos legítimos listados no PIDCP, o que inclui a proteção dos direitos independente (Artigo 19, parágrafo 3 do PIDCP). Em decisões anteriores, o Comitê considerou que a proteção do direito de participar em assuntos públicos (Artigo 25, PIDCP) é um objetivo legítimo da Política sobre Desinformação da Meta ( Ligação de áudio atribuído a uma suposta tentativa de manipular as eleições no Curdistão iraquiano, Vídeo adulterado do presidente Biden).
III. Necessidade e proporcionalidade
Nos termos do artigo 19(3) do PIDCP, a necessidade e a proporcionalidade exigem que as restrições à expressão “devem ser adequadas para cumprir sua função de proteção; devem ser o instrumento menos intrusivo entre aqueles que podem cumprir sua função de proteção; devem ser proporcionais ao interesse a ser protegido” (Comentário Geral n.º 34, parágrafo 34). Para isso, a empresa pode, em primeiro lugar, avaliar as ferramentas que possui para atingir o objetivo legítimo sem onerar a liberdade de expressão; em segundo lugar, se isso não for possível, identificar a ferramenta que menos interfere na liberdade de expressão; e, em terceiro lugar, avaliar se a medida que seleciona é eficaz (A/74/486, parágrafo 52).
Ao avaliar a necessidade e a proporcionalidade dessas medidas, bem como ao determinar quais outras medidas são necessárias, o Comitê considerou o seguinte: a) que o conteúdo foi postado durante um período de alta tensão política nas Filipinas, com diferentes narrativas circulando sobre as circunstâncias da prisão do ex-presidente Duterte; b) o alto uso de redes sociais no país; c) um histórico de desinformação e informações errôneas no país, particularmente no período que antecedeu e durante as eleições; d) a natureza geralmente polarizada do ambiente político e midiático; e) a contínua deslegitimação da mídia e dos jornalistas, bem como o declínio da confiança pública nas instituições de mídia; f) a probabilidade de que a mídia contida no post tenha sido alterada, conforme indicado por posts semelhantes classificados como Falsos por todos os três verificadores de fatos da Meta no país; e g) a probabilidade de que mídias alteradas digitalmente induzam o público ao erro e influenciem a opinião pública sobre uma questão que alimentou a polarização política no país.
O Comitê observa as ações da Meta em relação ao conteúdo do caso: enviar o conteúdo do caso para verificação de fatos, primeiro, logo após a postagem do conteúdo, e novamente quando o Comitê selecionou esse caso; e exibir temporariamente o conteúdo em uma posição mais baixa no feed do Facebook para usuários fora dos EUA, incluindo nas Filipinas, com base em sinais que previam que o conteúdo continha desinformação.
Embora a Meta tenha tomado algumas medidas para facilitar a análise do conteúdo pelos verificadores de fatos, ela deveria ter tomado medidas adicionais, de acordo com suas políticas. Por exemplo, a empresa deveria ter classificado o conteúdo do caso como urgente ao colocá-lo na fila para verificação de fatos e tratado a prisão como um Evento em alta envolvendo debate cívico. A Meta também deveria ter identificado e destacado proativamente conteúdos como esse, visto que os verificadores de fatos da Meta sinalizaram alegações de desinformação generalizadas sobre a prisão do ex-presidente Duterte, e conteúdos semelhantes foram classificados como Falso pelos verificadores de fatos da Meta.
Considerando a natureza da desinformação política em contextos como o das Filipinas, descrito acima, e sua rápida disseminação, a Meta deve explorar maneiras de melhor identificar e combater a desinformação por meio de todas as abordagens disponíveis. Conforme enfatizado na declaração conjunta dos relatores especiais da ONU, as empresas devem responder à desinformação com práticas de moderação de conteúdo que levem em consideração o contexto local.
A Meta deve aprimorar seus mecanismos para que os verificadores de fatos possam analisar conteúdo semelhante a conteúdo já verificado anteriormente. Na decisão sobre o caso Vídeo adulterado do presidente Biden, o Comitê observou que aplicar um rótulo a uma pequena parte do conteúdo "poderia criar a falsa impressão de que o conteúdo não rotulado é inerentemente confiável.” Atualmente, os verificadores de fatos podem identificar conteúdo para verificação de forma independente, permitindo, em teoria, que conteúdo semelhante a informações enganosas já rotuladas seja abordado. No entanto, as partes interessadas expressaram ao Comitê que o CrowdTangle, a ferramenta de transparência pertencente à Meta e descontinuada em 2024, era essencial para esse processo. Embora a Biblioteca de Conteúdo da Meta esteja disponível para verificadores de fatos, a utilidade real desta ferramenta para eles é incerta (Ver caso Posts incluindo a frase "From the River to the Sea" (Do rio ao mar)). As partes interessadas observaram que a capacidade dos jornalistas de acessar a ferramenta é inconsistente, enquanto algumas notaram que a ferramenta não é fácil de usar para o trabalho de verificação de fatos, citando a impossibilidade de pesquisar texto em vídeos, realizar busca reversa de imagens e pesquisar grupos públicos por localização. Com base nessas informações, a Meta deve continuar a interagir proativamente com verificadores de fatos independentes para garantir que a Biblioteca de Conteúdo da Meta seja adequada aos seus propósitos.
A Biblioteca de Conteúdo da Meta também deve ser complementada por outras medidas para combater as alegações de desinformação mais comuns. Para esse fim, o Comitê recomenda que a Meta desenvolva ferramentas em sua fila de verificação de fatos que permitam aos parceiros de verificação de fatos identificar rapidamente conteúdo viral que não tenha sido qualificado como idêntico ou quase idêntico, mas que provavelmente repita alegações classificadas como falsas ou enganosas. Isso revelará alegações de desinformação semelhantes às que foram verificadas, evitando o risco de overenforcement das regras ao ampliar a definição de conteúdo "idêntico" e "quase idêntico".
A Meta deve tomar medidas para melhorar sua resposta à desinformação, em parte para evitar transferir o ônus de combater desinformação para seus parceiros de verificação de fatos independente. Apesar da declaração da Meta de que está investindo em tecnologia para melhor detectar “distinções sutis no conteúdo” que podem compartilhar informações enganosas, o caso atual mostra a necessidade de melhorias adicionais. Por exemplo, no que diz respeito ao seu programa de verificação de fatos já existente, a Meta deve garantir que os parceiros recebam apoio e recursos para realizar o trabalho complexo que a Meta espera que eles forneçam. A Meta também deve abordar contas que espalham desinformação repetidamente, inclusive aplicando sua linha de política de comportamento inautêntico em relação à comportamento inautêntico coordenado.
O Comitê também está preocupado com a falha da Meta em aplicar a classificação de Alto risco ao conteúdo do caso, conforme permitido pelas políticas da empresa. O Comitê considera que isso provavelmente teria ajudado a impedir a propagação de informações falsas ou enganosas nas Filipinas durante aquele período crítico. Os usuários que visualizaram o post teriam sido alertados de que o conteúdo poderia ter sido alterado digitalmente, devido ao áudio de pessoas gritando repetidamente “Duterte!” e à música “Bayan Ko” ao fundo, combinados com as imagens de vídeo do protesto na Sérvia. Vale ressaltar que a consequência de um rótulo de Alto risco é exibir um aviso para os usuários que desejam compartilhar o post novamente, informando que o post que pretendem compartilhar pode ter sido alterado digitalmente. Embora o rótulo seja informativo, esse aviso cria um certo grau de fricção que pode ajudar a reduzir a disseminação de posts enganosos sobre eventos atuais, justamente quando esse tipo de conteúdo tende a atingir seu pico. Da mesma forma, na decisão do caso Ligação de áudio atribuído a uma suposta tentativa de manipular as eleições no Curdistão iraquiano, o Comitê questionou a aplicação seletiva da Meta de seu rótulo de Alto risco antes de uma eleição polarizada no Curdistão iraquiano, destacando ainda mais a confusão que a rotulagem desigual de conteúdo enganoso pode causar. O Comitê observa relatórios observando inconsistência na aplicação de rótulos de IA ao conteúdo, mesmo quando sinais padrão da indústria de geração de IA estão presentes. Com o aumento da popularidade do conteúdo gerado por IA nas redes sociais, é fundamental que a Meta aprimore a aplicação de suas políticas nessa área.
Nesse caso, o Comitê está seriamente preocupado com o fato de a Meta não ter aplicado a classificação de Alto Risco. A Meta deveria ter feito isso aqui, complementando seu programa de verificação de fatos com o uso de outras políticas à sua disposição.
6. A decisão do Comitê de Supervisão
O Comitê de Supervisão concorda com a decisão da Meta de manter o conteúdo.
7. Recomendações
Política de conteúdo
1. Para melhor informar os usuários sobre como a política de mídia manipulada dos Padrões da Comunidade sobre Desinformação é aplicada, a Meta deve explicar os diferentes rótulos informativos que utiliza para mídias manipuladas, incluindo que o rótulo de Alto risco é aplicado em relação a um evento crítico e o que é considerado um evento crítico.
O Comitê considerará essa recomendação implementada quando a Meta atualizar sua linguagem nos Padrões da Comunidade sobre Desinformação voltado ao público para refletir a mudança.
Aplicação
2. Para permitir que verificadores de fatos independente combatam com eficiência padrões de desinformação, a Meta deve criar uma fila separada dentro da interface de verificação de fatos que inclua conteúdo semelhante, mas não idêntico ou quase idêntico ao conteúdo já verificado em um determinado mercado.
O Comitê considerará essa recomendação implementada quando a Meta compartilhar com ele informações detalhadas sobre esse novo recurso de interface e como ele permite que os verificadores de fatos incorporem conteúdo novo e semelhante às verificações de fatos existentes.
*Nota processual:
- As decisões do Comitê de Supervisão são tomadas por painéis de cinco membros e aprovadas por maioria de votos do Comitê inteiro. As decisões dele não representam, necessariamente, as opiniões de todos os membros.
- De acordo com seu Estatuto, o Comitê de Supervisão pode analisar apelações de usuários cujo conteúdo foi removido pela Meta, apelações de usuários que denunciaram conteúdo que a Meta manteve ativo e decisões que a Meta encaminha a ele (Seção 1 do Artigo 2 do Estatuto). O Comitê tem autoridade vinculativa para manter ou anular as decisões de conteúdo da Meta (Seção 5 do Artigo 3 e Artigo 4 do Estatuto). Ele pode emitir recomendações não vinculativas às quais a Meta é obrigada a responder (Artigo 3; Seção 4; Artigo 4 do Estatuto). Quando a Meta se compromete a agir de acordo com as recomendações, o Comitê monitora sua implementação.
- Para a decisão sobre o caso em questão, uma pesquisa independente foi encomendada em nome do Comitê. O Comitê recebeu assistência da Duco Advisors, uma empresa de consultoria especializada na intercessão entre as áreas de geopolítica, confiança e segurança, e tecnologia.* A empresa Lionbridge Technologies, LLC, cujos especialistas são fluentes em mais de 350 idiomas e trabalham de 5 mil cidades pelo mundo, forneceu a consultoria linguística.*
Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas