Comitê de Supervisão anuncia dois casos: Vídeo adulterado do Presidente Biden e publicação de armas ligadas ao conflito no Sudão

Hoje, o Comitê está anunciando dois novos casos para análise. Por esse motivo, convidamos pessoas e organizações a enviar comentários públicos.

Seleção dos casos

Como não podemos analisar todas as apelações, o Comitê prioriza os casos que têm potencial de afetar vários usuários no mundo inteiro, apresentam grande importância para o debate público ou suscitam questões relevantes sobre as políticas da Meta.

Os casos que anunciamos hoje são os seguintes:

Vídeo adulterado do Presidente Biden

2023-029-FB-UA

Apelação de um usuário para remover conteúdo do Facebook

Envie comentários públicos, que podem ser feitos anonimamente, aqui.

Em 29 de outubro de 2022, nos Estados Unidos, o Presidente Joe Biden foi votar presencialmente nas eleições intermédias de 2022. Ele foi acompanhado pela sua neta, já adulta, que ia votar pela primeira vez. Após votarem, eles trocaram adesivos que diziam “I Voted” (Eu votei). O Presidente Biden colocou um adesivo no peito da neta, como solicitado por ela, e deu-lhe um beijo no rosto. Este momento foi registrado em vídeo.

Em maio de 2023, um usuário do Facebook publicou uma versão adulterada de sete segundos do clipe. A filmagem foi adulterada para ficar em loop, repetindo o momento em que a mão do Presidente Biden toca o peito da neta. O vídeo adulterado reproduz um pequeno trecho da música “Simon Says” de Pharoahe Monch, cuja letra diz “Girls rub on your titties” (Esfreguem seus seios). A legenda que acompanha o vídeo afirma que o Presidente Biden é “a sick pedophile” (um pedófilo doentio) por tocar no seio da neta daquela maneira. Também questiona as pessoas que votaram nele, dizendo que elas são “mentally unwell.” (mentalmente desequilibradas).

Um usuário denunciou o conteúdo à Meta, mas a empresa não removeu a publicação. O usuário denunciante fez uma apelação, mas um moderador humano manteve a decisão de não remover o conteúdo. No início de setembro de 2023, a publicação teve menos de 30 visualizações e não foi compartilhada. Em seguida, o mesmo usuário recorreu ao Comitê de Supervisão, afirmando que o vídeo foi manipulado.

Após o Comitê ter selecionado este caso, a Meta confirmou que sua decisão de deixar o conteúdo na plataforma estava correta. De acordo com a avaliação da Meta, o Padrão da Comunidade em relação a Mídia manipulada não garantiu a remoção do conteúdo, pois o padrão só se aplica a vídeos gerados por inteligência artificial ou àqueles em que uma pessoa é mostrada dizendo palavras que não disse. A Meta decidiu que os Padrões da Comunidade sobre Desinformação ou Bullying e assédio também não se aplicavam neste caso. Além disso, o conteúdo não foi analisado por verificadores de fatos independentes como parte do programa de verificação de fatos da Meta, embora a empresa tenha reconhecido que a cobertura de notícias disponível indica que o vídeo foi adulterado.

O Comitê selecionou este caso para avaliar se as políticas da Meta abrangem adequadamente vídeos adulterados que poderiam induzir as pessoas a acreditar que políticos adotaram medidas, fora do discurso, que eles não adotaram. Este caso se enquadra nas eleições e no espaço cívico do Comitê e na aplicação automatizada de políticas e na seleção de prioridadesde conteúdo.

O Comitê gostaria de receber comentários públicos que abordassem o seguinte:

  • Pesquisa sobre tendências online de uso de conteúdo de vídeo adulterado ou manipulado para influenciar a percepção de figuras políticas, especialmente nos Estados Unidos.
  • A adequação das políticas de desinformação da Meta, incluindo sobre meios de comunicação manipulados, para tratar de desafios presentes e futuros nesta área, especialmente no contexto das eleições.
  • As responsabilidades da Meta em relação aos direitos humanos quando se trata de conteúdo de vídeo que foi adulterado para criar uma impressão enganosa de uma figura pública, e como elas devem ser entendidas tendo em mente os desenvolvimentos na inteligência artificial generativa.
  • Desafios e melhores práticas na autenticação do conteúdo de vídeo em grande escala, inclusive por meio de automação.
  • Pesquisa sobre a eficácia de respostas alternativas à desinformação política ou à desinformação, além da remoção de conteúdo, como programas de verificação de fatos ou rotulagem (também conhecidos como “tratamentos informativos”). Além disso, pesquisa sobre como evitar vieses nessas respostas.

Como parte de suas decisões, o Comitê pode emitir recomendações de política à Meta. Embora elas não sejam vinculantes, a empresa deve enviar uma resposta dentro de 60 dias. Dessa forma, o Comitê aceita comentários públicos com recomendações relevantes para o caso em questão.

Publicação exibindo armas ligada ao conflito no Sudão

2023-028-FB-UA

Apelação de um usuário para restaurar conteúdo do Facebook

Envie comentários públicos, que podem ser feitos anonimamente, aqui.

Para ler este comunicado em árabe, clique aqui.

لقراءة هذا الإعلان باللغة العربية، انقر هنا

Em junho de 2023, um usuário do Facebook publicou uma ilustração de uma bala, com notas em árabe identificando seus diferentes componentes. A legenda da publicação, também em árabe, oferece instruções sobre como esvaziar o cartucho de uma arma e usar os componentes para criar um dispositivo do tipo coquetel molotov, que é um dispositivo incendiário simples feito com uma garrafa, que pode ser facilmente fabricado. Há uma nota adicional sobre como lançar o dispositivo com segurança. A legenda também diz “victory for the Sudanese people” (vitória para o povo sudanês) e para as “armed people forces” (forças populares armadas). O conteúdo teve apenas algumas visualizações antes de ser removido pela Meta.

O conteúdo refere-se à terra natal do usuário, o Sudão. Em Abril de 2023, sugiram confrontos na capital do país entre as Forças Armadas Sudanesas e o grupo paramilitar, as Forças de Suporte Rápidas (RSF). Desde então, outros grupos se juntaram ao conflito armado que deixou milhares de mortos e forçou a fuga de mais de quatro milhões de pessoas.

No dia que o conteúdo foi publicado, um “classificador de discurso hostil” que aplica três dos Padrões da Comunidade do Facebook, Discurso de ódio, Violência e incitação e Bullying e assédio, determinou que um dos padrões foi violado. A publicação foi removida pela Meta por violar o Padrão da Comunidade de Violência e incitação do Facebook. Após a remoção, a Meta aplicou uma advertência padrão e um limitação aos recursos por três dias ao perfil do criador do conteúdo. Isso o impediu de interagir com grupos e de criar ou ingressar em Salas do Messenger. O usuário recorreu imediatamente da decisão da Meta. Isso fez com que um moderador humano avaliasse a publicação. A Meta confirmou que foi correto remover inicialmente o conteúdo, mas, desta vez, por violação da política de Produtos e serviços restritos. O usuário, então, fez uma apelação ao Comitê.

Depois que o Comitê trouxe o caso à atenção da Meta, a empresa determinou que a decisão original de remover o conteúdo de acordo com o Padrão da Comunidade de Violência e incitação estava correta. De acordo com a política, a Meta remove conteúdo que inclua instruções sobre “como fazer ou usar explosivos” ou “como fabricar ou usar armas, se houver provas de que o objetivo seja ferir gravemente ou matar pessoas:”.

O Comitê selecionou esse caso para avaliar as políticas da Meta sobre conteúdo relacionado a armas e as práticas de aplicação da empresa no contexto de conflitos. Esse caso se encaixa em uma das sete prioridades estratégicas do Comitê, especialmente em “Situações de crise e de conflito”.

O Comitê gostaria de receber comentários públicos que abordassem o seguinte:

  • Informações sobre o contexto sociopolítico do Sudão e entre as comunidades da diáspora sudanesa, o conflito em curso no país e o potencial de danos no meio físico causados por conteúdo semelhante ao deste caso.
  • Como o direito internacional humanitário (também conhecido como direito dos conflitos armados) deve informar as responsabilidades da Meta em relação à moderação de conteúdo relacionado a armas no contexto de conflitos armados.
  • A aplicação da Meta das políticas de conteúdo para expressões em árabe relacionadas à situação no Sudão, assim como o uso de automações pela empresa para aplicar as regras dela.
  • O impacto da moderação de conteúdo nas capacidades dos usuários de interação em discussões online sobre conflitos armados no Sudão e em outros lugares e as responsabilidades da Meta em relação aos direitos humanos nesse contexto.

Como parte de suas decisões, o Comitê pode emitir recomendações de política à Meta. Embora elas não sejam vinculantes, a empresa deve enviar uma resposta dentro de 60 dias. Dessa forma, o Comitê aceita comentários públicos com recomendações relevantes para o caso em questão.

Comentários públicos

Se você ou sua organização acham que podem contribuir com perspectivas valiosas para ajudar a chegar a uma decisão nos casos anunciados hoje, use os links acima para enviar suas contribuições. Tenha em mente que os comentários públicos podem ser enviados anonimamente. O período para deixar comentários públicos ficará aberto durante 14 dias e será fechado às 23h59, horário local, na terça-feira, 24 de outubro.

Próximos passos

Durante as próximas semanas, os membros do Comitê vão deliberar sobre esses casos. Quando eles chegarem às decisões finais, nós as publicaremos no site do Comitê de Supervisão. Para receber atualizações quando o Comitê anunciar novos casos ou publicar decisões, cadastre-se aqui.

Voltar às Notícias