OVERTURNED

Ligação de áudio atribuído a uma suposta tentativa de manipular as eleições no Curdistão iraquiano

O Comitê de Supervisão revogou a decisão da Meta de não rotular um clipe de áudio provavelmente adulterado de dois políticos curdos iraquianos discutindo a manipulação das eleições parlamentares, a menos de duas semanas da abertura das urnas em um pleito altamente disputado.

Tipo de decisão

Padrão

Políticas e tópicos

विषय
Desinformação, Eleições, Mídia manipulada
Padrão da comunidade
Fraude e enganação

Regiões/países

Localização
Iraque

Plataforma

Plataforma
Facebook

بۆ خوێندنەوەی ئەم بەیانە بە شێوەزاری کوردی سۆرانی، تکایە لێرە کرتە بکە

Para ler este comunicado em curdo sorani, clique aqui.

Resumo

O Comitê de Supervisão revogou a decisão da Meta de não rotular um clipe de áudio provavelmente adulterado de dois políticos curdos iraquianos discutindo a manipulação das eleições parlamentares, a menos de duas semanas da abertura das urnas, em uma eleição altamente contestada e polarizada. O Comitê exige que a Meta rotule o conteúdo.

Ele está preocupado porque, apesar da crescente presença de conteúdos alterados em diversos formatos, a aplicação da política de mídia manipulada pela Meta é inconsistente. A empresa deve priorizar o investimento em tecnologia para identificar e rotular áudios e vídeos manipulados em grande escala, garantindo que os usuários sejam devidamente informados.

Como nesse caso, a Meta agiu de forma inconsistente e sem justificativa ao não rotular automaticamente todas as versões dessa mesma mídia manipulada.

Além disso, ela deve disponibilizar os rótulos para conteúdos manipulados no idioma local já oferecido nas suas plataformas. No mínimo, essa medida deve integrar as iniciativas da Meta voltadas à integridade eleitoral.

Sobre o caso

Menos de duas semanas antes das eleições parlamentares do Curdistão iraquiano, em outubro de 2024, um veículo de comunicação popular ligado a um dos principais partidos políticos da região, o Partido Democrático do Curdistão (KDP), compartilhou um clipe de áudio de dois minutos na sua página no Facebook. A legenda do post em curdo sorani alega que o áudio é uma "recorded conversation" (conversa gravada) entre os irmãos Bafel e Qubad Talabani, membros do outro principal partido político da região, a União Patriótica do Curdistão (PUK), sobre seus "sinister plans" (planos sinistros) para fraudar as eleições de outubro de 2024. No áudio, dois homens conversam com uma sobreposição de voz em inglês (acompanhada de legendas em curdo sorani e inglês). Um dos homens afirma que "minimum of 30 seats" (um mínimo de 30 cadeiras) foram garantidas ao PUK, mas que eles devem "get rid" (se livrar) das "11 seats" (11 cadeiras) que o KDP supostamente "has always been using to their advantage" (sempre usou a seu favor). O outro homem concorda, enfatizando a necessidade de fazer parecer que essas cadeiras foram conquistadas legitimamente, já que as pessoas estão cientes, mas não conseguem provar, que o PUK é apoiado por Bagdá e por seu "vizinho". A página do veículo de comunicação no Facebook tem cerca de quatro milhões de seguidores. O post teve cerca de 200 mil visualizações.

Dois usuários denunciaram o conteúdo por desinformação, mas a Meta encerrou as denúncias sem analisá-las. Depois que um desses usuários fez uma apelação à Meta, a empresa manteve sua decisão com base em uma pontuação de classificador. O usuário então fez uma apelação ao Comitê de Supervisão.

A Meta identificou outros posts contendo o clipe de áudio nas páginas do Facebook e Instagram do mesmo veículo de comunicação e na página do Facebook do KDP. Após consultar uma agência de notícias com sede fora do Curdistão iraquiano e um parceiro confiável para analisar a possibilidade de o áudio ter sido criado digitalmente, a Meta rotulou alguns dos posts, mas não o conteúdo neste caso. O rótulo aplicado a outros posts com o mesmo áudio afirma: "Esse conteúdo pode ter sido criado ou alterado digitalmente para parecer real."

Principais descobertas

Sobre a identificação de conteúdo criado por IA ou manipulado nas suas plataformas, a Meta informou ao Comitê que só consegue detectar e rotular automaticamente imagens estáticas, não vídeos ou áudios. Considerando a expertise e os recursos da empresa, bem como o amplo uso das plataformas da Meta, é essencial que ela priorize o investimento em tecnologia para identificar e rotular vídeos e áudios manipulados em grande escala.

A Meta age de forma contraditória e sem justificativa ao não usar as ferramentas disponíveis para identificar automaticamente e marcar todas as versões do mesmo conteúdo manipulado com o rótulo "Informação de IA". No caso Vídeo adulterado do Presidente Biden, a Meta assumiu o compromisso de implementar a recomendação do Comitê de que, para mídias manipuladas que não violam outros Padrões da Comunidade, a empresa deve aplicar um rótulo a "todas as instâncias idênticas dessa mídia na plataforma". A alegação da Meta, neste caso, de que não aplica automaticamente o rótulo "Alto risco" a conteúdos com áudio, contraria essa recomendação. Os rótulos "Informações de IA" e "Alto risco" são marcadores que a Meta usa para indicar mídias manipuladas.

O Comitê observa que há indicadores confiáveis, incluindo sinais técnicos, de que o clipe foi criado digitalmente. Ele atende aos requisitos de mídia manipulada de acordo com a política de desinformação da Meta. Aplicar um rótulo "Alto risco" ao conteúdo está em conformidade com as políticas da Meta e as responsabilidades da empresa com os direitos humanos. O áudio foi postado durante um período eleitoral bastante contestado em uma região com histórico de eleições irregulares. Isso aumenta a capacidade do áudio de influenciar as escolhas eleitorais e prejudicar a integridade eleitoral. Adicionar um rótulo informativo ao conteúdo, em vez de removê-lo completamente, atende aos critérios de necessidade e proporcionalidade.

O Comitê está preocupado com o fato de que os rótulos de mídia manipulada da Meta não estejam disponíveis em curdo sorani, embora ele esteja entre os idiomas disponíveis no app para os usuários do Facebook. Para garantir que os usuários sejam informados quando um conteúdo for criado ou alterado digitalmente, disponibilizar o rótulo no idioma local, já presente nas plataformas da Meta, deve fazer parte de seus esforços de integridade eleitoral como mínimo.

O Comitê também manifesta preocupação com a dependência da empresa de terceiros para a avaliação técnica de conteúdos provavelmente manipulados. A Meta deveria reconsiderar a possibilidade de contar com essa expertise internamente.

O Comitê observa que a questão neste caso diz respeito a saber se o áudio é autêntico ou falso, e não se o conteúdo dito no áudio é verdadeiro. Considerando que rotular o áudio como provavelmente criado ou alterado digitalmente também alertaria os usuários sobre a precisão de seu conteúdo, o Comitê entende que a aplicação da política de desinformação sobre mídia manipulada é suficiente. No entanto, o Comitê está preocupado com o fato de a Meta não ter verificadores de fatos em curdo disponíveis para analisar o conteúdo durante as eleições, como parte das medidas de integridade eleitoral da empresa.

A decisão do Comitê de Supervisão

O Comitê de Supervisão revoga a decisão da Meta de não rotular o conteúdo, exigindo que o post seja rotulado.

Ele também recomenda que a Meta faça o seguinte:

  • Aplique o rótulo relevante a todo conteúdo com a mesma mídia manipulada, incluindo todos os posts contendo o áudio manipulado neste caso.
  • Garanta que os rótulos informativos para mídias manipuladas no Facebook, no Instagram e no Threads sejam exibidos no mesmo idioma que o usuário selecionou para a plataforma.

*Os resumos de casos fornecem uma visão geral dos casos e não têm valor de precedente.

Decisão completa sobre o caso

1. Descrição do caso e histórico

Menos de duas semanas antes das eleições parlamentares do Curdistão iraquiano, em outubro de 2024, um veículo de comunicação popular ligado ao Partido Democrático do Curdistão (KDP), compartilhou um clipe de áudio de dois minutos na sua página no Facebook. A legenda do post em curdo sorani alega que o áudio é uma "recorded conversation" (conversa gravada) entre os irmãos Bafel e Qubad Talabani, membros do partido político União Patriótica do Curdistão (PUK), sobre seus "sinister plans" (planos sinistros) para fraudar as eleições de outubro de 2024. No áudio, dois homens conversam com uma sobreposição de voz em inglês (acompanhada de legendas em curdo sorani e inglês). Um deles tranquiliza o outro, afirmando que "minimum of 30 seats" (um mínimo de 30 cadeiras) foram garantidas a eles, mas que eles devem "get rid" (se livrar) das "11 seats" (11 cadeiras) que o KDP supostamente "has always been using to their advantage" (sempre usou a seu favor). Isso daria ao KDP "a taste of their own medicine" (um gosto do próprio veneno), segundo o interlocutor. O outro interlocutor concorda, enfatizando a necessidade de fazer parecer que essas cadeiras foram conquistadas legitimamente, já que as pessoas estão cientes, mas não conseguem provar, que são apoiados por Bagdá e por seu "neighbor" (vizinho). A página do veículo de comunicação no Facebook tem cerca de quatro milhões de seguidores. O post teve cerca de 200 mil visualizações e foi compartilhado menos de 100 vezes.

Um usuário denunciou o post no mesmo dia em que foi publicado, de acordo com os Padrões da Comunidade sobre Desinformação da Meta. No entanto, a denúncia não foi priorizada para análise humana e a Meta a encerrou automaticamente, mantendo o post no Facebook sem outras ações. O sistema de Operações de Análise Antecipada de Alto Risco (HERO, pela sigla em inglês) da Meta também identificou o conteúdo neste caso para análise adicional com base em indicações de alta probabilidade de que ele se tornasse viral. A denúncia foi posteriormente encerrada sem análise humana porque, segundo a Meta, o "efeito viral não era alto o suficiente para que avançasse para a etapa de análise". Pouco depois, outro usuário denunciou o conteúdo por desinformação, mas a Meta também encerrou essa denúncia. O segundo usuário fez uma apelação à Meta e a empresa manteve sua decisão com base em uma pontuação de classificador. O usuário fez então uma apelação junto ao Comitê de Supervisão contra a decisão da Meta. Um dia depois, a Meta identificou outros posts que continham o clipe de áudio, compartilhados nas páginas do Facebook e Instagram do mesmo veículo de comunicação que fez o post nesse caso, além da página do Facebook do KDP. A equipe de Política de Conteúdo da Meta então enviou esses posts a uma agência de notícias para avaliação da probabilidade de o conteúdo ter sido gerado por IA, conforme uma parceria de 2024. Um parceiro confiável também forneceu informações sobre sinais técnicos e contextuais para ajudar a determinar se o conteúdo foi gerado por IA. Após essas consultas, a Meta decidiu rotular alguns posts que continham o clipe de áudio, mas não o conteúdo desse caso. O rótulo aplicado a outros posts com o mesmo áudio afirma: "Esse conteúdo pode ter sido criado ou alterado digitalmente para parecer real." O Programa de Parceiros Confiáveis é uma rede de ONGs, agências humanitárias e pesquisadores de direitos humanos de 113 países que denunciam conteúdo e fornecem feedback à Meta sobre suas políticas de conteúdo e sua aplicação.

O Comitê observa o seguinte contexto ao tomar uma decisão.

O KDP e o PUK são os principais partidos políticos no Curdistão iraquiano. Cada um tem suas próprias forças de segurança. Uma rivalidade de longa data existia entre os partidos, culminando em uma guerra civil de 1994 a 1998. Eventualmente, os partidos chegaram a um frágil acordo de divisão de poder que mitigou temporariamente a rivalidade entre eles. No entanto, nos últimos anos, as tensões ressurgiram e se intensificaram, levando a anos de atrasos nas eleições que foram finalmente realizadas em outubro de 2024.

A maioria dos veículos de mídia no Curdistão iraquiano é "diretamente afiliada" a partidos políticos, com partidos ou líderes partidários fornecendo financiamento. Isso leva a uma cobertura jornalística tendenciosa. Especialistas consultados pelo Comitê, bem como relatórios públicos, afirmam que o veículo de mídia que postou o conteúdo em questão é afiliado, recebe financiamento desse partido e não possui independência editorial.

O Facebook é a terceira plataforma mais usada no Iraque. O uso de campanhas de desinformação coordenadas é comum durante os processos políticos curdos, como as eleições parlamentares de 2018. "Shadow media", uma rede de páginas de redes sociais afiliadas a partidos políticos e figuras políticas influentes, supostamente tentou influenciar a opinião pública antes das eleições de outubro de 2024 em favor de seus patronos, que incluem figuras importantes dos dois partidos.

No dia 20 de outubro de 2024, o KDP conquistou o maior número de cadeiras parlamentares na eleição. O PUK ficou em segundo lugar. Masrour Barzani, do KDP, é o atual primeiro-ministro. Qubad Talabani, do PUK, supostamente um dos interlocutores no áudio, é o atual vice-primeiro-ministro.

2.Envios de usuários

O usuário que denunciou o conteúdo ao Comitê de Supervisão afirmou que o áudio foi gerado por IA, compartilhado durante uma campanha eleitoral "sensível" e estava sendo usado para "danificar a reputação de um partido".

O veículo de comunicação que postou o conteúdo também enviou uma declaração ao Comitê, explicando que compartilhou o áudio como parte de sua cobertura jornalística, "sem oferecer quaisquer opiniões ou comentários sobre o conteúdo em si", mas "apenas como uma notícia local". Afirmou que sua meta é publicar notícias "precisas". O veículo de comunicação afirmou que um partido político divulgou o áudio e que "muitos partidos políticos compartilham regularmente esse tipo de vídeo".

3. Políticas de conteúdo e envios da Meta

I. Políticas de conteúdo da Meta

Padrões da Comunidade sobre Desinformação

Os Padrões da Comunidade sobre Desinformação da Meta regem a moderação de mídias manipuladas em suas plataformas. Para conteúdos que não violam a parte de "não postar" dos Padrões da Comunidade, a política se concentra em "reduzir sua prevalência" ou em "criar um ambiente que promova um diálogo produtivo". Para este fim, a Meta pode colocar um rótulo informativo na frente ou rejeitar o conteúdo enviado como publicidade quando: ele for uma imagem ou um vídeo fotorrealista ou um áudio com som realista, que tenha sido criado ou alterado digitalmente e que gere um risco "particularmente elevado de enganar, de forma material, o público sobre uma questão de importância pública".

II. Envios da Meta

A Meta possui três rótulos informativos diferentes para mídias manipuladas: (i) o rótulo "Informações de IA", (ii) o rótulo "Alto risco" e (iii) o rótulo "IA de alto risco".

O rótulo "Informações de IA" é aplicado automaticamente a conteúdos que a Meta detecta usando "indicadores de imagem de IA padrão do setor ou quando as pessoas declaram que estão carregando conteúdo gerado por IA". A Meta informou anteriormente ao Comitê que, para detectar indicadores de imagem padrão do setor, a empresa depende de "metadados que as ferramentas de criação de IA generativa incorporam no conteúdo". No entanto, atualmente, a detecção automática e a aplicação do rótulo "Informações de IA" não abrangem vídeos ou áudios. Nesses casos, a Meta depende que os usuários declarem que estão carregando conteúdo gerado por IA.

O rótulo "Alto risco" é aplicado a conteúdo criado ou alterado digitalmente, enquanto o rótulo "IA de alto risco" é aplicado a conteúdo gerado por IA, de acordo com as diretrizes internas de aplicação. Ambos os rótulos se aplicam a conteúdo de imagem, áudio e vídeo que atenda a todas as seguintes condições: (i) crie um risco particularmente alto de enganar materialmente o público em uma questão de importância pública; (ii) haja indicadores confiáveis de que o conteúdo foi criado ou alterado digitalmente; (iii) o rótulo "IA de alto risco" exige adicionalmente que o conteúdo tenha indicadores confiáveis de ter sido criado ou alterado com IA. O rótulo atribuído a um post muda de acordo com o tipo: "Alto risco" ou "IA de alto risco". O rótulo de "Alto risco" afirma: "Esse conteúdo pode ter sido criado ou alterado digitalmente para parecer real", enquanto o rótulo de "IA de alto risco" afirma: "Esse conteúdo foi criado ou alterado digitalmente usando IA para parecer real" (ênfase adicionada). Os dois rótulos "Alto risco" vêm acompanhados de um link "Saiba mais", que direciona o usuário para este artigo. Segundo a Meta, ao usar dois rótulos diferentes, a empresa consegue fornecer informações mais precisas aos usuários sobre a probabilidade de o conteúdo ter sido manipulado e sobre o método utilizado para alterar ou criar a mídia. Quando há menos certeza de que o conteúdo foi criado digitalmente, a empresa aplica o rótulo "Alto risco" para sinalizar aos usuários que ele pode ter sido criado ou modificado por meios digitais. O rótulo anexado a um post normalmente é exibido no idioma configurado pelo usuário na plataforma, mas a Meta informou que não traduz o rótulo para o curdo (mesmo que os usuários possam definir como idioma padrão duas variantes diferentes do curdo, incluindo o curdo sorani).

A Meta afirmou que a aplicação de um rótulo informativo, seja o rótulo "Informações de IA" ou qualquer um dos rótulos "Alto risco", não causa o rebaixamento do conteúdo nem sua remoção das recomendações. A Meta pode exibir uma notificação pop-up aos usuários que clicarem para recompartilhar um conteúdo com o rótulo "Alto risco". Quando tentam recompartilhar uma imagem ou vídeo com o rótulo "Alto risco" no Facebook, Instagram ou Threads, os usuários recebem um aviso alertando que o conteúdo pode ter sido criado ou alterado digitalmente. No entanto, esse alerta não está disponível quando posts são compartilhados como stories do Instagram ou reels do Facebook, como no caso em questão.

Depois que as equipes internas da Meta identificaram três posts com o mesmo clipe de áudio, eles foram enviados a uma agência de notícias para verificar se o conteúdo havia sido gerado digitalmente. Além disso, a Meta consultou um parceiro confiável para avaliar a autenticidade do áudio. A Meta também levou em conta aspectos específicos do Curdistão Iraquiano, como o curto intervalo entre a divulgação do áudio e a data das eleições, a ausência de verificadores de fatos que atuem na língua curda na região, comentários sugerindo que alguns usuários não perceberam que o áudio poderia ter sido manipulado, além de sinais internos indicando que outras versões do conteúdo tinham potencial de viralização. Com base nessas considerações, a Meta aplicou um rótulo "Alto risco" nos posts com o mesmo áudio que a empresa havia detectado e avaliado, mas não no conteúdo deste caso. A empresa explicou que não aplicou o rótulo a todos os posts que continham o áudio para evitar rotular incorretamente conteúdo que não atendia aos critérios para o rótulo, como posts que desmentiam ou condenavam o áudio. Para a Meta, rotular todas as instâncias do áudio poderia confundir os usuários.

Como parte dos esforços de integridade nas eleições de outubro de 2024, a Meta informou ao Comitê que realizou buscas diárias direcionadas a discursos de ódio e violações de interferência eleitoral, monitoramento de anúncios políticos e de falsificação de identidade, bem como assédio de candidatos políticos. A Meta também destacou que organizou uma equipe multifuncional com experiência linguística e contextual para avaliar os riscos na plataforma e implementar medidas de mitigação apropriadas antes e durante as eleições de 20 de outubro de 2024. Foi assim que os três posts virais que continham o áudio, separados do conteúdo deste caso, foram identificados. Um classificador interno detectou que esses três posts tinham potencial para viralizar, com mais de 1,5 milhão de visualizações combinadas.

O Comitê fez perguntas sobre os seguintes tópicos: os rótulos que a Meta aplica para mídias manipuladas; o processo de identificação dessas mídias e quando a Meta aplica automaticamente um rótulo a conteúdo similar ou idêntico; se o conteúdo passou por verificação de fato; e os esforços de integridade eleitoral da Meta no Curdistão iraquiano. A Meta respondeu a todas as perguntas.

4. Comentários públicos

O Comitê de Supervisão recebeu dois comentários públicos que atenderam aos termos para envio. Um comentário foi enviado do Oriente Médio e Norte da África, e o outro da Ásia Central e do Sul. Para ler comentários públicos enviados com consentimento de publicação, clique aqui.

Os envios abordaram os seguintes temas: a autenticidade do clipe de áudio; a prevalência de propaganda durante as eleições no Curdistão iraquiano; e a liberdade de imprensa na região.

5. Análise do Comitê de Supervisão

O Comitê selecionou este caso para abordar como a Meta garante a liberdade de expressão enquanto lida com mídias manipuladas compartilhadas no contexto de uma eleição. Esse caso se enquadra na prioridade estratégica do Comitê: Eleições e Espaço Cívico.

O Comitê analisou a decisão da Meta nesse caso em relação às políticas de conteúdo, aos valores e às responsabilidades de direitos humanos da Meta. Ele também avaliou as implicações desse caso quanto à abordagem mais ampla da Meta em relação à governança de conteúdo.

5.1 Conformidade com as políticas de conteúdo da Meta

Regras sobre conteúdo

Padrões da Comunidade sobre Desinformação

O Comitê considera que o conteúdo do caso atende aos requisitos de mídia manipulada de acordo com a Política de Desinformação da Meta. Portanto, um rótulo "Alto Risco" deveria ter sido aplicado a ele.

O post diz respeito a um assunto de importância pública na região, ou seja, as eleições no Curdistão iraquiano. O conteúdo cria um alto risco de enganar o público, os domésticos e os internacionais. A sobreposição de voz em inglês pode ter sido direcionada ao corpo diplomático na região ou a observadores internacionais, e as legendas em curdo sorani tornaram o conteúdo acessível ao eleitorado. O conteúdo teve cerca de 200 mil visualizações e foi compartilhado pouco antes da eleição. Há indicadores confiáveis de que o conteúdo foi criado ou alterado digitalmente. As fontes utilizadas pela Meta confirmaram isso ao avaliar a autenticidade do áudio. Essas fontes incluíram um parceiro confiável e uma agência de notícias de fora do Curdistão iraquiano, nos quais a Meta se baseou para avaliar conteúdo que poderia ter sido criado ou alterado digitalmente. Essas fontes destacaram a natureza artificial da conversa e a ausência de ritmos de diálogo. Elas também notaram sinais técnicos que indicavam que o áudio havia sido criado digitalmente. Esses sinais incluíam ruídos de fundo desconexos, além das avaliações feitas por ferramentas de detecção de IA. As equipes internas da Meta autorizaram a aplicação do rótulo "Alto risco" ao áudio em questão em outros posts que o continham, mas não no conteúdo analisado neste caso. Portanto, o rótulo "Alto risco", que indica que o conteúdo pode ter sido criado ou alterado digitalmente, deveria ter sido aplicado ao conteúdo analisado no caso. O Comitê não achou convincente a justificativa da Meta para não ter aplicado o rótulo em todos os conteúdos que incluem o mesmo áudio. A análise dos argumentos da Meta e as conclusões do Comitê sobre a aplicação do rótulo a todo conteúdo com a mesma mídia manipulada estão incluídas na seção de análise de direitos humanos abaixo.

5.2 Conformidade com as responsabilidades da Meta relativas aos direitos humanos

O Comitê conclui que a aplicação do rótulo "Alto risco" ao conteúdo é exigida por uma interpretação adequada das políticas da Meta. De acordo com a análise do Artigo 19 do Pacto Internacional sobre Direitos Civis e Políticos (PIDCP) abaixo, aplicar o rótulo ao conteúdo deste caso, assim como a todas as instâncias do clipe de áudio, também está alinhado com as responsabilidades da Meta em relação aos direitos humanos.

Liberdade de expressão (Artigo 19 do PIDCP)

O artigo 19 do ICCPR prevê ampla proteção à expressão, inclusive à expressão política (Comentário Geral nº 34, parágrafos 11 e 12). O Comitê de Direitos Humanos das Nações Unidas (ONU) declarou que o valor da expressão é especialmente elevado ao se discutir questões políticas (Comentário Geral nº 34, parágrafos 11 e 13). Quando um Estado aplica restrições à expressão, elas devem atender aos requisitos de legalidade, objetivo legítimo e necessidade e proporcionalidade, segundo o parágrafo 3 do Artigo 19 do PIDCP. Esses requisitos costumam ser chamados de "teste tripartite". O Comitê usa essa estrutura para interpretar as responsabilidades de direitos humanos da Meta de acordo com os Princípios Orientadores da ONU sobre Empresas e Direitos Humanos, com os quais a própria Meta se comprometeu em sua Política Corporativa sobre Direitos Humanos. O Comitê faz isso em relação tanto à decisão de conteúdo individual sob análise quanto ao que isso diz sobre a abordagem mais ampla da empresa à governança de conteúdo. Como afirmou o Relator Especial da ONU sobre liberdade de expressão, embora "as empresas não tenham obrigações governamentais, o impacto delas exige que avaliem o mesmo tipo de questões sobre a proteção do direito de seus usuários à liberdade de expressão" (A/74/486, parágrafo 41).

O Comitê dos Direitos Humanos da ONU enfatizou que a liberdade de expressão é essencial para a condução dos assuntos públicos e para o exercício efetivo do direito ao voto (Comentário Geral n.º 34, parágrafo 20, veja também o Comentário Geral n° 25, parágrafos 12 e 25). Ao mesmo tempo, vários Relatores Especiais e Grupos de Trabalho da ONU fizeram uma declaração conjunta em 2024 afirmando que: "Embora a liberdade de expressão política receba forte proteção no âmbito do direito internacional, às vezes políticos abusam dessa liberdade, usando-a como licença para promover discursos tóxicos e espalhar desinformação, inclusive em relação aos resultados eleitorais e à integridade das eleições. As campanhas difamatórias coordenadas e o uso de deepfakes nas redes sociais são particularmente alarmantes, já que se tornaram ferramentas poderosas para manipular eleições, inclusive por atores estrangeiros que buscam interferir em eleições além das fronteiras" (veja também o relatório do Relator Especial da ONU, A/HRC/47/25, parágrafo 18, sobre como a desinformação é disseminada por políticos e pela mídia tradicional; relatório do Relator Especial da ONU sobre a realização do direito à liberdade de opinião e expressão em contextos eleitorais, A/HRC/26/30).

O Comitê observa que o áudio foi postado durante um período eleitoral bastante contestado em uma região com histórico de eleições marcadas por irregularidades. Isso aumenta a capacidade do áudio de influenciar as escolhas eleitorais e prejudicar a integridade das eleições. Como indica o relatório do Relator Especial da ONU, as plataformas de redes sociais exercem uma influência particularmente poderosa sobre a integridade eleitoral (A/HRC/47/25, parágrafo 16). O Comitê conclui que, diante da constatação do especialista independente da ONU sobre a disseminação generalizada de desinformação eleitoral no mundo, as responsabilidades da Meta em matéria de direitos humanos exigem a adoção de medidas adequadas para mitigar seus efeitos adversos. Quando referidas medidas de mitigação limitam o direito do usuário à liberdade de expressão, elas devem atender aos requisitos do teste em três partes previsto no Artigo 19(3) do PIDCP.

I. Legalidade (clareza e acessibilidade das regras)

O princípio da legalidade exige que as regras que limitam a expressão sejam acessíveis e claras, formuladas com precisão suficiente para permitir que um indivíduo regule sua conduta de acordo com elas (Comentário Geral n.º 34, parágrafo 25). Além disso, essas regras "não podem conceder liberdade de ação irrestrita para a restrição da liberdade de expressão aos encarregados de [sua] execução" e devem "fornecer instrução suficiente aos encarregados de sua execução para permitir-lhes determinar quais tipos de expressão são adequadamente restritas e quais tipos não são" (Ibid). O Relator Especial da ONU sobre a liberdade de expressão declarou que, quando aplicadas à governação do discurso online por parte de intervenientes privados, as regras devem ser claras e específicas (A/HRC/38/35, parágrafo 46). As pessoas que usam as plataformas da Meta devem ser capazes de acessar e entender as regras, e os analistas de conteúdo devem ter orientações claras sobre sua aplicação.

O Comitê conclui que a política de desinformação sobre mídias manipuladas é suficientemente clara quando aplicada ao conteúdo deste caso. A linguagem pública da política informa claramente os usuários sobre as regras aplicáveis e as consequências de postar esse tipo de conteúdo nas plataformas da Meta (ou seja, a aplicação de um rótulo informativo), quando não há violação de outros Padrões da Comunidade. No entanto, a Meta deveria considerar reunir as informações sobre todos os diferentes rótulos de mídia manipulada em uma única página na Central de Transparência, para que os usuários possam acessá-las com mais facilidade.

II.Objetivo legítimo

Qualquer restrição à liberdade de expressão deve perseguir um ou mais dos objetivos legítimos listados no PIDCP, o que inclui a proteção dos direitos de terceiros (artigo 19, parágrafo 3, ICCPR). No caso Vídeo adulterado do Presidente Biden, o Comitê afirmou que proteger o direito de participar dos assuntos públicos (Artigo 25 do PIDCP) é um objetivo legítimo.

III.Necessidade e proporcionalidade

Nos termos do artigo 19(3) do PIDCP, a necessidade e a proporcionalidade exigem que as restrições à expressão "devem ser adequadas para atingir sua função de proteção; devem ser o instrumento menos intrusivo entre aqueles que podem atingir sua função de proteção; devem ser proporcionais ao interesse a ser protegido" (Comentário Geral n.º 34, parágrafo 34).

O Relator Especial da ONU sobre liberdade de expressão observou (A/74/486, parágrafo 51) que "as empresas têm ferramentas para lidar com conteúdo de formas alinhadas aos direitos humanos, em alguns aspectos, uma variedade maior de ferramentas do que aquela de que dispõem os Estados". Nesse sentido, o Comitê considera que adicionar um rótulo informativo ao conteúdo, como o rótulo "Alto risco", em vez de removê-lo completamente, atende aos critérios de necessidade e proporcionalidade. Na avaliação da necessidade e proporcionalidade dessa medida, o Comitê considerou os seguintes fatores: a) o fato de o conteúdo ter sido postado próximo à eleição; b) o histórico de desinformação e informação falsa em eleições anteriores; c) o caráter polarizado do ambiente político; d) o controle político sobre os meios de comunicação na região, ou seja, sobre a fonte da informação; e) a probabilidade de que a mídia presente no post tenha sido alterada, conforme indicado por duas avaliações independentes; e f) a probabilidade de que mídias alteradas digitalmente induzam o eleitorado ao erro e influenciem suas decisões.

O direito de acesso à informação e o direito ao voto estão intrinsecamente ligados, são elementos que se reforçam mutuamente e constituem pilares da democracia. A Declaração Conjunta de 2009 do Relator Especial da ONU sobre Liberdade de Opinião e Expressão, do Representante da Organização para Segurança e Cooperação na Europa sobre Liberdade de Mídia, do Relator Especial da Organização dos Estados Americanos sobre Liberdade de Expressão e do Relator Especial da Comissão Africana de Direitos Humanos e dos Povos sobre Liberdade de Expressão e Acesso à Informação enfatizou que "eleições livres e justas são possíveis apenas quando o eleitorado está bem informado e tem acesso a informações pluralistas e suficientes." Aplicar um rótulo informativo ao conteúdo é a medida menos intrusiva para alertar os usuários sobre a probabilidade de que o clipe de áudio tenha sido criado digitalmente, ajudando a mitigar os riscos de enganar o público antes de uma eleição altamente polarizada e disputada. Aplicando o rótulo "Alto risco", a Meta sinaliza aos usuários que o conteúdo pode ter sido criado digitalmente e fornece orientações sobre como avaliá-lo, sem determinar a veracidade das informações que poderiam influenciar a eleição. O Comitê também observa o ambiente de mídia partidário no Curdistão iraquiano, seja na mídia tradicional ou nas mídias sociais (veja PC-31199, Centro de Estudos Avançados em Direito Cibernético e Inteligência Artificial). Permitir que o conteúdo permaneça ativo sem um rótulo dificulta que os usuários tenham acesso a informações adequadas e participem do diálogo político, especialmente em um ambiente onde a liberdade de expressão já é limitada.

A consistência e coerência interna da interferência na expressão (ou seja, a aplicação de rótulos) exige que o rótulo seja aplicado a todas as ocorrências do áudio. No caso Vídeo adulterado do Presidente Biden, o Comitê recomendou que, para mídias manipuladas que não violam outros Padrões da Comunidade, a empresa deve aplicar um rótulo a "todas as instâncias idênticas dessa mídia na plataforma". O Comitê reconhece o compromisso da Meta em implementar esta recomendação. Aplicar o rótulo a todas as instâncias do áudio que é objeto deste caso seria consistente com esse compromisso. A alegação da Meta, neste caso, de que não aplica automaticamente o rótulo "Alto risco" a conteúdos com áudio, contraria essa recomendação.

É importante ressaltar que a aplicação do rótulo não rebaixa o conteúdo nem impede sua recomendação. Além disso, a preocupação da Meta em confundir os usuários ao rotular erroneamente conteúdo que desmente ou condena o áudio não é convincente nem apoiada por evidências. Ao contrário, não aplicar o rótulo em todas as instâncias do áudio eleva o risco de causar desinformação e confusão entre o público. O Comitê observa que alguns usuários comentaram no post da agência de mídia, acreditando que o áudio era real. De acordo com a Meta, a empresa aplicou um rótulo a outros posts do mesmo veículo de comunicação que também continham o mesmo áudio. Aplicar o rótulo em apenas alguns posts do mesmo veículo de comunicação pode acabar gerando mais confusão ou até induzir os usuários a erro. Como o Comitê observou na decisão do caso Vídeo Adulterado do Presidente Biden, aplicar um rótulo a uma pequena porção de conteúdo "poderia criar a falsa impressão de que o conteúdo não rotulado é inerentemente confiável". O Comitê está preocupado com a aplicação seletiva do rótulo por parte da Meta no período que antecede uma eleição altamente contestada e polarizada. No entanto, o Comitê não está convencido da necessidade de dois rótulos "Alto risco" separados, um indicando que o conteúdo pode ter sido manipulado e o outro afirmando que foi. A Meta precisa revisar se essa complexidade adicional agrega algum benefício efetivo.

O Comitê também está preocupado porque os rótulos da Meta para mídia manipulada não estão disponíveis em curdo sorani, uma das línguas presentes no conteúdo em questão, especificamente nas legendas. O Comitê observa que o curso sorani é um dos idiomas disponíveis no app para os usuários do Facebook. No entanto, usuários cujas configurações de idioma padrão são curdo sorani não conseguirão ver os rótulos de IA, como o rótulo "Alto risco", neste dialeto. Em diversas decisões, o Comitê recomendou a tradução dos Padrões da Comunidade da Meta e de aspectos de suas orientações internas de aplicação para os idiomas falados por seus usuários. Isso visa garantir que os usuários estejam cientes das regras e que a aplicação das normas seja feita de forma precisa (Veja Preocupação de Punjab com a RSS na Índia, Bot de Mianmar, Ressignificação de palavras árabes). Da mesma forma, o rótulo "Alto risco" procura informar o usuário de que o conteúdo pode ter sido manipulado digitalmente. Como medida básica, disponibilizar o rótulo no idioma local, já presente nas plataformas da Meta, deve fazer parte dos esforços de integridade eleitoral da empresa.

O Comitê observa que a questão neste caso diz respeito à autenticidade do áudio, independentemente da precisão das alegações feitas nele. Considerando que rotular o áudio como provavelmente criado ou alterado digitalmente também alertaria os usuários sobre a precisão de seu conteúdo, o Comitê entende que a aplicação da política de desinformação sobre mídia manipulada é suficiente. No entanto, o Comitê está preocupado com o fato de a Meta não ter verificadores de fatos em curdo disponíveis para analisar o conteúdo durante as eleições, como parte das medidas de integridade eleitoral da empresa. Isso é ainda mais relevante considerando um ambiente político bastante polarizado, a escassez de mídia independente e um histórico de desinformação eleitoral, incluindo campanhas coordenadas de desinformação.

Aplicação

O Comitê está preocupado com a aplicação inconsistente e limitada da política de mídia manipulada da Meta e com a dependência que a empresa tem de terceiros para a avaliação técnica de conteúdo possivelmente manipulado. Na decisão sobre o Vídeo Adulterado do Presidente Biden, a Meta informou ao Comitê que "vídeos envolvendo discursos foram considerados os mais enganosos e os mais fáceis de detectar de forma confiável". Naquele caso, o Comitê destacou à Meta que "o conteúdo apenas em áudio pode incluir menos indícios de inautenticidade e, portanto, ser tão ou mais enganoso que o conteúdo em vídeo". Naquela ocasião, o Comitê aconselhou a Meta a não se concentrar em fotos ou imagens estáticas, mas a priorizar a detecção de vídeos e áudios manipulados. No entanto, no tocante à identificação de conteúdo criado por IA ou manipulado nas suas plataformas, a Meta informou que só consegue detectar e rotular automaticamente imagens estáticas, não vídeos ou áudios. Ao aplicar o rótulo "Informações de IA" em áudios e vídeos, a empresa depende da declaração dos próprios usuários sobre o uso de inteligência artificial. Considerando que a Meta é uma das empresas líderes em tecnologia e inteligência artificial no mundo, devido aos recursos que oferece e ao amplo uso de suas plataformas, o Comitê reitera que a Meta deve priorizar o investimento em tecnologia para identificar e rotular vídeos e áudios manipulados em grande escala. Além disso, quando a Meta já identificou e avaliou um conteúdo como provavelmente manipulado, sobretudo se ele "criar um risco muito alto de enganar o público em algo de grande importância", é incoerente e injustificável que a empresa não use suas ferramentas para aplicar o rótulo a todo esse tipo de mídia.

Por fim, a Meta deveria reavaliar a viabilidade de ter a expertise para avaliar internamente se o conteúdo foi manipulado. Não fica claro para o Comitê por que uma empresa com a expertise técnica e os recursos da Meta terceiriza a identificação de mídias possivelmente manipuladas em situações de alto risco para veículos de comunicação ou parceiros confiáveis.

6. A decisão do Comitê de Supervisão

O Comitê de Supervisão revoga a decisão da Meta de não rotular o conteúdo, exigindo que o post seja rotulado.

7. Recomendações

Aplicação

1. Para garantir que os rótulos "Alto risco" sejam aplicados consistentemente a todo conteúdo manipulado idêntico ou similar, a Meta deveria aplicar o rótulo relevante a todo conteúdo com a mesma mídia manipulada nas suas plataformas, incluindo todos os posts que contêm o áudio manipulado neste caso.

Esta recomendação será considerada implementada quando a Meta fornecer ao Comitê um processo claro para identificar e aplicar consistentemente o rótulo "Alto risco" apropriado a todas as instâncias de mídia manipulada em toda a plataforma.

2. Como parte de seus esforços de integridade eleitoral e para garantir que os usuários sejam informados sobre mídias manipuladas nas plataformas da Meta no período que antecede uma eleição, a Meta deve garantir que os rótulos informativos para mídias manipuladas no Facebook, Instagram e Threads sejam exibidos no mesmo idioma que o usuário selecionou para sua plataforma.

O Comitê considerará esta recomendação implementada quando a Meta fornecer informações na Central de Transparência sobre os idiomas em que os rótulos de mídia manipulada estão disponíveis para os usuários em suas plataformas.

*Nota processual:

  • As decisões do Comitê de Supervisão são tomadas por painéis de cinco membros e aprovadas por maioria de votos do Comitê inteiro. As decisões dele não representam, necessariamente, as opiniões de todos os membros.
  • De acordo com seu Estatuto, o Comitê de Supervisão pode analisar apelações de usuários cujo conteúdo foi removido pela Meta, apelações de usuários que denunciaram conteúdo que a Meta manteve ativo e decisões que a Meta encaminha a ele (Seção 1 do Artigo 2 do Estatuto). O Comitê tem autoridade vinculativa para manter ou anular as decisões de conteúdo da Meta (Seção 5 do Artigo 3 e 4 do Estatuto). Ele pode emitir recomendações não vinculativas às quais a Meta é obrigada a responder (Artigo 3; Seção 4; Artigo 4 do Estatuto). Quando a Meta se compromete a agir de acordo com as recomendações, o Comitê monitora sua implementação.
  • Para a decisão sobre o caso em questão, uma pesquisa independente foi encomendada em nome do Comitê. O Comitê recebeu assistência da Duco Advisors, uma empresa de consultoria especializada na intercessão entre as áreas de geopolítica, confiança e segurança, e tecnologia.
  • A empresa Lionbridge Technologies, LLC, cujos especialistas são fluentes em mais de 350 idiomas e trabalham de 5 mil cidades pelo mundo, forneceu a consultoria linguística.

Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas