Identificar e rotular áudio e vídeo manipulados por IA em grande escala

O Comitê de Supervisão reverteu a decisão da Meta de não rotular um clipe de áudio possivelmente manipulado, no qual dois políticos curdos iraquianos debatem uma fraude nas eleições parlamentares, ocorrida a menos de duas semanas da abertura das urnas em um pleito marcado por alta polarização e disputas intensas. O Comitê determina que a Meta rotule esse tipo de conteúdo.

Ele manifesta preocupação com a inconsistência na aplicação da política de mídia manipulada da empresa, especialmente diante do aumento do conteúdo manipulado em diversos formatos. A Meta precisa priorizar investimentos em tecnologias capazes de identificar e rotular, em larga escala, áudios e vídeos manipulados, garantindo que os usuários recebam informações adequadas.

Neste caso específico, a ausência de uma rotulagem automática em todas as versões da mesma mídia manipulada é considerada pelo Comitê incoerente e injustificável.

Além disso, a Meta deve garantir que as rotulagens para mídias manipuladas estejam disponíveis nos idiomas locais já liberados em suas plataformas. Essa medida deve, no mínimo, integrar os esforços da empresa voltados à integridade dos processos eleitorais.

Sobre o caso

Menos de duas semanas antes das eleições parlamentares no Curdistão iraquiano, marcadas para outubro de 2024, um veículo de mídia popular, associado ao influente Partido Democrático do Curdistão (KDP), publicou em sua página no Facebook um áudio de dois minutos. A legenda da publicação, escrita em curdo sorani, afirma que se trata de uma “conversa gravada” entre os irmãos Bafel e Qubad Talabani — figuras proeminentes da União Patriótica do Curdistão (PUK), o outro partido dominante da região — na qual abordam supostos “planos sinistros” para manipular as eleições de outubro de 2024. O áudio contém duas vozes masculinas conversando, com narração em inglês e legendas disponíveis tanto em curdo sorani quanto em inglês. No áudio, um dos homens afirma que um “mínimo de 30 cadeiras” já está garantido para a União Patriótica do Curdistão (PUK), mas que é necessário “se livrar” das “11 cadeiras” que o Partido Democrático do Curdistão (KDP) supostamente “sempre utilizou em seu benefício”. O outro interlocutor concorda, destacando a importância de fazer parecer que essas cadeiras foram conquistadas de forma legítima, pois, segundo ele, as pessoas sabem — mas não podem provar — que o PUK conta com o apoio de Bagdá e de seu “vizinho”. A página do veículo de mídia no Facebook, na qual o conteúdo foi publicado, conta com cerca de 4 milhões de seguidores. A publicação alcançou aproximadamente 200 mil visualizações.

Dois usuários denunciaram o conteúdo por desinformação, mas a Meta encerrou as denúncias sem realizar uma análise. Quando um desses usuários recorreu da decisão, a empresa manteve sua posição com base em uma pontuação de classificação. O usuário, então, levou o caso ao Comitê de Supervisão.

A Meta identificou outras publicações contendo o mesmo clipe de áudio nas páginas do Facebook e Instagram do mesmo veículo de mídia, bem como na página do KDP no Facebook. Após consultar um veículo de comunicação sediado fora do Curdistão iraquiano e um Parceiro de Confiança para avaliar a possibilidade de o áudio ter sido criado digitalmente, a Meta decidiu rotular algumas das publicações — mas não aquela relacionada ao caso em questão. O rótulo usado nas outras publicações com o mesmo áudio afirma: “Este conteúdo pode ter sido criado digitalmente ou alterado para parecer real.”

Principais descobertas

A Meta informou ao Comitê que, atualmente, só consegue identificar e rotular automaticamente imagens estáticas geradas ou manipuladas por IA em suas plataformas, não sendo capaz de fazer o mesmo com conteúdo em vídeo ou áudio. Considerando a expertise, os recursos da empresa e o uso massivo de suas plataformas, a Meta deve priorizar investimentos em tecnologia que permitam a identificação e rotulagem em larga escala de vídeos e áudios manipulados.

A falha da empresa em utilizar as ferramentas disponíveis para aplicar automaticamente o rótulo “Informações de IA” a todas as instâncias da mesma mídia manipulada é considerada incoerente e injustificável. No caso Vídeo Alterado do Presidente Biden, a Meta comprometeu-se a seguir a recomendação do Comitê de aplicar um rótulo a “todas as instâncias idênticas dessa mídia na plataforma”, desde que o conteúdo manipulado não viole outros Padrões da Comunidade. No entanto, ao afirmar que não aplica automaticamente o rótulo “Alto Risco” ao conteúdo contendo o áudio neste caso, a Meta entra em contradição com essa mesma recomendação. Os rótulos “Informações de IA” e “Alto Risco” são categorias de rotulagem informativa disponíveis na Meta para sinalizar mídias manipuladas.

O Comitê observa que há indicadores confiáveis — incluindo sinais técnicos — de que o clipe de áudio foi criado digitalmente. Esse conteúdo atende aos critérios definidos pela Meta em sua política de desinformação para ser classificado como mídia manipulada. Além disso, a designação de “Alto Risco” está alinhada com as próprias políticas da Meta e com suas responsabilidades em matéria de direitos humanos. O áudio foi publicado durante um processo eleitoral altamente disputado, em uma região com um histórico de irregularidades em eleições. Isso aumenta a capacidade do áudio de influenciar escolhas eleitorais e comprometer a integridade do processo eleitoral. Aplicar um rótulo informativo ao caso, em vez de removê-lo por completo, atende aos princípios de necessidade e proporcionalidade.

O Comitê expressa preocupação com o fato de os rótulos de mídia manipulada da Meta não estarem disponíveis em curdo sorani — mesmo sendo esse um dos idiomas oferecidos no aplicativo para usuários do Facebook. Para assegurar que os usuários sejam devidamente informados quando um conteúdo for criado ou alterado digitalmente, disponibilizar os rótulos no idioma local já disponibilizado pela plataforma deve ser, no mínimo, parte integrante dos esforços da Meta para proteger a integridade eleitoral.

O Comitê também manifesta preocupação quanto à dependência da Meta de entidades externas para realizar avaliações técnicas sobre a possível manipulação de conteúdo. A empresa deve reavaliar a necessidade de dispor internamente desse tipo de conhecimento técnico.

O Comitê ressalta que, neste caso, o problema central é a autenticidade do áudio em si — e não a veracidade das declarações feitas durante a gravação. Dado que rotular o áudio como provavelmente criado ou manipulado digitalmente permitiria alertar os usuários quanto à confiabilidade do material, o Comitê entende que a aplicação da política de desinformação sobre mídia manipulada é suficiente. Ainda assim, preocupa o Comitê o fato de que a Meta não tenha contado com verificadores de fatos que falem curdo durante o período eleitoral, o que deveria ser uma parte essencial de suas medidas de integridade eleitoral.

A decisão do Comitê de Supervisão

O Comitê de Supervisão decidiu reverter a decisão da Meta de não rotular o conteúdo, determinando que a publicação seja devidamente rotulada.

O Comitê também recomenda que a Meta:

  • Aplique um rótulo apropriado a todo o conteúdo que contenha a mesma mídia manipulada, incluindo todas as publicações que utilizem o áudio manipulado envolvido neste caso.
  • Garanta que os rótulos informativos sobre mídias manipuladas exibidos no Facebook, Instagram e Threads estejam no idioma selecionado pelo usuário em sua plataforma.

Mais informações

Para ler os comentários públicos sobre este caso, clique aqui.

Voltar às Notícias