Comitê pede novas regras sobre IA enganosa em conflitos
10 de Março de 2026
Ao analisar a disseminação de conteúdo gerado por IA em conflitos armados, em um caso sobre a guerra entre Israel e Irã de 2025, o Comitê de Supervisão pede à Meta que faça mais para permitir que os usuários identifiquem esse tipo de conteúdo. A estratégia da empresa para indicar conteúdo gerado por IA precisa ser aprimorada. Isso envolve disponibilizar informações detalhadas em grande escala sobre a origem da mídia, com base em padrões de proveniência de conteúdo, investir em ferramentas de detecção mais avançadas e desenvolver métodos mais eficazes para rotulagem adequada. A Meta deve estabelecer um conjunto de regras separado para garantir que os usuários possam reconhecer de forma segura o conteúdo produzido por IA. Além disso, é necessário revisar suas políticas atuais para assegurar uma resposta rápida e apropriada a conteúdos enganosos gerados por IA.
A empresa precisa cumprir os compromissos públicos assumidos e utilizar tanto as próprias ferramentas quanto outras disponíveis no setor para lidar de maneira eficaz com o conteúdo enganoso gerado por IA que circula entre plataformas.
Por fim, o Comitê revoga a decisão da Meta de permitir a publicação neste caso sem a aplicação de um rótulo de IA de Alto Risco.
Por que isso é importante
À medida que a quantidade e a qualidade de conteúdos gerados por inteligência artificial aumentam, o impacto desses materiais sobre indivíduos e sociedades tende a ser profundo. Os riscos se intensificam quando conteúdos deepfake, criados com o objetivo de enganar, manipular ou gerar maior engajamento, circulam durante períodos de conflito e crise — como no Irã e na Venezuela em 2026 — e se disseminam rapidamente por plataformas de diversas empresas. Nessas duas crises, houve relatos de conteúdos falsos gerados por IA apresentados como autênticos, ao mesmo tempo em que materiais verdadeiros foram retratados como fabricados. Isso aprofunda a dificuldade do público em discernir o que é verdadeiro — uma situação representativa do chamado “dividendo do mentiroso” — e contribui para uma desconfiança geral em relação a toda informação. Campanhas de influência promovidas por IA tornaram‑se um desafio crescente observado globalmente nos últimos anos, intensificado por ecossistemas de mídia e Internet restritivos que limitam o acesso a informações confiáveis. Entretanto, o simples fato de que conteúdos gerados por IA possam ser enganosos não constitui por si só um motivo legítimo para restringir a liberdade de expressão. O setor precisa de políticas coerentes que auxiliem os usuários a distinguir conteúdos enganosos produzidos por IA, e as plataformas devem agir contra contas e páginas abusivas que difundem esse tipo de material.
Sobre os casos
A guerra entre Israel e Irã, em junho de 2025, marcou um ponto de inflexão, com a presença de conteúdo enganoso gerado por IA nas mídias sociais sendo descrita como sua própria “guerra silenciosa”. Relatos indicam que esse conteúdo alcançou um número enorme de visualizações, e os governos israelense e iraniano foram acusados de tentar exercer influência por meio de IA. Em 15 de junho, dois dias após o início do conflito de 12 dias, um vídeo foi publicado em uma página do Facebook que se apresentava como uma fonte de notícias. O usuário responsável pela publicação estava localizado nas Filipinas. O vídeo mostrava danos extensos a edifícios, com texto em inglês sobreposto afirmando: “Ao vivo agora — Haifa em direção ao fim” [sic], juntamente com a data da publicação. Ele era muito semelhante a um vídeo originado no TikTok, identificado por uma agência de checagem de fatos independente (Agence France-Presse) como falso e gerado por IA. A legenda da publicação no Facebook continha várias frases em estilo de manchete sobre o conflito, além de termos e hashtags sem relação com o conteúdo. O vídeo recebeu mais de 700.000 visualizações, e vários comentários apontavam que se tratava de conteúdo gerado por IA.
Seis usuários denunciaram a publicação à Meta, mas o caso não foi analisado pela empresa nem verificado por agências de checagem de fatos terceirizadas. Diante disso, um usuário recorreu ao Comitê. Após o Comitê selecionar esse caso, a Meta confirmou que a publicação não violava o Padrão da Comunidade sobre Desinformação, alegando que não “contribuiu diretamente para o risco de dano físico iminente” e, portanto, não necessitava de um rótulo de IA.
No entanto, sinais evidentes de engano relacionados à publicação levaram o Comitê a questionar a Meta sobre a identidade e o comportamento das contas associadas à página. Posteriormente, a empresa desativou três contas vinculadas à página devido a abuso de engajamento e comportamento inautêntico, removendo tanto a página quanto o conteúdo relacionado ao caso. Além disso, a página era qualificada para monetização por meio do programa Stars da Meta.
Principais descobertas
O Comitê considera que o conteúdo representava um risco significativo de induzir o público em erro sobre uma questão importante em um momento crítico, e, portanto, a Meta deveria ter aplicado uma etiqueta de “IA de Alto Risco”. A publicação, no entanto, não atingiu o critério para remoção, pois não representava risco de dano físico ou violência iminente. O Comitê enfatiza que a Meta precisa intensificar seus esforços para combater a disseminação de conteúdo enganoso gerado por IA em suas plataformas, incluindo aquele propagado por redes de contas e páginas inautênticas ou abusivas, especialmente em assuntos de interesse público, de modo que os usuários possam distinguir claramente entre o que é real e o que é falso.
Há preocupação de que a Meta esteja aplicando de forma inconsistente as normas da Coligação para a Proveniência e Autenticidade do Conteúdo (C2PA), mesmo em conteúdos produzidos pelas próprias ferramentas de IA, com apenas uma parte desses materiais recebendo rotulagem adequada. A C2PA define padrões técnicos para incorporar informações de proveniência como metadados nos conteúdos, permitindo que as plataformas identifiquem mais facilmente conteúdos gerados por IA e apliquem rótulos para informar os usuários.
Os métodos atualmente utilizados para atribuir até mesmo o rótulo padrão de Informações de IA a vídeos — seja por autodeclaração do usuário ou pelo encaminhamento à equipe de Política de Conteúdo — não são suficientemente robustos nem abrangentes para lidar com o volume e a rapidez do conteúdo gerado por IA, especialmente em momentos de crise ou conflito, quando o engajamento na plataforma tende a aumentar. Um sistema que depende excessivamente da autodeclaração do uso de IA e da revisão por instâncias superiores (realizada com baixa frequência) para rotular corretamente esse tipo de conteúdo não consegue enfrentar os desafios do cenário atual. Alguns Membros do Comitê também destacaram que os rótulos de IA de Alto Risco (aplicados a produções que podem enganar o público em questões importantes) deveriam ser acompanhados de medidas como o rebaixamento ou a remoção das recomendações, a fim de minimizar a propagação de impactos de conteúdos enganosos.
Além disso, a abordagem restrita da Meta para distribuir avaliações apenas a conteúdos idênticos ou quase idênticos pode ter levado à ausência de uma verificação de fatos nesta publicação. As limitações de recursos, somadas ao grande volume de conteúdo produzido, dificultam que os verificadores de fatos realizem revisões oportunas de todo material enganoso, especialmente em períodos de conflito ou crise. O Comitê reforça que a Meta deve assegurar que os verificadores de fatos disponham de recursos suficientes e de diretrizes claras sobre como priorizar conteúdos originados de situações de conflito. O Protocolo de Política de Crise (CPP) e as designações de Eventos em Alta deveriam ter permitido à Meta fornecer um suporte mais eficaz aos verificadores de fatos terceirizados durante a crise. A ampliação da distribuição de avaliações para uma gama maior de vídeos muito semelhantes poderia ter reduzido significativamente os possíveis danos, incluindo a possibilidade de rebaixamento desses conteúdos. O caso evidencia ineficiências na abordagem atual da Meta em contextos de conflitos armados, intensificando preocupações previamente levantadas pelo Comitê.
É preocupante que, mesmo com a CPP ativado e recursos adicionais alocados, a Meta não tenha identificado de forma proativa sinais claros de abuso de engajamento na página, investigando as contas responsáveis apenas em resposta a questionamentos do Comitê. A implementação precisa de políticas focadas no comportamento poderia ter prevenido os danos causados por essas contas infratoras, em vez de depender de medidas de mitigação centradas no conteúdo, que apresentam uma elevada taxa de falhas.
A decisão do Comitê de Supervisão
O Comitê revoga a decisão da Meta de permitir o conteúdo sem a aplicação de um rótulo de IA de Alto Risco.
O Comitê recomenda que a Meta:
- Estabeleça um Padrão da Comunidade específico para conteúdo gerado por IA, distinto do Padrão da Comunidade sobre Desinformação, incluindo diretrizes completas sobre preservação de proveniência, protocolos de rotulagem de IA e mecanismos de autodenúncia.
- Crie processos para aplicar os rótulos de Alto Risco e IA de Alto Risco com muito mais frequência, apoiados por canais de escalonamento mais claros para sistemas automatizados e revisão em larga escala, permitindo que essa rotulagem ocorra em volume significativamente maior.
- Adicione informações de proveniência e marcas d’água invisíveis ao conteúdo gerado pelas ferramentas de IA da Meta, incluindo a implementação de Credenciais de Conteúdo, conforme definido pela C2PA, durante a criação.
- Implante Credenciais de Conteúdo em larga escala, garantindo que sejam claramente visíveis e acessíveis sempre que os dados de proveniência estiverem disponíveis.
- Invista em ferramentas mais robustas para detecção de conteúdo em vários formatos (áudio, audiovisual e imagem) gerado por IA.
- Divulgue de maneira clara as penalidades aplicáveis ao não reconhecimento de conteúdo criado ou alterado digitalmente, detalhando os critérios de aplicação e as consequências associadas.
- Atualize o Padrão da Comunidade sobre Desinformação para assegurar que a revisão rápida de desinformação que represente risco iminente de violência ou dano físico não dependa exclusivamente de sinais fornecidos por parceiros externos. Utilize uma alavanca da CPP para direcionar recursos à detecção proativa e oportuna de conteúdo violador, apoiada por conhecimento especializado e ações internas, incluindo rotulagem e investigação de contas e páginas de publicação.
Mais informações
Para ler os comentários públicos sobre este caso, clique aqui.