Anulado
Vídeo gerado por IA no conflito Israel‑Irã
10 de Março de 2026
No âmbito da análise sobre a propagação de materiais gerados por IA em contextos de guerra, especificamente no caso do conflito Israel-Irã em 2025, o Comitê de Supervisão cobrou que a Meta implemente mecanismos mais robustos que permitem aos usuários a identificação desses conteúdos.
Para ler esta decisão em farsi, clique aqui.
برای خواندن حکم کامل به زبان فارسی، در اینجا کلیک کنید.
Para ler esta decisão em hebraico, clique aqui.
לקריאת החלטה זו בעברית יש ללחוץ כאן.
Resumo
No âmbito da análise sobre a propagação de materiais gerados por IA em contextos de guerra, especificamente no caso do conflito Israel-Irã em 2025, o Comitê de Supervisão cobrou que a Meta implemente mecanismos mais robustos que permitem aos usuários a identificação desses conteúdos. A forma como a Meta traz a público os conteúdos gerados por IA precisa evoluir. Isso inclui fornecer detalhes em escala sobre a origem da mídia, com base em padrões de proveniência de conteúdo, investir em ferramentas de detecção mais robustas e desenvolver métodos melhores para uma rotulagem adequada. A Meta precisa criar um conjunto de regras novo e específico para garantir que os usuários consigam identificar com segurança conteúdo gerado por IA. Além disso, a empresa deve alterar suas políticas atuais para garantir uma resposta rápida e adequada a conteúdos enganosos gerados por IA.
A empresa precisa cumprir seus compromissos públicos e utilizar tanto suas próprias ferramentas quanto outras disponíveis no mercado para lidar de forma eficaz com conteúdos enganosos de IA generativa que se espalham pelas plataformas.
O Comitê reverteu a decisão da Meta de manter o post deste caso sem o rótulo de "IA de alto risco".
Por que isso é importante
Com o aumento da quantidade e a qualidade do conteúdo gerado por IA, o impacto sobre as pessoas e as sociedades será enorme. Os riscos se tornam mais graves quando os resultados de deepfake, criados para enganar, manipular ou aumentar o engajamento, são compartilhados durante conflitos e crises, a exemplo do Irã e da Venezuela em 2026, espalhando-se rapidamente pelas plataformas de diferentes empresas. Durante essas duas crises, houve alegações de que conteúdos enganosos gerados por IA seriam autênticos e de que conteúdos autênticos teriam sido fabricados. Esse fenômeno aumenta a dificuldade do público de distinguir a verdade, o que é emblemático do dividendo do mentiroso, levando a uma desconfiança geral de toda e qualquer informação. As campanhas de influência geradas por IA são um desafio crescente observado globalmente nos últimos anos, ganhando força em ambientes digitais e de mídia restritivos que limitam informações confiáveis. No entanto, o fato de um resultado gerado por IA ser enganoso não é, por si só, um motivo legítimo para restringir a liberdade de expressão. A indústria precisa de coerência para ajudar os usuários a distinguir conteúdos enganosos de IA, e as plataformas devem punir as contas e páginas que compartilham esses conteúdos.
Sobre os casos
A guerra Israel-Irã em junho de 2025 representou um marco decisivo, com a disseminaçãode conteúdo enganoso por IA generativa nas redes sociais sendo classificada como uma “ guerra psicológica”. Observou-se que esses materiais alcançaram números massivos de visualizações, e tanto o governo israelense quanto o iraniano foram acusados de tentativas de influência por IA. Em 15 de junho, dois dias após o início do conflito que durou 12 dias, um vídeo foi postado em uma página do Facebook que afirmava ser uma fonte de notícias. O usuário que postou estava nas Filipinas. O vídeo mostrava danos estruturais graves com uma legenda em inglês que dizia: “Live now – Haifa Towards Down” [sic] (Ao vivo agora – Haifa sendo destruída), com a data da postagem. O vídeo era muito semelhante a um que circulou no TikTok e foi identificado por um verificador de fatos independente (Agence France-Presse) como falso e gerado por IA. A legenda do post no Facebook trazia diversas frases em estilo de manchete ligadas ao conflito, além de termos e hashtags irrelevantes. O post recebeu mais de 700 mil visualizações, com vários comentários observando que o conteúdo fora gerado por IA.
Seis usuários denunciaram o caso à Meta, mas ele não foi revisado pela empresa nem analisado por verificadores de fatos independentes. Um usuário fez uma apelação ao Comitê. Após o Comitê selecionar o caso, a Meta confirmou que o post não violava os Padrões da Comunidade sobre Desinformação, pois não “contribuía diretamente para o risco de dano físico iminente” e não exigia um rótulo de IA.
Sinais óbvios de fraude relacionados ao post levaram o Comitê a questionar a Meta sobre a identidade e o comportamento das contas ligadas à página. Posteriormente, a empresa desativou três contas vinculadas à página por abuso de engajamento e inautenticidade, removendo a página e, com ela, o conteúdo do caso. A página era elegível para monetização por meio do programa Stars da Meta.
Principais descobertas
O Comitê deliberou que o conteúdo gerou um risco material de desinformação em um cenário de crise, portanto, a Meta deveria ter aplicado um rótulo de “IA de alto risco”. O post não atingiu o limite para remoção (risco de dano físico iminente ou violência). A Meta deve se esforçar mais para lidar com a proliferação de conteúdos enganosos gerados por IA em suas plataformas, inclusive por redes de contas e páginas inautênticas ou abusivas, particularmente em questões de interesse público, para que os usuários possam distinguir o que é real e o que é falso.
O Comitê está preocupado com relatos de que a Meta implementa de forma inconsistente os padrões da Coalition for Content Provenance and Authenticity (C2PA), inclusive em conteúdos gerados por suas próprias ferramentas de IA, e que apenas uma parcela desse material recebe rótulo adequado. O C2PA estabelece padrões técnicos para inserir informações de origem como metadados no conteúdo, permitindo que as plataformas identifiquem com mais facilidade o que é gerado por IA e apliquem rótulos para informar os usuários.
Os mecanismos atuais para aplicar até mesmo o rótulo padrão de “Informação de IA” em vídeos (autodeclaração do usuário ou encaminhamento para a equipe de Política de Conteúdo) não são robustos nem abrangentes para lidar com a escala e a velocidade dos conteúdos de IA, particularmente durante crises ou conflitos, onde o tráfego de informações e a interação dos usuários atingem picos críticos. A dependência excessiva na transparência voluntária e revisões escalonadas (que ocorrem raramente) para rotular adequadamente esse material não consegue atender aos desafios impostos pelo ambiente atual. Alguns membros do Comitê observaram ainda que os rótulos de “IA de alto risco” (para conteúdos que possam enganar as pessoas em assuntos importantes) devem ser acompanhados de rebaixamento ou remoção das recomendações para limitar o alcance do conteúdo enganoso.
A abordagem limitada da Meta em replicar classificações para conteúdos idênticos ou quase idênticos pode ter feito com que este post não recebesse uma classificação de verificação de fatos. A escassez de recursos e o grande volume de conteúdos gerados dificultam a análise de conteúdos enganosos por parte dos verificadores, especialmente em contextos de crise ou conflito. O Comitê reitera que a Meta deve garantir que os verificadores de fatos tenham recursos adequados e orientações para priorizar conteúdos de conflitos. O Protocolo de Política de Crise (CPP) e as designações de Eventos em Tendência deveriam ter permitido à Meta assegurar um suporte mais eficaz aos verificadores de fatos de terceiros durante o período de crise. A extensão da aplicabilidade das classificações a categorias mais amplas de conteúdos semelhantes poderia ter reduzido significativamente o potencial de danos, inclusive reduzindo sua circulação. O caso evidencia ineficiências na abordagem atual da Meta durante conflitos armados, o que agrava as preocupações anteriormente manifestadas por este Comitê.
É preocupante o fato de que, com o CPP em vigor e recursos adicionais disponíveis, a Meta não tenha detectado por iniciativa própria claros indícios de abuso de engajamento da página, iniciando a investigação das contas apenas após questionamentos do Comitê. A correta aplicação das políticas baseadas em comportamento poderia ter impedido danos gerados por essas contas violadoras, em vez de depender de medidas posteriores baseadas em conteúdo, que apresentam alta taxa de falha.
A decisão do Comitê de Supervisão
O Comitê reverteu a decisão da Meta de manter o conteúdo sem o rótulo de "IA de alto risco".
O Comitê recomenda que a Meta:
- Crie Padrões da Comunidade para conteúdo gerado por IA, separados dos Padrões da Comunidade sobre Desinformação, estabelecendo regras amplas sobre preservação de proveniência, protocolos de rotulagem de IA e autodeclaração.
- Desenvolva mecanismos para aplicar com mais frequência os rótulos Alto risco e IA de alto risco ao conteúdo, com o apoio de canais de escalonamento mais claros provenientes de sistemas automatizados e análises em grande escala, para que essa rotulagem ocorra em um volume significativamente maior.
- Adicione informações de proveniência e marcas d’água invisíveis ao conteúdo criado por ferramentas de IA da Meta, aplicando também Credenciais de Conteúdo (conforme estabelecido pela C2PA) na etapa de criação.
- Adote Credenciais de Conteúdo em larga escala, garantindo que as informações de proveniência sejam apresentadas de maneira clara, consistente e facilmente acessível sempre que disponíveis.
- Invista em ferramentas de detecção mais robustas para conteúdo gerado por IA em múltiplos formatos (áudio, audiovisual e imagem).
- Divulgue uma explicação clara sobre as penalidades para casos de não autodeclaração de conteúdo criado ou modificado digitalmente, detalhando os critérios e as restrições associadas.
- Altere os Padrões da Comunidade sobre Desinformação para garantir que a análise rápida de desinformação que represente risco direto de violência iminente ou dano físico não dependa exclusivamente de sinais de parceiros externos. Um mecanismo do CPP deve alocar recursos para a detecção proativa e rápida desse tipo de conteúdo violador, com apoio de expertise interna e ações como rotulagem do conteúdo e investigação das contas e páginas responsáveis.
*Os resumos de casos fornecem uma visão geral dos casos e não têm valor de precedente.
Decisão completa sobre o caso
1. Descrição do caso e histórico
Em 13 de junho de 2025, Israel lançou um grande ataque aéreo contra instalações nucleares e militares do Irã, entre outros alvos. Os líderes israelenses afirmaram que os ataques tinham como objetivo impedir o avanço do programa nuclear iraniano. Isso desencadeou uma troca intensa de ataques entre as duas nações por mais de uma semana e meia. O Irã disparou centenas de mísseis contra as cidades de Israel, muitos deles interceptados pelas defesas de Israel, enquanto Israel realizou ataques contra vários locais no Irã, inclusive áreas próximas à capital, Teerã. Em 18 de junho, o Secretário-geral das Nações Unidas, António Guterres, declarou estar “profundamente alarmado” com a escalada militar, acrescentando que “qualquer intervenção militar adicional pode ter enormes consequências, não apenas para os envolvidos, mas para toda a região e para a paz e segurança internacionais de forma ampla.” Em 21 de junho, os Estados Unidos realizaram uma série de ataques contra instalações nucleares no Irã. Em 24 de junho, foi anunciado um cessar-fogo entre Israel e Irã.
O conflito entre Israel e Irã em 2025 representou um marco decisivo, com a crescente influência de conteúdos de IA generativa nas redes sociais, sendo classificada como uma “guerra psicológica”. A BBC informou que três vídeos enganosos gerados por IA sobre o conflito alcançaram mais de 100 milhões de visualizações. O Ministro das Relações Exteriores de Israel compartilhou um vídeo de um ataque à Evin Prison, em Teerã, que posteriormente foi considerado, após análise forense, um vídeo gerado por IA, apesar de um ataque real à prisão ter ocorrido. Pesquisas do Citizen Lab da University of Toronto relataram uma rede coordenada de perfis inautênticos no X (Twitter), supostamente associada a Israel, incentivando iranianos a resistirem ao seu governo. O governo israelense também relatou campanhas impulsionadas por bots vindas do Irã, com o objetivo de influenciar opiniões sobre o conflito e o impacto de seus ataques contra Israel.
Os conteúdos enganosos gerados por IA têm sido um desafio crescente e persistente em crises e conflitos ao redor do mundo nos últimos anos. Esse desafio é maior em locais onde a liberdade de expressão está sob pressão e a repressão à mídia independente e bloqueios de internet dificultam o acesso a informações confiáveis que poderiam desmentir campanhas enganosas. Durante as deliberações sobre esse caso, o Comitê observou que a operação dos Estados Unidos para capturar o presidente da Venezuela e os protestos massivos contra o governo no Irã foram acompanhados por alegações de que conteúdos enganosos gerados por IA eram autênticos, ao mesmo tempo em que conteúdos reais eram acusados de serem manipulados. Ambas as situações comprometeram a capacidade do público de diferenciar conteúdo fabricado de fatos reais, ilustrando o fenômeno conhecido como dividendo do mentiroso, que pode levar à perda de confiança em todas as informações.
Diversas abordagens técnicas surgiram com o objetivo de ajudar plataformas e usuários a distinguir entre mídias sintéticas ou manipuladas e mídias autênticas. Uma abordagem consiste em rastrear a proveniência, ou seja, o histórico verificável de um ativo digital, como imagens, vídeos ou documentos. A Coalition for Content Provenance and Authenticity (C2PA) estabeleceu padrões técnicos para incluir informações de proveniência como metadados no conteúdo, o que permite que as plataformas identifiquem mais facilmente o conteúdo gerado por IA e apliquem rótulos para informar os usuários. Embora essas ferramentas ainda estejam em desenvolvimento e nenhuma seja uma solução completa, elas são consideradas “a base mínima para a geração e disseminação responsáveis de conteúdo gerado por IA”. Ao mesmo tempo, investimentos em tecnologias de detecção automatizada, como classificadores, podem permitir a descoberta de outros sinais de que o conteúdo foi produzido por inteligência artificial.
Este caso é emblemático desses desafios. Em 15 de junho, à medida que o conflito entre Israel e Irã se intensificava, um vídeo foi postado em uma página do Facebook que afirmava ser uma fonte de notícias e possuía 161 mil seguidores. O vídeo retratava danos estruturais graves, cercados por colunas de fumaça e escombros, com uma legenda em inglês que dizia: “Live now – Haifa Towards Down” [sic] (Ao vivo agora - Haifa sendo destruída) com a data da postagem. O post aparentemente fazia referência a Haifa, uma cidade localizada no norte de Israel. O vídeo parece ser muito semelhante a outro que se originou no TikTok e foi identificado por verificadores independentes da Agence France-Presse (AFP) como falso e gerado por IA. A AFP disponibiliza apenas imagens estáticas do vídeo classificado, porém essas imagens são idênticas a quadros do conteúdo analisado neste caso. A legenda do post no Facebook em inglês trazia diversas frases de manchete ligadas ao conflito, além de termos e hashtags irrelevantes sem uma narrativa clara. O texto mencionava o conflito em andamento, líderes políticos globais, incêndios florestais, mísseis, entre outros. O post recebeu mais de 700 mil visualizações, com vários comentários observando que o conteúdo fora gerado por IA.
O conteúdo foi denunciado nove vezes por seis usuários diferentes, porém os sistemas automatizados da Meta não o priorizaram para análise humana. No mesmo dia em que o conteúdo foi postado, um classificador de desinformação o encaminhou para verificadores de fatos de terceiros, mas ele nunca foi analisado ou classificado. Esse cenário não é incomum, uma vez que a Meta sinaliza um volume elevado de potenciais conteúdos de desinformação que supera a capacidade de análise dos verificadores.
Depois de esgotar os mecanismos internos de recurso da empresa, um dos usuários que havia denunciado o conteúdo apresentou recurso ao Comitê contestando a decisão da Meta de manter o post ativo. Após o Comitê selecionar o caso, a Meta confirmou que o post não violava os Padrões da Comunidade sobre Desinformação, pois não “contribuía diretamente para o risco de dano físico iminente”. A empresa também justificou a decisão de não aplicar qualquer rótulo ao conteúdo e não adotou medidas contra a página ou as contas responsáveis.
Diante de indícios claros de natureza enganosa relacionados a este post, o Comitê questionou a Meta sobre a identidade e o comportamento da página e das contas responsáveis por ela. Esse questionamento desencadeou uma investigação que levou a Meta a concluir que os administradores da página haviam violado as regras relativas a abuso de engajamento e inautenticidade. Por isso, a empresa desabilitou permanentemente três contas, removendo a página e o conteúdo do caso da plataforma.
2. Envios de usuários
Ao apresentar seu envio ao Comitê, o usuário que solicitou a remoção do conteúdo afirmou que a Meta permite “atos de terrorismo” na plataforma. Em sua declaração, não houve indicação clara de que ele compreendia que o conteúdo havia sido gerado por IA ou que era enganoso.
3. Políticas de Conteúdo e envios da Meta
I. Políticas de Conteúdo da Meta
Padrões da Comunidade sobre Desinformação
De acordo com os Padrões da Comunidade sobre Desinformação, a Meta remove “desinformação ou boatos não verificáveis que os especialistas parceiros tenham determinado como propensos a contribuir diretamente para um risco de violência iminente ou dano físico a pessoas”. Em países “onde há um alto risco de violência social”, a Meta trabalha “de forma proativa com parceiros locais para entender quais alegações falsas podem contribuir diretamente para o risco de lesão corporal iminente”, a fim de identificar e remover conteúdos que contenham essas alegações.
Sob o subtítulo “mídia manipulada”, a Meta estabelece que, para conteúdos que não violem de outra forma os Padrões da Comunidade, poderá adicionar um rótulo informativo ao post quando: ele for uma imagem ou um vídeo fotorrealista ou um áudio com som realista, que tenha sido criado ou alterado digitalmente e que gere um risco particularmente elevado de enganar, de forma material, o público sobre uma questão de importância pública”. A Política de Desinformação também exige que os usuários declarem sempre que postarem “conteúdo orgânico com vídeo fotorrealista ou áudio com som realista que foi criado ou alterado digitalmente”. A não utilização da ferramenta de divulgação de IA pode resultar na aplicação de penalidades.
Além disso, a Meta proíbe o conteúdo e o comportamento que “frequentemente se sobrepõem com a disseminação de desinformação”. Isso inclui os Padrões da Comunidade sobre Integridade da Conta, Práticas Enganosas e Comportamento Inautêntico Coordenado. Para todas as outras formas de desinformação que não violam os seus Padrões de Comunidade sobre Desinformação, a Meta foca em “reduzir sua prevalência ou criar um ambiente que promova um diálogo produtivo”. Fora dos EUA, a Meta depende de verificadores de fatos de terceiros e independentes para analisar e classificar o conteúdo, o que pode resultar na aplicação de rótulos correspondentes à classificação atribuída. As classificações incluem "falso" e "alterado" e podem levar à redução na distribuição do conteúdo. A Meta utiliza tecnologia para identificar e encaminhar potenciais desinformações para a análise dos verificadores, que também podem selecionar conteúdos para análise por iniciativa própria. Em janeiro de 2025, a Meta anunciou que encerraria o programa de verificação de fatos por terceiros nos Estados Unidos e passaria a adotar um modelo de Notas da Comunidade.
As Políticas de Monetização para Parceiros da Meta descrevem as regras para páginas que estão “ganhando dinheiro nas plataformas” e observam que conteúdos marcados como desinformação ou isca de cliques podem não receber monetização. As Políticas de Monetização de Conteúdo detalham ainda as regras para a “criação de conteúdo seguro para marcas e monetizável” e restringem ou reduzem a monetização de conteúdos que retratem ou descrevam determinados temas, como “tragédia e conflito, incluindo danos à propriedade”. Assim, as contas vinculadas à página neste caso foram removidas devido a violações em nível de conta relacionadas a abuso de engajamento.
II. Envios da Meta
A Meta afirmou que o post não violou a Política de Desinformação que exige a remoção de conteúdos “propensos a contribuir diretamente para o risco de danos físicos iminentes”. A decisão levou em consideração o fato de que nenhum especialista independente, como um parceiro local, sinalizou o conteúdo ou qualquer tendência de desinformação relacionada a ele.
A Meta não aplicou nenhum rótulo ao conteúdo sob as regras de mídia manipulada. Ela aplica três rótulos diferentes para mídias manipuladas: Informação de IA, Alto risco ou IA de Alto risco.
O rótulo “Informações de IA” é aplicado automaticamente a conteúdos que a Meta detecta usando “indicadores de imagem de IA padrão do setor ou quando as pessoas declaram que estão carregando conteúdo gerado por IA”. Conforme indicado pelo Comitê no caso da Suposta ligação de áudio para fraudar eleições no Curdistão Iraquiano, a Meta atualmente só consegue identificar e aplicar automaticamente o rótulo "Informação de IA" em imagens estáticas, dependendo de metadados que muitas ferramentas de IA generativa inserem nesse tipo de conteúdo. Conteúdos de áudio ou vídeo exigem a autodeclaração dos usuários para que o rótulo seja aplicado. Não houve autodeclaração neste caso. Sob os processos atuais da Meta, um rótulo não poderia ser adicionado automaticamente nestas circunstâncias.
O rótulo "Alto risco" se aplica ao conteúdo que (i) apresenta um alto risco de enganar o público sobre um assunto de interesse público e (ii) possui sinais confiáveis de ter sido criado ou modificado digitalmente. Diferente do rótulo "Informação de IA", o rótulo de "Alto Risco" é uma política de escalonamento exclusivo, o que significa que apenas as equipes internas de políticas da Meta podem aplicá-lo após uma análise humana. Não ocorreu qualquer escalonamento do conteúdo em questão antes da seleção do caso pelo Comitê.
O rótulo de "IA de alto risco" é aplicado quando o conteúdo atende a todos os requisitos do rótulo High Risk e apresenta indicadores confiáveis de ter sido criado ou alterado com o uso de IA. Também se trata de uma política de aplicação exclusiva por escalonamento, que requer análise humana. A análise desse conteúdo pelas equipes internas de políticas da Meta ocorreu apenas após a seleção do caso pelo Comitê. Na análise delas, já havia decorrido tempo demais para que a aplicação de um rótulo ainda fosse relevante ou urgente.
Para avaliar se um conteúdo é produto de IA ou foi criado/alterado digitalmente, a Meta leva em conta fontes internas e externas consideradas confiáveis. As fontes externas podem incluir jornais ou organizações independentes de verificação de fatos que forneçam uma base técnica para sua avaliação, seja por meio de modelos de detecção de IA ou por análises de especialistas forenses.
Segundo a decisão Imagens de protesto combinadas com cânticos pro-Duterte, rótulos de mídia manipulada não provocam rebaixamento automático do conteúdo nem sua remoção das recomendações da plataforma. Em vez disso, os usuários que compartilharem novamente conteúdos com esses rótulos poderão ser mostrados como pop-up, o que pode reduzir organicamente o alcance. A mensagem exibida varia de acordo com o fato de o conteúdo ter sido ou não criado com IA.
A Meta dispõe de múltiplos sistemas fora dos Estados Unidos para identificar e tratar possível desinformação. Alguns sistemas apenas encaminham o conteúdo para análise por verificadores de fatos independentes, enquanto outros realizam a análise e aplicam uma redução temporária de alcance durante o processo de análise. A decisão de apenas enviar o conteúdo para análise ou de reduzir seu alcance depende do tipo de sistema que o detectou, assim como de fatores como país e idioma.
De acordo com a Meta, o Protocolo de Política de Crise (CPP) estava ativado no momento do conflito entre Israel e Irã. Israel foi oficialmente designado no âmbito do CPP a partir dos ataques de 7 de outubro de 2023 no país. O Irã foi incluído no CPP no início do conflito de junho de 2025. A ativação do protocolo permite à empresa aplicar medidas para fortalecer a resposta a crises e ajudar suas equipes a avaliar e mitigar riscos de danos iminentes. Durante a crise, não houve mudanças nos sistemas automatizados de moderação, sendo o conteúdo do caso revisado de acordo com os modelos e limites preexistentes.
A Meta considerou o conflito entre Israel e Irã como um “Evento em Destaque”, com o objetivo de fortalecer o apoio a verificadores de fatos independentes na identificação e refutação de alegações falsas que se tornaram virais, diante do elevado risco de desinformação associada ao evento. No momento do cessar-fogo, os verificadores de fatos já haviam publicado diversas verificações relacionadas ao conflito. A Meta declara que tem verificadores de fatos em Israel e nas Filipinas (onde o usuário que fez a postagem está baseado), mas não no Irã.
Após o Comitê solicitar que a Meta investigasse o comportamento desta página e das contas vinculadas, a empresa desativou as contas de três administradores diferentes.
Um administrador foi desativado por violar a Política de Representação Autêntica de Identidade, por “participar da falsidade ideológica com o intuito de enganar, induzir outros ao erro, evadir regras ou violar os Padrões da Comunidade”. O segundo administrador teve sua conta desabilitada de acordo com a Política de Integridade de Contas, por ser de propriedade da mesma pessoa ou entidade de uma conta já desabilitada. O terceiro administrador foi desabilitado de acordo com a Política de Spam, por abuso de engajamento. A Política de Spam proíbe, de forma ampla, práticas enganosas, fraudulentas ou excessivas que aumente artificialmente o engajamento em posts. Essas ações resultaram na remoção da página e do conteúdo publicado. Antes da remoção, a página era elegível para monetização por meio do programa Stars da Meta.
O Comitê fez perguntas sobre rotulagem, detecção de IA, checagem de fatos, implementação do CPP, comportamentos em nível de página e conta e outros assuntos. A Meta respondeu a todas as perguntas.
4. Comentários públicos
O Comitê recebeu seis comentários públicos que cumpriam os termos para envio. Quatro comentários foram enviados da Europa, e dois, dos Estados Unidos. Para ler comentários públicos enviados com consentimento de publicação, clique aqui.
Os envios trataram de temas como: moderação de conteúdo em contextos de conflito e crise, a disseminação de conteúdo gerado por IA e o aumento de comportamentos inautênticos coordenados em conflitos armados, as restrições da definição de “dano físico iminente” da Meta, a importância da checagem de fatos durante conflitos armados, os padrões e implementação de rótulos de mídia manipulada, a relevância dos padrões C2PA para detecção, entre outros tópicos.
5. Análise do Comitê de Supervisão
O Comitê selecionou este caso para analisar as políticas e práticas de aplicação da Meta relacionadas ao compartilhamento de conteúdo gerado por IA de forma enganosa em suas plataformas, especialmente no contexto de conflitos armados. Esse caso se encaixa nas prioridades estratégicas do Comitê em Situações de Crise e de Conflito e IA e automação.
Ele analisou a decisão da Meta nesse caso em relação às políticas de conteúdo, aos valores e às responsabilidades de direitos humanos da empresa. Também avaliou as implicações desse caso quanto à abordagem mais ampla da Meta em relação à governança de conteúdo.
5.1 Conformidade com as políticas de conteúdo da Meta
Regras sobre conteúdo
O Comitê concluiu que o conteúdo do caso não exigia a remoção de acordo com os Padrões da Comunidade sobre Desinformação; contudo, a Meta deveria ter aplicado o rótulo de “IA de alto risco” ao conteúdo, conforme as regras de mídia manipulada.
O post não violou as políticas de Desinformação da Meta que exigem a remoção, uma vez que não havia probabilidade de contribuir para violência iminente ou dano físico a pessoas. O vídeo mostrava de forma enganosa o impacto de um ataque iraniano contra Israel e foi postado em um momento próximo à queda de mísseis em Haifa. Embora provavelmente tenha causado mais apreensão entre os enganados, dificilmente levaria a atos de violência de civis israelenses contra adversários percebidos ou influenciaria diretamente a atuação do governo de Israel. Não há indícios de violência entre comunidades dentro de Israel em resposta a representações enganosas dos ataques.
Apesar dessa conclusão, é preocupante que a Meta não tenha apresentado qualquer análise do risco potencial de dano em sua avaliação do conteúdo. Em vez disso, a empresa concluiu que, como nenhum parceiro confiável havia sinalizado o conteúdo, as regras não foram violadas. Não se pode considerar adequada essa postura quando diversos Parceiros Confiáveis comunicam ao Comitê que a Meta tem se mostrado menos receptiva a demandas e preocupações, parcialmente por causa da diminuição da capacidade de suas equipes internas. A Meta deve conseguir realizar essas avaliações de danos por conta própria, em vez de depender exclusivamente do contato de parceiros durante um conflito armado. A página tinha grande número de seguidores, o conteúdo viralizou, foi identificado pelo classificador de desinformação da Meta e recebeu várias denúncias de usuários. Fontes confiáveis, como a AFP, desmentiram um vídeo muito semelhante, colocando a Meta em alerta para analisar de forma proativa informações enganosas que pudessem gerar prejuízos. A ativação do Protocolo de Política de Crise (CPP) deveria ter garantido que os recursos necessários estivessem disponíveis para que a Meta realizasse essas avaliações internamente e buscasse proativamente o contexto local junto aos parceiros, se necessário. Nessas circunstâncias, o conteúdo deveria ter sido escalonado para análise.
Caso isso tivesse acontecido, seria evidente que o conteúdo apresentava risco significativo de desinformar o público sobre um tema relevante em um momento crucial, e então teria sido aplicado o rótulo de “IA de alto risco”. A página, apresentando-se como veículo de notícias, exibindo no vídeo o texto “Ao vivo agora” e de Haifa, retratava esse conteúdo como imagens reais de um conflito armado em curso, com risco para civis. Este usuário, cuja página já se apresentava de forma enganosa como uma fonte de notícias confiável, não teria revelado sua fraude ao declarar o uso de IA. Os pássaros brancos irreais voando pelo vídeo, junto com a constatação de organizações especializadas, como a AFP, de que o conteúdo foi gerado por IA, deveriam ter levado a Meta a avaliar a necessidade de aplicar um rótulo. A Meta também deveria ter corrigido seu erro assim que o Comitê chamou a atenção para o caso. A pesquisa realizada pelo Comitê na própria plataforma revelou várias versões deste vídeo, assim como capturas de tela relacionadas, continuavam circulando nas plataformas da Meta semanas mais tarde, e a empresa não havia aplicado nenhum rótulo.
Se este post específico também tivesse sido revisado por verificadores de fatos terceiros, o conteúdo provavelmente teria recebido um rótulo de falso e sido rebaixado (com base na classificação da AFP de um vídeo muito semelhante). A abordagem restrita da Meta para distribuir classificações a conteúdos idênticos ou quase idênticos pode ter feito com que este conteúdo específico não fosse avaliado (por exemplo, devido à adição de uma sobreposição de texto no vídeo). A escassez de recursos e o grande volume de conteúdos gerados comprometem a tempestividade da análise de conteúdos enganosos por parte dos verificadores, especialmente em contextos de crise ou conflito. O Comitê reforça que a Meta deve garantir que os verificadores de fatos tenham recursos adequados e orientações sobre como priorizar conteúdo de conflitos, para desempenhar o trabalho desafiador que a Meta espera deles (consulte Imagens de protesto combinadas com cânticos pro-Duterte).
É preocupante o fato de que, durante a crise, com o CPP em vigor e recursos adicionais disponíveis, a Meta não tenha detectado por iniciativa própria claros indícios de abuso de engajamento da página, iniciando a investigação das contas apenas após questionamentos do Comitê. A aplicação precisa das políticas de integridade e autenticidade baseadas em comportamento poderia ter evitado os danos causados por este conteúdo enganoso, vinculado a várias contas violadoras, em vez de depender de medidas corretivas posteriores baseadas no conteúdo, sujeitas a alta taxa de falhas.
5.2 Conformidade com as responsabilidades da Meta relativas aos direitos humanos
O Comitê entende que, sob as responsabilidades de direitos humanos da Meta, um rótulo de mídia manipulada por “IA de alto risco” deveria ter sido aplicado ao conteúdo, e a Meta deve fazer mais para combater a proliferação de conteúdo enganoso gerado por IA em suas plataformas, inclusive por redes inautênticas ou abusivas de contas e páginas.
Liberdade de expressão (Artigo 19 do PIDCP)
O artigo 19 do Pacto Internacional sobre Direitos Civis e Políticos (PIDCP) prevê ampla proteção da expressão, incluindo a expressão política. Esse direito inclui a “liberdade de procurar, receber e difundir informações e ideias de qualquer natureza” (Artigo 19, parágrafo 2). Quando um Estado aplica restrições à expressão, elas devem atender aos requisitos de legalidade, objetivo legítimo e necessidade e proporcionalidade (Artigo 19, parágrafo 3 do PIDCP). Esses requisitos costumam ser chamados de “teste tripartite”. O Comitê usa essa estrutura para interpretar as responsabilidades de direitos humanos da Meta de acordo com os Princípios Orientadores da ONU sobre Empresas e Direitos Humanos, com os quais a própria Meta se comprometeu em sua Política Corporativa sobre Direitos Humanos. O Comitê faz isso em relação tanto à decisão de conteúdo individual sob análise quanto ao que isso diz sobre a abordagem mais ampla da empresa à governança de conteúdo. Como afirmou o Relator Especial da ONU sobre liberdade de expressão, embora “as empresas não tenham obrigações governamentais, o impacto delas exige que avaliem o mesmo tipo de questões sobre a proteção do direito de seus usuários à liberdade de expressão” (A/74/486, parágrafo 41).
Além disso, o Grupo de Trabalho da ONU sobre Empresas e Direitos Humanos afirmou que “como o risco de graves violações de direitos humanos é maior em áreas afetadas por conflitos”, a devida diligência por parte das empresas deve ser “intensificada de maneira proporcional” (A/75/212, parágrafo). 13). No relatório de 2024 sobre o conflito Israel-Gaza, o Relator Especial da ONU para a liberdade de expressão e opinião revelou que as plataformas falham sistematicamente em atender a essa responsabilidade durante conflitos e ressaltou o aumento do risco de desinformação e informação falsa nessas circunstâncias (A/79/319, parágrafo 60, 66). No conflito entre Israel e Irã, apagões de internet afetaram o acesso dos civis à informação, criando um vácuo que a mídia gerada por IA enganosa rapidamente passou a preencher (veja abaixo: PC-31545 WITNESS).
Existe uma ampla gama de ferramentas à disposição da Meta para reduzir os possíveis prejuízos do conteúdo gerado por IA de forma enganosa em suas plataformas. Este caso demonstra que a detecção e a rotulagem devem ser aplicadas de forma mais consistente, frequente e eficaz, a fim de evitar danos aos usuários a curto prazo, especialmente em situações de conflito, onde os riscos são muito maiores. Deve haver suporte com recursos suficientes para verificadores de fatos externos e orientação sobre como priorizar conteúdos relacionados a conflitos, assim como investimento na aplicação correta de políticas contra abusos de comportamento em contas e páginas.
I. Legalidade (clareza e acessibilidade das regras)
O princípio da legalidade exige que as regras que restrinjam a expressão sejam acessíveis e claras, formuladas com precisão suficiente para permitir que um indivíduo regule sua conduta de acordo com elas (Comentário Geral n.º 34, parágrafo 25). Além disso, essas regras “não podem conceder liberdade de ação irrestrita para a restrição da liberdade de expressão aos encarregados de [sua] execução” e devem “fornecer instrução suficiente aos encarregados de sua execução para permitir-lhes determinar quais tipos de expressão são adequadamente restritas e quais tipos não são” (Ibid). O Relator Especial da ONU sobre a liberdade de expressão declarou que, quando aplicadas à governação do discurso online por parte de intervenientes privados, as regras devem ser claras e específicas (A/HRC/38/35, parágrafo 46). As pessoas que usam as plataformas da Meta devem ser capazes de acessar e entender as regras, e os analistas de conteúdo devem ter orientações claras sobre sua aplicação.
Os Padrões da Comunidade sobre Desinformação devem oferecer mais clareza aos usuários e àqueles que aplicam as regras.
A explicação geral sobre a colaboração da Meta com terceiros para identificar tendências enganosas não deixa claro que a aplicação das regras depende totalmente de os parceiros comunicarem suas preocupações à Meta. Em vez de apenas esclarecer isso, é necessária uma abordagem diferente, pelos motivos descritos a seguir.
A explicação pública mais completa sobre os três rótulos de mídia manipulada da Meta está disponível nas decisões do Comitê. O Comitê reforça sua recomendação de que a Meta forneça uma descrição completa dos três rótulos de mídia manipulada, dos critérios para aplicá-los e das consequências decorrentes (Imagens de protesto combinadas com cânticos pro-Duterte), ressaltando que essa prática deve continuar a se desenvolver.
Além disso, a Política de Mídia Manipulada não descreve publicamente as penalidades que “podem ser” aplicadas caso um usuário não divulgue o uso de IA. A Meta explicou ao Comitê que essas penalidades apenas são aplicadas em casos de escalonamento devido a falhas repetidas e podem afetar a distribuição do conteúdo ou resultar temporariamente na suspensão de certas funcionalidades da conta. Parece que a Meta possui ampla liberdade de ação neste campo, e é preciso oferecer informações mais claras aos usuários.
Incluir mais informações sobre a origem do conteúdo, rotulagem e autodeclaração nos Padrões da Comunidade sobre Desinformação poderia gerar confusão, ao misturar esforços de mitigação de engano com medidas positivas para promover a integridade da informação. Nem todo uso de conteúdo gerado por IA, nem toda aplicação de rótulos, será eficaz contra tentativas de engano. Delinear essas regras em Padrões da Comunidade separados poderia ajudar a esclarecer a abordagem da Meta e melhorar o comportamento dos usuários.
II. Objetivo legítimo
Qualquer restrição à liberdade de expressão também deve perseguir um ou mais dos objetivos legítimos listados no PIDCP, o que inclui a proteção dos direitos e segurança de terceiros.
No caso Vídeo alterado do Presidente Biden, o Comitê destacou que “evitar que as pessoas sejam induzidas ao erro não constitui, por si só, uma justificativa legítima para limitar a liberdade de expressão.” Contudo, os Padrões da Comunidade sobre Desinformação têm como objetivo reduzir o risco de dano físico ou violência iminente contra indivíduos, sendo este um propósito legítimo no que se refere aos direitos de outrem (Comentário Geral 34, parágrafo 28).
III. Necessidade e proporcionalidade
Nos termos do artigo 19(3) do PIDCP, a necessidade e a proporcionalidade exigem que as restrições à expressão “devem ser adequadas para atingir sua função de proteção; devem ser o instrumento menos intrusivo entre aqueles que podem atingir sua função de proteção; devem ser proporcionais ao interesse a ser protegido” (Comentário Geral n.º 34, parágrafo 34).
O Relator Especial da ONU sobre a liberdade de expressão declarou que durante um conflito armado, as pessoas estão em seu estado mais vulnerável e com maior necessidade de informações precisas e confiáveis para garantir sua própria segurança e bem-estar. No entanto, é precisamente nessas situações que sua liberdade de opinião e expressão [...] é mais limitada pelas circunstâncias da guerra e pelas ações das partes no conflito e outros agentes para manipular e restringir informações para objetivos políticos, militares e estratégicos” (A/77/288, parágrafo 1).
O Relator Especial também enfatizou que “as empresas têm ferramentas para lidar com conteúdo de formas alinhadas aos direitos humanos, em alguns aspectos, uma variedade maior de ferramentas do que aquela de que dispõem os estados. Essa variedade de opções permite que eles ajustem suas respostas a conteúdos problemáticos específicos, de acordo com sua gravidade e outros fatores” (A/74/486, parágrafo 51).
Ao avaliar a necessidade e proporcionalidade das medidas potenciais, o Comitê levou em conta: (a) a apresentação enganosa da página como fonte de notícias confiável; (b) a relação direta do conteúdo com um conflito armado em curso;(c) a vulnerabilidade de civis em busca de informações verificadas em meio a esse conflito;( d) a rápida disseminação bem documentada de conteúdo enganoso gerado por IA durante esse conflito (ver PC-31528 Instituto Alan Turing); (e) a distribuição em múltiplas plataformas de conteúdo similar ou quase idêntico; e (f) os incentivos de engajamento e monetização associados à geração de mídia manipulada durante conflitos.
O Comitê conclui que aplicar um rótulo de mídia manipulada “IA de alto risco” ao conteúdo atenderia aos requisitos de necessidade e proporcionalidade, e se preocupa com a omissão da Meta. Essa medida seria bem menos invasiva que a remoção, considerando que a desinformação não apresentava risco iminente de causar danos. No momento, esse rótulo teria caráter informativo, sem implicar rebaixamento ou retirada das recomendações. A Meta mostraria uma janela pop-up aos usuários que tentarem republicar conteúdo com esse rótulo. Um rótulo ajudaria a reduzir o impacto desse engano sobre usuários que buscam informações precisas online sobre o conflito.
Em decisões anteriores do Comitê, destacou-se que a propagação de mídia manipulada sem rótulo pode comprometer a confiança geral na autenticidade do conteúdo na plataforma. Isso se aplica verdadeiramente durante conflitos armados, quando mídias manipuladas que retratam violações do direito humanitário internacional podem reduzir a confiança nessas estruturas e nas proteções que oferecem aos civis. Para cumprir suas responsabilidades em direitos humanos, a Meta deveria ter escalado a análise do conteúdo sem depender de terceiros, aplicando o rótulo imediatamente.
Os mecanismos atuais para aplicar até mesmo o rótulo padrão de “Informação de IA” em vídeos (autodeclaração do usuário ou encaminhamento para a equipe de Política de Conteúdo) não são robustos nem abrangentes para lidar com a escala e a velocidade dos conteúdos de IA, particularmente durante crises ou conflitos, onde o tráfego de informações e a interação dos usuários atingem picos críticos. O Comitê observa que um sistema que dependa principalmente da autodeclaração de uso de IA e revisões escalonadas (que ocorrem raramente) para rotular adequadamente o conteúdo não consegue atender aos desafios impostos pelo ambiente atual.
Alguns membros observaram que a definição da Meta de “dano físico ou violência iminente” não abrange as diversas formas pelas quais o conteúdo enganoso gerado por IA pode ter impactos sociais sérios, mesmo que indiretos, durante um conflito armado. Por exemplo, poderia comprometer o acesso a informações confiáveis necessárias para cobrar responsabilidades de agentes governamentais e outras partes, aumentando a vulnerabilidade da população à manipulação e possibilitando outras formas de influência enganosa. Para esses membros do Comitê, apenas rotular como “mídia manipulada”, sem rebaixar ou remover das recomendações, não resolve essas questões. Reduzir o alcance desse tipo de conteúdo durante momentos de alto risco, como conflitos armados, seria uma intervenção necessária e proporcional. O Comitê admite que uma classificação incorreta de verificadores de fatos terceiros sobre este conteúdo teria igualmente levado a esse resultado.
No setor como um todo, há grandes desafios técnicos para assegurar que o conteúdo gerado por IA seja rotulado de forma correta e consistente. A Meta informou ao Comitê que utiliza indicadores padrão do setor, ou seja, os metadados que ferramentas de IA generativa frequentemente incorporam ao conteúdo, para rotular automaticamente imagens estáticas. Contudo, nem todos os sistemas de IA generativa incorporam atualmente os metadados requeridos para rotulagem. Mesmo que uma ferramenta inclua os metadados, os usuários podem facilmente removê-los do conteúdo antes de compartilhá-lo nas redes sociais. As restrições nos mecanismos da Meta podem indicar os desafios atuais, mas cabe à empresa reagir proativamente às tecnologias que evoluem com rapidez. Trata-se de uma questão que vai além do conteúdo enganoso, já que essas restrições dificultam a capacidade dos usuários de verificar a autenticidade de todas as informações. Esses desafios só se intensificarão à medida que o volume e a qualidade de vídeos e áudios gerados por IA continuarem a superar as ferramentas disponíveis de detecção e rotulagem. O Comitê incentiva fortemente a Meta a priorizar o aprimoramento de seus mecanismos de detecção e rotulagem, de modo a identificar melhor todas as formas de conteúdo gerado por IA em suas plataformas, informar adequadamente os usuários quando estiverem lidando com mídia manipulada e concentrar-se nos tipos de conteúdo que apresentam os maiores riscos.
O Comitê observa que a Meta integra o comitê de direção da C2PA. Segundo a C2PA, com a rápida evolução do compartilhamento de informações, torna-se essencial rastrear a origem da mídia. O padrão técnico aberto permite determinar a procedência e as modificações de conteúdos digitais. É preocupante que a Meta não aplique consistentemente os padrões da C2PA, inclusive em conteúdos gerados por IA com suas próprias ferramentas. Um estudo recente indicou que, ao serem verificadas pelos recursos da C2PA, apenas algumas das imagens e vídeos produzidos pelas ferramentas de IA da Meta apresentavam Credenciais de Conteúdo e eram corretamente rotulados.
O conteúdo do caso parece ter origem fora da plataforma da Meta, no TikTok, antes de ser rapidamente compartilhado em outras plataformas, com posts semelhantes surgindo no Facebook, Instagram e X, mesmo após o relatório da AFP apontar a falsidade de conteúdo parecido. Comentários públicos enfatizaram a necessidade de forte colaboração entre plataformas durante períodos de conflito armado, para reduzir e mitigar a velocidade de disseminação de conteúdo enganoso gerado por IA.
Conforme mencionado acima, o CPP e as designações de Eventos em Tendência deveriam ter permitido à Meta assegurar um suporte mais eficaz aos verificadores de fatos de terceiros durante o período de crise. A extensão da aplicabilidade das classificações a categorias mais amplas de conteúdos semelhantes poderia ter reduzido significativamente o potencial de danos, inclusive reduzindo sua circulação. O caso destaca falhas na abordagem atual da Meta durante conflitos armados, reforçando questões que o Comitê já havia expressado em casos anteriores em contextos diferentes (Decisão sobre Imagens de protesto com cânticos Pró-Duterte).
6. A decisão do Comitê de Supervisão
O Comitê reverteu a decisão da Meta de manter o conteúdo sem o rótulo de "IA de alto risco".
7. Recomendações
A. Política de Conteúdo
Desinformação
- A fim de assegurar a rápida análise de desinformação que possa causar risco iminente de dano físico ou violência durante crises, a Meta deve modificar os Padrões da Comunidade sobre Desinformação, garantindo que a execução desta norma não dependa de alertas de parceiros externos. Deveria haver um mecanismo no Protocolo de Política de Crises para destinar recursos à detecção rápida e proativa de conteúdo violador, com suporte de especialistas internos, visando identificar, analisar e tomar medidas sobre o conteúdo de acordo com a política (incluindo rotulagem conforme a Política de Mídia Manipulada e investigação de contas e páginas com sinais de abuso de engajamento).
O Comitê reconhecerá a implementação quando a Meta revisar sua Política de Desinformação, incorporando esses requisitos para a categoria de risco de dano físico ou violência.
Conteúdo gerado por IA
2. Para fortalecer a confiança nas informações das plataformas da Meta, a empresa deve estabelecer Padrões da Comunidade voltados para conteúdo gerado por IA, distintos dos Padrões da Comunidade sobre Desinformação. Os novos Padrões da Comunidade devem incluir informações completas sobre preservação da origem (ou seja, a captura de fatos detalhados sobre a trajetória de um conteúdo digital), protocolos de rotulagem de IA e regras de autodeclaração.
O Comitê reconhecerá a implementação quando a Meta lançar Padrões da Comunidade exclusivos do conteúdo gerado por IA.
3. A fim de tornar suas regras mais claras, a Meta deve divulgar uma explicação clara sobre as penalidades para casos de não autodeclaração de conteúdo criado ou modificado digitalmente. Deve estabelecer critérios para aplicação de penalidades, indicando quais funcionalidades da conta são restringidas e por qual período.
O Comitê reconhecerá a implementação quando a Meta analisar os Padrões da Comunidade, incorporando informações sobre penalidades, e tornar essa orientação acessível na Central de Transparência.
B. Aplicação
Procedência
4. Para garantir que os usuários possam identificar de forma confiável conteúdos gerados por IA, a Meta deve implementar as Credenciais de Conteúdo (conforme estabelecido pela Coalition for Content Provenance and Authenticity) em larga escala e assegurar que sejam clara e consistentemente visíveis e acessíveis aos usuários sempre que os detalhes de origem estiverem disponíveis. Os dados de procedência não devem ficar restritos à detecção interna ou a sistemas internos de back-end.
O Comitê reconhecerá a implementação quando a Meta apresentar um relatório detalhando as mudanças em suas interfaces e produtos, assegurando que as Credenciais de Conteúdo estejam sempre visíveis e claramente acessíveis aos usuários quando disponíveis.
Detecção e rotulagem
5. Para aprimorar a precisão na detecção e rotulagem, a Meta deve investir em ferramentas de detecção mais robustas para conteúdo gerado por IA em múltiplos formatos (áudio, audiovisual e imagem). A tecnologia deve auxiliar as equipes de escalonamento a detectar de forma mais eficaz tendências de conteúdo de IA, incluindo riscos associados a conteúdo enganoso durante crises.
O Comitê reconhecerá a implementação da recomendação quando a empresa informar a adoção de ferramentas mais avançadas e compartilhar dados de transparência relativos ao seu desempenho. Esses resultados devem ser detalhados por idioma, país e se o Protocolo de Política de Crises foi ativado. Os dados devem ser apresentados considerando períodos comparáveis antes e após a aplicação dessas mudanças.
6. Para garantir uma rotulagem mais precisa, a Meta deve anexar informações de procedência e marcas d’água invisíveis ao conteúdo criado por ferramentas de IA da Meta, de modo que possam ser detectadas e rotuladas de forma consistente em todas as plataformas. Deve-se aplicar as Credenciais de Conteúdo assim que o conteúdo for criado, combinadas com indicadores reconhecidos pelo setor para atribuição de todo conteúdo gerado pelo Meta AI.
O Comitê reconhecerá a implementação da recomendação quando a empresa apresentar ao Comitê um relatório detalhando como a Meta AI anexa e mantém de forma consistente os dados de procedência e marcas d’água invisíveis em conteúdos compartilhados na plataforma.
7. A fim de tornar mais consistente a aplicação dos rótulos “Alto risco” e “IA de alto risco” a conteúdos enganosos, a Meta deve criar processos que permitam aplicar esses rótulos com maior frequência, apoiados por canais de escalonamento claros provenientes de sistemas automatizados e revisões em escala, permitindo a rotulagem em volumes muito maiores.
O Comitê reconhecerá a implementação da recomendação quando existirem novas vias de escalonamento para afixação dos rótulos “Alto risco” e “IA de alto risco” em conteúdos, e a Meta apresentar ao Comitê dados sobre o volume desses rótulos aplicados em 2026, por trimestre. A ausência de um denominador (isto é, o volume total de conteúdo não rotulado que não atende a esse critério) não deve ser um impedimento para fornecer essas informações ao Comitê.
*Nota processual:
- As decisões do Comitê de Supervisão são tomadas por painéis de cinco membros e aprovadas por maioria de votos do Comitê inteiro. As decisões dele não representam, necessariamente, as opiniões de todos os membros.
- De acordo com seu Estatuto, o Comitê de Supervisão pode analisar apelações de usuários cujo conteúdo foi removido pela Meta, apelações de usuários que denunciaram conteúdo que a Meta manteve ativo e decisões que a Meta encaminha a ele (Seção 1 do Artigo 2 do Estatuto). O Comitê tem autoridade vinculativa para manter ou anular as decisões de conteúdo da Meta (Capítulo) Artigo 3, Seção 5; Artigo 4 do Estatuto). Ele pode emitir recomendações não vinculativas às quais a Meta é obrigada a responder (Seção 4 do Artigo 3 e Artigo 4 do Estatuto). Quando a Meta se compromete a agir de acordo com as recomendações, o Comitê monitora sua implementação.
- Para a decisão sobre o caso em questão, uma pesquisa independente foi encomendada em nome do Comitê. O Comitê recebeu assistência da Duco Advisors, uma empresa de consultoria especializada na intercessão entre as áreas de geopolítica, confiança e segurança, e tecnologia.
Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas