Decisão de múltiplos casos

Vídeos de professores batendo em crianças

O Comitê de Supervisão recomenda que uma exceção seja incluída nos Padrões da Comunidade sobre Exploração Sexual, Abuso e Nudez Infantil da Meta para permitir vídeos que mostrem abuso infantil não sexual em ambientes educacionais, em determinadas circunstâncias.

2 casos incluídos neste pacote

Anulado

FB-3WTN9CX3

Caso sobre nudez infantil e exploração sexual de crianças no Facebook

Plataforma
Facebook
विषय
Crianças/direitos das crianças,Liberdade de expressão,Violência
Padrão
Nudez infantil e exploração sexual de crianças
Localização
Índia
Date
Publicado em 31 de Julho de 2025
Anulado

FB-UR3UXTEA

Caso sobre nudez infantil e exploração sexual de crianças no Facebook

Plataforma
Facebook
विषय
Crianças/direitos das crianças,Liberdade de expressão,Violência
Padrão
Nudez infantil e exploração sexual de crianças
Localização
França
Date
Publicado em 31 de Julho de 2025

Para ler a decisão completa em punjabi, clique aqui.

ਇਸ ਫ਼ੈਸਲੇ ਨੂੰ ਪੰਜਾਬੀ ਵਿੱਚ ਪੜ੍ਹਨ ਲਈ, ਇੱਥੇ ਕਲਿੱਕ ਕਰੋ।

Resumo

Ao considerar dois vídeos que mostram abuso infantil não sexual em ambientes educacionais, o Comitê de Supervisão recomenda que uma exceção seja incluída nos Padrões da Comunidade sobre Exploração Sexual, Abuso e Nudez Infantil da Meta para permitir esse conteúdo, quando compartilhado para condenar, denunciar ou conscientizar, e quando as crianças não forem identificáveis. A proibição atual da Meta de postar vídeos ou fotos de abuso infantil não sexual, independentemente da intenção e mesmo quando as identidades são ocultadas, resulta em restrições desproporcionais à liberdade de expressão. Compartilhar esse conteúdo contribuiria para o debate público sobre questões importantes dos direitos das crianças.

O Comitê confirmou a decisão da Meta de permitir esse conteúdo em um caso e anulou a decisão da empresa de removê-lo no outro. Ambos os posts devem permanecer ativos conforme a permissão para conteúdo de valor jornalístico, com telas de aviso.

Sobre os casos

No primeiro caso, uma organização de mídia indiana postou um vídeo em sua página do Facebook que mostra uma professora gritando com um jovem estudante por não estudar, batendo repetidamente em sua cabeça e costas e puxando seu turbante. Um borrão sobreposto cobria o rosto da criança durante a maior parte do vídeo. A legenda observava que uma autoridade estadual pedia responsabilização.

No segundo caso, um vídeo foi postado em uma página do Facebook que parece compartilhar notícias locais de uma região da França. O vídeo mostra um grupo de crianças muito pequenas, com uma delas chorando. Um professor bate na criança, que cai no chão enquanto as outras crianças assistem. Todos os rostos no vídeo estão desfocados. A legenda faz referência à escola, à data e ao bairro onde o incidente ocorreu e a uma investigação.

Após a denúncia e escalation, os especialistas em políticas da Meta determinaram que o conteúdo indiano não seguia a Política sobre Exploração Sexual, Abuso e Nudez Infantil e o removeram. Como o conteúdo foi postado para conscientizar, a Meta não aplicou uma advertência contra a conta, revelou a empresa ao Comitê.

O conteúdo francês foi removido sem análise humana por não seguir a mesma política. Após o criador do conteúdo enviar uma apelação, a Meta confirmou que a remoção estava correta, mas removeu as advertências que havia aplicado devido ao interesse público e porque o conteúdo foi compartilhado para conscientizar.

A empresa encaminhou ambos os casos ao Comitê. Ao preparar seus envios, os especialistas em políticas da Meta decidiram manter o conteúdo francês com uma permissão para conteúdo de valor jornalístico e uma tela de aviso. A Meta afirmou que um advogado que representa os pais da criança compartilhou o vídeo na mídia local para conscientizar sobre o incidente. Para a Meta, isso significava que o valor do interesse público superava o dano, já que o "consentimento dos pais atenuava as preocupações com privacidade e dignidade".

Principais descobertas

O Comitê considera que a proibição da Meta de postar vídeos ou fotos de abuso infantil não sexual, independentemente da intenção e mesmo quando as identidades são ocultadas, resulta em restrições desproporcionais à liberdade de expressão. A Política sobre Exploração Sexual, Abuso e Nudez Infantil não faz distinção entre crianças identificáveis e não identificáveis. No entanto, a identificabilidade é fundamental. Se esse risco for mitigado, haverá preocupações mais limitadas com privacidade e dignidade.

O Comitê considera que ambos os posts não seguem a Política sobre Exploração Sexual, Abuso e Nudez Infantil. No entanto, a maioria considera que eles devem permanecer ativos com base na permissão para conteúdo de valor jornalístico, com telas de aviso e visibilidade restrita a usuários maiores de 18 anos. Essa medida é consistente com as responsabilidades de direitos humanos da Meta e atende melhor ao teste de necessidade e proporcionalidade, permitindo maior liberdade de expressão. Ambos os posts têm alto valor de interesse público, incentivam a responsabilização e tentam evitar a identificação das crianças. No caso francês, o consentimento dos pais, embora não seja incontestável, embasa a presunção de que a divulgação do vídeo não é contrária aos melhores interesses da criança. Essas reportagens contribuem para importantes debates públicos sobre os direitos das crianças, no contexto dos crescentes esforços globais para proibir o abuso infantil em ambientes educacionais.

Uma minoria do Comitê discorda, concluindo que o interesse público não supera o risco de danos à privacidade e à dignidade das crianças retratadas. Para esses membros, a remoção seria a melhor forma de respeitar os interesses das crianças.

A decisão do Comitê de Supervisão

O Comitê mantém a decisão da Meta no caso francês de manter o conteúdo na plataforma, com uma permissão para conteúdo de valor jornalístico e uma tela de aviso. Ele anula a decisão da Meta no caso indiano e exige que o conteúdo seja restaurado com uma permissão para conteúdo de valor jornalístico e uma tela de aviso.

O Comitê recomenda que a Meta faça o seguinte:

  • Inclua uma exceção em sua política voltada ao público sobre exploração sexual, abuso e nudez infantil, permitindo imagens e vídeos de abuso infantil não sexual cometido por adultos, quando compartilhados com a intenção de condenar, denunciar e conscientizar. Isso só deve ser aplicado quando a criança não for diretamente identificável por nome ou imagem, nem funcionalmente identificável (quando pistas contextuais provavelmente levarão à identificação do indivíduo). O conteúdo deve ser permitido com uma tela de aviso e visibilidade restrita a usuários com 18 anos ou mais. Essa exceção deve ser aplicada somente em escalation.
  • Ela não deve aplicar advertências a contas cujo conteúdo de abuso infantil não sexual seja removido em escalation quando houver indicadores claros da intenção do usuário de condenar, denunciar ou conscientizar.

Decisão completa sobre o caso

1. Descrição do caso e histórico

Essa decisão aborda dois casos de vídeos postados no Facebook mostrando abuso infantil não sexual em ambientes educacionais. Os vídeos foram postados para conscientizar. A Meta determinou que ambos os itens de conteúdo não seguiam sua Política sobre Exploração Sexual, Abuso e Nudez Infantil, que proíbe "vídeos ou fotos que retratem abuso infantil não sexual, independentemente da intenção de compartilhamento". Ela encaminhou ambos os casos ao Comitê para orientação sobre como lidar com a segurança e a dignidade das crianças, bem como sobre a necessidade de promover a conscientização a respeito de eventos e questões com valor jornalístico.

No primeiro caso, uma organização de mídia na Índia postou um vídeo em sua página do Facebook no qual uma professora gritava com um jovem estudante por não estudar. Ela bate repetidamente na cabeça e nas costas dele e parece puxar seu turbante. O rosto da criança foi sobreposto com um borrão. Embora ocasionalmente o borrão não conseguisse cobrir seu rosto em movimento, ainda era difícil identificá-la claramente. A professora e outros alunos estavam visíveis. A legenda identificou onde o incidente ocorreu e observou que uma autoridade estadual havia exigido responsabilização.

O post foi visualizado milhares de vezes. Dez pessoas o denunciaram. Como a conta recebe proteções de verificação cruzada, um das denúncias foi encaminhada a especialistas em políticas, que determinaram que o conteúdo não seguia a Política sobre Exploração Sexual, Abuso e Nudez Infantil e removeram o post. A Meta descreve a verificação cruzada como uma estratégia de prevenção de erros que fornece níveis extras de análise. A Meta revelou ao Comitê que não aplicou uma advertência contra a conta do criador do conteúdo porque o conteúdo foi postado para conscientizar.

No segundo caso, um vídeo foi postado em uma página do Facebook que parece compartilhar notícias locais de uma região da França. O vídeo mostra um grupo de crianças muito pequenas em um ambiente educacional, com uma criança chorando. O professor bate na criança, que cai no chão enquanto as outras crianças assistem. Ele também parece borrifar algo nela. Todos os rostos estão desfocados nesse vídeo. A legenda cita o bairro específico, a data e a escola onde o incidente foi aparentemente filmado e faz referência a uma investigação.

O post foi visualizado milhares de vezes. Um usuário denunciou o ocorrido e um sistema automatizado identificou que ele poderia não seguir a Política sobre Exploração Sexual, Abuso e Nudez Infantil. O conteúdo foi então removido sem análise humana por não seguir a política. A Meta aplicou uma advertência padrão e grave à conta do criador do conteúdo do caso. O administrador da página encaminhou o conteúdo por meio de um "canal de suporte ao criador de conteúdo" para fazer uma apelação da remoção. A Meta mantém recursos para criadores de conteúdo que buscam aumentar seu público e ganhar dinheiro e pode incluir canais de suporte adicionais para usuários. Os especialistas em políticas confirmaram que a remoção estava correta, mas reverteram a decisão anterior de aplicar advertências devido "ao interesse público e ao contexto de conscientização".

Posteriormente, quando a Meta estava preparando seus envios ao Comitê, seus especialistas em políticas decidiram permitir o conteúdo na plataforma com uma permissão para conteúdo de valor jornalístico e uma tela de aviso. De acordo com a Meta, um advogado que representa os pais da criança compartilhou o vídeo na mídia local para conscientizar sobre o incidente. Para a empresa, isso significava que o valor do interesse público superava o dano, já que o "consentimento dos pais atenuava as preocupações com privacidade e dignidade".

O Comitê observa o seguinte contexto ao tomar uma decisão:

A Organização das Nações Unidas para a Educação, a Ciência e a Cultura (UNESCO) relata que a violência escolar é generalizada, afetando alunos e funcionários da educação. Estima-se que um bilhão de crianças entre dois e 17 anos sofrem alguma forma de violência a cada ano. De acordo com a Organização Mundial da Saúde (OMS), "Em alguns países, quase todos os alunos relatam serem punidos fisicamente por funcionários da escola", com as maiores taxas observadas na África e no Sul da Ásia. Um estudo da UNICEF – Fundo das Nações Unidas para a Infância – descobriu que, no Sul da Ásia, as punições físicas e o bullying nas escolas continuam comuns, apesar das proibições legislativas.

De acordo com a organização da sociedade civil End Corporal Punishment, a punição física é proibida nas escolas da Índia. A lei só se aplica a crianças de seis a 14 anos e exclui determinados ambientes, como escolas religiosas, creches e o lar. Em contraste, a França proibiu as punições físicas em todos os ambientes, incluindo o lar, desde 2019.

2. Envios de usuários

Após os encaminhamentos desses casos pela Meta, e a decisão do Comitê de aceitá-los, ambos os usuários que postaram o conteúdo tiveram a oportunidade de enviar uma declaração. Nenhuma resposta foi recebida.

3. Políticas de conteúdo e envios da Meta

I. Políticas de conteúdo da Meta

Exploração sexual, abuso e nudez infantil

O fundamento da política da Meta afirma que a empresa "não permite conteúdo ou atividade que explore sexualmente ou coloque crianças em perigo". Os Padrões da Comunidade proíbem "vídeos ou fotos que retratem abuso infantil não sexual real ou não real, independentemente da intenção de compartilhamento, a menos que as imagens sejam artísticas, de desenhos animados, filmes ou videogames do mundo real". A política também proíbe "conteúdo que elogie, apoie, promova, defenda, forneça instruções ou incentive a participação em abuso infantil não sexual". A Meta compartilhou com o Comitê que sua orientação interna usa uma "lista exaustiva de atos específicos de abuso físico não sexual cometido por um adulto ou um animal contra qualquer pessoa menor de 18 anos" para definir abuso infantil não sexual.

Há uma pequena quantidade de disposições específicas de contexto na política que, de acordo com a Meta, são aplicadas na escalation para equipes especializadas. A política atual permite que "vídeos ou fotos de abuso infantil não sexual" permaneçam na plataforma em escalation quando solicitados por autoridades policiais, organizações de proteção à criança ou parceiros de segurança confiáveis, especificamente para auxiliar nos esforços em fornecer segurança à criança. Ela também permite "vídeos ou fotos que retratem policiais ou militares cometendo abuso infantil não sexual". Em ambos os casos, a Meta aplica uma tela de aviso de conteúdo perturbador e restringe a visibilidade a usuários com 18 anos ou mais. A Política sobre Proteção Adicional de Menores de Idade também afirma que a Meta cumpre com "solicitações governamentais para remoção de imagens de abuso infantil não sexual".

Não há exceção em nível de política para representações de abuso infantil não sexual quando compartilhadas como reportagem jornalística e para fins de conscientização ou condenação. No entanto, a empresa pode permitir esse conteúdo por meio de sua permissão para conteúdo de valor jornalístico, após análise escalada pelas equipes de políticas (ver caso Imagens de mulheres indígenas parcialmente nuas).

Permissão para conteúdo de valor jornalístico

Em determinadas circunstâncias, a empresa permitirá que conteúdo que não segue suas políticas permaneça na plataforma se tiver “valor jornalístico e se mantê-lo visível for de interesse público”. A Meta afirma que, ao tomar essa decisão, ela equilibra o interesse público no conteúdo em relação ao risco de danos. A empresa avalia “se esse conteúdo expõe uma ameaça iminente à saúde ou segurança pública ou dá voz a perspectivas que estão sendo debatidas atualmente como parte de um processo político”. Ela afirma que sua análise é embasada pelas circunstâncias específicas do país, pela natureza do discurso, pela estrutura política relevante e pelo grau de liberdade de imprensa. Quando mantém na plataforma conteúdo potencialmente sensível ou perturbador com base nessa permissão, a Meta exibe uma tela de aviso. Ela também pode restringir o acesso a usuários com 18 anos ou mais. A permissão pode ser aplicada a qualquer política de conteúdo, mas como somente moderadores especializados podem concedê-la, isso acontece muito raramente. Em sua Central de Transparência, a Meta afirma que aplicou a permissão 32 vezes entre junho de 2023 e junho de 2024.

II. Envios da Meta

A Meta "assume uma posição firme contra o compartilhamento de conteúdo de abuso infantil não sexual, independentemente da intenção, para priorizar a segurança, a dignidade e a privacidade do menor de idade", devido ao "risco significativo de danos" que esse conteúdo representa. De acordo com a empresa, uma ampla gama de partes interessadas destacou que compartilhar esse material pode retraumatizar a criança, expô-la a assédio e vergonha contínuos e dificultar sua recuperação, especialmente dada a visibilidade duradoura do conteúdo nas redes sociais.

Ela enfatizou que os ativistas dos direitos da criança apoiam a priorização da segurança e da privacidade das crianças vítimas, ao mesmo tempo em que reconhecem que as redes sociais podem desempenhar um papel positivo na conscientização. A Meta também observou que "os riscos à privacidade são diminuídos, mas não eliminados, quando o rosto da vítima não está visível ou desfocado". Para equilibrar essas preocupações, a política proíbe vídeos e fotos de abuso infantil não sexual, mas permite descrições textuais, que são frequentemente usadas em reportagens jornalísticas.

A Meta determinou que ambos os posts não seguiam sua política que proíbe representações de "abuso infantil não sexual real ou não real, independentemente da intenção de compartilhamento". No entanto, ela acabou constatando que o conteúdo do caso francês era qualificado para uma permissão para conteúdo de valor jornalístico e restaurou o post com uma tela de aviso. A permissão foi concedida devido ao valor de interesse público do post e aos riscos limitados. Os pais da criança consentiram com a distribuição do vídeo, o que atenuou as preocupações com privacidade e dignidade. A Meta também notou que o rosto da criança estava desfocado. Ela afirmou que se qualquer um desses fatores tivesse sido diferente, o resultado poderia ter mudado. A empresa também reconheceu que desfocar o rosto de uma criança reduz, mas não elimina o risco, pois outras pistas contextuais podem levar à identificação.

Em contraste, o post no caso indiano foi removido e não recebeu permissão para conteúdo de valor jornalístico. A Meta determinou que, embora o conteúdo tivesse valor de interesse público para conscientizar sobre abuso infantil nas escolas, o risco de danos era significativo. O post divulgou a localização da escola e mostrou o rosto da professora sem desfoque, reduzindo ainda mais o anonimato. Como resultado, indivíduos locais poderiam potencialmente identificar a criança. A Meta também observou que, diferentemente do caso francês, não havia evidências de que a criança ou sua família tivessem consentido que as imagens fossem compartilhadas. Portanto, o interesse público não superou o risco de dano.

A Meta informou ao Comitê que, em última análise, não aplicou advertências a nenhum dos criadores de conteúdo, pois ambos os posts foram compartilhados para conscientizar. O post francês recebeu uma advertência padrão e grave após a primeira análise, mas essa decisão foi revertida logo depois durante uma análise escalada.

O Comitê fez perguntas à Meta em relação à sua Política sobre Abuso Infantil não Sexual, incluindo o fundamento por trás da política, as partes interessadas consultadas e suas opiniões, a aplicação da permissão para conteúdo de valor jornalístico e os processos de aplicação da política. O Comitê também questionou a viabilidade de fornecer aos usuários ferramentas para tornar as crianças não identificáveis. A empresa respondeu a todas as perguntas.

4. Comentários públicos

O Comitê recebeu sete comentários públicos que cumpriam os termos para envio. Seis dos comentários foram enviados dos Estados Unidos e do Canadá, e um da Europa. Para ler comentários públicos enviados com consentimento de publicação, clique aqui.

Os envios abordaram os seguintes temas: os potenciais danos às crianças, suas famílias e à sociedade ao permitir imagens de abuso infantil não sexuais nas redes sociais; responsabilidades das plataformas de rede social; punição física como uma violação dos direitos humanos das crianças; e denúncias de abuso infantil como uma questão de interesse público, para responsabilização.

5. Análise do Comitê de Supervisão

O Comitê selecionou esses casos dada a importância da liberdade de expressão que apoia a responsabilização em questões de interesse público e a necessidade de respeitar os melhores interesses da criança. Esses casos destacam a tensão entre os valores de voz da Meta e a garantia da privacidade, segurança e dignidade das crianças.

O Comitê analisou a decisão da Meta nesse caso em relação às políticas de conteúdo, aos valores e às responsabilidades de direitos humanos d empresa. Ele também avaliou as implicações desse caso quanto à abordagem mais ampla da Meta em relação à governança de conteúdo.

5.1 Conformidade com as políticas de conteúdo da Meta

Regras sobre conteúdo

O Comitê considera que ambos os posts não seguem a Política sobre Exploração Sexual, Abuso e Nudez Infantil da Meta, que proíbe representações de abuso infantil não sexual. Ambos os vídeos mostram adultos batendo em crianças.

A maioria do Comitê considera que a Meta estava certa ao aplicar uma permissão para conteúdo de valor jornalístico no caso francês e que a Meta também deveria ter aplicado essa permissão no caso indiano. Para a maioria, de acordo com as políticas da empresa, ambos os itens de conteúdo devem permanecer na plataforma com telas de aviso e a visibilidade deve ser restrita a usuários maiores de 18 anos.

De acordo com o teste de permissão para conteúdo de valor jornalístico da Meta, ambos os itens de conteúdo tinham alto valor de interesse público. Os vídeos retratam atos de violência cometidos por adultos, em posições de poder e responsabilidade educacional, contra crianças, e cada um tem legendas que refletem os esforços de responsabilização por esse abuso. A maioria enfatizou a importância particular que as representações visuais podem ter no jornalismo, no ativismo e na conscientização pública.

Ambos os itens de conteúdo também apresentam risco limitado para as crianças retratadas. A maioria destacou esforços para obscurecer a identificação das crianças borrando seus rostos. Embora informações sobre a localização nas legendas e pistas contextuais no conteúdo possam facilitar a identificação das escolas, a maioria acha que ainda seria difícil identificar as crianças desfocadas. Embora a Meta tenha destacado um risco de dano no caso indiano, a maioria considera esse dano pouco claro, visto que a identificação é improvável. Além disso, no caso francês, o consentimento dos pais da criança abusada, embora não seja determinante, apoia a presunção de que a divulgação do vídeo não é contrária aos melhores interesses da criança.

Uma minoria do Comitê discorda, concluindo que a permissão para conteúdo de valor jornalístico não deveria ter sido aplicada a nenhum dos casos. Esses membros do Comitê concordam que há interesse público no conteúdo, mas acham que isso não compensa o risco de danos à privacidade e à dignidade das crianças retratadas. A minoria se concentrou na permanência do conteúdo depois de disseminado online e na possibilidade de identificar as crianças vítimas, apesar da confusão, por meio de pistas contextuais em ambos os posts. Para a minoria, o consentimento dos pais não diminui esses riscos. Esses membros do Comitê acreditam que, mesmo que alguns pais consintam em compartilhar esses vídeos nas redes sociais, isso não necessariamente atende aos melhores interesses da criança ou das crianças envolvidas.

5.2 Conformidade com as responsabilidades da Meta relativas aos direitos humanos

A maioria do Comitê considera que manter o conteúdo com uma tela de aviso e visibilidade restrita a pessoas maiores de 18 anos em ambos os casos é consistente com as responsabilidades de direitos humanos da Meta. A remoção do post pela Meta no caso indiano não foi necessária nem proporcional. Uma minoria do Comitê discorda, concluindo que, de acordo com as políticas atuais da Meta, a remoção é necessária para proteger os direitos das crianças retratadas nos vídeos.

Liberdade de expressão (Artigo 19 do PIDCP)

Em 16 de março de 2021, a Meta anunciou sua Política Corporativa de Direitos Humanos, na qual descreve seu compromisso em respeitar os direitos de acordo com os Princípios Orientadores das Nações Unidas sobre Empresas e Direitos Humanos (UNGPs). De acordo com os UNGPs, as empresas devem “evitar infringir os direitos humanos de terceiros e devem abordar os impactos adversos nos direitos humanos com os quais estão envolvidas” (Princípio 11, UNGPs).

O Artigo 19 do Pacto Internacional sobre Direitos Civis e Políticos (PIDCP) oferece ampla proteção à liberdade de expressão e o Comitê de Direitos Humanos das Nações Unidas (ONU) observou que ele protege comentários sobre assuntos públicos, discussões sobre direitos humanos e jornalismo (Comentário Geral n.º 34, parágrafo 11). O comitê também declarou que a expressão é uma condição necessária para garantir a responsabilização, o que é essencial para a promoção e proteção dos direitos humanos (Comentário Geral n.º 34, parágrafo 2).

Quaisquer restrições estatais à expressão devem cumprir os requisitos de legalidade, objetivo legítimo, necessidade e proporcionalidade (Artigo 19, parágrafo 3 do PIDCP). Esses requisitos costumam ser chamados de "teste tripartite". O Comitê usa essa estrutura para interpretar as responsabilidades de direitos humanos da Meta em conformidade com os UNGPs, tanto para posts específicos quanto para a abordagem da Meta em relação à governança de conteúdo. Conforme observado pelo Relator Especial da ONU sobre liberdade de expressão, embora as empresas não tenham as mesmas obrigações que os governos, seu impacto é de um tipo que exige que elas avaliem as mesmas considerações em relação ao direito dos usuários à expressão (A/74/486, parágrafo 41).

O Artigo 3 da Convenção sobre os Direitos da Criança da ONU (CNUDC) estabelece que o melhor interesse da criança deve ser uma consideração primordial em todas as ações relacionadas. O Comitê dos Direitos da Criança (CDC) descreve o melhor interesse da criança como um princípio flexível que se aplica a crianças de todas as idades, adaptado às suas circunstâncias específicas e ao seu desenvolvimento em evolução ( Comentário Geral n.º 14, pp. 5-6). Em consonância com isto, os princípios e as diretrizes da UNICEF para a cobertura da mídia sobre crianças enfatizam que os direitos e a dignidade delas devem ser respeitados em todas as situações e que seus melhores interesses devem ter precedência sobre qualquer outra consideração, incluindo a defesa e a promoção dos direitos da criança.

O Artigo 19 da CNUDC exige que os estados protejam as crianças de todas as formas de violência física "enquanto estiverem sob os cuidados dos pais, responsáveis legais ou qualquer outra pessoa que tenha a responsabilidade da criança". O CDC deixou claro que todas as formas de violência contra crianças são inaceitáveis, observando ainda que "a punição física é invariavelmente degradante" e "incompatível com a Convenção" (Comentário Geral n.º 8, parágrafos 7, 11 e 12 e Comentário Geral n.º 13, parágrafos 17 e 24). A punição física viola a dignidade da criança e excede os limites aceitáveis da disciplina escolar (Artigo 28.2, CNUDC, Comentário Geral n.º 1, parágrafo 8). As crianças devem ser protegidas da violência e dos danos em todos os ambientes, incluindo o ambiente digital (Comentário Geral n.º 25, parágrafo 82).

O artigo 16 da CNUDC garante o direito das crianças à privacidade. O CDC destaca ainda que "a privacidade é vital para a autonomia, dignidade e segurança das crianças e para o exercício dos seus direitos" e que "ameaças podem surgir de... um estranho compartilhando informações sobre uma criança" online (Comentário Geral n.º 25, parágrafo 67).

A análise do Comitê é, portanto, embasada por fortes proteções à liberdade de expressão e aos direitos da criança, em particular o seu direito de ser protegida da violência e o seu direito à privacidade.

I. Legalidade (clareza e acessibilidade das regras)

O princípio da legalidade exige que qualquer restrição à liberdade de expressão siga uma regra estabelecida, que seja acessível e clara para os usuários (Comentário Geral n.º 34, parágrafo 25). A Política sobre Exploração Sexual, Abuso e Nudez Infantil proíbe "vídeos ou fotos que retratem abuso infantil não sexual real ou não real, independentemente da intenção de compartilhamento". O Comitê considera que a regra que proíbe representações de abuso infantil não sexual é suficientemente clara quando aplicada a esses casos.

Embora o Comitê receba com satisfação o fato de a Meta ter fornecido maior clareza sobre o processo e os critérios para a permissão para conteúdo de valor jornalístico em sua Central de Transparência em resposta às recomendações do Comitê, o Comitê reitera suas preocupações sobre sua aplicação. A permissão tem previsibilidade e acessibilidade limitadas, devido à falta de caminhos claros para identificar conteúdo que possa se qualificar (ver, entre outros, os casos Candidato a prefeito assassinado no México e Imagens de mulheres indígenas parcialmente nuas).

II.Objetivo legítimo

Qualquer restrição à liberdade de expressão também deve perseguir um ou mais dos objetivos legítimos listados no PIDCP, o que inclui a proteção dos direitos de terceiros. A Meta declarou que sua regra que proíbe representações de abuso infantil não sexual "promove o 'objetivo legítimo' de proteger os direitos de terceiros, incluindo o direito à privacidade e a proteção da dignidade das [crianças] retratadas nos vídeos", em alinhamento com o melhor interesse da criança. O Comitê, reiterando decisões anteriores que avaliam essa norma, considera que a política serve o objetivo legítimo de proteger os direitos das crianças à saúde física e mental (Artigo 19, CNUDC) e o seu direito à privacidade (Artigo 17, PIDCP; Artigo 16, CNUDC), consistente com o respeito aos melhores interesses da criança (Artigo 3, CNUDC) (ver casos Jornalista sueca denuncia violência sexual contra menores de idade e Documentário sobre abuso infantil no Paquistão).

III.Necessidade e proporcionalidade

Nos termos do artigo 19(3) do PIDCP, a necessidade e a proporcionalidade exigem que as restrições à expressão “devem ser adequadas para atingir sua função de proteção; devem ser o instrumento menos intrusivo entre aqueles que podem atingir sua função de proteção; devem ser proporcionais ao interesse a ser protegido” (Comentário Geral n.º 34, parágrafo 34).

A maioria do Comitê discorda das decisões iniciais da Meta de remover os posts franceses e indianos, concluindo que a limitação à expressão não era necessária ou proporcional para proteger os direitos da criança. A proteção da liberdade de expressão nesses casos é consistente com a proteção dos direitos da criança, na medida em que promove os objetivos de conscientização pública e responsabilização pela violência contra crianças nas escolas. A maioria também considera que a decisão analisada da Meta de permitir o post francês na plataforma é mais consistente com suas responsabilidades de proteger a liberdade de expressão. Manter o conteúdo com uma tela de aviso e permitir a visibilidade apenas para usuários maiores de 18 anos atende melhor aos testes de necessidade e proporcionalidade e permite maior liberdade de expressão. Por fim, a maioria considera que a permissão para conteúdo de valor jornalístico, com as restrições mais proporcionais de uma tela de aviso e limitações de idade, também deveria ter sido aplicada ao post indiano.

As proteções dos direitos humanos para esse tipo de expressão são altas. Ambos os itens de conteúdo foram compartilhados por páginas que são organizações de mídia ou parecem compartilhar notícias locais. Os posts tinham como objetivo denunciar e conscientizar sobre punições físicas praticadas por professores em ambientes escolares. Esse é um assunto de grande interesse público e debate, particularmente na Índia e no Sul da Ásia. Os posts incluíam legendas destacando os esforços oficiais em direção à responsabilização. A maioria considera que essas reportagens contribuem para o debate público sobre questões de direitos das crianças e ajudam a expor abusos que, de outra forma, poderiam permanecer ocultos.

A maioria concorda que representações de abuso infantil não sexual podem gerar preocupações com a privacidade e a segurança das crianças. Nesses dois casos, os rostos das crianças vítimas foram desfocados. Elas não foram identificadas por nome ou imagem, e a falta de clareza limita a possibilidade do que Meta chama de identificação funcional por meio de pistas contextuais. Atualmente, a Meta define identificação funcional nessa política como identificação "por meios diferentes do nome ou imagem, se o conteúdo incluir informações que provavelmente levem à identificação do indivíduo". Embora os posts contenham informações sobre a localização das escolas, a maioria considera que essas informações "não são suscetíveis de levar à identificação" de indivíduos específicos. Além disso, no caso francês, a maioria observa que o fator do consentimento dos pais (juntamente com os esforços para ocultar a identidade da criança) embasa a conclusão de que permitir o vídeo no Facebook não é contrário aos melhores interesses da criança. Os argumentos para remoção baseados na potencial retraumatização de crianças em vídeos como esses são consideravelmente mais fracos quando medidas significativas para obscurecer a identidade das crianças foram tomadas. Isso é particularmente relevante quando o conteúdo tem como objetivo conscientizar o público e promover a responsabilização pela violência nas escolas, o que, em última análise, promove o objetivo mais amplo de proteger as crianças de danos. A análise da necessidade e da proporcionalidade seria, no entanto, bem diferente se as crianças pudessem ser facilmente identificadas. A identificação é uma consideração fundamental aqui.

Uma minoria do Comitê discorda. Considerando o potencial dano à privacidade, dignidade e segurança das crianças retratadas, esses Membros consideram que a remoção seria a melhor maneira de respeitar os melhores interesses da criança, conforme descrito na CNUDC. Eles consideram que a remoção é necessária e proporcional a esse objetivo, nos termos do Artigo 19(3). A minoria, observando a posição da UNICEF, destaca que as representações de abuso infantil não sexual nas redes sociais podem retraumatizar as crianças vítimas e levar à humilhação pública, à estigmatização, à intimidação e à exploração ( PC-31244). A minoria enfatiza que esses riscos são amplificados pela natureza duradoura do conteúdo online, principalmente quando se torna viral, e pela possibilidade de identificação funcional, apesar do desfoque. Para a minoria, o consentimento dos pais não altera essa avaliação, pois o material online pode permanecer acessível indefinidamente. Quando essas crianças puderem expressar suas opiniões, será tarde demais para mitigar o impacto.

A minoria também observou que a restrição à expressão se limita à imagem e que esforços de responsabilização e reforma podem ser buscados por meio de outras formas de expressão. Especialistas consultados pelo Comitê enfatizaram que reportagens, defesa narrativa e petições legais podem efetuar mudanças sem focar em imagens. Isso ecoa a visão da UNICEF de que os esforços de responsabilização não devem ser feitos à custa do direito da criança à dignidade e à integridade.

Tanto a maioria quanto a minoria concordam que a Meta estava certa em não aplicar advertências nesse caso. A Central de Transparência da Meta observa que pode ou não aplicar advertências a contas que postam conteúdo removido, dependendo de vários fatores, incluindo gravidade e contexto. O Comitê concorda que aplicar qualquer penalidade que afete a capacidade dos usuários de compartilhar conteúdo adicional ou usar a plataforma afetaria desproporcionalmente sua expressão.

A nível político, o Comitê considera que a proibição da Meta de postar vídeos ou fotos de abuso infantil não sexual, independentemente da intenção e mesmo quando as identidades são ocultadas, resulta em restrições desproporcionais à liberdade de expressão. O Comitê observa que a política atual da Meta não diferencia entre crianças identificáveis e não identificáveis, concentrando-se apenas em se o conteúdo retrata abuso infantil não sexual. Entretanto, a identificabilidade é um fator crítico. Se esse risco for mitigado, haverá preocupações mais limitadas com privacidade e dignidade.

Os padrões internacionais de direitos humanos fornecem fortes proteções para a expressão em questões de interesse público e onde apoiam a realização de outros direitos. Isso inclui esforços para relatar incidentes de abuso infantil em ambientes educacionais, especialmente onde a violência contra crianças nas escolas continua prevalente. Isso é especialmente relevante no contexto dos crescentes esforços globais para proibir essas práticas. Compartilhar esse tipo de conteúdo pode revelar abusos sistêmicos, estimular o debate público e levar à responsabilização ou reforma institucional, de acordo com o melhor interesse da criança.

As imagens também costumam evocar reações mais fortes do que as descrições narrativas, pois fornecem evidências vívidas e convincentes e incentivam a responsabilização. Em algumas regiões, como o Sul da Ásia, a circulação de imagens de abuso infantil não sexual levou a respostas imediatas, incluindo resgates, prisões ou ações disciplinares.

O Comitê também observa que, de acordo com a análise de especialistas encomendada, na maioria dos casos em que conteúdo de abuso infantil não sexual é compartilhado nas redes sociais, a intenção é conscientizar, relatar incidentes, condenar o abuso, apoiar o jornalismo ou exigir responsabilização. Esse padrão foi confirmado em um estudo interno do Comitê que analisou outras ocorrências em que ambos os vídeos foram compartilhados em diferentes plataformas de rede social e permanecem disponíveis publicamente.

Para proteger melhor a expressão, mas ainda respeitando os melhores interesses da criança, o Comitê recomenda que a Meta inclua uma exceção em sua Política sobre Exploração Sexual, Abuso e Nudez Infantil para permitir conteúdo que retrate abuso não sexual com dois critérios. Primeiro, ela só deve ser aplicada quando a criança não for diretamente identificável por nome ou imagem, nem funcionalmente identificável. Em segundo lugar, a Meta deve aplicar essa exceção quando o conteúdo for postado para fins de reportagem jornalística, condenação ou conscientização.

Os usuários devem deixar sua intenção clara e a Meta pode continuar a remover conteúdo ambíguo ou pouco claro. Isso limitaria ainda mais o risco de danos às crianças. Outros Padrões da Comunidade exigem que os usuários indiquem claramente sua intenção ao criar ou compartilhar conteúdo proibido para fins de condenação, denúncia ou conscientização (por exemplo, de acordo com as Políticas sobre Organizações e Indivíduos Perigosos, Nudez e Atividade Sexual de Adultos, Bullying e Assédio e Conduta de Ódio).

O Comitê observa que a Política sobre Exploração Sexual, Abuso e Nudez Infantil da Meta atualmente inclui uma exceção para imagens de abuso não sexual quando cometidas por policiais ou militares. Essa linha de política não contém nenhuma exigência de identificabilidade limitada. O Comitê conclui que abusos não sexuais cometidos por professores envolvem preocupações semelhantes de responsabilização. No entanto, ele acredita que limitações na identificabilidade são necessárias para respeitar a privacidade e a segurança das crianças, em consonância com os melhores interesses delas.

A Meta não deve aplicar advertências contra usuários que compartilham imagens de abuso infantil não sexual com a intenção de conscientizar, condenar ou noticiar, mesmo que a criança seja identificável. Isso garantiria melhor a proporcionalidade de suas ações de aplicação que restringem a liberdade de expressão. O Comitê entende que sua exceção de política recomendada, particularmente a necessidade de considerar a probabilidade de identificação funcional, será aplicada em escalation. Embora o conteúdo com crianças identificáveis ainda deva ser removido, a Meta não deve aplicar penalidades de conta contra usuários quando houver indicadores claros de sua intenção de denunciar, conscientizar ou condenar.

O Comitê reconhece opiniões de especialistas e comentários públicos de que desfocar ou obscurecer rostos pode ajudar a reduzir danos, mas não os elimina completamente. Limitações técnicas, como intensidade de desfoque inconsistente e presença de pistas contextuais (por exemplo, uniformes escolares, locais reconhecíveis, referências à idade ou outros identificadores) ainda podem permitir a identificação, representando riscos tanto para a criança quanto para sua família. As normas de direitos humanos exigem ainda o anonimato das crianças vítimas (CNUDC, Comentário Geral n.º 25, parágrafo 57).

Desfocar ou obscurecer o rosto de uma criança continua sendo uma medida útil de redução de danos que diminui a probabilidade de identificação. Na decisão do caso Documentário sobre abuso infantil no Paquistão, o Comitê incentivou a Meta a aliviar a carga do usuário e reduzir os riscos para as crianças, fornecendo aos usuários instruções mais específicas e ferramentas no produto, como desfoque de rosto para vídeos. Embora seja tecnicamente viável, a Meta atualmente não oferece essas ferramentas (ver caso Vídeo de prisioneiro das Forças de Apoio Rápido do Sudão) e observou que o desenvolvimento exigiria recursos e consideração de fatores legais e operacionais. Dada a importância de evitar a identificação de crianças, o Comitê novamente incentiva a Meta a desenvolver ferramentas que permitam aos usuários desfocar de forma mais eficaz partes do conteúdo que desejam postar, principalmente se o desfoque impedir uma violação de política (ver caso Compartilhamento de informações residenciais privadas, recomendação n.º 13).

O conteúdo permitido pela exceção para policiais ou militares recebe uma tela de aviso "marcado como perturbador" e o acesso é restrito a maiores de 18 anos. Essas medidas exigem que os usuários cliquem para visualizar o conteúdo e o excluam da recomendação para não seguidores, conforme constatado em decisões anteriores (ver casos Hospital Al-Shifa, Reféns sequestrados de Israel e Candidato a prefeito assassinado no México).

As mesmas medidas devem ser tomadas para o conteúdo dessa nova exceção. Em consonância com o objetivo legítimo de proteger a privacidade e a dignidade das crianças retratadas, telas de aviso e restrições de idade são mais proporcionais do que a remoção quando a criança não é identificável. Embora a maioria tenha concluído que a remoção não é proporcional nesses casos, já que o desfoque torna improvável a identificação de crianças específicas, ela concorda com a minoria que ainda há algum risco. Mesmo que o rosto de uma criança tenha sido desfocado ou tenham sido feitos esforços para obscurecer os rostos das crianças, ainda pode haver riscos potenciais para sua privacidade ou dignidade. Como esse risco é mínimo, justifica-se uma restrição menos intrusiva à liberdade de expressão. A UNICEF destacou a importância de limitar a exposição não intencional a esses conteúdos e que as crianças retratadas podem enfrentar bullying e estigmatização ( PC-31244). As telas de aviso e restrições de idade ajudam a lidar com essas preocupações, limitando a exposição e o acesso, principalmente entre os colegas da criança.

6. A decisão do Comitê de Supervisão

O Comitê de Supervisão mantém a decisão da Meta no caso francês de manter o conteúdo na plataforma com uma permissão para conteúdo de valor jornalístico e uma tela de aviso "marcar como perturbador". O Comitê anula a decisão da Meta no caso indiano e exige que o conteúdo seja restaurado à plataforma com uma permissão para conteúdo de valor jornalístico e a mesma tela de aviso.

7. Recomendações

A. Política de conteúdo

1. Para permitir que os usuários condenem, denunciem e conscientizem sobre abuso infantil não sexual, a Meta deve incluir uma exceção em seus Padrões da Comunidade sobre Exploração Sexual, Abuso e Nudez Infantil, de alcance público, permitindo imagens e vídeos de abuso infantil não sexual cometido por adultos, quando compartilhados com essa intenção. O conteúdo deve ser permitido com uma tela de aviso "marcar como perturbador" e visibilidade restrita a usuários com 18 anos ou mais. Nesses casos, as crianças não devem ser diretamente identificáveis (pelo nome ou imagem), nem funcionalmente identificáveis (quando pistas contextuais provavelmente levarão à identificação do indivíduo). Essa exceção deve ser aplicada somente em escalation.

O Comitê considerará essa recomendação implementada quando a Meta atualizar os Padrões da Comunidade sobre Exploração Sexual, Abuso e Nudez Infantil, voltados ao público, de acordo com o acima exposto.

B. Aplicação

2. Para garantir uma aplicação proporcional e consistente, a Meta não deve aplicar advertências a contas cujo conteúdo de abuso infantil não sexual seja removido em escalation quando houver indicadores claros da intenção do usuário de condenar, denunciar ou conscientizar.

O Comitê considerará essa recomendação implementada quando a Meta compartilhar seus Padrões Internos de Implementação que incorporam esta orientação para o conteúdo analisado em escalation.

*Nota processual:

  • As decisões do Comitê de Supervisão são tomadas por painéis de cinco membros e aprovadas por maioria de votos do Comitê inteiro. As decisões dele não representam, necessariamente, as opiniões de todos os membros.
  • De acordo com seu Estatuto, o Comitê de Supervisão pode analisar apelações de usuários cujo conteúdo foi removido pela Meta, apelações de usuários que denunciaram conteúdo que a Meta manteve ativo e decisões que a Meta encaminha a ele (Seção 1 do Artigo 2 do Estatuto). O Comitê tem autoridade vinculativa para manter ou anular as decisões de conteúdo da Meta (Seção 5 do Artigo 3 e Artigo 4 do Estatuto). Ele pode emitir recomendações não vinculativas às quais a Meta é obrigada a responder (Artigo 3; Seção 4; Artigo 4 do Estatuto). Quando a Meta se compromete a agir de acordo com as recomendações, o Comitê monitora sua implementação.
  • Para a decisão sobre o caso em questão, uma pesquisa independente foi encomendada em nome do Comitê. O Comitê recebeu assistência da Duco Advisors, uma empresa de consultoria especializada na intercessão entre as áreas de geopolítica, confiança e segurança, e tecnologia.

Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas