Decisão de múltiplos casos

Publicações educativas sobre ovulação

Nessa decisão sumária, o Comitê está considerando em conjunto duas publicações educativas sobre ovulação. Ele acredita que as decisões originais da Meta de remover cada publicação dificultam mais o acesso das pessoas a uma área altamente estigmatizada de informações sobre saúde feminina. Depois que o Comitê levou essas duas apelações à atenção da Meta, a empresa reverteu suas decisões anteriores e restaurou ambas as publicações.

2 casos incluídos neste pacote

Anulado

FB-YZ2ZBZWN

Caso sobre nudez ou atividade sexual de adultos no Facebook

Plataforma
Facebook
विषय
Saúde,Igualdade de gênero e sexo
Padrão
Nudez adulta e atividades sexuais
Localização
Estados Unidos,Paquistão
Date
Publicado em 16 de Novembro de 2023
Anulado

IG-F5NPUOXQ

Caso sobre nudez ou atividade sexual de adultos no Instagram

Plataforma
Instagram
विषय
Saúde,Igualdade de gênero e sexo
Padrão
Nudez adulta e atividades sexuais
Localização
Argentina
Date
Publicado em 16 de Novembro de 2023

Esta é uma decisão sumária. As decisões sumárias examinam os casos em que a Meta reverteu a decisão original dela sobre um conteúdo depois que o Comitê o levou à atenção da empresa. Essas decisões incluem informações sobre os erros reconhecidos da Meta e são aprovadas por um painel de Membros do Comitê, não pelo Comitê completo. Elas não consideram comentários públicos e não têm valor precedente para o Comitê. As decisões sumárias fornecem transparência sobre as correções da Meta e destacam áreas de possível melhoria na aplicação de políticas.

Resumo do caso

Nessa decisão sumária, o Comitê está considerando em conjunto duas publicações educativas sobre ovulação. Ele acredita que as decisões originais da Meta de remover cada publicação dificultam mais o acesso das pessoas a uma área altamente estigmatizada de informações sobre saúde feminina. Depois que o Comitê levou essas duas apelações à atenção da Meta, a empresa reverteu suas decisões anteriores e restaurou ambas as publicações.

Descrição do caso e histórico

Para o primeiro caso, em 15 de março de 2023, um usuário do Facebook radicado nos Estados Unidos comentou uma publicação em um grupo do Facebook. O comentário foi escrito em inglês e incluía uma foto de quatro tipos diferentes de muco cervical e os níveis de fertilidade correspondentes, com uma descrição de cada um sobreposta na foto. O comentário foi em resposta à publicação de outra pessoa, que perguntava sobre SOP (Síndrome dos ovários policísticos), problemas de fertilidade e corrimento vaginal. O conteúdo não teve visualizações, nem compartilhamentos e foi denunciado uma vez pelos sistemas automatizados da Meta. O grupo afirma que seu objetivo é ajudar a proporcionar às mulheres no Paquistão que sofrem de “condições invisíveis” relacionadas com a saúde reprodutiva, como “endometriose, adenomiose, SOP e outros problemas menstruais”, um espaço seguro para discutir os desafios que enfrentam e apoiar umas as outras.

Para o segundo caso, em 7 de março de 2023, um usuário do Instagram publicou um vídeo mostrando a mão de alguém sobre uma pia com corrimento vaginal nos dedos da pessoa. A legenda abaixo do vídeo está escrita em espanhol e o título diz: “Ovulação – Como identificá-la?” O restante da legenda descreve em detalhes como o muco cervical se torna mais claro durante a ovulação e em que ponto do ciclo menstrual a ovulação pode ocorrer. Ela também descreve outras mudanças fisiológicas que podem acontecer durante a ovulação, como aumento da libido e da temperatura corporal e dificuldade para dormir. A descrição da conta do usuário afirma que ela é dedicada à saúde vaginal/vulvar e à educação menstrual. O conteúdo teve mais de 25 mil visualizações, nenhum compartilhamento e já havia sido denunciado uma vez pelos sistemas automatizados da Meta.

Para ambos os casos, a Meta inicialmente removeu cada um dos dois trechos do conteúdo nos termos de sua Política sobre nudez adulta e atividade sexual, que proíbe “imagens de atividade sexual”, exceto “em casos de contexto médico ou de saúde”. No entanto, a Meta reconheceu que ambos os conteúdos se enquadram na sua permissão para compartilhar imagens com subprodutos da atividade sexual (que podem incluir secreções vaginais) em um contexto médico ou de saúde e os restaurou em cada plataforma.

Depois que o Comitê levou esses dois casos à atenção da Meta, a empresa determinou que nenhum dos conteúdos violava os Padrões da Comunidade sobre Nudez Adulta e Atividade Sexual e as remoções estavam incorretas. A empresa então restaurou ambos os conteúdos para o Facebook e o Instagram, respectivamente.

Autoridade e escopo do Comitê

O Comitê tem autoridade para analisar as decisões da Meta após uma apelação do usuário cujo conteúdo foi removido (Artigo 2, Seção 1 do Estatuto; e Artigo 3, Seção 1 dos Regulamentos Internos).

Quando a Meta reconhece que cometeu um erro e reverte a decisão em um caso sob consideração para análise do Comitê, o Comitê pode selecionar esse caso para uma decisão sumária (Artigo 2, Seção 2.1.3 dos Regulamentos Internos). O Comitê analisa a decisão original para aumentar a compreensão do processo de moderação de conteúdo, reduzir erros e aumentar a justiça para as pessoas que usam o Facebook e o Instagram.

Significância do caso

Esses casos destacam as dificuldades de aplicar as permissões para conteúdos médicos e de saúde estabelecidos nas Diretrizes sobre nudez adulta e atividade sexual da Meta. Como escreveu o usuário do primeiro caso em sua apelação ao Comitê, compreender a aparência e a textura do muco cervical ajuda as mulheres a monitorar seus ciclos de ovulação e fertilidade. Ele também observa que nem todas as mulheres têm meios ou recursos para obter essas informações de um médico, comprar kits de ovulação ou fazer exames de sangue para monitorá-la. A decisão inicial da Meta de remover esse conteúdo dificulta mais o acesso das pessoas a uma área já altamente estigmatizada de informação sobre saúde feminina.

Anteriormente, o Comitê emitiu recomendações relacionadas à Política sobre nudez adulta e atividade sexual para fins de educação e conscientização sobre informações médicas e de saúde, inclusive para melhorar a aplicação das permissões estabelecidas nos Padrões da Comunidade da empresa. Especificamente, o Comitê pediu que a Meta aprimorasse a detecção automatizada de imagens com sobreposição de texto para garantir que as publicações que conscientizam sobre os sintomas do câncer de mama não sejam sinalizadas erroneamente para análise (“Sintomas de câncer de mama e nudez,” recomendação n.º 1) e para garantir que as apelações baseadas em exceções à política sejam priorizadas para análise humana (“' Meme dos dois botões',” recomendação n.º 5). Enquanto a Meta está atualmente avaliando a viabilidade da segunda recomendação, ela concluiu o processo na primeira recomendação. A Meta implantou um novo classificador de conteúdo de saúde baseado em imagem e aprimorou um classificador de sobreposição de texto existente para melhorar ainda mais as técnicas do Instagram a fim de identificar conteúdo contextual sobre câncer de mama. Ao longo de 30 dias em 2023, essas melhorias contribuíram para o envio de mais 3.500 itens de conteúdo para análise humana que anteriormente teriam sido removidos automaticamente.

A implementação integral de ambas as recomendações ajudará a reduzir a taxa de erro do conteúdo que é removido indevidamente quando é publicado ao abrigo de uma permissão dos Padrões da Comunidade, como para conscientizar ou educar os usuários sobre vários aspectos da saúde reprodutiva feminina.

Decisão

O Comitê anula as decisões originais da Meta de remover os dois trechos de conteúdo. Além disso, após levar esses casos ao conhecimento da empresa, ele reconhece que ela corrigiu os erros iniciais.

Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas