Anulado

Sintomas de câncer de mama e nudez

O Comitê de Supervisão revogou a decisão do Facebook de remover uma publicação no Instagram.

Tipo de decisão

Padrão

Políticas e tópicos

विषय
Proteção, Saúde
Padrão da comunidade
Nudez adulta e atividades sexuais

Regiões/países

Localização
Brasil

Plataforma

Plataforma
Instagram

Para ler a decisão em português do Brasil, clique aqui.
Para ler a decisão completa em Português do Brasil, clique aqui.

Resumo do caso

O Comitê de Supervisão revogou a decisão do Facebook de remover uma publicação no Instagram. Após o Comitê selecionar este caso, o Facebook restaurou o conteúdo. Originalmente, os sistemas automatizados do Facebook removeram a publicação por violar o Padrão da Comunidade da empresa sobre nudez e atividade sexual de adultos. O Comitê concluiu que a publicação devia ser permitida, conforme a exceção da política de: “conscientização sobre o câncer de mama”, e a moderação automatizada do Facebook, neste caso, levanta preocupações importantes sobre os direitos humanos.

Sobre o caso

Em outubro de 2020, um usuário do Brasil publicou uma imagem no Instagram com um título em português cujo intuito era aumentar a conscientização sobre os sinais do câncer de mama. A imagem era rosa, em sincronia com o “Outubro Rosa”, uma campanha internacional para aumentar a conscientização sobre essa doença. Oito fotos da imagem mostravam os sintomas do câncer de mama com as descrições correspondentes. Cinco delas incluíam mamilos femininos descobertos e visíveis e as três outras fotos incluíam seios femininos, com os mamilos desfocados ou cobertos pela mão. A publicação foi removida por um sistema automatizado que seguiu o Padrão da Comunidade sobre nudez e atividade sexual de adultos. Após o Comitê selecionar este caso, o Facebook determinou ser um erro e restaurou a publicação.

Principais conclusões

Em sua resposta, o Facebook alegou que o Comitê deveria se negar a ouvir este caso. A empresa argumentou que, como restaurou a publicação, não havia mais discordância entre o usuário e o Facebook de que o conteúdo deveria continuar ativo, tornando este caso irrelevante.

O Comitê rejeitou o argumento do Facebook. A necessidade de discordância aplica-se somente no momento em que o usuário esgota o processo de apelação interna do Facebook. Como o usuário e o Facebook discordaram naquele momento, o Comitê pode ouvir o caso.

A decisão do Facebook de restaurar o conteúdo também não torna este caso irrelevante, como alega a empresa. Além de tomar decisões vinculantes sobre a restauração ou não do conteúdo, o Comitê também oferece aos usuários uma explicação completa do motivo pelo qual a publicação foi removida. A remoção incorreta da publicação indica a falta de supervisão humana apropriada, o que levanta preocupações sobre direitos humanos. A detecção e a remoção da publicação foram totalmente automatizadas. Os sistemas automatizados do Facebook não reconheceram as palavras “câncer de mama”, que apareciam na imagem em português, e a publicação foi removida erroneamente. Como as regras do Facebook tratam os mamilos masculinos e femininos de maneira diferente, usar automação imprecisa para aplicar essas regras afeta desproporcionalmente a liberdade de expressão das mulheres. O monitoramento, que conta exclusivamente com automação sem supervisão humana adequada, também interfere na liberdade de expressão.

Neste caso, o usuário foi informado de que a publicação violou as Diretrizes da Comunidade do Instagram, indicando que o compartilhamento de fotos de mamilos femininos descobertos para aumentar a conscientização sobre o câncer de mama não é permitido. Entretanto, o Padrão da Comunidade do Facebook sobre nudez e atividade sexual de adultos permite expressamente a nudez quando o usuário almeja: “aumentar a conscientização sobre uma causa ou por motivos médicos” e, especificamente, permite mamilos femininos descobertos para promover: “a conscientização sobre o câncer de mama”. Como os Padrões da Comunidade do Facebook se aplicam ao Instagram, a exceção acima inclui a publicação do usuário. Portanto, a remoção do conteúdo pelo Facebook foi inconsistente com os Padrões da Comunidade.

A decisão do Comitê de Supervisão

O Comitê de Supervisão revoga a decisão original do Facebook de remover o conteúdo e exige que a publicação seja restaurada. O Comitê menciona que o Facebook já tomou medidas a esse respeito.

O Comitê recomenda que o Facebook:

  • Informe os usuários quando houver uso de monitoramento automatizado para moderar o conteúdo, garanta que os usuários possam fazer uma apelação das decisões automatizadas para um ser humano em determinados casos e melhore a detecção automatizada das imagens com texto sobreposto para que as publicações que aumentam a conscientização sobre os sintomas do câncer de mama não sejam sinalizadas erroneamente para análise. O Facebook também deve melhorar seu relatório de transparência sobre o uso de monitoramento automatizado.
  • Revise as Diretrizes da Comunidade do Instagram para especificar que os mamilos femininos poderão ser mostrados quando o objetivo for aumentar a conscientização sobre o câncer de mama, bem como esclareça que, se houver inconsistências entre as Diretrizes da Comunidade do Instagram e os Padrões da Comunidade do Facebook, este último prevalecerá.

*Os resumos de caso dão uma visão geral da ocorrência e não têm valor precedente.

Decisão completa sobre o caso

1. Resumo da decisão

O Comitê de Supervisão revogou a decisão original do Facebook de remover o conteúdo, assinalando que o Facebook restaurou a publicação após o Comitê decidir ouvir o caso. A decisão do Facebook de recuperar o conteúdo não invalida a autoridade do Comitê de ouvir o caso.

O Comitê concluiu que o conteúdo foi permitido por uma exceção da política de: “conscientização sobre o câncer de mama”, que integra o Padrão da Comunidade do Facebook sobre nudez e atividade sexual de adultos.

O Comitê emitiu uma declaração de parecer consultivo sobre o relacionamento entre as políticas de conteúdo do Instagram e do Facebook, bem como o uso da automação na moderação de conteúdo e a transparência dessas práticas.

2. Descrição do caso

Em outubro de 2020, um usuário do Brasil publicou uma imagem no Instagram com um título em português cujo intuito era aumentar a conscientização sobre os sinais do câncer de mama. A imagem era rosa, em sincronia com o “Outubro Rosa”, uma campanha internacional popular no Brasil para aumentar a conscientização sobre essa doença. Oito fotos em uma única publicação mostravam os sintomas do câncer de mama com as descrições correspondentes abaixo, como “ondulações”, “agrupamentos” e “feridas”. Cinco das fotografias incluíam mamilos femininos visíveis e descobertos. As outras três fotos incluíam seios femininos com os mamilos fora de foco ou cobertos pela mão. O usuário não compartilhou comentário adicional com a publicação.

A publicação foi detectada e removida por um classificador de aprendizado de máquina treinado para identificar nudez nas fotos, aplicando os Padrões da Comunidade do Facebook sobre nudez e atividade sexual de adultos, que também se aplica ao Instagram.

O usuário fez uma apelação dessa decisão ao Facebook. Nas declarações públicas, o Facebook disse anteriormente que nem sempre poderia oferecer aos usuários a opção de fazer uma apelação devido a uma redução temporária da sua capacidade de análise por causa da COVID-19. Além disso, o Facebook declarou que nem todas as apelações receberiam análise humana.

O usuário enviou uma solicitação de análise ao Comitê, que decidiu aceitar o caso. Após a seleção do Comitê e a atribuição do caso a um painel, o Facebook reverteu sua decisão original de remoção e restaurou a publicação, em dezembro de 2020. O Facebook alega que a decisão original de remover a publicação foi automatizada e, subsequentemente, identificada como um erro de monitoramento. Entretanto, o Facebook só ficou ciente do erro depois que os processos do Comitê chamaram a atenção da empresa.

3. Autoridade e Escopo

O Comitê tem autoridade para analisar a decisão do Facebook, conforme os termos do Artigo 2 (Autoridade para análise) do Estatuto do Comitê, e pode manter ou reverter essa decisão, conforme o Artigo 3, Seção 5 (Procedimentos para análise: Resolução) do Regimento. O Facebook não apresentou motivos para o conteúdo ser excluído, de acordo com o Artigo 2, Seção 1.2.1 (Conteúdo não disponível para análise do Comitê) dos Regulamentos internos do Comitê, nem indicou considerar o caso inelegível, conforme o Artigo 2, Seção 1.2.2 (Obrigações legais) dos Regulamentos internos.

Embora o Facebook tenha aceitado publicamente a análise do caso pelo Comitê, a empresa propôs que o Comitê deveria se recusar a ouvir o caso já arquivado, pois a questão se tornou irrelevante.

O Facebook argumenta que, por ter restaurado o conteúdo, não há discordância em relação a manter a publicação no Instagram e essa é a exigência para que um caso seja ouvido, de acordo com o Artigo 2, Seção 1, do Estatuto do Comitê:

Em caso de discordância com o resultado da decisão do Facebook e esgotamento das apelações, uma solicitação de análise poderá ser enviada ao Comitê.

O Comitê discorda e, segundo a sua interpretação do Estatuto, a discordância entre o usuário e o Facebook acontece no momento em que o usuário esgota o processo de apelação interna do Facebook. Essa exigência foi cumprida. O processo de análise do Comitê é separado do processo interno de apelações do Facebook e não uma extensão dele. Se o Facebook corrigisse erros apresentados pelo Comitê e, com isso, excluísse casos da análise, integraria o Comitê inadequadamente ao seu processo interno, questionando sua independência.

Embora o Facebook tenha revertido sua decisão e restaurado o conteúdo, danos irreversíveis ainda ocorreram nesse caso. A decisão do Facebook de restaurar o conteúdo no início de dezembro de 2020 não compensa o fato de a publicação do usuário ter sido removida durante toda a campanha do “mês rosa”, em outubro de 2020.

A restauração do conteúdo neste caso não é a única opção de solução oferecida pelo Comitê. Segundo o Artigo 4 (Implementação) do Estatuto do Comitê, e o Artigo 2, Seção 2.3.1 (Implementação das decisões do Comitê) dos Regulamentos internos, é compromisso do Facebook tomar medidas em relação a: “conteúdos idênticos com contexto semelhante”. Portanto, o impacto das decisões do Comitê vai além do conteúdo nesse caso.

Além disso, uma decisão completa é importante, mesmo quando o Facebook acata seu resultado antecipadamente. O processo do Comitê oferece aos usuários a oportunidade de serem ouvidos e de receberem uma explicação completa do motivo pelo qual o conteúdo foi removido erroneamente. Se a remoção do conteúdo foi feita integralmente por automação, as políticas de conteúdo estão essencialmente integradas ao código e podem ser consideradas inseparáveis dele e autoexequíveis. Ouvir o caso permite ao Comitê emitir declarações de parecer consultivo sobre como as práticas de moderação de conteúdo do Facebook são aplicadas, incluindo com o uso de automação.

Por esses motivos, o Comitê considera que a sua autoridade de analisar o caso não é afetada pela decisão do Facebook de restaurar o conteúdo após o Comitê ter selecionado o caso. O Comitê prossegue com sua análise da decisão original de remover o conteúdo.

4. Padrões relevantes

Em sua decisão, o Comitê considerou os seguintes padrões:

I. Políticas de conteúdo do Facebook:

O fundamento da política do Padrão da Comunidade sobre nudez e atividade sexual de adultos estabelece que o Facebook pretende restringir a exibição de nudez e atividade sexual de adultos porque algumas pessoas: “podem ser sensíveis a esse tipo de conteúdo” e: “para impedir o compartilhamento de conteúdo de menor de idade ou não consensual”. Os usuários não devem: “publicar imagens de adultos despidos, sendo a nudez definida como […] mamilos femininos descobertos, salvo no contexto de […] situações relacionadas à saúde (por exemplo, mastectomia, conscientização sobre o câncer de mama […])”.

As Diretrizes da Comunidade do Instagram estabelecem um banimento geral de mamilos femininos descobertos, especificando algumas exceções relacionadas à saúde, mas não incluem especificamente: “conscientização sobre o câncer de mama”. As Diretrizes da Comunidade estão vinculadas aos Padrões da Comunidade do Facebook.

II. Valores do Facebook:

Os valores do Facebook relevantes a este caso são descritos na introdução aos Padrões da Comunidade. O primeiro padrão é "Vozes", descrito como "fundamental":

o objetivo de nossos Padrões da Comunidade sempre foi criar um local de expressão e dar voz às pessoas. [...] Queremos que as pessoas possam falar abertamente sobre os assuntos importantes para elas, ainda que sejam temas que geram controvérsias e objeções.

O Facebook limita "Voz” com base em quatro valores. O Comitê considerou que dois desses valores são relevantes para esta decisão:

Segurança: Temos o compromisso de fazer com que o Facebook seja um lugar seguro. Manifestações contendo ameaças podem intimidar, excluir ou silenciar pessoas e isso não é permitido no Facebook.

Privacidade: Temos o compromisso de proteger a privacidade e as informações pessoais. A privacidade dá às pessoas a liberdade de ser quem elas realmente são, escolher como e quando compartilhar no Facebook e criar conexões mais facilmente.

III. Padrões internacionais dos direitos humanos:

Os Princípios Orientadores da ONU sobre Empresas e Direitos Humanos (UNGPs, na sigla em inglês), endossados pelo Conselho de Direitos Humanos da ONU em 2011, estabelecem uma estrutura voluntária de responsabilidades sobre direitos humanos das empresas privadas. Neste caso, a análise do Comitê baseou-se nas disposições do tratado da ONU e nas orientações fidedignas dos mecanismos de direitos humanos da ONU, incluindo:

  • O direito de liberdade de expressão: Pacto Internacional dos Direitos Civis e Políticos (PIDCP), Artigo 19; Comentário Geral N° 34, Comitê de Direitos Humanos (2011) ( Comentário Geral 34). Relator Especial da ONU sobre os relatórios de liberdade de opinião e expressão: A/HRC/38/35 (2018); A/73/348 (2018) e A/HRC/44/49 (2020).
  • Direito à saúde: Pacto Internacional dos Direitos Econômicos, Sociais e Culturais ( PIDESC), Artigo 12; Comentário Geral nº 14, o Comitê dos Direitos Econômicos, Sociais e Culturais, E/C.12/2000/4 (2000).
  • Direito a um recurso efetivo: PIDCP, Artigo 2; Comentário Geral n° 31, Comitê de Direitos Humanos, CCPR/C/21/Rev.1/Ad. 13 (2004).
  • Direito à privacidade: PIDCP, Artigo 17.
  • Direito à não discriminação: Artigo 2, parágrafo 1 do PIDCP. Convenção sobre a Eliminação de Todas as Formas de Discriminação Contra as Mulheres (CEDAW), Artigo 1.
  • Direitos da criança: Convenção sobre os Direitos da Criança (CDC), Artigo 6; Comentário Geral nº 13, o Comitê dos Direitos da Criança, CRC/C/GC/13 (2011).

5. Declaração do usuário

O usuário declara que o conteúdo foi publicado como parte da campanha nacional “Outubro Rosa” pela prevenção do câncer de mama. Ela mostra alguns dos principais sinais do câncer de mama, que o usuário diz serem essenciais para a detecção precoce dessa doença e para salvar vidas.

6. Explicação sobre a decisão do Facebook

O Facebook esclareceu que a sua decisão original de remover o conteúdo foi um erro. A empresa explicou ao Comitê que os Padrões da Comunidade se aplicam ao Instagram. Embora os Padrões da Comunidade geralmente proíbam mamilos femininos descobertos e visíveis, eles são permitidos para: “fins educacionais ou médicos”, incluindo para a conscientização sobre o câncer de mama. O Facebook restaurou o conteúdo por ele se enquadrar nessa exceção.

O Facebook alega que permitir a publicação desse conteúdo na plataforma é importante para seus valores de “Voz” e “Segurança”. A empresa afirma que a detecção e o monitoramento original desse conteúdo foram totalmente automatizados. O processo automatizado não conseguiu determinar que o conteúdo tinha: “fins educacionais ou médicos”. O Facebook também alega não ser relevante para a consideração do caso pelo Comitê o fato de o conteúdo ter sido removido por um processo automatizado ou por meio de uma análise interna de um moderador humano. O Facebook gostaria que o Comitê se concentrasse no resultado do monitoramento e não no método.

7. Envios de terceiros

O Comitê de Supervisão considerou 24 comentários públicos desse caso: oito da Europa, cinco da América Latina e Caribe e 11 dos Estados Unidos e Canadá. Sete foram enviados em nome de uma organização. Um comentário foi enviado sem consentimento para publicação.

Os envios abordaram os seguintes temas: se a publicação estava de acordo com os Padrões da Comunidade e os valores do Facebook; a importância da conscientização sobre o câncer de mama para o diagnóstico precoce; crítica ao excesso de sexualização e à censura dos mamilos femininos em comparação com os mamilos masculinos; a influência do Facebook sobre a sociedade; o monitoramento exagerado devido à moderação automatizada de conteúdo, bem como feedback para melhoria do processo de comentário público.

8. Análise do Comitê de Supervisão

8.1 Conformidade com as políticas de conteúdo do Facebook

A decisão do Facebook de remover a publicação do usuário no Instagram não está em conformidade com as políticas de conteúdo da empresa.

Segundo o Facebook, os Padrões da Comunidade se aplicam aos produtos da empresa, incluindo o Instagram. O usuário deste caso foi notificado de que o conteúdo violava as Diretrizes da Comunidade do Instagram, que foram citadas para ele. As diferenças entre essas regras garantem análise separada.

I. Diretrizes da Comunidade do Instagram

As Diretrizes da Comunidade “curtas” resumem as regras do Instagram como: “Respeite todos no Instagram, não envie spam nem publique nudez”. Isoladamente, isso indica que a publicação do usuário viola as regras do Instagram.

As Diretrizes da Comunidade (longas) entram em mais detalhes. Sob o título “publique fotos e vídeos apropriados para um público variado”, as Diretrizes especificam:

[P]or vários motivos, não permitimos nudez no Instagram […] Também inclui algumas fotos de mamilos femininos, mas as fotos de cicatrizes causadas por mastectomia e de mulheres amamentando são permitidas.

Essa explicação não permite expressamente fotos de mamilos femininos descobertos para aumentar a conscientização sobre o câncer de mama. Embora as Diretrizes da Comunidade do Instagram incluam um hiperlink para o Padrão da Comunidade do Facebook sobre nudez e atividade sexual de adultos, o relacionamento entre os dois conjuntos de regras, incluindo qual tem precedência, não é explicado.

II. Padrões da Comunidade do Facebook

O Padrão da Comunidade sobre nudez e atividade sexual de adultos, em Conteúdo questionável, estabelece que a exibição de nudez de adultos, que inclui “mamilos femininos descobertos”, bem como atividade sexual, geralmente é restrita na plataforma. Esse posicionamento é justificado por dois motivos: “algumas pessoas da nossa comunidade podem ser sensíveis a esse tipo de conteúdo” e: “para impedir o compartilhamento de conteúdo de menor de idade ou não consensual”.

O Padrão da Comunidade especifica que a nudez de adultos consensual é permitida quando o usuário indica claramente que é conteúdo para: “aumentar a conscientização sobre uma causa ou por motivos educacionais ou médicos”. A seção “não publicar” do Padrão da Comunidade inclui “conscientização sobre o câncer de mama” como um exemplo de uma situação relacionada à saúde em que é permitido mostrar mamilos femininos descobertos.

O Comitê conclui que, embora retrate mamilos femininos descobertos, a publicação do usuário enquadra-se perfeitamente na exceção relacionada à saúde para aumentar a conscientização sobre o câncer de mama. O Comitê aceita a explicação do Facebook de que os Padrões da Comunidade se aplicam ao Instagram e conclui que a publicação do usuário está em conformidade com eles.

Portanto, a decisão do Facebook de remover o conteúdo foi inconsistente com os Padrões da Comunidade. O Comitê reconhece que o Facebook concordou com essa conclusão.

8.2 Conformidade com os valores do Facebook

Os valores do Facebook são descritos na introdução aos Padrões da Comunidade, mas não têm uma referência direta nas Diretrizes da Comunidade do Instagram.

A decisão do Facebook de remover o conteúdo do usuário não estava em conformidade com os valores da empresa. O valor de “Voz” inclui claramente discussões sobre assuntos relacionados à saúde e é especialmente importante para aumentar a conscientização sobre os sintomas do câncer de mama. Imagens dos sintomas precoces do câncer de mama são especialmente importantes para tornar as informações médicas mais acessíveis. O compartilhamento dessas informações contribui para a “Segurança” de todas as pessoas vulneráveis a essa doença. Não há indicação de que as fotos incluíam imagem não consensual. Portanto, “Voz” não foi substituído por “Segurança” e “Privacidade” neste caso.

8.3 Conformidade com os padrões internacionais dos direitos humanos

I. Liberdade de expressão (Artigo 19 do PIDCP)

A decisão do Facebook de remover a publicação também foi inconsistente com os padrões internacionais dos direitos humanos referentes à liberdade de expressão (Artigo 19, PIDCP). As informações relacionadas à saúde são particularmente importantes (A/HRC/44/49, parágrafo 6) e são adicionalmente protegidas como parte do direito à saúde (Artigo 12, IESCR; E/C.12/2000/4, para. 11). No Brasil, onde as campanhas de conscientização são cruciais para promover o diagnóstico precoce do câncer de mama, o Comitê enfatiza a conexão entre esses dois direitos.

O direito de liberdade de expressão não é absoluto. Para restringir a liberdade de expressão, o Facebook deve atender aos requisitos de legalidade, objetivo legítimo e necessidade e proporcionalidade. A remoção do conteúdo pelo Facebook foi reprovada na primeira e na terceira partes deste teste.

a. Legalidade

Quaisquer regras que restrinjam a expressão devem ser claras, precisas e acessíveis ao público, segundo o parágrafo 25 do Comentário geral n.º 34. Os Padrões da Comunidade do Facebook permitem mamilos femininos para aumentar a conscientização do câncer de mama, enquanto as Diretrizes da Comunidade do Instagram só mencionam cicatrizes após a mastectomia. A precedência dos Padrões da Comunidade do Facebook sobre as Diretrizes da Comunidade também não é comunicada aos usuários do Instagram. Essa inconsistência e falta de clareza somam-se aos avisos de remoção para os usuários que indicam exclusivamente as Diretrizes da Comunidade. Sendo assim, as regras do Facebook nesta área não são aprovadas no teste de legalidade.

b. Objetivo legítimo

Qualquer restrição à liberdade de expressão deve ter um objetivo legítimo. Os objetivos são indicados no Artigo 19, parágrafo 3 do PIDCP. O Facebook alega que seu Padrão da Comunidade sobre nudez e atividade sexual de adultos evita o compartilhamento de imagens de abuso infantil e imagens íntimas não consensuais no Facebook e no Instagram. O Comitê observa que as duas categorias de conteúdo são proibidas em Padrões da Comunidade diferentes e não estão sujeitas à exceções que se aplicam à nudez consensual de adultos. Esses objetivos estão de acordo com a restrição da liberdade de expressão segundo a lei internacional de direitos humanos de proteger: “os direitos de terceiros” (Artigo 19, parágrafo 3, PIDCP). Eles incluem o direito à privacidade das vítimas em caso de compartilhamento não consensual de imagens íntimas (Artigo 17 PIDCP) e o direito da criança à vida e ao desenvolvimento (Artigo 6, CRC), que são ameaçados em casos de exploração sexual (CRC/C/GC/13, parágrafo 62).

c. Necessidade e proporcionalidade

Qualquer restrição à liberdade de expressão “deve ser apropriada para cumprir sua função protetora; deve ser o instrumento menos intrusivo entre aqueles que podem cumprir sua função protetora; deve ser proporcional ao interesse a ser protegido”, de acordo com o parágrafo 34 do Comentário geral n.º 34.

O Comitê conclui que a remoção de informações que atendem a um interesse público sem uma causa não pode ser proporcional.

A preocupação do Comitê é com o fato de o conteúdo ter sido removido erroneamente por um sistema de monitoramento automatizado e, possivelmente, sem análise humana ou apelação. Isso reflete as limitações das tecnologias automatizadas de entender o contexto e a complexidade da comunicação humana na moderação de conteúdo (Relator Especial da ONU sobre liberdade de expressão, A/73/348, parágrafo 15). Neste caso, as tecnologias não reconheceram as palavras “câncer de mama”, que aparecem na imagem em português, na parte superior esquerda. O Comitê concorda que as tecnologias automatizadas são essenciais para a detecção de conteúdo potencialmente em violação. Entretanto, o monitoramento que conta exclusivamente com automação, especialmente ao usar tecnologias que tenham uma capacidade limitada de compreender o contexto, leva ao monitoramento excessivo, que interfere desproporcionalmente na expressão do usuário.

O Comitê reconhece que o monitoramento automatizado pode ser necessário para remover rapidamente imagens íntimas não consensuais e imagens de abuso infantil a fim de evitar danos imediatos e irreparáveis. Contudo, quando o conteúdo é removido para a proteção contra esses danos, a ação deve ter como premissa as políticas aplicáveis sobre exploração sexual. Além disso, os usuários devem ser notificados de que o conteúdo foi removido por esses motivos. De qualquer maneira, as remoções automatizadas devem estar sujeitas a um procedimento de auditoria interna, conforme a seção 9.2 (I), e a apelação à análise humana deve ser oferecida (A/73/348, parágrafo 70), permitindo que os erros sejam reparados.

A moderação automatizada de conteúdo sem os meios de proteção necessários não é uma maneira adequada de o Facebook lidar com formas de violação da nudez de adultos.

d. Igualdade e não discriminação

Quaisquer restrições à expressão devem respeitar o princípio de igualdade e não discriminação (Comentário Geral 34, parágrafos 26 e 32). Vários comentários públicos argumentaram que as políticas do Facebook sobre nudez de adultos discriminam as mulheres.

Como as regras do Facebook tratam os mamilos masculinos e femininos de maneira diferente, a confiança na automação imprecisa para aplicar essas regras provavelmente terá um impacto desproporcional sobre as mulheres, aumentando as preocupações em relação à discriminação (Artigo 1 CEDAW; O Artigo 2, PIDCP). No Brasil, e na maioria dos outros países, aumentar a conscientização dos sintomas do câncer de mama é uma questão de suma importância. Sendo assim, as ações do Facebook colocam em risco não somente o direito das mulheres à liberdade de expressão, mas também o direito delas à saúde.

II. Direito a recursos (Artigo 2 PIDCP)

O Comitê acolhe positivamente o fato de o Facebook ter restaurado o conteúdo. Entretanto, os impactos negativos desse erro não puderam ser totalmente revertidos. A publicação, que seria para o mês de conscientização do câncer de mama, em outubro, só foi restaurada no início de dezembro. A restauração do conteúdo não tornou este caso irrelevante: como o Comitê selecionou este caso, o usuário teve o direito de ser ouvido e de receber uma decisão totalmente fundamentada.

O Relator Especial da ONU sobre liberdade de opinião e expressão identificou a responsabilidade de oferecer recursos como um dos aspectos mais relevantes dos UNGPs, pois estão relacionados às empresas que praticam a moderação de conteúdo (A/HRC/38/35, parágrafo 11). A confiança excessiva do Facebook no monitoramento automatizado, se não houvesse apelação, não respeitou o direito do usuário a um recurso efetivo (Artigo 2, PIDCP; CCPR/C/21/Rev.1/Ad. 13, parágrafo 15) nem cumpre suas responsabilidades segundo os Princípios Orientadores da ONU (Princípios 29 e 31). O Comitê está especialmente preocupado com o fato de o Facebook não informar os usuários quando o conteúdo deles é monitorado por automação e de que a apelação à análise humana talvez não esteja disponível em todos os casos. Isso reflete uma preocupação maior com a falta de transparência do Facebook em relação ao uso de monitoramento automatizado e com circunstâncias em que a apelação interna talvez não esteja disponível.

9. Decisão do Comitê de Supervisão

9.1 Decisão de conteúdo

O Comitê de Supervisão revoga a decisão original do Facebook de remover o conteúdo e exige que a publicação seja mantida. O Comitê menciona que o Facebook já tomou medidas a esse respeito.

9.2 Declaração de Orientação de Política

I. Automação no monitoramento, transparência e direito a recursos efetivos

O Comitê recomenda que o Facebook:

  • Melhore a detecção automatizada das imagens com texto sobreposto para garantir que as publicações que aumentam a conscientização sobre os sintomas do câncer de mama não sejam sinalizadas erroneamente para análise.
  • Garanta que os usuários sejam sempre notificados sobre os motivos das políticas de monitoramento de conteúdo que se aplicam a eles, fornecendo a regra específica dos Padrões da Comunidade do Facebook que fundamentaram a decisão.
  • Informe os usuários quando a automação for usada para tomar medidas de monitoramento contra os respectivos conteúdos, incluindo descrições acessíveis do significado disso.
  • Garanta que os usuários possam apelar para análise humana quando as decisões forem tomadas pelos sistemas automatizados, em casos em que o conteúdo for considerado impróprio dado o Padrão da Comunidade do Facebook sobre nudez e atividade sexual de adultos. Se o Facebook estiver procurando impedir a exploração sexual infantil ou a disseminação de imagens íntimas não consensuais, deverá monitorar com base em seus Padrões da Comunidade sobre exploração sexual de adultos e exploração sexual infantil, abuso e nudez, em vez de confiar nas políticas de monitoramento excessivo da nudez de adultos. As apelações devem estar disponíveis também nesses casos, para que as remoções incorretas de nudez consensual de adulto possam ser revertidas.
  • Implemente um procedimento de auditoria interna para analisar continuamente uma amostra estaticamente representativa das decisões de remoção de conteúdo automatizadas que foram revertidas e aprender com os erros de monitoramento.
  • Expanda os relatórios de transparência para divulgar dados sobre o número de decisões automatizadas de remoção segundo o Padrão da Comunidade e a proporção dessas decisões que foram revertidas após análise humana.

A implementação dessas recomendações não deve tirar o direito dos moderadores de conteúdo à saúde durante a pandemia da COVID-19.

II. O relacionamento entre os Padrões da Comunidade e as Diretrizes da Comunidade:

O Comitê recomenda que o Facebook:

  • Revise a explicação “curta” das Diretrizes da Comunidade do Instagram para esclarecer que o banimento de nudez de adulto não é absoluto.
  • Revise a explicação “longa” das Diretrizes da Comunidade do Instagram para esclarecer que os mamilos femininos podem ser mostrados com o objetivo de aumentar a conscientização sobre o câncer de mama.
  • Esclareça que as Diretrizes da Comunidade do Instagram são interpretadas de acordo com os Padrões da Comunidade do Facebook e, se houver inconsistências, o último terá precedência.

*Nota processual:

As decisões do Comitê de Supervisão são preparadas por painéis de cinco membros e devem ser aprovadas pela maioria do Comitê. As decisões do Comitê não representam, necessariamente, as opiniões pessoais de todos os membros.

Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas