Comitê de Supervisão revoga decisão original do Facebook: caso 2020-004-IG-UA

O Comitê de Supervisão revogou a decisão do Facebook de remover uma publicação do Instagram. Após o Comitê ter selecionado o caso em questão, o Facebook restaurou o conteúdo. Os sistemas automatizados do Facebook originalmente removeram a publicação por violar o Padrão da Comunidade sobre Nudez Adulta e Atividade Sexual da empresa. O Comitê concluiu que a publicação era permitida de acordo com uma exceção da política para “conscientização sobre o câncer de mama” e que a moderação automática do Facebook, nesse caso, levanta questões importantes de direitos humanos.

Sobre o caso

Em outubro de 2020, um usuário no Brasil publicou uma foto no Instagram. O título, escrito em português, indicava que o objetivo era aumentar a conscientização sobre os sintomas do câncer de mama. A imagem era rosa, remetendo ao "Outubro rosa", uma campanha internacional para aumentar a conscientização sobre a doença. Oito fotografias na publicação mostravam sintomas do câncer de mama com as respectivas descrições. Cinco delas incluíam mamilos femininos à mostra, enquanto as outras três continham seios femininos com mamilos não enquadrados na imagem ou cobertos por uma mão. A publicação foi removida por um sistema automatizado que aplicou o Padrão da Comunidade sobre Nudez Adulta e Atividade Sexual do Facebook. Após o Comitê ter selecionado o caso, o Facebook determinou que foi um erro e restaurou a publicação.

Principais descobertas

Em sua resposta, o Facebook declarou que o Comitê deveria se recusar a julgar o caso. A empresa argumentou que, tendo restaurado a publicação, não havia mais discordância entre o usuário e o Facebook de que o conteúdo deveria permanecer no ar, tornando esse caso discutível.

O Comitê rejeita o argumento do Facebook. A necessidade de discordância é aplicável somente no momento em que o usuário esgota o processo de apelação interno do Facebook. Como o usuário e o Facebook discordaram naquele momento, o Comitê pode julgar o caso.

A decisão do Facebook de restaurar o conteúdo também não torna esse caso discutível, como a empresa afirma. Além de tomar decisões vinculantes sobre a restauração de conteúdo, o Comitê oferece aos usuários uma explicação completa do motivo pelo qual a publicação foi removida.

A remoção incorreta dessa publicação indica a falta de supervisão humana adequada, o que levanta questões de direitos humanos. A detecção e a remoção da publicação foi inteiramente automatizada. Os sistemas automatizados do Facebook falharam em reconhecer as palavras "Câncer de Mama", que apareciam na imagem em português, e a publicação foi removida incorretamente. Como as regras do Facebook tratam mamilos femininos e masculinos de maneira diferente, o uso de automação imprecisa para aplicar essas regras afeta a liberdade de expressão das mulheres de forma desproporcional. O monitoramento que depende apenas da automação sem supervisão humana adequada também interfere na liberdade de expressão.

Nesse caso, o usuário foi informado de que a publicação violava as Diretrizes da Comunidade do Instagram, implicando que o compartilhamento de fotos de mamilos femininos à mostra para aumentar a conscientização sobre o câncer de mama não é permitido. No entanto, o Padrão da Comunidade sobre Nudez Adulta e Atividade Sexual do Facebook expressamente permite a nudez quando o usuário busca "aumentar a conscientização sobre uma causa ou por motivos educacionais ou médicos" e especificamente permite que mamilos femininos à mostra promovam a "conscientização sobre o câncer de mama". Como os Padrões da Comunidade do Facebook se aplicam ao Instagram, a publicação do usuário é coberta pela exceção acima. Portanto, a remoção do conteúdo pelo Facebook era inconsistente com os Padrões da Comunidade.

A decisão do Comitê de Supervisão

O Comitê de Supervisão revoga a decisão original do Facebook de remover o conteúdo e exige que a publicação seja restaurada. O Comitê observa que o Facebook já tomou medidas nesse sentido.

O Comitê recomenda que o Facebook:

  • Informe aos usuários quando o monitoramento automatizado é usado para moderar o conteúdo, garanta que eles possam fazer uma apelação de decisões automatizadas a um ser humano em determinados casos e melhore a detecção automática de imagens com sobreposição de texto, de modo que as publicações que visam aumentar a conscientização sobre os sintomas do câncer de mama não sejam sinalizadas incorretamente para análise. O Facebook também deve aprimorar os relatórios de transparência sobre o uso de monitoramento automatizado.
  • Revise as Diretrizes da Comunidade do Instagram para especificar que mamilos femininos podem ser mostrados para aumentar a conscientização sobre o câncer de mama e esclarecer que, quando há inconsistências entre as Diretrizes da Comunidade do Instagram e os Padrões da Comunidade do Facebook, o último prevalece.

Para obter mais informações:

Para ler a decisão sobre o caso na íntegra, clique aqui.

Para ler um resumo dos comentários públicos sobre esse caso, clique aqui.

Voltar às Notícias