Comitê de Supervisão anuncia sete prioridades estratégicas

Em outubro de 2020, o Comitê de Supervisão começou a aceitar casos. Pela primeira vez, se uma publicação de um usuário fosse removida do Facebook ou do Instagram e o usuário esgotasse o processo de apelações da empresa, ele poderia contestar essa decisão fazendo uma apelação a um órgão externo independente.

Dois anos depois, estamos anunciando sete prioridades estratégicas que queremos desenvolver com as partes interessadas para remodelar a abordagem da Meta com relação à moderação de conteúdo. Isso aumentará nosso impacto nas áreas em que mais queremos fazer a diferença na experiência que as pessoas vivenciam com o Facebook e o Instagram. Além disso, na medida em que uma nova regulamentação traz novos requisitos para as empresas de tecnologia, estamos prontos para trabalhar em parceria com empresas, órgãos reguladores e outros para compartilhar os benefícios de uma abordagem da moderação de conteúdo baseada em princípios e independente.

Apresentação das nossas prioridades estratégicas

Nossas sete prioridades estratégicas foram escolhidas com base em uma análise de casos enviada ao Comitê e nos problemas que os usuários enfrentam globalmente. Como essas prioridades orientarão os casos que o Comitê seleciona para análise, encorajamos as pessoas a levá-las em consideração ao enviarem apelações ao Comitê, inclusive quando explicarem os motivos pelos quais discordam das decisões da Meta.

Nossas prioridades estratégicas são:

  • Eleições e espaço cívico

As empresas de redes sociais enfrentam desafios ao tentar aplicar uniformemente suas políticas de expressão política em diferentes regiões do mundo, inclusive durante eleições e protestos em grande escala. Nós destacamos a importância de proteger a expressão política em nossa decisão sobre os “protestos a favor de Navalny na Rússia”, enquanto nossa decisão sobre a “menção do Talibã na divulgação de notícias” abrangeu questões de liberdade da mídia. O Comitê está interessado em explorar as responsabilidades da Meta em eleições, protestos e outros momentos-chave da participação cívica.

  • Situações de crise e de conflito

Em tempos de crise, como em conflitos armados, ataques terroristas e emergências sanitárias, as redes sociais têm o poder de ajudar as pessoas a se manterem em segurança, mas também podem criar um ambiente em que a desinformação e o ódio se alastram. As nossas decisões sobre a “alegação de crimes em Raya Kobo” e o “Gabinete de Comunicações da Região do Tigré” examinaram publicações relacionadas com o conflito na Etiópia, enquanto a nossa decisão sobre o “ex-presidente Trump” levou a Meta a adotar o Protocolo de Políticas de Crise. O Comitê está interessado em explorar o grau de preparação da Meta para lidar com os danos potenciais para os quais seus produtos podem contribuir durante conflitos armados, agitação civil e outras emergências.

  • Gênero

Mulheres, pessoas não binárias e pessoas transexuais se deparam com obstáculos para exercer seus direitos à liberdade nas redes sociais. Em nossa decisão sobre os “sintomas de câncer de mama e nudez”, por exemplo, os sistemas automáticos da Meta não aplicaram exceções para a conscientização sobre o câncer de mama, o que levou à remoção de informações de saúde importantes do Instagram. O Comitê está interessado em explorar os obstáculos relacionados a gênero com os quais mulheres e pessoas LGBTQI+ se deparam para exercer seus direitos à liberdade de expressão, incluindo violência e assédio baseados em gênero e os efeitos de distinções baseadas em gênero na política de conteúdo.

  • Discurso de ódio contra grupos marginalizados

O discurso de ódio cria um ambiente de discriminação e hostilidade contra grupos marginalizados. O discurso de ódio geralmente tem um contexto específico, é programado e causa danos que se acumulam gradualmente ao longo do tempo. A nossa decisão sobre a “Representação de Zwarte Piet” constatou que permitir a acumulação de imagens de blackface criaria um ambiente discriminatório para as pessoas negras, enquanto nossas decisões sobre o “Cinto Wampum” e sobre a “Ressignificação de palavras em árabe” examinaram o “contradiscurso” que fazia referência ao discurso de ódio para resistir à discriminação. O Comitê está interessado em explorar como a Meta deveria proteger os membros de grupos marginalizados assegurando, ao mesmo tempo, que a aplicação das medidas não vise incorretamente as pessoas que desafiam o ódio.

  • Uso das plataforma da Meta por órgãos públicos

Os órgãos públicos usam o Facebook e o Instagram para transmitir suas políticas e para solicitar que a Meta remova conteúdos. Em resposta à nossa decisão sobre o “Isolamento de Öcalan”, a Meta concordou em fornecer informações sobre conteúdos removidos por violarem seus Padrões da Comunidade após um relatório de um governo, e a nossa próxima decisão sobre o “Gênero musical drill no Reino Unido” examinará como a Meta deve responder às solicitações de autoridades policiais nacionais. O Comitê está interessado em explorar a forma como os atores estatais usam as plataformas da Meta e as consequências para a moderação de conteúdo.

  • Tratar os usuários com justiça

Quando o conteúdo das pessoas é removido do Facebook e do Instagram, elas nem sempre são informadas sobre quais regras elas violaram, e a falta de transparência pode gerar a percepção de que os usuários não são tratados de forma equitativa. O Comitê está interessado em explorar quais medidas adicionais a Meta pode tomar para tratar seus usuários como clientes, fornecendo notificações mais específicas para os usuários, assegurando que as pessoas possam sempre fazer uma apelação da decisão da Meta para a empresa e sendo mais transparente em áreas como as “advertências” e a verificação cruzada.

  • Monitoramento de políticas e curadoria de conteúdo automáticos

Embora os algoritmos sejam cruciais para moderar conteúdo em grande escala, existe uma falta de transparência a respeito de como os sistemas automáticos da Meta funcionam e como eles afetam o conteúdo que os usuários veem. A nossa decisão sobre a “Ilustração retratando policiais colombianos” mostrou como a automação pode amplificar o impacto de decisões de moderação de conteúdo incorretas. Em resposta à nossa decisão sobre “sintomas de câncer de mama e nudez”, a Meta está testando notificações que informam as pessoas se ela tomou medidas de monitoramento devido a análise humana ou automática. O Comitê está interessado em explorar como o monitoramento automático deve ser projetado, a precisão dos sistemas automáticos e a importância de uma maior transparência nessa área.

Trabalhar em colaboração com as partes interessadas para aumentar o nosso impacto

A título de Comitê, nossas conquistas até agora foram possíveis graças aos esforços de pesquisadores, grupos da sociedade civil e outros que trabalharam nessas questões por muitos anos. Para encontrar soluções duráveis às nossas prioridades estratégicas e às questões imensamente desafiadoras que elas trazem, a experiência sobre os assuntos e o conhecimento local dessas partes interessadas serão essenciais.

Para todas as prioridades estratégicas, continuaremos trabalhando com as partes interessadas para saber quais são as políticas e as práticas de monitoramento que a Meta precisa melhorar com maior urgência e que tipos de casos poderiam fornecer a oportunidade para efetuar tais melhorias.

Queremos trabalhar em parceria com organizações do mundo inteiro para fazer isso, por meio do nosso processo de comentários públicos, mesas-redondas e conversas individuais. Para discutir como a sua organização pode participar desse processo, cadastre-se aqui para receber atualizações do Comitê ou entre em contato com engagement@osbadmin.com.

Promover uma abordagem independente baseada em princípios

Encontrar soluções para as questões levantadas por nossas prioridades estratégicas é importante não apenas para a Meta, mas para todas as empresas de redes sociais. Uma nova regulamentação traz também novos requisitos para as empresas de tecnologia, muitas das quais precisarão alterar a abordagem. Embora não exista uma única resposta, e muitos intervenientes precisarão desempenhar seus respectivos papéis, acreditamos que a abordagem independente e baseada nos direitos humanos do Comitê pode ser parte da solução.

Atualmente, as empresas de redes sociais enfrentam um desafio significativo ao moderar conteúdo: quais regras devem ser aplicadas para bilhões de pessoas de diferentes nacionalidades, idiomas e culturas? Nós acreditamos que os padrões de direitos humanos internacionais sejam uma parte crucial da resposta. Eles se aplicam igualmente a todos e constituem um quadro de referência coerente para se considerar o direito à liberdade de expressão de um usuário juntamente com outros direitos humanos, como o direito à vida ou à privacidade.

Estamos também constatando uma aceitação crescente, no setor de tecnologia e em outros setores, do valor da supervisão independente. Trata-se de empresas que abrem seus processos internos e convidam intervenientes externos, sem interesses comerciais na empresa, para analisar suas decisões. Acreditamos que esse tipo de verificação leva a decisões melhores e mais robustas a longo prazo.

A título de Comitê, desenvolvemos uma vasta experiência nos últimos dois anos. Esperamos que a abordagem independente e baseada nos direitos humanos do Comitê constitua um quadro de referência confiável para outras empresas de redes sociais, órgãos reguladores e organizações da sociedade civil, e estamos prontos para construir novas parcerias e compartilhar o que aprendemos em nossas iniciativas comuns para melhorar as redes sociais.

Próximos passos

Nos últimos dois anos, recebemos cerca de dois milhões de apelações de usuários. Por meio das 130 recomendações que fizemos até agora, começamos a remodelar a abordagem da Meta com relação à moderação de conteúdo. Atualmente, ao anunciar nossas prioridades estratégicas, queremos aprofundar o nosso impacto trabalhando com partes interessadas no mundo inteiro para encontrar soluções duráveis. Além disso, estamos prontos para trabalhar em parceria com empresas, órgãos reguladores e outros para compartilhar os benefícios de uma abordagem da moderação de conteúdo baseada em princípios e independente.

Voltar às Notícias