Por que a liberdade de expressão deve ser a peça central das avaliações de risco sistêmico

Sumário executivo
Em 2022, a União Europeia aprovou a Lei de Serviços Digitais (DSA), uma legislação voltada à proteção dos direitos dos usuários e que estabelece a obrigação regulatória para que as plataformas identifiquem e enfrentem os riscos associados aos seus serviços online. A DSA determina, de forma essencial, que as plataformas online — incluindo as redes sociais — devem “dar consideração especial” à liberdade de expressão ao decidirem como responder aos danos significativos à sociedade identificados no âmbito dessa regulamentação. Desde que essas plataformas divulgaram suas primeiras autoavaliações no final de 2024, diversos obstáculos à concretização desse objetivo têm se tornado claros. Esses desafios decorrem, em parte, da falta de clareza de termos essenciais presentes na DSA, e em parte de falhas em incorporar padrões internacionais de direitos humanos nesses processos de avaliação.
Apoiando-se no trabalho de várias organizações que atuam nesse campo, o Comitê de Supervisão considera fundamental que os direitos humanos — e, em particular, a liberdade de expressão — estejam no centro das análises de risco sistêmico realizadas pelas plataformas. Com esse propósito, o presente documento apresenta quatro áreas prioritárias que podem contribuir para fortalecer a responsabilização das plataformas e melhorar a governança do conteúdo, dentro de uma abordagem coerente e baseada em direitos.
- Esclarecer o significado de riscos sistêmicos. A indefinição desse termo na DSA pode levar a interpretações excessivamente amplas, o que pode resultar em restrições indevidas à liberdade de expressão.
- Fundamentar-se em padrões internacionais de direitos humanos. É fundamental incorporar esses padrões em todas as categorias de avaliação de riscos, garantindo assim relatórios mais coerentes. A integração dos direitos humanos globais deve ser feita de forma transversal, em vez de tratá-los como uma categoria separada.
- Incluir o envolvimento das partes interessadas na identificação dos riscos e na elaboração das estratégias de mitigação. Ao adotar as práticas recomendadas pelos Princípios Orientadores das Nações Unidas sobre Empresas e Direitos Humanos (UNGPs), as plataformas podem evidenciar melhor como o diálogo com as partes interessadas influencia suas respostas aos riscos identificados.
- Aprofundar as análises com base em dados. Tanto dados quantitativos quanto qualitativos são essenciais para relatórios eficazes. As empresas devem usar de forma mais transparente os dados provenientes de apelações, complementados por informações de mecanismos externos de supervisão, para demonstrar se as medidas adotadas respeitam a liberdade de expressão e outros direitos humanos.
Introdução
A recente regulamentação da União Europeia para plataformas online introduz uma abordagem baseada em risco para os serviços digitais, focando em como essas plataformas podem gerar ou intensificar determinados tipos de danos. A DSA tem como objetivo regulamentar as redes sociais, estabelecendo “regras harmonizadas” que promovem um “ambiente online confiável”, no qual os direitos humanos sejam respeitados. Essa legislação exige que as “plataformas online de grande porte” (VLOPs) publiquem as ações que estão implementando para impedir que seus serviços causem prejuízos às pessoas e à sociedade. As primeiras “avaliações de risco sistêmico” divulgadas pelas VLOPs oferecem uma visão sobre como essas plataformas identificam, avaliam e mitigam riscos, incluindo aqueles relacionados aos direitos humanos, decorrentes do design e do uso de seus sistemas, conforme previsto nos Artigos 34 e 35 da DSA. Embora a DSA tenha potencial para ampliar a transparência e fortalecer os direitos humanos, os incentivos gerados por essa legislação também podem resultar em restrições excessivas à liberdade de expressão globalmente.
Conciliando a mitigação de riscos e o respeito à liberdade de expressão
Muitos dos riscos abordados pela DSA refletem as questões que o Comitê tem priorizado em seus casos. Por exemplo, a DSA (Considerando 86) exige que as plataformas “considerem especialmente o impacto na liberdade de expressão” ao decidirem como mitigar riscos sistêmicos. Essa exigência está diretamente relacionada ao mandato do Comitê, que visa garantir o respeito à liberdade de expressão e avaliar quando restrições a essa liberdade podem ser justificadas para proteger outros direitos ou interesses. Nossas decisões, que têm efeito vinculativo para a Meta, tratam dos desafios mais complexos na moderação de conteúdo, analisando como as políticas, as escolhas de design e o uso de automação da Meta influenciam os direitos dos usuários. Essas decisões oferecem importantes perspectivas sobre como equilibrar a identificação e a mitigação de riscos nas plataformas da Meta, ao mesmo tempo que se respeitam a liberdade de expressão e outros direitos humanos.
O Comitê ressalta que as avaliações de risco sistêmico precisam dar maior ênfase ao respeito aos direitos humanos, especialmente à liberdade de expressão, para fortalecer a responsabilização das plataformas perante os usuários e aprimorar a governança de conteúdo, alinhando-se aos objetivos da DSA. Esse posicionamento está alinhado com o trabalho recente realizado por organizações como a Global Network Initiative (GNI), a Digital Trust & Safety Partnership (DTSP), a Access Now, o Centro de Estudos sobre Liberdade de Expressão e Acesso à Informação (CELE) e outros especialistas do setor. Esses esforços visam aprofundar a compreensão dos riscos sistêmicos, fundamentar as avaliações de risco em padrões internacionais de direitos humanos e evidenciar possíveis ameaças à liberdade de expressão, bem como riscos de interferência política. Com base neste trabalho e em uma análise detalhada das primeiras avaliações de risco sistêmico, o Comitê apresenta as seguintes reflexões.
Esclarecer o significado de riscos sistêmicos
Os primeiros relatórios são limitados pela ausência de um entendimento comum sobre o que exatamente significa “riscos sistêmicos”. O termo não é definido na DSA, tampouco tem fundamentação na legislação internacional de direitos humanos. Embora o Comitê reconheça a intenção da DSA de manter uma abordagem flexível, permitindo que o significado evolua com o tempo, essa flexibilidade delega às plataformas a responsabilidade de interpretar o conceito com critério. Diante disso, é compreensível que as plataformas frequentemente adotem uma postura restrita e orientada à conformidade, o que pode prejudicar uma compreensão mais profunda do desenvolvimento dos riscos sistêmicos. Como consequência, a análise desses riscos acaba reduzida a um mero exercício de checklist, como foi amplamente evidenciado nas primeiras avaliações publicadas pelas plataformas em 2024.
Grande parte dos relatórios limita-se às categorias de riscos sistêmicos mencionadas pela DSA — tais como “conteúdo ilegal”, “efeitos negativos” sobre “direitos fundamentais”, processos democráticos, segurança pública, “violência de gênero” e proteção de menores — assim como às 11 medidas de mitigação listadas, que incluem, por exemplo, “adaptação” e “ajuste” das escolhas de design e “sistemas de recomendação”. Além disso, as plataformas, em sua maioria, não identificam novos riscos em suas avaliações nem implementam medidas adicionais de mitigação, tampouco questionam as conexões presumidas entre suas plataformas e riscos específicos. Essa ambiguidade pode, por sua vez, facilitar que as plataformas deixem de reconhecer ou minimizem novas ameaças e tendências emergentes.
Incentivando restrições de expressão
Do ponto de vista da liberdade de expressão, a falta de clareza sobre o significado de “riscos sistêmicos” pode resultar em interpretações amplas demais e em aplicações arbitrárias, o que pode incentivar restrições indevidas à liberdade de expressão. Esse cenário pode reprimir vozes diversas e enfraquecer o compromisso das plataformas em manter espaços abertos para debates sobre temas sensíveis ou controversos. Como consequência, a capacidade dos usuários de se expressar livremente nessas plataformas pode ser comprometida. Além disso, essa ambiguidade tem o potencial de enfraquecer alguns dos avanços esperados com a DSA, como o fortalecimento do acesso a recursos pelos usuários e o aumento da transparência.

Basear os relatórios de risco sistêmico em padrões internacionais de direitos humanos.
A DSA trata os direitos humanos como uma categoria separada, em vez de integrá-los de forma transversal a todas as áreas de risco. Essa abordagem fragmentada afeta negativamente a maneira como as plataformas identificam, avaliam e mitigam os riscos. Isso se torna ainda mais problemático à luz da nova exigência da DSA de que as medidas de mitigação sejam “razoáveis, proporcionais e eficazes”, já que faltam orientações claras sobre como cumprir esse padrão. Ao isolar os direitos humanos como uma categoria à parte, a DSA perde a oportunidade de incorporá-los de maneira ampla e consistente à governança dos riscos sistêmicos. Esse modelo leva as plataformas a priorizar certos direitos em detrimento de outros e desencoraja uma análise mais integrada sobre como diferentes áreas de risco — ou fatores de influência — podem afetar os direitos humanos em sua totalidade. Uma pesquisa recente do CELE, organização não governamental com sede na Argentina, sustenta que a abordagem baseada em risco “afasta os direitos do centro da governança da Internet e pode levar a uma lógica de ‘conformidade simbólica’, na qual o papel dos direitos na governança é ainda mais enfraquecido”. Adotar padrões internacionais de direitos humanos pode contribuir para uma comunicação de riscos sistêmicos mais consistente e orientada por princípios, ao mesmo tempo que promove o alinhamento metodológico e assegura uma estrutura comum para avaliar os impactos sobre os direitos.
Nuances ignoradas
Essa abordagem fragmentada se torna especialmente visível no contexto da liberdade de expressão. Embora a comunicação separada possa abordar preocupações específicas — como práticas de moderação de conteúdo, suspensões de contas ou desinformação —, ela frequentemente deixa de considerar aspectos mais sutis. Por exemplo, pode não levar em conta como outras áreas de risco, como “conteúdo ilegal” ou determinados “fatores de influência” — incluindo detecção automatizada, algoritmos de recomendação ou mecanismos de busca — podem exercer impactos sistêmicos sobre a liberdade de expressão, mesmo quando esses efeitos parecem inicialmente limitados. Outro caso envolve a cooperação das plataformas com governos na remoção de conteúdo. Nesses contextos, frequentemente não está claro de que forma as solicitações governamentais são feitas, registradas ou processadas.
Essa falta de transparência tem sido um problema recorrente apontado nas análises do Comitê, que observaram a opacidade e a inconsistência das solicitações estatais — como evidenciado nas decisões relativas aos casos Shared Al Jazeera Post, UK Drill Music e Öcalan’s Isolation — e seu potencial de restringir a liberdade de expressão. As plataformas também fazem uso intensivo de sistemas automatizados para identificar e remover conteúdos, o que pode, por um lado, resultar na remoção excessiva de discursos políticos e de discursos contrários. Por outro lado, a redução do uso de automação também envolve riscos, podendo gerar impactos desiguais entre diferentes grupos de usuários. Recentemente, o Comitê recomendou que a Meta avaliasse as implicações globais de sua decisão — anunciada em 7 de janeiro de 2025 — de diminuir a utilização de automação em determinadas áreas relacionadas a conteúdo político.
Direitos humanos integrados
Para que os direitos humanos sejam tratados como uma questão transversal, seria útil que as plataformas recebessem orientações mais claras e diretrizes práticas sobre como identificar e avaliar riscos com base em uma estrutura centrada em direitos, sustentada por critérios consistentes e bem definidos. Embora muitas plataformas tenham desenvolvido suas próprias metodologias, seus relatórios frequentemente fazem referência a uma variedade de estruturas — que vão desde os UNGPs até modelos de risco de setores não relacionados, como o financeiro e o climático. Essa diversidade de abordagens resulta em avaliações inconsistentes de elementos como escopo, escala, grau de irremediabilidade e probabilidade de impactos adversos. Essa falta de uniformidade compromete a capacidade das partes interessadas de comparar os riscos entre diferentes serviços e de avaliar, de forma abrangente, os danos e as restrições à liberdade de expressão enfrentados pelos usuários em todo o setor.
A adoção de diretrizes provenientes de tratados internacionais e dos UNGPs pode ajudar a assegurar que os processos de identificação e avaliação de riscos sistêmicos não resultem em violações indevidas de direitos humanos. Os UNGPs oferecem uma estrutura bem estabelecida para avaliar impactos sobre os direitos humanos, com ênfase no engajamento com partes interessadas, na consideração do contexto e na atenção especial a grupos vulneráveis. Além disso, eles fornecem orientações claras sobre a análise de escopo, escala, irremediabilidade e probabilidade de potenciais impactos adversos aos direitos humanos. O uso sistemático dos UNGPs também aumentaria a comparabilidade entre plataformas e garantiria que as avaliações de risco considerassem não apenas os impactos imediatos e quantificáveis, mas também os efeitos mais amplos e duradouros integrados no design e no funcionamento das plataformas.
Distinguir entre riscos e medidas de mitigação
Para enfrentar esses desafios, as plataformas também precisam de uma forma estruturada de diferenciar a priorização de riscos da definição de medidas de mitigação. Uma abordagem centrada em direitos pode apoiar a aplicação de medidas mais precisas e equilibradas, evitando avaliações simplificadas baseadas apenas na hierarquização de riscos. Essa abordagem deve incluir a análise dos impactos das próprias estratégias de mitigação, com base em critérios claros e específicos para cada direito envolvido. Por exemplo, avaliar a eficácia da moderação de conteúdo exigiria a consideração de fatores como a prevalência do conteúdo em questão, o volume de decisões tomadas, a taxa de erros de aplicação e os resultados de processos de apelação. Isso ajudaria a garantir que as respostas aos riscos não resultem em novos impactos ou efeitos desproporcionais, além de promover maior transparência detalhada e ampliar o acesso a dados que podem subsidiar pesquisas independentes sobre padrões de moderação.
Embora a DSA busque estabelecer uma estrutura para avaliação de medidas de mitigação — exigindo que sejam “razoáveis, proporcionais e eficazes” —, ela ainda não fornece diretrizes claras de implementação. Assim como ocorre na identificação e avaliação de riscos, essa lacuna deixa ampla margem de interpretação às plataformas, levando ao uso de metodologias variadas que podem comprometer a qualidade, a efetividade e a pontualidade das ações de mitigação.
Orientações mais claras sobre como avaliar e implementar medidas de mitigação poderiam ser alcançadas com base em estruturas internacionais já existentes para avaliação de restrições à liberdade de expressão — especialmente o teste de três partes previsto no Artigo 19(3) do Pacto Internacional sobre Direitos Civis e Políticos (PIDCP), cuja aplicação é relevante também para empresas segundo os UNGPs. O uso desse referencial permitiria que as plataformas analisassem de forma mais robusta suas estratégias de mitigação, equilibrando a proteção da liberdade de expressão com outros objetivos legítimos. Além disso, contribuiria para que a liberdade de expressão e o discurso cívico fossem tratados não como riscos isolados, mas como dimensões transversais integradas à avaliação e mitigação de riscos sistêmicos.
Organizações que preenchem a lacuna
A adoção de estruturas já consolidadas ajudaria a questionar a suposição de que a liberdade de expressão está inevitavelmente em conflito com outros direitos humanos ou interesses sociais, promovendo, em vez disso, abordagens mais inovadoras para a mitigação de riscos. Essa estratégia também contribuiria para esclarecer como o padrão de “razoabilidade, proporcionalidade e eficácia”, estabelecido pela DSA, se relaciona com estruturas robustas de direitos humanos — como o teste de três partes previsto no Artigo 19 do PIDCP, que avalia legalidade, legitimidade, necessidade e proporcionalidade. O Comitê, inclusive, aplica esse teste de três partes em todos os seus casos, como base para avaliar se as intervenções discursivas realizadas pela Meta atendem a esses critérios fundamentais. Isso oferece um modelo claro e reutilizável para análises fundamentadas em direitos, que pode ser adotado pelas plataformas em seus próprios processos de mitigação.
Uma resposta global consistente
Estruturas de risco sistêmico desenvolvidas dentro de marcos regulatórios regionais, como a DSA, têm o potencial de influenciar regulamentações em outras partes do mundo. Por isso, é fundamental que os reguladores esclareçam o papel transversal dos direitos humanos em todas as categorias de risco — e que as plataformas adotem estruturas alinhadas a padrões globais de direitos humanos — para garantir que seus sistemas mitiguem os riscos de forma eficaz em diferentes jurisdições, mantendo, ao mesmo tempo, uma abordagem coerente em nível global. Como evidenciado pelo amplo trabalho do Comitê, ancorar-se em padrões globais exige atenção cuidadosa aos contextos locais e regionais, tanto na identificação dos riscos quanto na definição de medidas de mitigação. Embora as violações de direitos individuais possam se manifestar de formas distintas em diferentes regiões, a aplicação de uma estrutura global permite que a resposta das empresas seja consistente e baseada no respeito à liberdade de expressão.

Incorporar o engajamento das partes interessadas nas avaliações e no desenho de mitigação
Embora todas as plataformas mencionem, em seus relatórios, o engajamento com partes interessadas — como organizações da sociedade civil, academia e comunidades marginalizadas —, há pouca clareza sobre como essas contribuições efetivamente influenciam as avaliações de risco sistêmico. Apesar de detalharem seus processos de consulta, as plataformas raramente estabelecem ligações explícitas entre os resultados desses diálogos e suas análises de risco ou decisões sobre medidas de mitigação. Além disso, os relatórios sobre engajamento com partes interessadas não estão alinhados às boas práticas recomendadas pelos UNGPs. Em particular, a ausência de informações sobre como os processos de consulta são organizados, quem são os atores envolvidos e quais preocupações foram levantadas dificulta a compreensão de que forma as percepções das partes interessadas moldam as respostas das plataformas a riscos específicos — tanto antes quanto depois da implementação das mitigações.
Perspectivas diversas
O engajamento significativo das partes interessadas deve priorizar a participação de indivíduos e grupos diretamente afetados pelas decisões das plataformas, buscando ativamente incorporar conhecimentos especializados e perspectivas variadas. Além disso, esse tipo de envolvimento é fundamental para incorporar tanto fatores regionais quanto globais nas avaliações de riscos sistêmicos e nas medidas de mitigação. Embora a DSA destaque a importância de avaliações de risco localizadas, as metodologias atuais frequentemente negligenciam a diversidade local — como os diferentes idiomas e culturas presentes na UE —, pois as plataformas tendem a focar questões estruturais que impactam seus sistemas. Essa situação é agravada pela falta de um engajamento direcionado com as partes interessadas, resultando em avaliações de risco que não abrangem a complexidade dos contextos locais.
A prioridade do Comitê quanto ao engajamento das partes interessadas, evidenciada em seus casos e opinião consultiva política (consulte a opinião consultiva política “Shaheed”), demonstra como esses esforços podem promover maior transparência, aumentar a participação e amplificar as vozes das pessoas e comunidades mais afetadas pelas decisões das plataformas. Além disso, o trabalho de organizações especializadas, como a Global Network Initiative e o fórum da Digital Trust & Safety Partnership, evidencia que consultas com diversos atores e especialistas podem enriquecer tanto as avaliações de risco quanto as estratégias de mitigação, ajudando as plataformas a alinhar esses processos a uma abordagem fundamentada em direitos humanos.
Aprofundar as análises com base em dados de apelações
Os primeiros relatórios das plataformas são majoritariamente qualitativos, o que limita a compreensão sobre os dados quantitativos utilizados para avaliar riscos e implementar medidas de mitigação. Quando métricas são apresentadas, geralmente são de nível geral e repetem informações já divulgadas em relatórios de transparência anteriores. Com base na experiência do Comitê, uma forma eficaz de avaliar o impacto das medidas de mitigação, especialmente em relação à liberdade de expressão e outros direitos humanos, é utilizar análises qualitativas e quantitativas dos dados referentes às apelações dos usuários — por exemplo, decisões de remoção ou restauração de conteúdo. Esses recursos não servem apenas como um meio de corrigir erros, mas também funcionam como uma proteção crucial para a liberdade de expressão, ao evidenciar práticas de fiscalização que possam estar reprimindo manifestações legítimas. Além disso, as denúncias dos usuários e as apelações contra decisões de manter conteúdo online podem revelar falhas nas práticas de moderação, mostrando onde o conteúdo prejudicial não está sendo adequadamente controlado.
Tendências de aplicação como indicadores de riscos
As apelações também podem fornecer informações importantes sobre a precisão das práticas de aplicação e os riscos residuais existentes. Por exemplo, dados relacionados ao volume de recursos, localização geográfica, políticas aplicáveis, áreas de risco envolvidas e seus desfechos podem auxiliar na identificação de quais medidas de mitigação estão funcionando efetivamente ao longo do tempo e quais precisam ser aprimoradas. Com centenas de milhares de apelações recebidas anualmente de diversas partes do mundo, os dados do Comitê podem contribuir para identificar tendências na aplicação das políticas que funcionam como possíveis indicadores de riscos, tais como a censura de conteúdo jornalístico e a aplicação excessiva ou insuficiente de regras durante situações de crise. Além disso, esses dados auxiliam na avaliação da eficácia das medidas de mitigação adotadas. Isso, por sua vez, poderia complementar os próprios processos das plataformas, promovendo uma supervisão independente.
Ao analisar de forma sistemática, reportar com transparência e integrar os dados de maneira significativa nas avaliações de risco, as plataformas não apenas aprimorarão a eficácia das medidas de mitigação, como também fortalecerão a confiança no seu compromisso com a proteção dos direitos humanos.
Conclusão
Agora que as primeiras rodadas de avaliações foram publicadas e as plataformas avançam na elaboração dos seus próximos relatórios, este é o momento adequado para aprimorar as metodologias, assegurando que os produtos, os recursos da plataforma e os sistemas de moderação de conteúdo sejam avaliados com maior precisão, profundidade e rigor. Uma abordagem transparente e multissetorial, que reúne diversas expertises e perspectivas, é fundamental para sustentar esse processo. É essencial que os direitos humanos, especialmente a liberdade de expressão, estejam no centro das avaliações de risco sistêmico, protegendo a liberdade de expressão em vez de serem usados como justificativa para sua restrição.
Aproveitando sua expertise, o Comitê está comprometido em auxiliar no desenvolvimento de abordagens baseadas em direitos, que coloquem a liberdade de expressão como elemento central. Considerando o caráter iterativo dessas avaliações, o Comitê incentiva as plataformas a integrarem o feedback recebido e sugere que os reguladores considerem esses insights na elaboração de diretrizes para plataformas e auditores.
O Comitê espera colaborar com organizações e especialistas interessados em avaliações e mitigação de riscos sistêmicos.