Por qué la libertad de expresión debe ser el elemento central de las evaluaciones de riesgos sistémicos

Resumen Ejecutivo

En 2022, la Unión Europea aprobó la Ley de Servicios Digitales (Digital Services Act, DSA), una legislación que promete proteger los derechos de los usuarios y que impone a las plataformas el requisito normativo de identificar y mitigar los riesgos derivados de sus servicios en línea. De manera crucial, la DSA establece que las plataformas en línea, incluidas las empresas de redes sociales, deben “dar especial consideración” a la libertad de expresión al momento de decidir cómo abordar los daños graves a la sociedad identificados en este marco. Desde que estas plataformas publicaron sus primeras evaluaciones a finales de 2024, han surgido varios desafíos para alcanzar este objetivo, algunos derivados de la ambigüedad de los términos clave de la DSA, y otros de oportunidades desaprovechadas para integrar normas globales de derechos humanos en dichas evaluaciones.

A partir del trabajo de muchas organizaciones activas en este campo, el Consejo asesor de contenido considera fundamental que los derechos humanos, y en particular la libertad de expresión, ocupen un lugar central en las evaluaciones de riesgos sistémicos. En este sentido, este informe oficial presenta cuatro áreas clave que podrían contribuir a mejorar la rendición de cuentas de las plataformas y a optimizar la gestión del contenido, como parte de un enfoque coherente y eficaz basado en los derechos:

  • Aclarar el significado de los riesgos sistémicos. La ambigüedad en torno a este término de la DSA podría dar lugar a interpretaciones excesivamente amplias y, en consecuencia, incentivar restricciones al discurso.
  • Basarse en las normas globales de derechos humanos. Integrar completamente dichas normas en todas las categorías de evaluación de riesgos permite una presentación de informes más coherente. La integración de los derechos humanos globales es más eficaz que tratarlos como una categoría independiente.
  • Incorporar la participación de las partes interesadas en la identificación de riesgos y el diseño de medidas de mitigación. Al seguir las prácticas establecidas en los Principios Rectores sobre las Empresas y los Derechos Humanos de las Naciones Unidas (UN Guiding Principles on Business and Human Rights, UNGP), las plataformas pueden demostrar de manera más significativa cómo la participación de las partes interesadas influye en sus respuestas ante los riesgos.
  • Profundizar en el análisis de datos. Los datos cuantitativos y cualitativos son igualmente valiosos para la presentación de informes. Las empresas deberían utilizar de forma más abierta los datos de apelaciones, respaldados por información proveniente de mecanismos externos de supervisión, para demostrar si las medidas de mitigación son eficaces en cuanto al respeto a la libertad de expresión y otros derechos humanos.

Introducción

La reciente regulación de la Unión Europea sobre las plataformas en línea introduce un nuevo enfoque basado en riesgos para los servicios digitales, con énfasis en cómo las plataformas pueden generar o amplificar ciertos tipos de daño. La DSA busca regular las redes sociales a fin de establecer “normas armonizadas” para un “entorno en línea confiable” en el que se respeten los derechos humanos. Esta legislación exige que las “plataformas en línea muy grandes” (very large online platforms, VLOP) revelen las medidas que están adoptando para evitar que sus servicios causen daño a las personas y a la sociedad. Las primeras “evaluaciones de riesgos sistémicos” publicadas por las VLOP ofrecen información sobre cómo estas plataformas identifican, evalúan y mitigan los riesgos, incluidos los relacionados con los derechos humanos, que surgen del diseño y uso de sus sistemas, según lo establecido en los artículos 34 y 35 de la DSA. Aunque la DSA tiene el potencial de mejorar la transparencia y respaldar los derechos humanos, los incentivos que crea también podrían conducir a restricciones excesivas a la libertad de expresión a nivel mundial.

Conciliación entre la mitigación de riesgos y el respeto a la libertad de expresión

Muchos de los riesgos que aborda la DSA reflejan los temas que el Consejo asesor de contenido ha priorizado en sus casos. Por ejemplo, la DSA (Considerando 86) exige que las plataformas “den especial consideración al impacto en la libertad de expresión” al elegir cómo mitigar los riesgos sistémicos. Esta consideración está estrechamente vinculada con el mandato del Consejo, que se centra en garantizar el respeto a la libertad de expresión e identificar cuándo las restricciones al discurso pueden estar justificadas para proteger otros derechos o intereses. Nuestras decisiones, que son vinculantes para Meta, abordan los problemas más complejos de moderación de contenido y examinan cómo las políticas de Meta, sus decisiones de diseño y el uso de la automatización afectan los derechos de las personas. Estas decisiones ofrecen información sobre cómo conciliar la identificación y mitigación de riesgos en las plataformas de Meta con el respeto a la libertad de expresión y otros derechos humanos.     

El Consejo enfatiza que las evaluaciones de riesgos sistémicos deben centrarse más en el respeto a los derechos humanos, incluida la libertad de expresión, si se pretende mejorar de manera significativa la rendición de cuentas de las plataformas ante los usuarios y optimizar la gobernanza del contenido en consonancia con los objetivos de la DSA. Esto coincide con trabajos recientes elaborados por organizaciones, como Global Network Initiative (GNI), Digital Trust & Safety Partnership (DTSP), Access Now y el Centro de Estudios en Libertad de Expresión y Acceso a la Información (CELE), así como por otros expertos del sector, que buscan profundizar en la comprensión de los riesgos sistémicos, anclar las evaluaciones de riesgos en las normas globales sobre derechos humanos y destacar las posibles amenazas a la libertad de expresión y los riesgos de interferencia política. A partir de estos aportes y de un análisis detallado de las primeras evaluaciones de riesgos sistémicos, el Consejo ofrece las siguientes reflexiones.


Aclarar el significado de los riesgos sistémicos

Los primeros informes están limitados por la falta de una comprensión compartida sobre lo que significa el término “riesgos sistémicos”. Este no está definido en la DSA ni tiene base en el derecho internacional de los derechos humanos. Si bien el Consejo reconoce que la DSA adopta deliberadamente un enfoque flexible al permitir que el significado evolucione con el tiempo, esto transfiere a las plataformas la responsabilidad de interpretar el concepto de manera reflexiva. En este contexto, es comprensible que las plataformas adopten con frecuencia un enfoque limitado, centrado en el cumplimiento, lo cual puede obstaculizar el desarrollo de una comprensión significativa de los riesgos sistémicos. El resultado es que el análisis de riesgos sistémicos se reduce a un ejercicio de listas de verificación, como se observó en gran medida en la publicación inicial de las evaluaciones de riesgos de las plataformas en 2024.

La mayoría de los informes de plataformas hacen referencia únicamente a las categorías de riesgos sistémicos enumeradas en la DSA (“contenido ilegal”, “efectos negativos” sobre “derechos fundamentales”, procesos democráticos, seguridad pública, “violencia de género” y protección de menores), así como a sus once medidas de mitigación (por ejemplo, “adaptación” y “ajuste” de las decisiones de diseño y los “sistemas de recomendación”). Las plataformas, en su mayoría, no mencionan si sus evaluaciones permitieron identificar nuevos riesgos o si derivaron en la implementación de nuevas medidas de mitigación, y no cuestionan las supuestas conexiones entre sus plataformas y riesgos específicos. Esta ambigüedad, a su vez, podría facilitar que las plataformas pasen por alto o encubran nuevas amenazas y tendencias emergentes.

Incentivos para restringir el discurso

Desde la perspectiva de la libertad de expresión, la ambigüedad en torno al significado del término puede dar lugar a interpretaciones excesivamente amplias y a una aplicación arbitraria, lo que incentivaría restricciones desmedidas al discurso. Esto podría coartar la diversidad de opiniones y, potencialmente, debilitar el compromiso de las plataformas de ofrecer espacios para el debate abierto sobre temas difíciles y sensibles. En consecuencia, esto podría disuadir a los usuarios de ejercer su libertad de expresión en estas plataformas. También existe el riesgo de que se socaven algunos de los beneficios que la DSA podría aportar en términos de mayor acceso a soluciones para los usuarios y mayor transparencia.


Basarse en las normas globales de derechos humanos para la elaboración de informes sobre riesgos sistémicos

La DSA trata los derechos humanos como una categoría independiente, en lugar de integrarlos en todas las áreas de riesgo, lo que da lugar a enfoques fragmentados sobre cómo las plataformas identifican, evalúan y mitigan los riesgos. Esto resulta especialmente problemático considerando que la DSA introduce una nueva norma según la cual las medidas de mitigación deben ser “razonables, proporcionales y eficaces”, sin ofrecer orientaciones claras sobre su implementación. Al ubicar los derechos humanos en una categoría separada, la DSA desaprovecha la oportunidad de incorporar estas consideraciones de manera integral en la gobernanza de los riesgos sistémicos. Esto lleva a que las plataformas prioricen ciertos derechos en detrimento de otros y desalientan que evalúen cómo cada área de riesgo o “factor de influencia” puede afectar los derechos humanos en su conjunto. Investigaciones recientes del CELE, una organización no gubernamental con sede en Argentina, sostienen que este enfoque basado en riesgos “expulsa los derechos del centro de la gobernanza de Internet y puede generar una lógica de ‘cumplimiento simbólico’ que debilita aún más el papel de gobernanza de los derechos”. Basarse en las normas globales sobre derechos humanos podría promover un enfoque más coherente y centrado en los derechos para la elaboración de informes sobre riesgos sistémicos, lo que ayudaría a alinear las metodologías y establecer un marco común para evaluar los impactos sobre los derechos.

Matices pasados por alto

Este tratamiento fragmentado se vuelve especialmente evidente en el contexto de la libertad de expresión. Aunque los informes separados pueden abordar preocupaciones sobre las prácticas de moderación de contenido, la suspensión de cuentas o la información errónea, con frecuencia pasan por alto cuestiones más matizadas. Por ejemplo, pueden no considerar cómo otras áreas de riesgo, como el “contenido ilegal”, o “factores de influencia” como la detección automatizada, los algoritmos de recomendación o las funcionalidades de búsqueda, pueden tener efectos sistémicos sobre la libertad de expresión, incluso cuando estos efectos parecen limitados en un principio. Otro ejemplo ocurre cuando las plataformas cooperan con gobiernos en la eliminación de contenido; a menudo no queda claro cómo se realizan, registran o ejecutan estas solicitudes.

Esta falta de transparencia ha sido un problema recurrente identificado en los casos analizados por el Consejo, que ha examinado la naturaleza poco clara e inconherente de las solicitudes estatales (vea las decisiones sobre la Publicación compartida de Al Jazeera, la Música drill británica y el Aislamiento de Öcalan), y su potencial para suprimir la libertad de expresión. Las plataformas también dependen en gran medida de sistemas automatizados para detectar y eliminar publicaciones, lo que, por un lado, puede derivar en una aplicación excesiva contra discursos políticos y la contraopinión. Por otro lado, reducir la dependencia de la automatización también puede conllevar riesgos, con consecuencias desiguales para distintos usuarios. Recientemente, el Consejo recomendó a Meta que analizara las implicaciones globales de su decisión, anunciada el 7 de enero de 2025, de reducir la dependencia de la automatización en algunas áreas de sus políticas.

Incorporación de los derechos humanos

Para incorporar los derechos humanos como un tema transversal, las plataformas podrían beneficiarse de una mayor claridad y orientación sobre cómo identificar y evaluar los riesgos mediante un enfoque basado en derechos, con criterios claros y coherentes. Aunque muchas plataformas han desarrollado sus propios enfoques, a menudo hacen referencia en sus informes a una variedad de marcos, que van desde los Principios Rectores sobre las Empresas y los Derechos Humanos de las Naciones Unidas (United Nations Guiding Principles on Business and Human Rights, UNGP) hasta modelos de riesgo de sectores no relacionados, como las finanzas y el cambio climático. Esto genera una evaluación dispar de factores como el alcance, la magnitud, la irreparabilidad y la probabilidad de impactos adversos. Todo esto dificulta que las partes interesadas puedan comparar riesgos entre servicios y evaluar los daños a nivel sectorial así como las limitaciones a la capacidad de los usuarios para expresarse libremente.

Basarse en la orientación de tratados internacionales y de los UNGP podría ayudar a garantizar que los esfuerzos para identificar y evaluar riesgos sistémicos no infrinjan injustificadamente los derechos humanos. Los UNGP ofrecen un enfoque estructurado para evaluar los impactos sobre los derechos humanos, con énfasis en la participación de las partes interesadas, el contexto y la atención a los grupos vulnerables. Incluyen directrices consolidadas para evaluar el alcance, la magnitud, la irreparabilidad y la probabilidad de impactos adversos sobre los derechos humanos. Utilizar los UNGP permitiría mejorar la comparabilidad entre plataformas y garantizar que las evaluaciones de riesgos vayan más allá de lo que es inmediatamente visible o cuantificable, capturando impactos más amplios y de largo plazo integrados en el diseño y funcionamiento de las plataformas.

Diferenciación entre riesgos y medidas de mitigación

Para afrontar estos desafíos, las plataformas también necesitan una forma estructurada de diferenciar entre la priorización de riesgos y la determinación de medidas de mitigación. Un enfoque basado en derechos podría ayudar a las plataformas a aplicar medidas cuidadosamente calibradas, en lugar de simplificar en exceso las evaluaciones con base en la priorización de riesgos. Este enfoque debe incluir una evaluación de los impactos de las propias estrategias de mitigación, utilizando criterios específicos vinculados a los derechos. Por ejemplo, para medir la eficacia de la moderación de contenido sería necesario evaluar la prevalencia del contenido, el volumen de decisiones, las tasas de error del sistema de cumplimiento de normas y los resultados de las apelaciones. Esto permitiría que las respuestas a los riesgos no generen nuevos impactos ni efectos desproporcionados, y promovería una mayor transparencia detallada y el acceso a datos que respalden investigaciones independientes sobre las tendencias en moderación.

Si bien la DSA busca establecer un marco para evaluar las medidas de mitigación al exigir que sean “razonables, proporcionales y eficaces”, no proporciona directrices claras sobre cómo implementarlas. Al igual que ocurre con la identificación y evaluación de riesgos, esto deja gran parte de la responsabilidad en manos de las plataformas y da lugar a metodologías divergentes, lo que puede afectar la calidad, la eficacia y la celeridad de estas medidas. 

Una orientación más clara sobre cómo evaluar e implementar medidas de mitigación podría lograrse basándose en marcos globales ya existentes para evaluar las restricciones al discurso, en particular, la prueba de tres partes para restricciones legítimas a la libertad de expresión, establecida en el artículo 19(3) del Pacto Internacional de Derechos Civiles y Políticos (International Covenant on Civil and Political Rights, ICCPR) y su aplicación a las empresas conforme a los UNGP. Esto permitiría a las plataformas evaluar mejor sus estrategias de mitigación dado que integrarían las preocupaciones relacionadas con el discurso y otros objetivos legítimos. Otro beneficio sería garantizar que la libertad de expresión y el discurso cívico no se traten como una categoría de “riesgo” independiente, sino que se incorporen como una cuestión transversal. 

Organizaciones que cierran la brecha

La adopción de marcos existentes permitiría cuestionar la suposición de que la libertad de expresión siempre está en conflicto con el respeto a otros derechos humanos e intereses sociales, y fomentaría enfoques innovadores para la mitigación de riesgos. Este camino también ayudaría a clarificar la relación entre la norma de la DSA (“razonable, proporcional y eficaz”) y los marcos consolidados de derechos humanos, como la prueba de tres partes del artículo 19 del Pacto Internacional de Derechos Civiles y Políticos, que establece los principios de legalidad, legitimidad, necesidad y proporcionalidad. El Consejo aplica esta prueba de tres partes en todos sus casos para evaluar si las intervenciones de Meta sobre el discurso cumplen con los requisitos de legalidad, finalidad legítima, necesidad y proporcionalidad. Esto ofrece un modelo transparente y replicable de análisis basado en derechos que las plataformas pueden adoptar en sus propios esfuerzos de mitigación.  

Una respuesta coherente y global

Los marcos de riesgos sistémicos diseñados bajo regímenes regulatorios regionales, como la DSA, podrían terminar influyendo en los enfoques regulatorios de otras regiones. Por ello, es fundamental que el regulador aclare el papel transversal de los derechos humanos en todas las áreas de riesgo, y que las plataformas adopten marcos basados en normas globales sobre derechos humanos para garantizar que sus sistemas mitiguen eficazmente los riesgos en jurisdicciones regionales, sin perder coherencia a nivel mundial. Como lo demuestra el amplio trabajo del Consejo, basarse en las normas globales exige tener en cuenta los contextos locales y regionales, tanto al identificar riesgos como al diseñar medidas de mitigación. Aunque los daños a los derechos individuales pueden manifestarse de forma diferente según la región, aplicar un marco global puede garantizar que la respuesta de una empresa sea coherente y esté fundamentada en el respeto por la libertad de expresión.


Incorporar la participación de las partes interesadas en las evaluaciones y el diseño de medidas de mitigación

Aunque todas las plataformas hacen referencia a la participación de las partes interesadas (como la sociedad civil, el ámbito académico y las comunidades marginadas) en sus informes, se brinda poca información sobre cómo estos aportes influyen en las evaluaciones de riesgos sistémicos. Si bien las plataformas detallan sus procesos de consulta, no establecen de forma clara vínculos entre los resultados de esas consultas y su análisis de riesgos o la evaluación de medidas de mitigación. Esta manera de reportar la participación de las partes interesadas tampoco se alinea con las buenas prácticas del sector descritas en los UNGP. En concreto, ante la falta de claridad sobre cómo se estructuran las participaciones, qué partes interesadas intervienen y qué preocupaciones se plantean, resulta difícil entender de qué manera los aportes de estas partes influyen en las respuestas de las plataformas ante riesgos específicos, tanto antes como después de aplicar las medidas de mitigación.

Perspectivas diversas

Una participación significativa de las partes interesadas debe dar prioridad a los aportes de las personas y los grupos más afectados por las decisiones de las plataformas, mediante la búsqueda activa de experiencias y perspectivas diversas. Además, este tipo de participación es fundamental para considerar factores regionales y globales al evaluar los riesgos sistémicos y las medidas de mitigación. Aunque la DSA enfatiza la evaluación localizada de riesgos, las metodologías actuales con frecuencia no consideran la diversidad local (por ejemplo, los distintos idiomas y culturas de la Unión Europea), ya que las plataformas tienden a enfocarse en cuestiones estructurales que afectan sus sistemas. Esta situación se agrava por la falta de participación específica de las partes interesadas, lo que conduce a evaluaciones de riesgos que no reflejan la complejidad de los contextos locales.

La prioridad que el Consejo otorga a la participación de las partes interesadas en los casos y en sus opiniones consultivas sobre políticas demuestra cómo estos esfuerzos pueden aumentar la transparencia y la participación, y amplificar las voces de las personas y comunidades más impactadas por las decisiones de las plataformas (vea la opinión consultiva sobre política “Shaheed”). Además, el trabajo de organizaciones expertas, como Global Network Initiative y el foro de Digital Trust & Safety Partnership, subraya cómo las consultas con múltiples partes interesadas y expertos diversos pueden enriquecer tanto las evaluaciones de riesgos como las estrategias de mitigación, y ayudar a las plataformas a alinear estos procesos con un enfoque basado en derechos. 


Profundizar en el análisis de datos sobre apelaciones

Dado que los primeros informes de las plataformas son principalmente cualitativos, ofrecen información limitada sobre los datos cuantitativos utilizados para evaluar los riesgos y las medidas de mitigación. Cuando se citan, las métricas suelen ser a nivel general y replican divulgaciones previas contenidas en los informes de transparencia. A partir de la experiencia del Consejo, una forma de evaluar la eficacia de las medidas de mitigación, en particular en lo relativo a la libertad de expresión y otros derechos humanos, es combinar evaluaciones cualitativas y cuantitativas de los datos de apelaciones de los usuarios, como las relacionadas con decisiones de eliminar o restablecer contenido. Las apelaciones no solo son un mecanismo de corrección de errores, sino también una salvaguarda esencial para proteger la libertad de expresión, ya que permiten identificar prácticas de aplicación que podrían estar suprimiendo expresiones lícitas. Los informes de los usuarios y las apelaciones contra decisiones de mantener contenido en línea pueden poner en evidencia prácticas de aplicación que no logran frenar adecuadamente la difusión de contenido dañino.

Tendencias de aplicación como indicadores de riesgos

Las apelaciones también pueden ofrecer información valiosa sobre la precisión de la aplicación y los riesgos residuales. Por ejemplo, los datos sobre el volumen de apelaciones, la ubicación geográfica, las políticas pertinentes, las áreas de riesgo asociadas y los resultados pueden ayudar a determinar qué medidas de mitigación resultan eficaces con el tiempo y cuáles requieren mejoras. Al recibir cientos de miles de apelaciones al año de distintas partes del mundo, los datos del Consejo podrían contribuir a identificar tendencias de aplicación como posibles indicadores de riesgo, como la censura de contenido periodístico o la aplicación excesiva o insuficiente de políticas durante una crisis, además de servir para evaluar la eficacia de las medidas de mitigación. Esto, a su vez, podría complementar los procesos internos de las plataformas y contribuir a una supervisión independiente.

Mediante el análisis sistemático, la información abierta y la integración significativa de estos datos en las evaluaciones de riesgos, las plataformas no solo mejorarán la eficacia de las medidas de mitigación, sino que también fortalecerán la confianza en su compromiso con la protección de los derechos humanos.


Conclusión

Ahora que se han publicado las primeras rondas de evaluaciones y que las plataformas están desarrollando sus próximos informes, es el momento oportuno para perfeccionar las metodologías y asegurar que los productos, las funciones de las plataformas y los sistemas de moderación de contenido se evalúen con mayor precisión, profundidad y solidez. Un enfoque transparente y con múltiples partes interesadas, que reúna experiencia y perspectivas diversas, resulta esencial para respaldar este esfuerzo. Es fundamental que los derechos humanos, y en particular la libertad de expresión, estén en el centro de las evaluaciones de riesgos sistémicos, con el fin de proteger el discurso y no de utilizarlo como un mecanismo para restringirlo.

A partir de su experiencia, el Consejo se compromete a contribuir al desarrollo de enfoques basados en derechos que coloquen la libertad de expresión como eje central. Dado el carácter iterativo de las evaluaciones, el Consejo alienta a las plataformas a incorporar los comentarios recibidos y a los reguladores a tener en cuenta estas observaciones al diseñar orientaciones para las plataformas y los auditores.

El Consejo espera con interés colaborar con organizaciones y expertos interesados en las evaluaciones de riesgos sistémicos y las medidas de mitigación.

Regreso al liderazgo intelectual