Anulado

Manifestaciones en Rusia a favor de Navalny

El Consejo asesor de contenido anuló la decisión de Facebook de eliminar un comentario en que un simpatizante del líder de la oposición rusa encarcelado, Alexei Navalny, llamó a otro usuario un "cowardly bot" (bot cobarde).

Tipo de decisión

Estándar:

Políticas y temas

Tema
Acontecimientos periodísticos, Libertad de expresión, Política
Estándar comunitario
Bullying y acoso

Regiones/Países

Ubicación
Rusia

Plataforma

Plataforma
Facebook

Resumen del caso

El Consejo asesor de contenido anuló la decisión de Facebook de eliminar un comentario en que un simpatizante del líder de la oposición rusa encarcelado, Alexei Navalny, llamó a otro usuario un "cowardly bot" (bot cobarde). Facebook eliminó el comentario por usar la palabra "cowardly" (cobarde), ya que se consideró una afirmación negativa relacionada con el carácter. El Consejo decidió que, si bien la eliminación del comentario se basó en la norma comunitaria sobre bullying y acoso, la norma actual fue una restricción innecesaria y desproporcionada a la libertad de expresión en virtud de las normas internacionales de derechos humanos. Asimismo, la medida no coincidió con los valores de Facebook.

Información sobre el caso

El 24 de enero, un usuario en Rusia hizo una publicación que consistía en varias fotos, un video y texto (publicación original) de las protestas en apoyo al líder de la oposición Alexei Navalny que se llevaron a cabo en San Petersburgo y en toda Rusia el 23 de enero. Otro usuario (el "Crítico de la protesta") respondió la publicación original y escribió que, si bien no sabía qué había pasado en San Petersburgo, los manifestantes en Moscú eran todos niños de escuela, "mentally slow" (poco inteligentes) y "shamelessly used" (usados sin vergüenza).

Otros usuarios cuestionaron al Crítico de la protesta en comentarios subsecuentes de la publicación original. Un usuario que participó en la protesta (el "Manifestante") pareció ser el último en responder al Crítico de la protesta. Afirmó ser una persona mayor y haber participado en la protesta de San Petersburgo. El Manifestante terminó el comentario llamando al Crítico de la protesta un "cowardly bot" (bot cobarde).

El Crítico de la protesta reportó el comentario del Manifestante a Facebook por bullying y acoso. Facebook determinó que el término "cowardly" (cobarde) era una afirmación negativa relacionada con el carácter contra una "persona adulta no pública" y, ya que la persona a la que se "dirigió" el ataque reportó el contenido, Facebook lo eliminó. El Manifestante apeló esta decisión a Facebook. Facebook determinó que el comentario infringió la política de bullying y acoso que establece que una persona adulta no pública puede pedir a Facebook que elimine publicaciones que contengan comentarios negativos relacionados con su carácter.

Conclusiones principales

Este caso pone en evidencia la tensión entre políticas que protegen a las personas contra el bullying y el acoso y la necesidad de proteger la libertad de expresión. Esto es especialmente relevante en el contexto de protestas políticas en un país en el que existen quejas creíbles sobre la ausencia de mecanismos eficaces para proteger los derechos humanos.

El Consejo determinó que, si bien la eliminación por parte de Facebook del contenido fue coherente con una aplicación estricta de las Normas comunitarias, estas no consideran el contexto general y restringen la libertad de expresión de forma desproporcionada.

La norma comunitaria sobre bullying y acoso establece que Facebook elimina afirmaciones negativas relacionadas con el carácter de personas no públicas cuando estas reportan el contenido. El Consejo no cuestiona la conclusión de Facebook de que el Crítico de la protesta es una persona no pública y que el término "cowardly" (cobarde) era una afirmación negativa relacionada con su carácter.

Sin embargo, la norma comunitaria no requiere que Facebook tenga en cuenta el contexto político, el carácter público o el tono acalorado de la conversación. Por lo tanto, Facebook no tuvo en cuenta la intención del Manifestante de refutar afirmaciones falsas sobre las protestas ni intentó encontrar un equilibrio entre esa preocupación y la afirmación negativa relacionada con el carácter reportada.

La decisión de eliminar este comentario no logró encontrar un equilibrio entre los valores de Facebook de "dignidad" y "seguridad", y el de "expresión". La expresión política es clave para el valor de "expresión" y solo debería limitarse si pone en riesgo la "seguridad" o la "dignidad".

La "expresión" también es particularmente importante en países en que la libertad de expresión se suprime de forma constante, como es el caso de Rusia. En este caso, el Consejo determinó que Facebook estaba al tanto del contexto general de las protestas en apoyo a Navalny en Rusia, y que una mayor cautela debería haber llevado a una evaluación más cuidadosa del contenido.

El Consejo determinó que la norma comunitaria sobre bullying y acoso de Facebook tiene el fin legítimo de proteger los derechos de los demás. Sin embargo, en este caso, combinar los dos conceptos distintos de bullying y acoso en un solo conjunto de reglas sin definirlos claramente provocó la eliminación innecesaria de lenguaje legítimo.

La decisión del Consejo asesor de contenido

El Consejo asesor de contenido anuló la decisión de Facebook de eliminar el contenido y solicitó que se restaure la publicación.

En una declaración de asesoramiento normativo, el Consejo recomienda que, con el fin de cumplir las normas internacionales de derechos humanos, Facebook debería modificar y volver a redactar su norma comunitaria sobre bullying y acoso para:

· Explicar la relación entre las bases de su política de bullying y acoso y los "No debes", así como las demás reglas que restringen el contenido más adelante.

· Diferenciar entre bullying y acoso y proporcionar definiciones que distingan ambos actos. La norma comunitaria también debería explicar claramente a los usuarios la manera en que el bullying y el acoso difieren del lenguaje que solo ofende y puede estar protegido en virtud de la legislación internacional de derechos humanos.

· Definir claramente su enfoque en relación con distintas categorías de usuario destinatario y proporcionar ejemplos ilustrativos de cada categoría de destinatario (por ejemplo, quiénes se consideran figuras públicas). Diseñar la norma comunitaria sobre bullying y acoso según las categorías de usuario incluidas actualmente en la política.

· Incluir ejemplos ilustrativos de contenido que infringe la norma comunitaria sobre bullying y acoso y contenido que la cumple para clarificar los límites que establece la política y cómo estas distinciones pueden depender del tipo de identidad de la persona a la que se dirige el contenido.

· Al evaluar contenido que incluya "afirmaciones negativas relacionadas con el carácter" contra un adulto no público, Facebook debería modificar la norma comunitaria para requerir un análisis del contexto sociopolítico del contenido. Facebook debería reconsiderar la aplicación de esta regla en debates políticos o públicos en los que la eliminación del contenido reprimiría el debate.

· Siempre que Facebook elimine contenido debido a una afirmación negativa relacionada con el carácter y esta sea una sola palabra o frase en una publicación más amplia, debería notificar al usuario del hecho con prontitud para que este pueda volver a publicar el material sin la afirmación negativa relacionada con el carácter.

* Los resúmenes de casos ofrecen información general sobre los casos y no sientan precedentes.

Decisión del caso completa

1. Resumen de la decisión

El Consejo asesor de contenido anuló la decisión de Facebook de eliminar un comentario en que un simpatizante del líder de la oposición rusa encarcelado, Alexei Navalny, llamó a otro usuario un "cowardly bot" (bot cobarde). Facebook aclaró que el comentario se eliminó por usar la palabra "cowardly" (cobarde), ya que se consideró una afirmación negativa relacionada con el carácter. El Consejo decidió que, si bien la eliminación del comentario se basó en la norma comunitaria sobre bullying y acoso, fue una restricción innecesaria y desproporcionada a la libertad de expresión en virtud de las normas internacionales de derechos humanos. Asimismo, la medida no coincidió con los valores de Facebook.

2. Descripción del caso

El 24 de enero, un usuario en Rusia hizo una publicación que consistía en varias fotos, un video y texto (publicación original) de las protestas en apoyo al líder de la oposición Alexei Navalny que se llevaron a cabo en San Petersburgo y en toda Rusia el 23 de enero. Otro usuario (el "Crítico de la protesta") respondió la publicación original y escribió que, si bien no sabía qué había pasado en San Petersburgo, los manifestantes en Moscú eran todos niños de escuela, "mentally slow" (poco inteligentes) y "shamelessly used" (usados sin vergüenza). El Crítico de la protesta agregó que los manifestantes no eran la voz del pueblo, sino una "theatre show" (obra de teatro).

Otros usuarios cuestionaron al Crítico de la protesta en comentarios subsecuentes de la publicación original. Estos otros usuarios defendieron a los manifestantes y afirmaron que el Crítico de la protesta estaba difundiendo disparates y que no había entendido el movimiento por Navalny. El Crítico de la protesta respondió en varios comentarios, en los que desmereció en forma reiterada estas acusaciones, llamó a Navalny "pocket clown" (payaso de bolsillo) y "rotten" (corrupto) y afirmó que las personas que lo apoyan no se respetan a sí mismas. También llamó "morons" (idiotas) a las personas que llevaron a sus abuelos a las protestas.

Un usuario que participó en la protesta (el "Manifestante") pareció ser el último en responder al Crítico de la protesta. Este se identificó como una persona mayor de edad que participó en la protesta en San Petersburgo. Observó que había muchas personas en las protestas, incluidas personas mayores y discapacitadas, y que estaba orgulloso de ver protestar a la gente joven. Afirmó que el Crítico de la protesta estaba muy equivocado al pensar que los manifestantes jóvenes fueron manipulados. El Manifestante terminó el comentario llamando al Crítico de la protesta un "cowardly bot" (bot cobarde).

El Crítico de la protesta reportó el comentario del Manifestante a Facebook por bullying y acoso. Facebook determinó que el término "cowardly" (cobarde) era una afirmación negativa relacionada con el carácter contra una "persona adulta no pública" (es decir, no una figura pública) y, ya que la persona a la que se "dirigió" el ataque reportó el contenido, Facebook lo eliminó. Facebook no consideró el término "bot" una afirmación negativa relacionada con el carácter. El Manifestante apeló esta decisión a Facebook. Facebook revisó la apelación y determinó que el comentario infringió la política de bullying y acoso. El contenido se revisó cuatro minutos después de que el Manifestante solicitara la apelación, plazo que según Facebook "está dentro del plazo estándar" para revisar contenido apelado.

3. Autoridad y alcance

El Consejo tiene la facultad para revisar la decisión de Facebook tras una apelación del usuario cuya publicación se eliminó (Artículo 2, sección 1, del acta constitutiva; Artículo 2, sección 2.1, de los estatutos). El Consejo puede sostener o revertir esa decisión (Artículo 3, sección 5, del acta constitutiva).

Las decisiones del Consejo son vinculantes y pueden incluir declaraciones de asesoramiento normativo con recomendaciones. Estas recomendaciones no son vinculantes, pero Facebook debe responder a ellas (Artículo 3, sección 4, del acta constitutiva).

El Consejo es un mecanismo de reclamo independiente que aborda disputas de un modo transparente y basado en principios.

4. Normas pertinentes

El Consejo asesor de contenido consideró las siguientes normas en su decisión:

I. Normas comunitarias de Facebook

La norma comunitaria sobre bullying y acoso está dividida en dos partes. Incluye las bases de la política y una lista de cosas que "No debes" hacer, que son reglas específicas sobre el contenido que no se puede publicar y en qué circunstancias podría eliminarse.

Las bases de la política comienzan afirmando que el bullying y el acoso se presentan de diversas formas, incluidos mensajes amenazantes y contactos no deseados con intención maliciosa. Luego afirma que Facebook no tolera este tipo de comportamiento porque impide que las personas se sientan seguras y respetadas. En estas bases también se explica que Facebook distingue entre el bullying y el acoso de personas públicas y no públicas para dar lugar al debate abierto sobre temas de actualidad. En las bases de la política se agrega que, con el fin de proteger a las personas no públicas, Facebook elimina cualquier contenido destinado a humillar o avergonzar.

Una de las reglas en la sección de cosas que "No debes" hacer es que no debes dirigirte a personas adultas no públicas (que deben reportarlo personalmente) con afirmaciones negativas relacionadas con el carácter o las capacidades de las personas, excepto en el contexto de acusaciones penales contra personas adultas. En las Normas comunitarias no se define el término afirmación negativa relacionada con el carácter. Asimismo, Facebook explicó al Consejo que no mantiene una lista completa de los términos que se consideran afirmaciones negativas relacionadas con el carácter. Aunque varios de los equipos operativos regionales de Facebook mantienen listas dinámicas y no exhaustivas de términos en el idioma relevante del mercado en forma de orientación para términos difíciles de clasificar, como términos nuevos o que se usan de distintas maneras.

Facebook también tiene documentos más extensos que detallan la implementación interna de las normas sobre bullying y acoso y cómo aplicar la política. Estas guías no públicas definen términos clave y ofrecen ayuda y ejemplos ilustrativos para los moderadores sobre qué contenido puede eliminarse en virtud de la política. En un fragmento proporcionado al Consejo, "afirmación negativa relacionada con el carácter" se define como "términos o descripciones específicos que atacan las características mentales o morales de un individuo. Esto incluye: disposición, temperamento, personalidad, mentalidad, etc. No se incluyen afirmaciones exclusivamente sobre las acciones de un individuo ni acusaciones penales.

II. Valores de Facebook

Los valores de Facebook se detallan en la introducción a las Normas comunitarias.

El valor de "expresión" se describe como fundamental.

Nuestras Normas comunitarias siempre apuntaron a crear un espacio donde las personas puedan expresarse y dar a conocer su opinión. [...] Queremos que las personas puedan hablar abiertamente sobre los temas que les importan, incluso si otros no están de acuerdo o los consideran objetables.

Facebook limita la "expresión" en favor de otros cuatro valores, y dos de ellos son relevantes en este caso:

Seguridad: nos comprometemos a hacer de Facebook un lugar seguro. La expresión que supone una amenaza para las personas puede intimidar, excluir o silenciar a otros, por lo que no está permitida en Facebook.

"Dignidad" : creemos que todas las personas son dignas y tienen los mismos derechos. Esperamos que esas personas respeten la dignidad de los demás y no los acosen ni los degraden.

III. Normas de derechos humanos

Los Principios Rectores sobre las Empresas y los Derechos Humanos de la ONU (UNGP), respaldados por el Consejo de Derechos Humanos de la ONU en 2011, establecen un marco voluntario que encuadra las responsabilidades de las empresas privadas en cuanto a estos derechos. En marzo de 2021, Facebook anunció su Política corporativa de derechos humanos, en la que reafirma su compromiso a respetar los derechos de conformidad con los Principios Rectores sobre las empresas y los derechos humanos de las Naciones Unidas (UNGP). El análisis del Consejo en este caso se basó en las siguientes normas de derechos humanos:

  • Libertad de expresión: Artículo 19 del Pacto Internacional de Derechos Civiles y Políticos (ICCPR); observación general n.° 34 del Comité de Derechos Humanos (2011); informe del Relator Especial sobre la libertad de opinión y de expresión, A/74/486 (2019); informe del Relator Especial sobre la violencia contra la mujer, A/HRC/38/47 (2018); "Joint Declaration on Freedom of Expression and 'Fake News', Disinformation and Propaganda", FOM.GAL/3/17 (2017);
  • Reunión pacífica: Artículo 21 del ICCPR; informe del Relator Especial sobre los derechos a la libertad de reunión pacífica y de asociación, A/HRC/20/27 (2012);
  • Derecho a la salud: Artículo 12 del Pacto Internacional de Derechos Económicos, Sociales y Culturales (ICESCR).

5. Declaración del usuario

En la apelación al Consejo, el Manifestante explicó que su comentario no era ofensivo y que simplemente refutaba las afirmaciones falsas del Crítico de la protesta. El Manifestante afirmó que el Crítico de la protesta buscaba evitar que las personas pudieran ver opiniones contrarias y estaba "imposing their opinions in many publications" (imponiendo sus opiniones en muchas publicaciones), lo que lo llevó a pensar que era un bot pagado sin experiencia de primera mano con las protestas.

6. Explicación de la decisión de Facebook

Facebook declaró que eliminó el comentario del Manifestante por infringir su política sobre bullying y acoso de acuerdo con sus valores de "dignidad" y "seguridad". Se observa que las Normas comunitarias requieren que se elimine el contenido que se dirija a personas adultas no públicas con afirmaciones negativas relacionadas con el carácter siempre que lo reporte la persona a la que se dirigió el contenido. Se considera que el contenido se dirige a un usuario cuando se lo menciona por nombre en este. En este caso, Facebook afirmó que "cowardly" (cobarde) era fácilmente discernible como afirmación negativa relacionada con el carácter dirigida al Crítico de la protesta.

Facebook explicó que elimina cualquier contenido destinado a humillar o avergonzar a personas no públicas si ellas mismas lo reportan. Facebook requiere que la persona a la que se dirige el contenido sea quien lo reporte para entender mejor cuándo las personas se sienten víctimas de bullying o acoso.

Facebook justificó la prohibición de ataques al carácter de un usuario basándose en que ese tipo de ataque impide que las personas se sientan seguras y respetadas en la plataforma, lo que disminuye su probabilidad de participar en debates o discusiones. Facebook citó un artículo de una organización sin fines de lucro antibullying llamada Ditch the Label y reiteró que este comportamiento "undermines the right to freedom of expression . . . and creates an environment in which the self-expression of others—often marginalized groups—is suppressed" (menoscaba el derecho a la libre expresión [...] y crea un entorno en que se suprime la libre expresión de otros, muchas veces de grupos marginados). Facebook también citó otra investigación que sugiere que los usuarios víctimas de acoso tienen más probabilidades de autocensurarse.

Facebook afirmó que al limitar la eliminación de contenido a casos en que el contenido se dirige a una persona adulta no pública que lo reporta como dañino, la empresa se asegura de que todas las personas se puedan "expresar". Según Facebook este proceso se refuerza con un sistema de apelación que permite a los usuarios solicitar una revisión del contenido eliminado por infringir la política sobre bullying y acoso con el fin de prevenir errores al aplicarla.

Facebook también declaró que su decisión concuerda con las normas internacionales de derechos humanos. Facebook afirmó que (a) su política está disponible al público, (b) la decisión de eliminar el contenido fue en legítima defensa del derecho de libre expresión de otras personas y (c) la eliminación del contenido fue necesaria para eliminar un acoso no deseado. Para Facebook, su decisión fue proporcional, ya que medidas menos severas hubieran seguido exponiendo al Crítico de la protesta al acoso y, potencialmente, haber afectado a otras personas que lo vieran.

7. Comentarios de terceros

El Consejo recibió 23 comentarios del público sobre este caso. Ocho de Europa, 13 de los Estados Unidos y Canadá, uno de Asia y uno de Latinoamérica y el Caribe. Los comentarios abordaban temas como si Facebook contribuye a silenciar la disidencia en Rusia y, por ende, apoya al presidente ruso Vladimir Putin, el contexto de manipulación local de los medios sociales respaldada por el Estado en Rusia y si el contenido era suficientemente serio para considerarse bullying o acoso.

Una serie de organizaciones e individuos enviaron comentarios, incluidos activistas, periodistas, grupos antibullying y miembros de la oposición rusa.

Si quieres leer los comentarios del público que se enviaron en relación con este caso, haz clic aquí.

8. Análisis del Consejo asesor de contenido

Este caso pone en evidencia la tensión entre políticas que protegen a las personas contra el bullying y el acoso y la necesidad de proteger la libertad de expresión. Esto es especialmente relevante en el contexto de protestas políticas en un país en el que existen quejas creíbles sobre la ausencia de mecanismos eficaces e independientes para la protección de los derechos humanos.

El Consejo pretende evaluar si este contenido debería restaurarse en Facebook tomando como base tres perspectivas: las Normas comunitarias de Facebook, los valores de la empresa y sus responsabilidades con los derechos humanos.

8.1. Cumplimiento de las Normas comunitarias

El Consejo determinó que la eliminación del contenido por parte de Facebook fue de acuerdo con la regla "No debes" que prohíbe dirigirse a personas no públicas con afirmaciones negativas relacionadas con el carácter. La norma comunitaria sobre bullying y acoso establece que Facebook elimina afirmaciones negativas relacionadas con el carácter dirigidas a personas no públicas cuando estas reportan el contenido. No se eliminaría el contenido si lo reportara una persona distinta al destinatario.

Para el Consejo, el término "cowardly" (cobarde) no parece ser un término grave o dañino en el contexto de este caso debido al tono de la discusión. No obstante, el Consejo no cuestiona la conclusión de Facebook de que el Crítico de la protesta es una persona no pública y que el término "cowardly" (cobarde) puede considerarse una afirmación negativa relacionada con su carácter.

El Consejo reconoce la importancia de la política sobre bullying y acoso. De acuerdo con National Anti-Bullying Research and Resource Centre, el bullying y el acoso son dos conceptos distintos. Aunque no existen definiciones ampliamente aceptadas sobre el bullying y el acoso, las definiciones académicas tienen elementos en común, como ataques intencionales y repetidos, así como desigualdad de poder. Estos elementos no están reflejados en las Normas comunitarias de Facebook.

Kate Klonick escribió que, dada la falta de una definición clara y la naturaleza subjetiva y altamente dependiente del contexto del daño, Facebook declaró que tenía dos opciones: mantener contenido potencialmente dañino en aras de la libertad de expresión o eliminar todo contenido potencialmente dañino (incluso si parte de ese contenido resulta ser benigno). Con el apoyo de algunos grupos de sociedad civil y el debate mediático sobre el cyberbullying, Facebook optó por lo segundo. Requerir que las personas no públicas reporten ellas mismas el contenido al que objetan parece ser un intento de reducir la cantidad de contenido benigno que se elimina.

El Consejo reconoce las dificultades relacionadas con establecer una política sobre este tema, así como la importancia de proteger a los usuarios. Esto se aplica especialmente a mujeres y grupos vulnerados que tienen más riesgo de ser víctimas de bullying y acoso online. Sin embargo, el Consejo determinó que, en este caso, la afirmación negativa relacionada con el carácter se usó en un intercambio acalorado sobre un tema de interés público y no fue peor que el lenguaje empleado por el Crítico de la protesta. El Crítico de la protesta participó voluntariamente en un debate sobre un tema de interés público. Este caso ilustra que el enfoque poco preciso y descontextualizado de Facebook puede restringir la libertad de expresión en forma desproporcionada. La aplicación de la norma comunitaria parece limitarse a determinar si un cierto término es una afirmación negativa relacionada con el carácter y si el usuario destinatario de la afirmación la reporta. No se analiza el contexto más amplio ni la conversación.

En este caso, Facebook no tuvo en cuenta que el Crítico de la protesta usó lenguaje despectivo para referirse a los manifestantes que apoyaban a Navalny. Facebook tampoco tuvo en cuenta la intención del Manifestante de refutar afirmaciones falsas sobre las protestas hechas por el Crítico de la protesta ni intentó encontrar un equilibrio entre esa preocupación y el bullying reportado. En su lugar, la empresa declaró que esta búsqueda de equilibrio se realiza al redactar las Normas comunitarias para que las decisiones de moderación se tomen analizando únicamente el contenido reportado. En última instancia, las decisiones de eliminar contenido parecen tomarse en función de una sola palabra y si esta puede considerarse una afirmación negativa relacionada con el carácter, independientemente del contexto de cualquier intercambio del que forme parte dicho contenido.

8.2 Cumplimiento de los valores de Facebook

El Consejo determinó que la decisión de Facebook de eliminar este contenido no cumplió con los valores de la empresa. Además, la empresa no logró encontrar un equilibrio entre los valores de "dignidad" y "seguridad" y el de "expresión".

El Consejo consideró que el discurso político es un factor clave para el valor de "expresión". Como tal, solo debería limitarse cuando existen preocupaciones claras relacionadas con la "seguridad" o la "dignidad". En el contexto de una discusión política online, cierto nivel de desacuerdo es esperable. El Crítico de la protesta se expresó plenamente, pero se lo cuestionó y se lo llamó "cowardly bot" (bot cobarde). Si bien el uso por parte del Manifestante de "cowardly" (cobarde) y "bot" puede considerarse una afirmación negativa relacionada con el carácter, formó parte de un intercambio más amplio sobre un tema de interés público.

En lo que respecta a temas políticos, la "expresión" también es particularmente importante en países en que la libertad de expresión se suprime de forma periódica. El Consejo tuvo en cuenta instancias ampliamente documentadas de operadores simpatizantes del Gobierno de Rusia que se expresaban en contra de la oposición en espacios online. Aunque no hay evidencia de participación del Gobierno en este caso, las iniciativas generales de las autoridades rusas para manipular el discurso online y silenciar las opiniones de la oposición proporcionan un contexto imprescindible para evaluar la decisión de Facebook de limitar la "expresión" en esta instancia.

Los valores de "seguridad" y "dignidad"protegen a los usuarios de sentirse amenazados, silenciados o excluidos. El bullying y el acoso dependen mucho del contexto, y pueden afectar gravemente la seguridad y la dignidad de las víctimas. El consejo observa que las consecuencias y el daño causados por distintas manifestaciones de violencia online no son independientes del sexo, ya que mujeres y niñas sufren un estigma particular en el contexto de la desigualdad estructural, la discriminación y el patriarcado (A/HRC/38/47, párrafo 25).

No se invitó a declarar al Crítico de la protesta, por lo que se desconoce el impacto que tuvo en él esta publicación. Sin embargo, el análisis de los comentarios muestra que el usuario participó de forma activa en una discusión política polémica y se sintió seguro como para atacar e insultar a Navalny, a sus simpatizantes y a los manifestantes del 23 de enero. El término "cowardly bot" puede considerarse un insulto generalmente y ofender la "dignidad" del usuario que reportó el contenido. Sin embargo, el Consejo determina que el riesgo de daños probables al Crítico de la protesta era menor si se tiene en cuenta el tono del intercambio general.

8.3 Cumplimiento de las responsabilidades de Facebook con los derechos humanos

El Consejo determinó que la eliminación del contenido del Manifestante en virtud de la norma comunitaria sobre bullying y acoso no fue acorde a las responsabilidades de Facebook relacionadas con los derechos humanos.

Libertad de expresión (Artículo 19 del ICCPR)

El Artículo 19, párrafo 2, del ICCPR proporciona una amplia protección a "todo tipo" de expresión, incluido el discurso político, y la libre comunicación de información e ideas sobre temas políticos y de interés público entre ciudadanos es esencial (observación general n.° 34, párrafo 13). El Comité de Derechos Humanos de la ONU dejó en claro que la protección definida en el Artículo 19 abarca la expresión que puede considerarse "profundamente ofensiva" (observación general n.° 34, párrafos 11 y 12).

Si bien el derecho a la libertad de expresión es fundamental, no es categórico. Se puede restringir, pero al hacerlo se deberían cumplir los requisitos de legalidad, fin legítimo, necesidad y proporcionalidad (Artículo 19, párrafo 3, del ICCPR). Facebook debería intentar alinear sus políticas sobre bullying y acoso con estos principios (informe A/74/486 del Relator Especial de la ONU sobre la libertad de expresión, párrafo 58[b]).

I. Legalidad

El principio de legalidad conforme a la legislación internacional de derechos humanos requiere que cualquier regla que se use para limitar la expresión sea clara y accesible (observación general n.° 34, párrafo 25). Las personas deben poder entender qué se permite y qué no. Además, la precisión normativa asegura que la expresión no se limite de forma selectiva. Sin embargo, en este caso, el Consejo determinó que la norma comunitaria sobre bullying y acoso de Facebook es poco clara y demasiado compleja.

En general, la norma comunitaria está organizada de una manera que dificulta su entendimiento y seguimiento. Las bases de la política proporcionan una idea general de lo que se pretende lograr con la norma, como que los usuarios se sientan seguros y se evite el lenguaje destinado a humillar o avergonzar. Luego de estas bases se incluye una serie de "No debes" y reglas adicionales debajo de dos señales de advertencia amarillas. Estas reglas enumeran el contenido prohibido, cuándo y cómo Facebook toma medidas, y el grado de protección de determinados grupos de usuarios. No queda claro en las Normas comunitarias si los fines de las bases de la política son simplemente una guía para las reglas específicas que las siguen o si se deben interpretar en conjunto con las reglas. Además, el orden en que se organiza la información parece aleatorio. Por ejemplo, hay reglas que se aplican a personas no públicas antes y después de reglas que se aplican a figuras públicas, y a veces, se mezclan.

La norma comunitaria no diferencia entre bullying y acoso. Como se observó anteriormente, expertos en el tema coinciden en que estos son dos comportamientos distintos. Además, como se argumenta en el Artículo 19 de la organización de sociedad civil, la norma comunitaria no cumple las normas internacionales sobre libertad de expresión debido a su falta de orientación sobre cómo el bullying y el acoso difieren de las amenazas o el lenguaje ofensivo. El Consejo considera que combinar los conceptos distintos de bullying y acoso en una única definición con un grupo de reglas correspondiente generó la eliminación de discursos legítimos.

Además, aunque la política sobre bullying y acoso se aplica de diferente forma a distintas categorías de individuos y grupos, no define dichas categorías. También faltan definiciones de otros términos clave, como "afirmación negativa relacionada con el carácter". Por lo tanto, el Consejo concluye que la norma comunitaria no cumplió el principio de legalidad.

II. Fin legítimo

En virtud de la legislación internacional de derechos humanos, cualquier medida que restrinja la expresión debe aplicarse por un motivo establecido en el Artículo 19, párrafo 3, del ICCPR. Los fines legítimos incluyen la protección de los derechos y las reputaciones de otras personas, así como la protección de la seguridad nacional, el orden público y la moral o la salud públicas (observación general n.° 34, párrafo 28).

El Consejo acepta que la norma comunitaria sobre bullying y acoso pretende proteger los derechos de los demás. La libertad de expresión de los usuarios puede limitarse si se ven obligados a salir de la plataforma debido a bullying y acoso. La política también pretende disuadir del comportamiento que puede causar angustia emocional y daños psicológicos significativos, en virtud del derecho a la salud de los usuarios. Sin embargo, el Consejo observa que cualquier restricción a la libertad de expresión debe redactarse con detenimiento y que la regla esté vinculada con un fin legítimo no es suficiente para cumplir los estándares de las normas de derechos humanos sobre la libertad de expresión (observación general n.° 34, párrafos 28, 30, 31, 32).

III.Necesidad y proporcionalidad

Toda restricción que se aplique a la libertad de expresión debe ser adecuada a fin de cumplir su función de protección; debe ser el instrumento menos invasivo entre aquellos que le permitan cumplir dicha función; debe ser proporcional al interés que se busca proteger (observación general n.º 34, párrafo 34).

Facebook distingue correctamente entre personas públicas y no públicas, pero no reconoce el contexto en que ocurren las discusiones. Por ejemplo, en algunos casos, personas no públicas que participan en debates públicos sobre temas de interés público pueden exponerse a críticas relacionadas con sus declaraciones. La empresa acotó el alcance potencial de su regla sobre afirmaciones negativas relacionadas con el carácter de personas adultas no públicas al requerir que el destinatario del contenido lo reporte. Asimismo, el Consejo observa que además de reportar contenido abusivo, Facebook permite a los usuarios bloquear o silenciar a otros. Esta es una herramienta útil, pero limitada contra el abuso. Debido a que estas opciones pueden considerarse maneras menos restrictivas de limitar la expresión en comparación con otras, la eliminación del contenido fue desproporcional en este caso.

El contexto es fundamental para evaluar la necesidad y la proporcionalidad. El Relator Especial de la ONU sobre temas de libertad de expresión expresó en relación con el lenguaje que incita al odio que la evaluación del contexto puede llevar a que se decida hacer una excepción en algunos casos, cuando el contenido debe protegerse, como es el caso del discurso político (A/74/486, párrafo 47[d]). Este enfoque puede ampliarse a evaluaciones de bullying y acoso. En este caso, Facebook debió tener en cuenta el estado de la libertad de expresión en Rusia en general y, específicamente, las campañas de desinformación del Gobierno contra sus opositores y sus simpatizantes, incluido en el contexto de las protestas de enero. La interacción del Crítico de la protesta con el Manifestante en este caso repitió la falsa afirmación de que los manifestantes a favor de Navalny eran niños manipulados. Era poco probable que la acusación de "cowardly bot" (bot cobarde) en el contexto de una discusión acalorada sobre estos temas causara daños, en especial dadas las alegaciones y acusaciones igual de hostiles del Crítico de la protesta.

Facebook notificó al Consejo que en enero de 2021 determinó que potenciales protestas masivas en todo el país en apoyo a Navalny eran un acontecimiento de alto riesgo, y solicitó a sus moderadores que marcaran tendencias y contenido cuando no fuera claro si infringían las Normas comunitarias. En marzo de 2021, Facebook informó que eliminó 530 cuentas de Instagram que participaron en la coordinación de actividades ilegítimas contra usuarios rusos simpatizantes de Navalny. Por lo tanto, Facebook estaba al tanto del contexto general de este caso, y una mayor cautela debería haber llevado a una evaluación más cuidadosa del contenido relacionado con las protestas.

Además, el contenido eliminado no parece incluir elementos típicos del bullying o el acoso, como ataques repetidos o una desigualdad de poder. Si bien llamar a una persona cobarde puede ser una afirmación negativa relacionada con el carácter, el contenido era la culminación de un intercambio político acalorado sobre temas de actualidad en Rusia. Teniendo en cuenta estos elementos, el Consejo concluye que la decisión de Facebook de eliminar el contenido de acuerdo con la norma comunitaria sobre bullying y acoso fue innecesaria y desproporcional.

9.Decisión del Consejo asesor de contenido

El Consejo asesor de contenido anuló la decisión de Facebook de eliminar el contenido y solicitó que se restaure la publicación.

10. Declaraciones de asesoramiento normativo

Con el fin de cumplir las normas internacionales de derechos humanos, Facebook debería modificar y volver a redactar su norma comunitaria sobre bullying y acoso para:

1. Explicar la relación entre las bases de la política y los "No debes", así como las demás reglas que restringen el contenido más adelante.

2. Diferenciar entre bullying y acoso y proporcionar definiciones que distingan ambos actos. Además, la norma comunitaria debería explicar claramente a los usuarios la manera en que el bullying y el acoso difieren del lenguaje que solo ofende y puede estar protegido en virtud de la legislación internacional de derechos humanos.

3. Definir claramente su enfoque en relación con distintas categorías de usuario objetivo y proporcionar ejemplos ilustrativos de cada categoría objetivo (por ejemplo, quiénes se consideran figuras públicas). Diseñar la norma comunitaria sobre bullying y acoso según las categorías de usuario incluidas actualmente en la política.

4. Incluir ejemplos ilustrativos de contenido que infringe la norma comunitaria sobre bullying y acoso y contenido que la cumple para clarificar los límites que establece la política y cómo estas distinciones pueden depender del tipo de identidad de la persona en cuestión.

5. Al evaluar contenido que incluya "afirmaciones negativas relacionadas con el carácter" contra un adulto no público, Facebook debería modificar la norma comunitaria para requerir un análisis del contexto sociopolítico del contenido. Facebook debería reconsiderar la aplicación de esta regla en debates políticos o públicos en los que la eliminación del contenido reprimiría el debate.

6. Siempre que Facebook elimine contenido debido a una afirmación negativa relacionada con el carácter y esta sea una sola palabra o frase en una publicación más amplia, debería notificar al usuario del hecho con prontitud para que este pueda volver a publicar el material sin la afirmación negativa relacionada con el carácter.

* Nota de procedimiento:

La preparación de las decisiones del Consejo asesor de contenido está a cargo de paneles conformados por cinco miembros, quienes deben aprobarlas por mayoría. Las decisiones del Consejo no necesariamente representan las opiniones personales de todos los miembros.

En cuanto a la decisión del caso, se encargó una investigación independiente en nombre del Consejo. Un instituto de investigación independiente con sede en la Universidad de Gotemburgo y un equipo conformado por más de 50 científicos sociales de seis continentes, así como 3.200 expertos de diferentes países del mundo, ofrecen sus conocimientos sobre contextos culturales y sociopolíticos.

Volver a Decisiones de casos y opiniones consultivas sobre políticas