Anulado

Publicación de Birmania sobre los musulmanes

El Consejo asesor de contenido anuló la decisión de Facebook de eliminar una publicación en virtud de la norma comunitaria sobre lenguaje que incita al odio.

Tipo de decisión

Estándar:

Políticas y temas

Tema
Política, Religión, Violencia
Estándar comunitario
Lenguaje que incita al odio

Regiones/Países

Ubicación
China, Francia, Myanmar

Plataforma

Plataforma
Facebook

Para leer esta decisión en birmano, haz clic aquí.

ဆုံးဖြတ်ချက် အပြည့်အစုံကို ဗမာဘာသာဖြ ဖြင့် ဖတ်ရှူရန်၊ ဤနေရာကို နှိပ်ပါ-

Resumen del caso

El Consejo asesor de contenido anuló la decisión de Facebook de eliminar una publicación en virtud de la norma comunitaria sobre lenguaje que incita al odio. El Consejo determinó que, aunque la publicación puede considerarse ofensiva, no es lo suficientemente grave para clasificarla en esta categoría.

Información sobre el caso

El 29 de octubre de 2020, un usuario de Birmania publicó en un grupo de Facebook en birmano. La publicación incluía dos fotos, que se habían compartido en numerosas ocasiones, de un niño pequeño sirio de etnia kurda que se ahogó intentando llegar a Europa en septiembre de 2015.

El texto de la publicación afirmaba que los musulmanes (o los hombres musulmanes) deben tener problemas psicológicos o mentales. Cuestionaba la falta de respuesta de los musulmanes en general al trato que reciben los musulmanes uigures en China, en comparación con los asesinatos que siguieron a la publicación de las caricaturas del profeta Mahoma en Francia. La publicación concluía diciendo que, debido a los recientes acontecimientos en Francia, se sentía menos compasión por el niño de la foto y parecía insinuar que, con el tiempo, él también se habría convertido en un extremista.

Facebook eliminó este contenido en virtud de la norma comunitaria sobre lenguaje que incita al odio.

Conclusiones principales

Facebook eliminó este contenido porque incluía la frase "los musulmanes [tienen] problemas psicológicos". La empresa eliminó la publicación porque la norma comunitaria sobre lenguaje que incita al odio prohíbe las generalizaciones que denoten inferioridad en relación con retrasos mentales de un grupo por su religión.

El Consejo determinó que, aunque la primera parte de la publicación pueda parecer, por sí misma, una generalización insultante de la población musulmana (o de los hombres musulmanes), debería leerse el contenido íntegramente teniendo en cuenta el contexto.

Facebook tradujo el texto como "obviamente, los musulmanes [tienen] problemas psicológicos", pero los traductores del Consejo sugirieron la alternativa: "[esos] hombres musulmanes tienen problemas mentales". Asimismo, indicaron que los términos utilizados no eran despectivos ni violentos.

Los expertos en contexto del Consejo observaron que, aunque el lenguaje que incita al odio contra los grupos minoritarios musulmanes es habitual y, en ocasiones, grave en Birmania, las afirmaciones sobre las enfermedades mentales o la inestabilidad psicológica de estos grupos no constituyen una parte importante de esta retórica.

Considerado en contexto, el Consejo cree que el texto debería interpretarse como un comentario sobre la aparente incoherencia de las reacciones de los musulmanes ante los eventos de Francia y China. Las Normas comunitarias de Facebook protegen la expresión de este tipo de opiniones y, en este caso concreto, no se aprecia la gravedad suficiente en el discurso para clasificarlo como lenguaje que incita al odio.

Teniendo en cuenta las normas internacionales de derechos humanos sobre la libertad de expresión, el Consejo determinó que, aunque la publicación puede considerarse peyorativa u ofensiva para los musulmanes, no promueve el odio ni incita de manera intencionada a un perjuicio inminente en ninguna de sus formas. Por ello, el Consejo no considera necesaria su eliminación para proteger los derechos de terceras partes.

El Consejo también destacó que la sensibilidad de Facebook respecto al lenguaje que incita al odio contra la población musulmana es comprensible, especialmente, dada la historia de violencia y discriminación contra estas personas en Birmania y el riesgo creciente de cara a las elecciones generales de noviembre de 2020 en el país. No obstante, en relación con esta publicación específica, el Consejo concluye que la decisión de Facebook de eliminar el contenido no fue correcta.

La decisión del Consejo asesor de contenido

El Consejo asesor de contenido anuló la decisión de Facebook de eliminar el contenido y solicitó que se restaure la publicación.

* Los resúmenes de casos ofrecen información general sobre los casos y no sientan precedentes.

Decisión del caso completa

1. Resumen de la decisión

El Consejo asesor de contenido anuló la decisión de Facebook de eliminar contenido por considerar que incluye lenguaje que incita al odio y determina que la plataforma clasificó incorrectamente dicha publicación en esta categoría al no apreciarse en ella la gravedad suficiente.

2. Descripción del caso

El 29 de octubre de 2020 un usuario de Facebook en Birmania realizó una publicación en birmano en un grupo, que se describe como un foro de debate intelectual. La publicación incluía dos fotos, que se habían compartido en numerosas ocasiones, de un niño pequeño sirio de etnia kurda que se ahogó en el Mediterráneo en septiembre de 2015. El texto de la publicación comenzaba afirmando que los musulmanes (o los hombres musulmanes) tienen problemas psicológicos o mentales. Cuestionaba la falta de respuesta de los musulmanes en general al trato que reciben los musulmanes uigures en China, en comparación con los asesinatos que siguieron a la publicación de las caricaturas del profeta Mahoma en Francia. La publicación concluía diciendo que, debido a los recientes acontecimientos en Francia, se sentía menos compasión por el niño de la foto y parecía insinuar que, con el tiempo, él también se habría convertido en un extremista.

Facebook tradujo la oración "los musulmanes [tienen] problemas psicológicos", lo que puede clasificarse como un caso de "nivel 2" en la categoría de lenguaje que incita al odio. La empresa eliminó el contenido porque esta norma prohíbe las generalizaciones que denotan inferioridad en relación con retrasos mentales de una persona o un grupo definido con base en la religión.

Antes de la eliminación, el 3 de noviembre de 2020, se incluyeron pantallas de advertencia en las dos fotos de la publicación, de conformidad con la norma comunitaria sobre contenido gráfico y violento. Según Facebook, ningún otro elemento de esta publicación infringía sus políticas. El usuario apeló al Consejo asesor de contenido alegando que no había utilizado lenguaje que incita al odio.

3. Autoridad y alcance

El Consejo asesor de contenido tiene autoridad para revisar la decisión de Facebook de conformidad con el Artículo 2.1 del acta constitutiva, y puede sostenerla o anularla según el Artículo 3.5. Esta publicación se encuentra bajo el alcance de revisión del Consejo asesor de contenido: no encaja en ninguna categoría de contenido excluida (tal y como se define en el Artículo 2, sección 1.2.1, de los estatutos) y tampoco entra en conflicto con las obligaciones legales de Facebook (tal y como se define en el Artículo 2, sección 1.2.2, de los estatutos).

4. Normas pertinentes

El Consejo asesor de contenido consideró las siguientes normas en su decisión:

I. Normas comunitarias de Facebook

La norma comunitaria sobre lenguaje que incita al odioindica que Facebook no permite dicho lenguaje porque crea un entorno de intimidación y exclusión, y, en algunos casos, puede incitar a la violencia en la vida real. Facebook define este lenguaje como un ataque basado en características protegidas. El término "ataque" hace referencia a lenguaje violento o deshumanizante, estereotipos dañinos, declaraciones de inferioridad o incitaciones de exclusión o segregación que se clasifican en tres niveles de contenido prohibido. El contenido prohibido de nivel 2 incluye lo siguiente:

Generalizaciones que denoten inferioridad, tanto de forma escrita como visual, de las siguientes formas [...] retrasos mentales son aquellos relacionados con: la capacidad intelectual [...] la formación [...] la salud mental.

Las características protegidas son las siguientes: raza, etnia, nacionalidad, religión, orientación sexual, casta, sexo, discapacidad o enfermedad grave, género e identidad de género. También adquieren cierto carácter de protección la edad y la condición de inmigrante.

II. Valores de Facebook

En la introducción de las Normas comunitarias, se señala que la "expresión" es un valor fundamental de Facebook, aunque la plataforma puede limitarla en favor de otros intereses, como la "seguridad". En su definición de seguridad, Facebook afirma lo siguiente: "Nos comprometemos a hacer de Facebook un lugar seguro. La expresión que supone una amenaza para las personas puede intimidar, excluir o silenciar a otros, por lo que no está permitida en Facebook".

III. Normas pertinentes de derechos humanos que el Consejo considera:

Los Principios Rectores sobre las Empresas y los Derechos Humanos de la ONU (UNGP), respaldados por el Consejo de Derechos Humanos de la ONU en 2011, establecen un marco voluntario que encuadra las responsabilidades de las empresas privadas en cuanto a estos derechos. En virtud de estos principios, se tuvieron en cuenta las siguientes normas internacionales de derechos humanos en la revisión de este caso:

  • Derecho a la libertad de expresión: Artículo 19 del Pacto Internacional de Derechos Civiles y Políticos (ICCPR); observación general n.º 34, Comité de Derechos Humanos (2011) (observación general n.º 34); Plan de Acción de Rabat; informe del Relator Especial de la ONU sobre la libertad de expresión en el lenguaje que incita al odio online (2019) (A/74/486)
  • Derecho a la no discriminación: Artículos 2 y 26 del ICCPR
  • Derecho a la vida y a la seguridad: Artículos 6 y 9 del ICCPR

5. Declaración del usuario

El usuario envió una apelación contra la decisión de Facebook de eliminar el contenido en noviembre de 2020. En ella afirmaba que su publicación no infringía las Normas comunitarias de Facebook, no incluía lenguaje que incitara al odio, tenía carácter sarcástico y pretendía comparar las respuestas religiosas extremistas en distintos países. Asimismo, afirmaba que Facebook no era capaz de distinguir el sarcasmo del debate serio en la lengua y el contexto birmanos.

6. Explicación de la decisión de Facebook

Facebook eliminó este contenido en virtud de la norma comunitaria sobre lenguaje que incita al odio al considerar que la publicación incluía generalizaciones en relación con los retrasos mentales de la población musulmana y, por lo tanto, constituía un ataque de nivel 2. Según la información que proporcionó Facebook (que no es de dominio público en este momento), el término "generalizaciones" hace referencia a declaraciones negativas no fundamentadas, sin motivo, exactitud material o argumento, que infringen los derechos y la reputación de terceros. Facebook declaró que el único elemento de la publicación que infringía las Normas comunitarias era la oración que afirmaba que los musulmanes tenían problemas psicológicos.

Del mismo modo, Facebook argumentó que la norma comunitaria sobre lenguaje que incita al odio sigue los preceptos de las normas internacionales de derechos humanos. Según Facebook, aunque el lenguaje que esta norma prohíbe pudiera no constituir un caso de apología de la violencia o incitación a ella, la expresión en estos casos puede limitarse si dicho lenguaje tiene capacidad para desencadenar actos de discriminación, violencia u odio, en particular si se distribuye ampliamente o adquiere naturaleza viral, así como en aquellos contextos en los que se aprecie un riesgo grave para la garantía de los derechos humanos. Para contextualizar este caso, Facebook citó el ataque reciente en Niza, Francia, en el que murieron tres personas, la continua detención de musulmanes uigures en China, la crisis de los refugiados sirios y la violencia islamófoba generalizada.

7. Comentarios de terceros

El Consejo recibió 11 comentarios públicos en relación con este caso. Aunque uno de estos comentarios no incluía contenido alguno, los diez restantes proporcionaron motivos de fondo sobre la materia que nos ocupa. Los comentarios recibidos pueden desglosarse por regiones: uno de Asia-Pacífico y Oceanía, cuatro de Europa y cinco de los Estados Unidos y Canadá. Los motivos de fondo hacían referencia a varios temas, por ejemplo, si la publicación provocadora y cuestionable constituía un caso claro de lenguaje que incita al odio, si el contenido suponía un ataque contra la población musulmana, si la intención del usuario era dar a conocer el trato que reciben los musulmanes uigures en China y la crisis de los refugiados sirios, si la intención del usuario era condenar la muerte de las personas en lugar de promoverla, si las represalias contra la publicación podrían derivar directamente en el ejercicio de la violencia física contra los ciudadanos chinos o si los comentarios incluían una llamada a mejorar el proceso de los comentarios públicos del Consejo.

8. Análisis del Consejo asesor de contenido

8.1. Cumplimiento de las Normas comunitarias

La publicación no incluye lenguaje que incita al odio conforme a la norma comunitaria pertinente.

En este caso, Facebook indicó que el discurso en cuestión constituía un ataque de nivel 2 de acuerdo con la norma comunitaria sobre lenguaje que incita al odio. La característica protegida era la religión, ya que el contenido describía a la población o los hombres musulmanes. Según Facebook, el ataque consistía en una generalización que denotaba inferioridad en relación con los retrasos mentales. En esta sección, se prohíben los ataques contra la salud mental, incluidos, entre otros, los términos "enfermo mental", "retrasado", "loco" o "tarado", así como contra la capacidad intelectual, incluidos, entre otros, los términos "tonto", "estúpido" e "idiota".

Aunque la primera frase de la publicación pueda parecer, por sí misma, una generalización ofensiva e insultante de la población o los hombres musulmanes, debería leerse el contenido íntegramente teniendo en cuenta el contexto.

Las organizaciones de derechos humanos y otros expertos indicaron que el lenguaje que incita al odio contra grupos minoritarios musulmanes en Birmania es común y, en algunos casos, grave. Especialmente, en el contexto de las elecciones generales del 8 de noviembre de 2020 (documento informativo de FORUM-ASIA sobre la difusión del lenguaje que incita al odio y el rol de Facebook en Birmania, páginas 5-8; informe de la misión de investigación internacional independiente de las Naciones Unidas en Birmania, A/HRC/42/50, párrafos 1303, 1312, 1315 y 1317). Sin embargo, no se apreciaron indicios de que las afirmaciones sobre los problemas psicológicos o mentales de la población musulmana constituyeran un eje sólido de la retórica islamófoba en Birmania. Asimismo, Facebook tradujo la frase como "obviamente, los musulmanes tienen problemas psicológicos", pero los traductores del Consejo sugirieron la alternativa: "[esos] hombres musulmanes tienen problemas mentales". También sugirieron que, aunque los términos utilizados podían expresar un mensaje intolerante, no eran despectivos ni violentos.

Considerada en contexto, la publicación debería interpretarse como un comentario sobre la aparente incoherencia de las reacciones de la población musulmana ante los eventos de Francia y China. Las Normas comunitarias protegen la expresión de este tipo de opiniones y, en este caso concreto, no se aprecia la gravedad suficiente en el discurso para clasificarlo como lenguaje que incita al odio, lo que justificaría su eliminación.

8.2. Cumplimiento de los valores de Facebook

La decisión de Facebook de eliminar el contenido no cumple con los valores de la empresa. Aunque la "seguridad" es un valor importante para Facebook, particularmente en Birmania dado el contexto de discriminación y violencia contra la población musulmana, este contenido no suponía un riesgo para la "seguridad" que justifique un desplazamiento de la "expresión".

8.3. Cumplimiento de las normas de derechos humanos

La restauración de la publicación es coherente con las normas internacionales de derechos humanos.

Según el Artículo 19 del ICCPR, las personas tienen derecho a buscar y recibir información, incluso si resulta controvertida y profundamente ofensiva (observación general n.º 34). Algunos miembros del Consejo citaron el informe del Relator Especial de la ONU sobre la libertad de expresión de 2019 respecto del lenguaje que incita al odio online, que afirma que la legislación internacional de derechos humanos protege el derecho a la ofensa y la burla (párrafo 17). Algunos miembros del Consejo manifestaron su preocupación ante la posible supresión o difusión parcial del comentario sobre la situación de los musulmanes uigures en países que mantienen vínculos estrechos con China.

Asimismo, el Consejo reconoció que el derecho a la libertad de expresión no es absoluto y puede someterse a las limitaciones de la legislación internacional de derechos humanos.

En primer lugar, el Consejo evaluó si el contenido estaba sujeto a alguna restricción obligatoria en el marco de la legislación internacional de derechos humanos. El Consejo determinó que no hacía apología del odio por motivos religiosos ni incitaba en modo alguno a la discriminación, la hostilidad o la violencia, supuestos necesarios para prohibir el contenido conforme al Artículo 20, párrafo 2, del ICCPR. Asimismo, consideró los factores referidos en el Plan de Acción de Rabat, incluidos el contexto, el contenido de la publicación y el riesgo de daño. A pesar del tono peyorativo de la publicación, el Consejo no consideró que fomentaba el odio ni incitaba de manera intencionada a ninguna forma de daño inminente.

El Consejo también debatió acerca de si el contenido en cuestión podría restringirse conforme al Artículo 19, párrafo 3, del ICCPR. Esta disposición de la legislación internacional de derechos humanos estipula que las restricciones a la libertad de expresión deben definirse de manera que resulten fácilmente comprensibles (requisito de legalidad), tener el propósito de progresar en uno de los distintos objetivos previstos (requisito de fin legítimo) y delimitarse estrictamente y en la medida necesaria al objetivo específico (requisito de necesidad y proporcionalidad).

El Consejo reconoce que Facebook perseguía un fin legítimo al restringir el contenido: proteger los derechos de terceros a la vida, a la seguridad ante agresiones personales, físicas o mentales, y al amparo frente a la discriminación. También acredita que el lenguaje que incita al odio online en Birmania ha estado vinculado con daños graves fuera de la red, incluidas acusaciones de posibles crímenes contra la humanidad y genocidio. En consecuencia, reconoce la importancia de proteger los derechos de quienes pueden ser objeto de acciones de discriminación y violencia, y de aquellos que pueden estar en riesgo de sufrir atrocidades.

Sin embargo, el Consejo concluye que, aunque habrá personas que puedan encontrar la publicación ofensiva e insultante para la población musulmana, no considera necesaria su eliminación para proteger los derechos de terceros.

También reconoce que el lenguaje que incita al odio online supone un problema complejo de moderar, y que ciertos aspectos lingüísticos y culturales, como el sarcasmo, dificultan aún más esta tarea. En este caso, no se detectaron indicios de que la publicación contuviera amenazas contra individuos identificables.

El Consejo reconoce la dificultad que conlleva para Facebook evaluar la intención subyacente a las publicaciones individuales al moderar el contenido a gran escala y en tiempo real. Aunque no fuera un factor decisivo, el Consejo también valoró la reclamación que el usuario incluyó en su apelación, en la que alegaba que estaba en contra de cualquier forma de extremismo religioso. El hecho de que la publicación se mostrara en un grupo que se definía como un espacio de debate intelectual y filosófico, en el que se dio voz a la discriminación contra los musulmanes uigures en China, corrobora la reclamación del usuario. Igualmente, algunos miembros del Consejo calificaron de "insensibles" las referencias del usuario al niño refugiado fallecido.

El Consejo enfatiza el hecho de que la restauración de una publicación específica no implica en modo alguno la aceptación de su contenido. El intercambio abierto de opiniones es importante, incluso en aquellas circunstancias en las que el debate sobre la religión o la identidad pueda resultar un tema sensible y constituir una ofensa. Es muy poco probable que la eliminación de este contenido contribuya a reducir la tensión o a proteger a las personas de la discriminación. Hay vías más eficaces para favorecer el entendimiento entre diversos grupos.

El Consejo también destaca que la sensibilidad de Facebook ante posibles casos de lenguaje islamófobo que incita al odio en Birmania es comprensible, dado el historial de violencia y discriminación contra la población musulmana en dicho país, el contexto de mayor riesgo ante las elecciones y la poca información disponible en el momento en cuestión. Frente a estas circunstancias, la cautela de Facebook demostró su reconocimiento global en materia de derechos humanos. No obstante, en relación con esta publicación específica, el Consejo concluye que la decisión de Facebook de eliminar el contenido no fue correcta.

9. Decisión del Consejo asesor de contenido

9.1 Decisión sobre el contenido

El Consejo asesor de contenido anuló la decisión de Facebook de eliminar el contenido y solicitó que se restaure la publicación.

El Consejo entiende que se mantendrá la pantalla de advertencia de las fotos en virtud de la norma comunitaria sobre contenido gráfico y violento.

* Nota de procedimiento:

La preparación de las decisiones del Consejo asesor de contenido está a cargo de paneles conformados por cinco miembros, quienes deben estar de acuerdo por mayoría. Las decisiones del Consejo no necesariamente representan las opiniones personales de todos los miembros.

En cuanto a la decisión del caso, se encargó una investigación independiente en nombre del Consejo. Un instituto de investigación independiente con sede en la Universidad de Gotemburgo y un equipo conformado por más de 50 científicos sociales de seis continentes, así como 3.200 expertos de diferentes países del mundo, ofrecen sus conocimientos sobre contextos culturales y sociopolíticos. La empresa Lionbridge Technologies, LLC, con especialistas en más de 350 idiomas que trabajan en 5.000 ciudades diferentes, se encargó de las competencias en materia lingüística.

Volver a Decisiones de casos y opiniones consultivas sobre políticas