Confirmado

Presuntos delitos en Raya Kobo

El Consejo asesor de contenido sostuvo la decisión original de Meta de eliminar una publicación donde se alegaba la participación de civiles étnicos tigrayanos en atrocidades cometidas en la región de Amhara, Etiopía.

Tipo de decisión

Estándar:

Políticas y temas

Tema
Guerras y conflictos, Libertad de expresión
Estándar comunitario
Lenguaje que incita al odio

Regiones/Países

Ubicación
Etiopía

Plataforma

Plataforma
Facebook

Esta decisión también está disponible en amárico y tigriña.

ሙሉ ውሳኔውን በአማርኛ ለማንበብ፣ እዚህ ይጫኑ

ብትግርኛ እተገብረ ውሳነ ምሉእ ከተንብቦ እንተ ደሊኻ ኣብዚ ጠውቕ

Resumen del caso

Nota: El 28 de octubre de 2021, Facebook anunció que cambiaba el nombre de la empresa a Meta. En este texto, "Meta" hace referencia a la empresa, y "Facebook" continúa haciendo referencia al producto y a las políticas de la app específica.

El Consejo asesor de contenido sostuvo la decisión original de Meta de eliminar una publicación donde se alegaba la participación de civiles étnicos tigrayanos en atrocidades cometidas en la región de Amhara, Etiopía. No obstante, dado que Meta restableció la publicación luego de que el usuario presentara una apelación ante el Consejo, la empresa debió volver a eliminar el contenido de la plataforma.

Información sobre el caso

A finales de julio de 2021, un usuario de Facebook de Etiopía hizo una publicación en amárico. En ella, se alegaba que el Frente de Liberación Popular de Tigray (TPLF) asesinó y violó a mujeres y niños, y saqueó las propiedades de civiles en Raya Kobo y otras ciudades de la región de Amhara, en Etiopía. El usuario también afirmó que los civiles étnicos tigrayanos ayudaron al TPLF a perpetrar estas atrocidades. El usuario indica en la publicación que recibió la información de los residentes de Raya Kobo. El usuario terminó la publicación con las palabras "Nuestra lucha nos liberará".

Luego de que los sistemas de idiomas automáticos en amárico de Meta marcaran la publicación, un moderador de contenido determinó que dicho contenido infringía la norma comunitaria sobre lenguaje que incita al odio y lo eliminó. Cuando el usuario apeló la decisión de Meta, un segundo moderador confirmó que la publicación infringía las Normas comunitarias de Facebook. Ambos moderadores pertenecen al equipo de revisión de contenido en amárico de Meta.

Luego, el usuario presentó una apelación ante el Consejo asesor de contenido. Después de que el Consejo seleccionara este caso, Meta admitió que la decisión original de eliminar la publicación fue incorrecta y la restableció el 27 de agosto. Meta indicó al Consejo que, generalmente, suele notificar a los usuarios cuando se restablece contenido el mismo día en que esto ocurre. Sin embargo, debido a un error humano, Meta informó a este usuario que la publicación se había restaurado el 30 de septiembre, más de un mes más tarde. Esta notificación se envió luego de que el Consejo le preguntara a Meta si le había notificado al usuario sobre el restablecimiento del contenido.

Conclusiones principales

El Consejo determinó que el contenido infringía la norma comunitaria sobre violencia e incitación de Facebook.

Si bien Meta eliminó inicialmente la publicación por infringir la norma comunitaria sobre lenguaje que incita al odio, la empresa restauró el contenido luego de que el Consejo seleccionara el caso, ya que Meta manifestaba que este no iba en contra del grupo étnico tigray y que las acusaciones del usuario no constituían lenguaje que incita al odio. El Consejo determina que la justificación para restaurar el contenido carece de detalles y es incorrecta.

En su lugar, el Consejo aplicó la norma comunitaria sobre violencia e incitación de Facebook a esta publicación. Esta norma prohíbe "la información errónea y los rumores que no se pueden verificar que contribuyan al riesgo de violencia o daños físicos inminentes". El Consejo afirma que el contenido en este caso contiene un rumor que no se puede verificar, de conformidad con la definición del término que elaboró Meta. Si bien el usuario manifiesta que se basó en informes anónimos anteriores y testimonios de personas del lugar, no brinda evidencia circunstancial que respalde sus acusaciones. Los rumores de que un grupo étnico es cómplice de atrocidades en masa, como se indica en esta publicación, son peligrosos y aumentan de forma exponencial el riesgo de violencia inminente.

El Consejo también determinó que la eliminación de la publicación es coherente con las responsabilidades de Meta como empresa con los derechos humanos. Los rumores infundados en un conflicto actual en auge podrían ocasionar atrocidades graves, como ocurrió con el caso en Myanmar. En la decisión 2020-003-FB-UA, el Consejo afirmó que "sobre todo en situaciones de conflicto armado, la acumulación y difusión de expresiones deshumanizadoras e incitadoras de odio en una plataforma suponen un alto riesgo, ya que pueden generar acciones en el mundo real que afecten los derechos a la seguridad y, potencialmente, a la vida". El impacto acumulativo puede culminar en acciones por medio de un "efecto de acumulación gradual", como ocurrió en el genocidio ruandés.

El Consejo tomó esta decisión teniendo en cuenta la contraposición entre proteger la libertad de expresión y reducir la amenaza de un conflicto sectario. El Consejo sabe de la participación de civiles en las atrocidades cometidas en diversas partes de Etiopía, aunque no en Raya Kobo, y que Meta no pudo verificar los hechos que se alegaban en la publicación en el momento en que se hizo. El Consejo sabe también que las denuncias verdaderas de delitos pueden salvar vidas en zonas de conflicto, mientras que aquellas no fundamentadas sobre la participación de civiles en los conflictos pueden aumentar el riesgo de violencia en el corto plazo.

La decisión del Consejo asesor de contenido

El Consejo ratificó la decisión original de Meta de eliminar la publicación. Dado que Meta restableció el contenido luego de que el usuario presentara una apelación ante el Consejo, la empresa debió volver a eliminarlo de la plataforma.

En su declaración de asesoramiento normativo, el Consejo recomendó que Meta haga lo siguiente:

  • Reformule el valor de "seguridad" para reflejar que el lenguaje que incita al odio en internet puede suponer un riesgo para la seguridad física de las personas y el derecho a la vida, además de los riesgos de intimidación, exclusión y silenciamiento.
  • Refleje en las Normas comunitarias de Facebook que, en un contexto de guerra y conflictos violentos, los rumores que no se pueden verificar ponen en mayor riesgo los derechos a la vida y la seguridad de las personas. Esto debería mostrarse en todos los niveles del proceso de moderación.
  • Solicite una evaluación de debida diligencia independiente sobre derechos humanos a fin de determinar cómo se usan Facebook e Instagram para difundir lenguaje que incita al odio y rumores infundados que aumentan el riesgo de violencia en Etiopía. En dicha evaluación, se debe revisar la eficacia de las medidas que Meta tomó para prevenir el uso indebido de sus productos y servicios en Etiopía, así como de aquellas que tomó para hacer posible la elaboración de informes corroborados de interés público sobre los delitos que atentan contra los derechos humanos en Etiopía. La evaluación también debe analizar las funciones de idioma de Meta en Etiopía y si estas son adecuadas para proteger los derechos de los usuarios. Asimismo, debe abarcar el período comprendido entre el 1 de junio de 2020 y el presente. La empresa debe realizar la evaluación en un plazo de seis meses desde el momento en que responde a estas recomendaciones. La evaluación debe publicarse en su totalidad.

* Los resúmenes de casos ofrecen información general sobre los casos y no sientan precedentes.

Decisión del caso completa

1. Resumen de la decisión

El Consejo ratificó la decisión original de Meta de eliminar el contenido. La publicación alega la participación de civiles étnicos tigrayanos en las atrocidades perpetradas contra los habitantes de la región de Amhara, en Etiopía. Meta inicialmente eliminó la publicación de Facebook de acuerdo con la norma sobre lenguaje que incita al odio, pero la restableció luego de que el Consejo seleccionara el caso. El Consejo determina que la justificación de Meta para restaurar el contenido carece de detalles y es incorrecta. Para el Consejo, el contenido infringía la orden que prohíbe los rumores infundados en virtud de la norma sobre violencia e incitación.

2. Descripción del caso

A fines de julio de 2021, un usuario de Facebook realizó una publicación en amárico en su biografía donde alegaba que el Frente de Liberación Popular de Tigray (TPLF) asesinó y violó a mujeres y niños, y saqueó las propiedades de civiles en Raya Kobo y otras ciudades de la región de Amhara, en Etiopía. El usuario también afirmó que los civiles étnicos tigrayanos colaboraron con el TPLF para llevar a cabo estas atrocidades (para ver la traducción específica y el significado de la publicación en amárico, consulta la sección 6 más adelante). El usuario terminó la publicación con las palabras "Nuestra lucha nos liberará". El usuario indica en la publicación que recibió la información de los residentes de Raya Kobo.

La publicación tuvo casi 5.000 visualizaciones, y generó menos de 35 comentarios y más de 140 reacciones. Se compartió más de 30 veces. La publicación permaneció en Facebook aproximadamente un día. Entre los comentarios en amárico, los expertos en lingüística del Consejo tradujeron frases que rezaban: "[o]ur only option is to stand together for revenge" (Nuestra única opción es unir nuestras fuerzas para vengarnos) y "are you ready, brothers and sisters, to settle this matter?" (Hermanos y hermanas, ¿están listos para tomar cartas en este asunto?). Según Meta, la cuenta del usuario que publicó el contenido se encuentra en Etiopía, pero no en las regiones de Tigray o Amhara. La foto del perfil del usuario incluye un hashtag que expresa rechazo hacia el TPLF. En función de la información disponible para el Consejo, el usuario se describe a sí mismo como un hombre etíope de Raya.

El sistema automático (clasificador) en idioma amárico de Meta determinó que la publicación infringe potencialmente las políticas. Meta usa clasificadores con aprendizaje automático instruidos para detectar de forma automática posibles infracciones de las Normas comunitarias de Facebook. Meta anunció que "está usando esta tecnología para identificar de forma proactiva lenguaje que incita al odio en amárico y oromo, junto con más de 40 idiomas más de todo el mundo". El Consejo entiende que Etiopía es un país plurilingüe y que los idiomas amárico, oromo, somalí y tigriña están entre los cuatro que más se hablan en el país. Meta también informó que contrata moderadores que pueden revisar contenido en estos idiomas mencionados.

Meta usa el método de "'muestreo sesgado' que toma muestras de contenido para mejorar la calidad del clasificador en amárico. Esto significa que se toman continuamente muestras de contenido en este idioma con puntuaciones de coincidencia potencial alta y baja, que se someten a revisión manual a fin de mejorar el rendimiento del clasificador". Este contenido se seleccionó para someterse a revisión manual como parte de ese proceso de mejora. Asimismo, Meta explicó que su sistema automático determinó que el contenido tenía "una alta cantidad de visualizaciones potenciales" y que esto le daba una "puntuación de infracción baja". Si la puntuación de infracción es baja, significa que el contenido no alcanza el límite para que el sistema automático de Meta lo elimine.

Un moderador de contenido del equipo de revisión de contenido en amárico determinó que la publicación infringía la norma comunitaria sobre lenguaje que incita al odio de Facebook y la eliminó. En ella, se prohíbe el contenido que se dirige a una persona o un grupo de personas según su raza, etnia o nacionalidad con "lenguaje violento". Meta afirmó que notificó al usuario que la publicación infringía la norma comunitaria sobre lenguaje que incita al odio de Facebook, pero no le indicó la regla específica que incumplía. Luego, el usuario apeló la decisión ante Meta y, tras una segunda revisión que realizó otro moderador del equipo de revisión de contenido en amárico, Meta confirmó que la publicación infringía las políticas de Facebook.

Luego, el usuario presentó una apelación ante el Consejo asesor de contenido. Como consecuencia de que el Consejo seleccionara el caso, Meta determinó que la eliminación de la publicación fue un "error del sistema de cumplimiento de normas" y la restauró el 27 de agosto. Meta manifestó que suele notificar a los usuarios el mismo día en que restaura contenido. Sin embargo, debido a un error humano, a este usuario se lo informó el 30 de septiembre. Esto ocurrió luego de que el Consejo le preguntará a Meta si se le había informado al usuario que el contenido se había restablecido.

El caso presenta inquietudes respecto de acusaciones infundadas que afirman que los tigrayanos que viven en la aldea de Raya Kobo colaboraron con las atrocidades que cometió el TPLF, lo que incluye violaciones contra el grupo étnico amhara. Estas acusaciones se publicaron en Facebook en medio de una guerra civil en curso en Etiopía que se desató en 2020 entre las fuerzas de la región de Tigray y las fuerzas y el ejército del Gobierno federal etíope junto con sus aliados ("Ethiopia’s Civil War: Cutting a Deal to Stop the Bloodshed", de International Crisis Group, 26 de octubre de 2021).

Según informes de expertos que recibió el Consejo, Facebook es un medio de comunicación online importante, influyente y popular en Etiopía. Los informes también indican que la cobertura en los medios del país sobre las áreas afectadas por el conflicto es escasa o nula, y que los etíopes usan Facebook para compartir y recibir información acerca de este asunto.

En su historia reciente, Etiopía fue escenario de conflictos étnicos recurrentes, entre otros, grupos tigrayanos (Ethnic federalism and conflict in Ethiopia, ACCORD, 2017). El Consejo conoce las acusaciones de violaciones graves a los derechos humanos y las leyes humanitarias en la región de Tigray y otras partes del país, incluidas las regiones de Afar, Amhara, Oromo y Somalia, por parte de quienes están implicados en el conflicto actual (declaración de la asesora especial de la ONU para la prevención del genocidio sobre el continuo deterioro de la situación en Etiopía, 30 de julio de 2021; Oficina de la Alta Comisionada de las Naciones Unidas para los Derechos Humanos (OHCHR), "Ethiopia: Bachelet urges end to 'reckless' war as Tigray conflict escalates, 3 de noviembre de 2021). Asimismo, de acuerdo con la investigación conjunta que publicó recientemente la Comisión de Derechos Humanos de Etiopía (EHRC) y la OHCHR de la ONU, los civiles de Tigray y Amhara fueron partícipes de violaciones a los derechos humanos a finales de 2020. Sin embargo, el alcance de la investigación no abarcó las violaciones ocurridas durante julio de 2021 en las zonas que menciona el usuario en su publicación (informe de la investigación conjunta del EHRC y la OHCHR sobre las presuntas violaciones a las leyes sobre derechos humanos internacionales, las leyes humanitarias y sobre refugiados por parte de todos los implicados en el conflicto en la región de Tigray, República Democrática de Etiopía, 3 de noviembre de 2021).

Según un informe de Reuters, las autoridades locales de la región de Amhara afirmaron que fuerzas de Tigray asesinaron a 120 civiles en una aldea en la región de Amhara el 1 y 2 de septiembre (Reuters, 8 de septiembre). Estas fuerzas emitieron más adelante una declaración en la que rechazaban lo que denominaban "acusación fabricada" por el gobierno regional de Amhara. Estas acusaciones no se pudieron confirmar de forma independiente. El Consejo también está al tanto de las acusaciones por el perfil étnico, el acoso y el creciente lenguaje que incita al odio de los que son víctimas los tigrayanos (comentarios de la Alta Comisionada de las Naciones Unidas para los Derechos Humanos, Michelle Bachelet, en respuesta a las preguntas sobre Etiopía, 9 de diciembre de 2020; pedido de ONG para que el Consejo de Derechos Humanos de la ONU dicte una resolución sobre Tigray, 11 de junio de 2021).

3. Autoridad y alcance

El Consejo tiene la facultad para revisar la decisión de Meta tras la apelación de un usuario cuya publicación se eliminó (Artículo 2, sección 1, del acta constitutiva). El Consejo puede ratificar o revertir esa decisión, y la acción que realice será vinculante para Meta (Artículo 3, sección 5, y Artículo 4 del acta constitutiva). Las decisiones del Consejo pueden incluir declaraciones de asesoramiento normativo con recomendaciones no vinculantes a las que Meta debe responder (Artículo 3, sección 4). Según el acta constitutiva, el Consejo asesor de contenido es un organismo independiente diseñado para proteger la libertad de expresión mediante la toma de decisiones independientes y basadas en principios sobre contenidos importantes. El organismo opera con transparencia, emitiendo juicios neutrales e independientes, e interpretando las decisiones de manera imparcial.

4. Normas pertinentes

El Consejo asesor de contenido consideró las siguientes normas en su decisión:

I. Normas comunitarias de Facebook

En las bases de la política de la norma comunitaria sobre lenguaje que incita al odio de Facebook, Meta afirma que no permite dicho lenguaje en la plataforma "porque crea un entorno de intimidación y exclusión, y en algunos casos, puede incitar a la violencia en la vida real". En la norma comunitaria, se define el lenguaje que incita al odio como un "ataque directo a personas, y no a conceptos ni instituciones, en función de lo que denominamos 'características protegidas': raza, etnia, nacionalidad, discapacidad, religión, casta, orientación sexual, sexo, identidad de género y enfermedad grave". La base define aún más un ataque como "lenguaje violento o deshumanizante, estereotipos dañinos, declaraciones de inferioridad, expresiones de desprecio, repulsión o rechazo, insultos, o incitaciones de exclusión o segregación". La norma sobre lenguaje que incita al odio de Facebook describe tres niveles de ataques. En virtud del nivel 1, las Normas comunitarias de Facebook prohíben el contenido dirigido a una persona o un grupo de personas (se incluyen todos los conjuntos secundarios, excepto los descritos como responsables de crímenes violentos o delitos sexuales) sobre la base de las características protegidas antes mencionadas que incluya "lenguaje deshumanizante". Dicho lenguaje puede adoptar la forma de generalizaciones o afirmaciones basadas en comportamientos no aptas que acusan a personas que comparten características protegidas de "delincuentes sexuales o violentos" o de "otro tipo de delincuencia".

La base de la norma comunitaria sobre violencia e incitación de Facebook establece que Meta "busca evitar daños en el mundo real que puedan relacionarse con contenido" en la plataforma. Específicamente, Meta prohíbe "la información errónea y los rumores que no se pueden verificar que contribuyan al riesgo de violencia o daños físicos inminentes". Como parte de sus normas de implementación internas, Meta considera que un rumor que no se puede verificar consta de información cuya fuente es extremadamente difícil o imposible de rastrear o que no se puede confirmar ni desacreditar en un plazo significativo porque la fuente es muy difícil o imposible de encontrar. Asimismo, Meta considera que toda información que carece de detalles específicos para que se pueda desacreditar la afirmación constituye un rumor infundado. Meta manifiesta que requiere contexto adicional para aplicar esta política incluida en la norma comunitaria sobre violencia e incitación de Facebook.

II. Valores de Meta

Los valores de Meta se detallan en la introducción a las Normas comunitarias de Facebook. El valor de "expresión" se describe como fundamental.

Nuestras Normas comunitarias siempre apuntaron a crear un espacio donde las personas puedan expresarse y dar a conocer su opinión. [...] Queremos que las personas puedan hablar abiertamente sobre los temas que les importan, incluso si otros no están de acuerdo o los consideran objetables.

Meta limita la "expresión" en favor de otros cuatro valores, y dos de ellos son relevantes en este caso:

Seguridad: nos comprometemos a hacer de Facebook un lugar seguro. La expresión que supone una amenaza para las personas puede intimidar, excluir o silenciar a otros, por lo que no está permitida en Facebook.

"Dignidad" : creemos que todas las personas son dignas y tienen los mismos derechos. Esperamos que esas personas respeten la dignidad de los demás y no los acosen ni los degraden.

III. Normas de derechos humanos

Los Principios Rectores sobre las Empresas y los Derechos Humanos de la ONU (UNGP), respaldados por el Consejo de Derechos Humanos de la ONU en 2011, establecen un marco voluntario que encuadra las responsabilidades de las empresas privadas en cuanto a estos derechos. En 2021, Meta anunció su Política corporativa de derechos humanos en la que reafirma su compromiso a respetar los derechos de conformidad con los Principios Rectores sobre las Empresas y los Derechos Humanos de la ONU. El análisis del Consejo en este caso se basó en las siguientes normas de derechos humanos:

  • Libertad de expresión: Artículos 4 y 19 del Pacto Internacional de Derechos Civiles y Políticos (ICCPR); observación general n.º 34, 2011, Comité de Derechos Humanos (observación general n.º 34); informe del Relator Especial de la ONU sobre la promoción y protección de la libertad de opinión y de expresión acerca de la regulación del contenido online, A/HRC/38/35.
  • Derecho a la vida: Artículo 6 del ICCPR; tal como se interpreta en la observación general n.º 36 del Comité de Derechos Humanos (2018) (observación general n.º 36); informe "Empresas, derechos humanos y regiones afectadas por conflictos: hacia el aumento de las medidas" (A/75/212) del Grupo de Trabajo sobre la cuestión de los derechos humanos y las empresas transnacionales y otras empresas de la ONU.

5. Declaración del usuario

El usuario declaró en su apelación ante el Consejo que publicó este contenido para proteger a su comunidad que está en peligro y manifestó que Meta debe ayudar a las comunidades en zonas de guerra. Afirmó que el lenguaje de la publicación no incita al odio, sino que "relata la realidad". Asimismo, declaró que el TPLF atacó a su comunidad de un millón de personas y la dejó sin alimentos, agua y otros recursos para cubrir necesidades básicas. El usuario especuló que quienes reportaron su publicación "son miembros y seguidores de ese grupo terrorista", y afirma que "conoce bien la mayoría de las reglas" y que "nunca infringió ninguna de las reglas de Facebook".

6. Explicación de la decisión de Meta

En su fundamento, Meta explicó que el contenido se eliminó originalmente porque se consideraba un ataque en virtud de la norma comunitaria sobre lenguaje que incita al odio de Facebook, específicamente porque infringía su política que prohíbe el "lenguaje violento" dirigido al pueblo tigrayano debido a su origen étnico. Meta informó al Consejo que sus moderadores no registran los motivos por los que eliminan contenido, sino que se limitan a comunicar qué norma comunitaria se infringió. Por lo tanto, Meta no confirmó si los moderadores que revisaron la publicación inicialmente y en la etapa de apelación la eliminaron aplicando la misma regla incluida en la política sobre lenguaje que incita al odio de Facebook.

Meta manifestó en su fundamento que, como el Consejo seleccionó el caso, la empresa determinó que su "decisión fue un error" y restauró la publicación. Asimismo, Meta indicó que el contenido no infringía sus reglas porque no iba dirigido contra el grupo étnico tigray, y las acusaciones del usuario sobre el TPLF o los tigrayanos no alcanzaban el nivel de lenguaje que incita al odio.

En su respuesta a la pregunta que formuló el Consejo, Meta confirmó que tiene en marcha sistemas automáticos en amárico y que estos se someten a auditoría y revisión cada seis meses. Asimismo, Meta explicó que fue el texto original en amárico lo que llevó al sistema automático a identificar el contenido como potencialmente infractor. De un modo similar, Meta confirmó que los dos moderadores de contenido hablaban amárico y basaron la revisión en el texto original en este idioma.

Meta indicó en sus declaraciones que el equipo regional proporcionó el contexto cultural y lingüístico en el desarrollo del archivo del caso correspondiente a esta apelación. Por ejemplo, el fundamento de la decisión de Meta que se presentó ante el Consejo se basa en la traducción de dicho contenido por parte del equipo regional. El equipo regional de Meta tradujo el fragmento presuntamente infractor de la publicación del usuario como: "'Tigrean teachers, health professionals and merchants are leading the way for the rebel TPLF forces to get women raped and loot properties" (Maestros, profesionales de la salud y comerciantes de Tigray abren paso a las fuerzas rebeldes del TPLF para que violen a las mujeres y saqueen propiedades).

El Consejo solicitó a sus propios expertos en lingüística otra traducción al inglés del texto, y Meta proporcionó una traducción adicional que realizó su proveedor externo de servicios lingüísticos. Las dos versiones confirmaron que el significado del texto que prevalece indica que los civiles del grupo étnico tigray participaron en las atrocidades que cometió el TPLF. Para los fines de esta decisión, el Consejo destaca la versión que proporcionó el proveedor externo de Meta. Esta reza: "As reported previously and per information obtained from people living in the area who make a living as teachers, as health professionals, as merchants, as daily labour workers, and low [wage] workers, we are receiving direct reports that the Tigreans, who know the area very well, are leading the rebel group door-to-door exposing women to rape and looting property" (Como se informó anteriormente y según información recopilada de personas que viven en la zona y se ganan la vida como maestros, profesionales de la salud, comerciantes, jornaleros y trabajadores con salarios mínimos, recibimos reportes directos que indican que los tigrayanos, que conocen muy bien el área, conducen al grupo rebelde puerta por puerta, lo que expone a las mujeres a violaciones y habilita el saqueo de propiedades). Asimismo, los comentarios en amárico en la publicación rezan: "[o]ur only option is to stand together for revenge" (Nuestra única opción es unir nuestras fuerzas para vengarnos) y "are you ready, brothers and sisters, to settle this matter?" (Hermanos y hermanas, ¿están listos para tomar cartas en este asunto?).

En su respuesta a la pregunta del Consejo, Meta confirmo que Etiopía "se designó como país en riesgo de nivel 1". Según Meta, es el nivel de riesgo más alto. Meta declaró que designó a Etiopía como "región de conflicto" en su trabajo relativo a la política de contenido y la integridad. En este sentido, estableció un centro de operaciones de productos relativos a la integridad (IPOC) de "alto nivel" para las elecciones de Etiopía en junio de 2021 y otro IPOC para supervisar el desarrollo de los sucesos posteriores a las elecciones en septiembre. Ambos centros cerraron el mismo mes en que se establecieron. Además, Meta afirmó que sus equipos de productos, política y operaciones tratan a Etiopía como "país en conflicto de alto nivel". Meta manifestó que su "equipo interfuncional de respuesta ante emergencias" que se centra en Etiopía se reúne cada semana para entender y mitigar el riesgo actual. Meta agregó que su trabajo no modifica el proceso que usa para revisar contenido que no supone riesgo alguno, y que su labor no influyó en la determinación que tomó en este caso.

En respuesta a la pregunta del Consejo, Meta explicó que sus socios de confianza no remitieron la publicación para que se someta a otra revisión por infringir las políticas sobre información errónea y daños. Meta, además, indicó que, como no hubo una verificación de datos externa, "no hubo evidencia que sugiriera que las acusaciones incluidas en la publicación fueran falsas o se tratara de rumores infundados".

7. Comentarios de terceros

El Consejo asesor de contenido recibió 23 comentarios del público relacionados con este caso. Seis de los comentarios procedían de África subsahariana, específicamente de Etiopía; uno de Oriente Medio y África del Norte; uno de Asia-Pacífico y Oceanía; cinco de Europa y diez de Canadá y los Estados Unidos. El Consejo recibió comentarios de partes interesadas, incluidas instituciones académicas, particulares y organizaciones de sociedad civil que se ocupan de la libertad de expresión y el lenguaje que incita al odio en Etiopía. Los comentarios abarcaban, entre otros, los siguientes temas: si el contenido debería permanecer en la plataforma, las dificultades que conlleva distinguir las críticas hacia el TPLF del lenguaje que incita al odio contra el pueblo tigrayano, y la falta de moderadores de contenido de Meta que hablen idiomas etíopes.

Si quieres leer los comentarios del público que se enviaron en relación con este caso, haz clic aquí.

8. Análisis del Consejo asesor de contenido

El caso atañe acusaciones realizadas durante una guerra civil y étnica en auge en una región con una historia de conflictos étnicos letales. Existe una contraposición entre proteger la libertad de expresión y reducir la amenaza de un conflicto sectario. Esta contraposición solo se puede resolver prestando atención a los detalles específicos de un conflicto determinado. El Consejo sabe de la participación de civiles en las atrocidades cometidas en varias partes de Etiopía, aunque no en Raya Kobo (consulta el contexto relevante del conflicto en Etiopía en la sección 2 anterior). Meta manifestó no tener evidencia que indique que el contenido fuera falso o se tratara de un rumor infundado. El Consejo confirma que, en el momento en que se hizo la publicación, Meta no pudo ni logró verificar de forma proactiva las acusaciones debido a la interrupción en la comunicación con la región de Amhara. Ni testigos ni periodistas internacionales tenían acceso a la situación en esta zona. El Consejo también sabe que las denuncias verdaderas sobre una atrocidad pueden salvar vidas en zonas de conflicto, ya que pone en aviso a las posibles víctimas sobre los potenciales perpetradores. Sin embargo, en un conflicto actual en auge, las acusaciones sin fundamentos respecto de perpetradores civiles pueden suponer mayores riesgos de violencia en el corto plazo.

8.1 Cumplimiento de las Normas comunitarias

Meta restauró el contenido porque determinó que no constituye lenguaje que incita al odio (consulta la sección 6 arriba). Para el Consejo, dicha explicación carece de detalles y es incorrecta. El Consejo considera la norma comunitaria sobre violencia e incitación relevante en este caso. El Consejo concluye que la publicación infringe la política sobre violencia e incitación que prohíbe la "información errónea y los rumores que no se pueden verificar y que contribuyen al riesgo de violencia o daños físicos inminentes" (consulta la sección 4 para obtener la definición de "rumor que no se puede verificar").

El contenido se enmarca en la definición de rumor que no se puede verificar incluida en las normas de implementación internas de Meta (consulta la sección 4 para obtener la definición de "rumor que no se puede verificar"). El Consejo determina que los rumores de presunta complicidad de un grupo étnico en aberraciones en masa son peligrosos y aumentan de forma significativa el riesgo de violencia inminente durante un conflicto violento en curso, como el que está ocurriendo actualmente en Etiopía. El Consejo entiende que los tigrayanos en Etiopía, tal como otros grupos étnicos, ya son víctimas de violencia y daños físicos inminentes y, en algunos casos, reales.

8.2 Cumplimiento de los valores de Meta

El Consejo determina que la decisión de Meta de restaurar y admitir el contenido no concuerda con sus valores de "dignidad" y "seguridad". El Consejo reconoce que la "expresión" es un valor de suma importancia para Meta, pero la empresa admite que se limite dicho valor a fin de prevenir abusos y otras formas de daños virtuales y en la vida real.

En el contexto de este caso, la "expresión" que pone de manifiesto violaciones a los derechos humanos es de primordial importancia. Sin embargo, la forma que adopta una expresión en medio de un conflicto violento también es relevante. Los discursos que parecen querer poner el foco de atención en presuntas violaciones a los derechos humanos, pero que, al mismo tiempo, afirman sin fundamentos que un grupo étnico es cómplice de atrocidades durante un conflicto violento en curso corren el riesgo de justificar o generar violencia a modo de represalia. Esto es particularmente pertinente en el marco de la crisis actual en Etiopía.

8.3 Cumplimiento de las responsabilidades de Meta con los derechos humanos

El Consejo considera que, en este caso, eliminar el contenido es una acción coherente con las responsabilidades de Meta como empresa para con los derechos humanos en virtud del Principio 13 de los UNGP, que exigen que las empresas "eviten llevar a cabo actividades que afecten o contribuyan a afectar negativamente los derechos humanos y que tomen medidas si esto ocurre". En un conflicto actual en auge, los rumores infundados pueden conducir a aberraciones graves, como se demostró en Myanmar. Para mitigar dicho riesgo, se necesita un sistema transparente de moderación de contenido en zonas de conflicto, lo que incluye una política respecto de rumores que no se pueden verificar.

Libertad de expresión y Artículo 19 del ICCPR

El Artículo 19 del ICCPR proporciona amplia protección al derecho a la libertad de expresión a través de cualquier medio e independientemente de las fronteras. No obstante, dicho artículo permite que se restrinja este derecho en ciertas situaciones limitadas y acotadas, lo que se conoce como la prueba de tres partes, que evalúa la legalidad (claridad), la legitimidad y necesidad, y la proporcionalidad. Si bien el ICCPR no genera las mismas obligaciones para Meta que para los Estados, la empresa se compromete a respetar los derechos humanos como se establece en los UNGP. Este compromiso abarca derechos humanos de reconocimiento internacional, según los define, entre otros organismos, el ICCPR. El Relator Especial de la ONU sobre la libertad de opinión y de expresión sugiere que el Artículo 19, párrafo 3, del ICCPR brinda un marco útil para guiar las prácticas de moderación de contenido de las plataformas (A/HRC/38/35, párrafo 6).

I. Legalidad (claridad y accesibilidad de las reglas)

El requisito de legalidad exige que toda restricción a la libertad de expresión: (a) sea adecuadamente accesible, de modo que las personas tengan información suficiente sobre cómo la ley limita sus derechos; y (b) la ley se formule con la precisión suficiente para que las personas puedan regular su conducta. Asimismo, una ley no puede conferir una discrecionalidad absoluta para restringir la libertad de expresión a los encargados de su implementación (observación general n.º 34, párrafo 25).

El término "rumor que no se puede verificar" no se define en las Normas comunitarias de dominio público. Si Meta no puede explicar términos clave y cómo se aplican sus políticas, a los usuarios les resulta difícil entender si su contenido infringe las Normas comunitarias de Facebook. Sin embargo, según se aplica a los hechos de este caso en el que se realizó una acusación infundada en medio de un conflicto violento en curso, el Consejo determina que el término "rumor que no se puede verificar" es lo suficientemente claro. Ni Meta ni el usuario, que no estaba presente en Raya Kobo, pudieron verificar el rumor. Testigos y periodistas internacionales tampoco pudieron comprobar el rumor debido al conflicto en desarrollo y a la interrupción en las comunicaciones. En tales circunstancias, los usuarios pueden prever que dicha publicación se incluya en la prohibición.

II. Fin legítimo

Las restricciones de la libertad de expresión deben tener un fin legítimo, que puede incluir la protección de los derechos de otras personas, entre otros fines. El Comité de Derechos Humanos interpretó que el término "derechos" incluye derechos humanos, según se reconocen en el ICCPR y, de forma más general, en la legislación internacional de derechos humanos (observación general n.º 34, párrafo 28). La norma comunitaria sobre violencia e incitación de Facebook existe, en parte, para prevenir daños en el mundo real que puedan guardar relación con el contenido en Facebook. Las restricciones que se basan en esta política cumplen con el fin legítimo de protección del derecho a la vida.

III. Necesidad y proporcionalidad

El principio de necesidad y proporcionalidad en el marco de las leyes internacionales de derechos humanos exige que las restricciones que se apliquen a la expresión deben ser adecuadas a fin de cumplir su función de protección, deben ser el instrumento menos invasivo entre aquellos que permitan cumplir dicha función, deben ser proporcionales al interés que se busca proteger (observación general n.° 34, párrafo 34). El principio de proporcionalidad exige que se considere la forma de expresión en cuestión (observación general n.º 34, párrafo 34).

Durante la evaluación para determinar si la restricción al discurso del usuario cumplió su propósito según lo exigen las responsabilidades para con los derechos humanos de Meta, el Consejo tuvo en cuenta las medidas que tomó Meta para prevenir y mitigar el riesgo a la vida que supone la difusión de rumores infundados sobre las partes que intervienen en el conflicto etíope (consulta la sección 6 anterior para obtener una descripción de la labor de Meta en Etiopía).

El usuario afirmó que los civiles tigrayanos fueron cómplices de graves atrocidades cometidas por las fuerzas de esta región. Las fuentes de las que el usuario obtuvo esta información son informes anónimos anteriores y testimonios de la zona. Sin embargo, este no proporcionó ni siquiera evidencias circunstanciales que respalden las acusaciones, que podría haber incluido sin poner en riesgo sus fuentes.

El Consejo sabe lo importante que es aclarar violaciones a los derechos humanos en una situación de conflicto. Reportar atrocidades es una medida importante en pos del derecho de los demás a estar informados. "El periodismo es una función que comparten diversas partes... [incluidos] blogueros y otros que realizan publicaciones por su cuenta... en internet... ") (observación general n.º 34, párrafo 44). Las personas que hacen publicaciones por su cuenta comparten las responsabilidades relacionadas con la función de supervisión y, si realizan denuncias relativas a los derechos humanos, deben cumplir con normas de precisión. Asimismo, si se dan a conocer hechos atroces, se pueden salvar vidas, en especial en lugares donde los medios sociales son la fuente más importante de información. Sin embargo, la publicación del usuario carece de las cualidades antes mencionadas, ya que no incluye información sobre la amenaza real para la vida ni datos específicos que se puedan usar para documentar violaciones a los derechos humanos. Según se afirma, el contenido podría contribuir a odio basado en la etnia. Las situaciones de conflicto étnico exigen que se supervise de forma más estricta la forma en que las personas deben denunciar y debatir violaciones a los derechos humanos que cometen las partes que intervienen en un conflicto. Estas consideraciones se aplican a las publicaciones de Facebook, que se pueden usar para difundir rumores que no se pueden verificar a gran velocidad.

El Consejo manifiesta que algunos funcionarios del Gobierno etíope instigaron o difundieron lenguaje que incita al odio en contra de los tigrayanos (consulta, por ejemplo, Ethiopia: Sweeping emergency powers and alarming rise in online hate speech as Tigray conflict escalates, informe DW 2020 de Amnistía Internacional). No hay evidencia que indique que la publicación formaba parte de tales iniciativas deliberadas para avivar la discordia, pero el presente contenido debe considerarse en vista de los reportes que afirman que funcionarios del Gobierno y figuras públicas etíopes instigaron o difundieron lenguaje que incita al odio. Las publicaciones o la información de buena fe sobre temas de interés público hacen posible que las poblaciones vulnerables se protejan mejor. Asimismo, para poder asignar responsabilidades según corresponda, resulta útil entender mejor los eventos importantes. No obstante, los rumores que no se pueden verificar alimentan narrativas de odio y contribuyen a su aceptación, en especial ante la ausencia de iniciativas para combatir este tipo de discurso.

Para el Consejo, en un país en el que existe un conflicto armado en curso y una falta de capacidad comprobada por parte de las instituciones gubernamentales de cumplir con sus obligaciones relativas a los derechos humanos en virtud de la ley internacional, Meta puede restringir la libertad de expresión que, en otra circunstancia, no limitaría (consulta el Artículo 4 del ICCPR sobre las derogaciones en situaciones de emergencias públicas). El principio de proporcionalidad debe tener en cuenta "la forma de expresión en cuestión, así como el medio en el que se difunde" (observación general n.º 34, párrafo 34). Por sí solo, un rumor que no se puede verificar no puede ocasionar daños de forma directa e inmediata. Sin embargo, cuando dicho contenido aparece en plataformas de medios sociales importantes, influyentes y populares durante un conflicto en curso, aumenta de forma pronunciada el riesgo y la posibilidad de daños. El Consejo llegó a una conclusión similar en la decisión 2020-003-FB-UA. En ella, el Consejo determinó que "sobre todo en situaciones de conflicto armado, la acumulación y difusión de expresiones deshumanizadoras e incitadoras de odio en una plataforma suponen un alto riesgo, ya que pueden generar acciones en el mundo real que afecten los derechos a la seguridad y, potencialmente, a la vida". Asimismo, el impacto acumulativo puede culminar en acciones por medio de un "efecto de acumulación gradual", como ocurrió en Ruanda, donde había reiterados llamamientos a un genocidio (consulta el caso de Nahimana, n.º ICTR-99-52-T, párrafos 436, 478, y 484-485). En este caso, no existe en la publicación un llamamiento directo a la violencia, aunque se hace referencia a "nuestra lucha". Además, miles de hablantes de amárico vieron el contenido durante las 24 horas en las que estuvo online. Algunos de los comentarios que dejaron los usuarios incluían llamados a vengarse (consulta la sección 2 anterior).

El derecho a la vida conlleva la responsabilidad de debida diligencia de tomar medidas positivas razonables, que no impongan una restricción desproporcionada a la libertad de expresión, en respuesta a las amenazas previsibles a la vida que proceden de entidades y personas particulares cuya conducta no se puede atribuir al Estado. Se deben tomar medidas de protección específicas para salvaguardar a las personas en situaciones de vulnerabilidad (miembros de minorías étnicas y religiosas) cuyas vidas se encuentran en particularmente en riesgo debido a amenazas concretas o patrones preexistentes de violencia (observación general n.º 36, párrafos 21 y 23). Tras sopesar las respectivas diferencias, estas consideraciones son relevantes para las responsabilidades de Meta de proteger los derechos humanos, porque la empresa debe "intentar prevenir o mitigar los efectos negativos para los derechos humanos que guarden un vínculo directo con [sus] operaciones, productos o servicios" (Principio 13 de los UNGP).

El Grupo de Trabajo sobre la cuestión de los derechos humanos y las empresas transnacionales y otras empresas de la ONU declaró que los UNGP imponen a las empresas una responsabilidad mayor para que realicen un proceso de debida diligencia en un entorno de conflicto (informe "Empresas, derechos humanos y regiones afectadas por conflictos: hacia el aumento de las medidas", A/75/212, párrafos 41 a 54). En consecuencia, el fin legítimo de proteger el derecho a la vida implica que Meta tiene una mayor responsabilidad en el entorno del conflicto actual. El Consejo tendrá esto en cuenta en el momento de analizar la proporcionalidad.

El Consejo tiene en cuenta los pasos que siguió Meta hasta el momento en Etiopía. El contenido se eliminó originalmente. Sin embargo, el sistema automático de Meta determinó que tiene una "puntuación de infracción baja", por lo que Meta no lo eliminó de forma automática. Aunque el contenido se eliminó en primer lugar, Meta, en última instancia, determinó que dicha eliminación se debía a la aplicación errónea de normas. Meta también le explicó al Consejo que el tratamiento de Etiopía como país en riesgo de nivel 1 no afecta al rendimiento del clasificador ni a su capacidad para identificar el contenido como potencialmente infractor. Por lo tanto, el Consejo concluye que, sin medidas adicionales, Meta no puede cumplir plenamente con sus responsabilidades para con los derechos humanos. El hecho de que Meta restaurara el contenido corrobora esta inquietud.

En el presente caso, el contenido se publicó durante un conflicto armado. En situaciones de este tipo, Meta debe ejercer una debida diligencia mayor para proteger el derecho a la vida. Los rumores que no se pueden verificar guardan relación directa con las amenazas inminentes a la vida, y Meta debe comprobar que sus políticas y las medidas específicas que tomó en Etiopía en cuanto a este conflicto puedan proteger la vida y prevenir atrocidades (consulta la sección 6 para descubrir cómo respondió Meta ante el conflicto en Etiopía). Ante la ausencia de dichas medidas, el Consejo debe concluir en que es necesario eliminar el contenido. Para prevenir que una innumerable cantidad de publicaciones alimenten esa narrativa por medio de rumores infundados, en este caso es necesario eliminar el contenido, ya que se publica durante un conflicto étnico violento.

Una minoría del Consejo manifestó entender la naturaleza limitada de esta decisión. En el contexto de un conflicto violento en curso, una publicación que constituye un rumor que no se puede verificar que expresa que, motivados por conflictos étnicos, ciertos civiles ejercen violencia contra otros supone un riesgo de que la situación, de por sí violenta, se agite aún más, en particular cuando Meta no puede comprobar el rumor en tiempo real. El aumento de estos riesgos acentúa la responsabilidad de Meta para con los derechos humanos, lo que le exige actuar con mayor debida diligencia respecto de la moderación de contenido relacionada con el conflicto. Si bien estableció varios tipos de alertas rojas, Meta confirmó que dichos sistemas no influyeron en su determinación en este caso, lo que es difícil de entender dados los riesgos de violencia en el corto plazo. Como el Consejo ya manifestó en su decisión anterior (2021-001-FB-FBR), es difícil evaluar si medidas menos estrictas que la eliminación de contenido serían las más adecuadas para no afectar al discurso del usuario y lograr el fin de legitimidad cuando Meta no proporciona información relevante sobre si sus propias políticas y decisiones de diseño amplificaron discursos potencialmente dañinos.

9. Decisión del Consejo asesor de contenido

El Consejo ratificó la decisión original de Meta de eliminar el contenido. Dado que Meta restableció posteriormente el contenido luego de que el usuario presentara una apelación ante el Consejo, la empresa debió volver a eliminarlo de la plataforma.

10. Declaraciones de asesoramiento normativo

Política de contenido

1. Meta debe reformular el valor de "seguridad" para reflejar que el lenguaje que incita al odio online puede suponer un riesgo para la seguridad física de las personas y el derecho a la vida, además de los riesgos de intimidación, exclusión y silenciamiento.

2. Las Normas comunitarias de Facebook deben reflejar que, en un contexto de guerra y conflictos violentos, los rumores que no se pueden verificar suponen un mayor riesgo para los derechos a la vida y la seguridad de los demás. Esto debería mostrarse en todos los niveles del proceso de moderación.

Transparencia

3. Meta debe solicitar una evaluación de derechos humanos de debida diligencia independiente sobre cómo se usan Facebook e Instagram para difundir lenguaje que incita al odio y rumores infundados que aumentan el riesgo de violencia en Etiopía. En dicha evaluación, se debe revisar la eficacia de las medidas que Meta tomó para prevenir el uso indebido de sus productos y servicios en Etiopía, así como de aquellas que tomó para hacer posible la elaboración de informes corroborados de interés público sobre los delitos que atentan contra los derechos humanos en Etiopía. La evaluación también debe analizar las funciones de idioma de Meta en Etiopía y si estas son adecuadas para proteger los derechos de los usuarios. Asimismo, debe abarcar el período comprendido entre el 1 de junio de 2020 y el presente. La empresa debe realizar la evaluación en un plazo de seis meses desde el momento en que responde a estas recomendaciones. La evaluación debe publicarse en su totalidad.

* Nota de procedimiento:

La preparación de las decisiones del Consejo asesor de contenido está a cargo de paneles conformados por cinco miembros, quienes deben aprobarlas por mayoría. Las decisiones del Consejo no necesariamente representan las opiniones personales de todos los miembros.

En cuanto a la decisión del caso, se encargó una investigación independiente en nombre del Consejo. Un instituto de investigación independiente con sede en la Universidad de Gotemburgo y un equipo conformado por más de 50 científicos sociales de seis continentes, así como 3.200 expertos de diferentes países del mundo, ofrecen sus conocimientos sobre contextos culturales y sociopolíticos. La empresa Lionbridge Technologies, LLC, con especialistas en más de 350 idiomas que trabajan en 5.000 ciudades diferentes, se encargó de las competencias en materia lingüística. Duco Advisors, una empresa asesora dedicada a la intersección de geopolítica, confianza, seguridad y tecnología, también colaboró en la investigación.

Volver a Decisiones de casos y opiniones consultivas sobre políticas