Decisión de casos múltiples

Comunicado de prensa del Frente de Liberación Oromo

Por separado, dos usuarios apelaron las decisiones que tomó Meta de eliminar una publicación que habían hecho, en la que ambos habían compartido un comunicado de prensa del Frente de Liberación Oromo (OLF), un partido político que respalda la autodeterminación de la comunidad Oromo en Etiopía.

2 casos incluidos en el paquete

Anulado

FB-KW5ZYLJ8

Caso sobre personas y organizaciones peligrosas en Facebook

Plataforma
Facebook
Tema
Libertad de expresión,Política
Estándar:
Personas y organizaciones peligrosas
Ubicación
Etiopía
Date
Publicado el 24 de febrero de 2026
Anulado

FB-A41GXKK9

Caso sobre personas y organizaciones peligrosas en Facebook

Plataforma
Facebook
Tema
Libertad de expresión,Política
Estándar:
Personas y organizaciones peligrosas
Ubicación
Etiopía
Date
Publicado el 24 de febrero de 2026

Las decisiones resumidas analizan casos en los que Meta revirtió su decisión original sobre un contenido después de que el Consejo lo remitiera a la empresa e incluyen información sobre los errores que Meta reconoció. Estas decisiones son aprobadas por un panel de miembros del Consejo, no por todo el Consejo, no implican comentarios del público ni tienen valor de precedencia para el Consejo. Las decisiones resumidas traen aparejados cambios directos en las decisiones de Meta, ya que aportan transparencia respecto de estas correcciones, a la vez que permiten identificar en qué aspectos Meta podría mejorar la aplicación de sus políticas.

Resumen

Por separado, dos usuarios apelaron las decisiones que tomó Meta de eliminar una publicación que habían hecho, en la que ambos habían compartido un comunicado de prensa del Frente de Liberación Oromo (OLF), un partido político que respalda la autodeterminación de la comunidad Oromo en Etiopía. Después de que el Consejo le remitiera las apelaciones a Meta, la empresa revirtió sus decisiones y restauró ambas publicaciones.

Información de los casos

El Consejo revisó dos contenidos en los que se compartía un comunicado de prensa del OLF. En ambos casos, dos usuarios de Facebook diferentes compartieron un comunicado de prensa y una descripción en oromo que indicaba que la sede central del OLF en la capital etíope, Addis Ababa, se había devuelto oficialmente al partido en junio de 2025. En el comunicado, el OLF describía el acontecimiento como el resultado de esfuerzos prolongados y expresaba gratitud hacia todas las instituciones y miembros que apoyaron el proceso.

El OLF se estableció en 1973 como una organización política que aboga por la autodeterminación de la comunidad Oromo, el grupo étnico más grande de Etiopía. Históricamente, el OLF había participado en conflictos armados contra el Gobierno etíope, lo que condujo a que se lo designara como grupo terrorista. Sin embargo, en 2018, dicho Gobierno eliminó al OLF de su lista de terroristas, lo que sacó a sus líderes del exilio. Una facción independiente que había servido como brazo armado del OLF se negó a entregar las armas y continuó con su resistencia armada contra el Gobierno federal. En 2021, las autoridades etíopes designaron la facción como organización terrorista.

De acuerdo con la política de personas y organizaciones peligrosas, la empresa elimina "la glorificación, el apoyo y la representación" de personas u organizaciones "que reivindiquen una misión violenta o cometan actos de violencia".

En sus apelaciones ante el Consejo, los usuarios afirmaron que las publicaciones comparten un comunicado de prensa del OLF respecto de la reapertura de su sede central en Addis Ababa y no infringen las políticas de Meta. Los usuarios hicieron hincapié en que el OLF es un partido político legítimamente registrado, reconocido por el Consejo Nacional Electoral de Etiopía.

Luego de que el Consejo remitiera estos casos a Meta, la empresa determinó que las publicaciones hacen referencia al Frente de Liberación Oromo, que es diferente de una organización similar designada como agente no estatal violento de nivel 2 en virtud de la política de personas y organizaciones peligrosas. Según Meta, como las publicaciones no pertenecen a una entidad designada, no infringen la política. Por ende, las decisiones originales de Meta de eliminar las publicaciones fueron incorrectas. Por ello, la empresa restauró ambos contenidos en Facebook.

Autoridad y alcance del Consejo

El Consejo tiene la facultad para revisar la decisión de Meta tras la apelación de un usuario cuyo contenido se eliminó (artículo 2, sección 1, del acta constitutiva; artículo 3, sección 1, de los estatutos).

Cuando Meta reconoce que cometió un error y revierte su decisión en un caso en consideración para la revisión del Consejo, el Consejo puede seleccionar ese caso para una decisión resumida (artículo 2, sección 2.1.3, de los estatutos). El Consejo revisa la decisión original para entender mejor los procesos de moderación de contenido empleados, reducir los errores y ser más justo con los usuarios de Facebook, Instagram y Threads.

Importancia de los casos

Estos casos destacan la constante aplicación negligente de la norma comunitaria sobre personas y organizaciones peligrosas de Meta, incluso respecto de contenido que no hace referencia a una entidad designada. Dichos errores de aplicación de normas, que vulneran la libertad de expresión de los usuarios, son particularmente preocupantes en un país como Etiopía, donde existe un conflicto permanente y se restringe la libertad de expresión.

El Consejo anteriormente emitió varias recomendaciones sobre este tema. Entre ellas, le recomendó a Meta que "explicara los métodos que [la empresa] usa para evaluar la precisión de la revisión manual y el rendimiento de los sistemas automáticos al aplicar la política de personas y organizaciones peligrosas" (caso Referencia a personas designadas como "shaheed", recomendación n.º 6). El Consejo consideró que Meta reformuló esta recomendación. La empresa declaró que realiza auditorías para evaluar la precisión de sus decisiones de moderación de contenido y que, en función de los resultados obtenidos, en estas auditorías se detectan áreas de mejora. No obstante, Meta no explicó y se negó a hacer públicos los métodos que usa para realizar estas evaluaciones, lo que aumentaría la transparencia de la empresa a la hora de aplicar sus políticas, incluso cuando se aplican en diferentes regiones, mercados e idiomas.

Asimismo, para mejorar la transparencia general en torno a la designación y anulación de la designación de entidades, el Consejo recomendó: "Meta debe explicar en más detalle el procedimiento por el cual se designan eventos y entidades. También debe publicar información consolidada sobre la lista de designación de forma regular, incluida la cantidad total de entidades en cada nivel de la lista, así como la cantidad de entidades que se agregaron o eliminaron en cada nivel el año pasado" ( Referencia a personas peligrosas designadas como "shaheed", recomendación n.º 4). Meta implementó parcialmente esta recomendación. En noviembre de 2024, Meta publicó información sobre cómo y por qué la empresa designa organizaciones o personas, y de qué manera y cuándo considerará su eliminación de la lista de personas y organizaciones peligrosas. Sin embargo, Meta no publicó datos sobre la cantidad total de entidades dentro de cada nivel en la lista y cuántas se eliminaron de ella.

El Consejo también emitió una recomendación enfocada en la aplicación de políticas automática y le pidió a Meta "implementar un procedimiento de auditoría interna para analizar de forma constante una muestra estadísticamente representativa de las decisiones automatizadas de eliminación de contenido que deban revertirse a fin de aprender de los errores de la aplicación de políticas" (caso Síntomas de cáncer de mama y desnudos, recomendación n.º 5). El Consejo considera que Meta no abordó esta recomendación, dado que la empresa la agrupó con la recomendación n.º 1 del mismo caso, en la que se le pedía que "mejore la detección automatizada de imágenes con superposiciones de texto para garantizar que las publicaciones que generan conciencia sobre los síntomas del cáncer de mama no se marquen erróneamente para su revisión". Si bien Meta informó mejoras en la detección automatizada de imágenes, la empresa no llevó a cabo el procedimiento de auditoría interno que detalla el Consejo en la recomendación n.º 5 ( actualización de Meta del segundo y el tercer trimestre de 2021 sobre el Consejo asesor de contenido, pág. 32).

La reiterada aplicación excesiva de la política de personas y organizaciones peligrosas de la empresa, conforme se señala en decisiones resumidas anteriores (p. ej., Enlace a un artículo de Wikipedia sobre Hayat Tahrir al-Sham, Mención de Al-Shabaab, Líder anticolonial Amílcar Cabral), socava la capacidad de los usuarios de compartir noticias en las plataformas de Meta. El Consejo considera que la implementación completa de estas recomendaciones mencionadas fortalecería la capacidad de la empresa de mejorar la precisión de la aplicación de políticas y de proteger mejor la expresión de los usuarios. Asimismo, compartir información adicional sobre la designación de entidades aumentaría la transparencia general y generaría colaboraciones con Meta que tienen el potencial de conducir a otras mejoras.

Decisión

El Consejo anuló las decisiones originales de Meta de eliminar los dos contenidos. El Consejo confirmó que Meta corrigió sus errores iniciales después de haberle remitido los casos.

Volver a Decisiones de casos y opiniones consultivas sobre políticas