Decisión de casos múltiples

Mención de Al Shabaab

En esta decisión resumida, el Consejo revisó dos publicaciones relacionadas con el grupo terrorista Al Shabaab.

2 casos incluidos en el paquete

Anulado

FB-41ERXHF1

Caso sobre personas y organizaciones peligrosas en Facebook

Plataforma
Facebook
Tema
Guerras y conflictos
Estándar:
Personas y organizaciones peligrosas
Ubicación
Somalia
Date
Publicado el 22 de noviembre de 2023
Anulado

FB-XP5K3L52

Caso sobre personas y organizaciones peligrosas en Facebook

Plataforma
Facebook
Tema
Guerras y conflictos
Estándar:
Personas y organizaciones peligrosas
Ubicación
Somalia
Date
Publicado el 22 de noviembre de 2023

Esta es una decisión resumida. Las decisiones resumidas examinan casos en los que Meta revirtió su decisión original sobre un contenido después de que el Consejo le remitiera el caso a la empresa. Estas decisiones incluyen información sobre los errores reconocidos por Meta e informan al púbico sobre el impacto del trabajo del Consejo. Un panel de miembros del Consejo las aprueba, pero no todo el Consejo. No abarcan el proceso de comentarios del público ni tienen un valor de precedente para el Consejo. Las decisiones resumidas aportan transparencia a las correcciones de Meta y destacan áreas en las que la empresa podría mejorar la aplicación de políticas.

Resumen del caso

En esta decisión resumida, el Consejo revisó dos publicaciones relacionadas con el grupo terrorista Al Shabaab. Después de que el Consejo le remitiera estas dos apelaciones a Meta, la empresa revirtió sus decisiones originales y restauró ambas publicaciones.

Descripción y contexto del caso

Para el primer caso, en julio de 2023, un usuario de Facebook, que parece ser un canal de noticias, publicó una foto en la que se mostraba un arma y equipo militar en el suelo a los pies de soldados con un texto que decía que las "fuerzas gubernamentales somalíes" y los "residentes" habían llevado a cabo una operación militar y habían matado a fuerzas de Al Shabaab en la región de Mudug en Somalia.

Para el segundo caso, también en julio de 2023, un usuario de Facebook publicó dos imágenes con un texto. En la primera imagen, se mostraba una mujer pintando de color negro una columna azul. En la segunda imagen, se veía un emblema negro de Al Shabaab pintado sobre la columna. El texto decía: "los terroristas que solían esconderse salieron de sus madrigueras y el mundo finalmente los vio".

Harakat Al Shabaab Al Mujahideen, popularmente conocido como Al Shabaab (la juventud, en árabe), es un grupo terrorista islámico vinculado con Al Qaeda que trabaja para derrocar al Gobierno somalí. El grupo opera principalmente en Somalia y llevó a cabo varios ataques en países fronterizos.

Meta originalmente eliminó la publicación de Facebook citando su política sobre personas y organizaciones peligrosas, de acuerdo con la cual la empresa elimina contenido que "exalta", "apoya de manera sustancial" o "representa" personas u organizaciones que la empresa designa como peligrosas. Sin embargo, en la política se reconoce que "los usuarios pueden compartir contenido que incluya referencias a personas y organizaciones peligrosas designadas con el fin de reportarlas, condenarlas o hablar sobre ellas o sus actividades en un tono neutral".

En su apelación al Consejo, ambos usuarios argumentaron que su contenido no infringía las Normas comunitarias de Meta. El usuario en el primer caso describió su cuenta como un canal de noticias y afirmó que la publicación era una noticia sobre la operación del Gobierno contra el grupo terrorista Al Shabaab. El usuario en el segundo caso afirmó que el objetivo de la publicación era informar y generar conciencia sobre las actividades de Al Shabaab y condenarlas.

Después de que el Consejo remitiera estos dos casos a Meta, la empresa determinó que las publicaciones no infringían sus políticas. Si bien las publicaciones hacen referencia a Al Shabaab, una organización peligrosa designada, no la exaltan, sino que, por el contrario, informan sobre sus acciones y condenan el grupo. Meta concluyó que su eliminación inicial fue incorrecta, ya que las publicaciones eran excepciones a la política sobre personas y organizaciones peligrosas, por lo que restauró ambos contenidos en la plataforma.

Autoridad y alcance del Consejo

El Consejo tiene la facultad para revisar la decisión de Meta tras la apelación de un usuario cuyo contenido se eliminó (artículo 2, sección 1, del acta constitutiva; artículo 3, sección 1, de los estatutos).

Cuando Meta reconoce que cometió un error y revierte su decisión en un caso en consideración para la revisión del Consejo, el Consejo puede seleccionar ese caso para una decisión resumida (artículo 2, sección 2.1.3, de los estatutos). El Consejo revisa la decisión original para entender mejor el proceso de moderación de contenido, para reducir los errores y para ser más justo con las personas que usan Facebook e Instagram.

Importancia del caso

Estos casos destacan una sobreaplicación de la política de Meta sobre personas y organizaciones peligrosas en un país que experimenta un conflicto armado y ataques terroristas. Este tipo de error socava las iniciativas genuinas de condenar, reportar y generar conciencia sobre organizaciones terroristas, incluidos presuntos abusos de los derechos humanos y atrocidades cometidas por dichos grupos.

Anteriormente, el Consejo emitió varias recomendaciones relacionadas con la política de Meta sobre personas y organizaciones peligrosas. Estas incluían recomendaciones para "evaluar la precisión de los revisores al aplicar la concesión para informes periodísticos correspondiente a la política sobre personas y organizaciones peligrosas, a fin de identificar problemas sistémicos que causen errores en la aplicación", sobre las cuales Meta mostró progreso en su implementación ("Mención de los talibanes en los informes de noticias", recomendación n.º 5). El Consejo también recomendó a Meta "agregar criterios y ejemplos ilustrativos a la política de Meta sobre personas y organizaciones peligrosas para mejorar la comprensión de las excepciones, específicamente, en torno a los debates y los informes de noticias neutrales". Meta demostró que implementó esta recomendación mediante información publicada ("Publicación compartida de Al Jazeera", recomendación n.º 1). Además, el Consejo recomendó a Meta "implementar un proceso de auditoría interno para analizar de forma constante una muestra estadísticamente representativa de las decisiones automatizadas de eliminación de contenido que deban revertirse a fin de aprender de los errores del sistema de cumplimiento de normas" (Síntomas de cáncer de mama y desnudos, recomendación n.º 5). Meta describió esta recomendación como una tarea que ya realiza, pero no publicó información que demuestre la implementación.

Decisión

El Consejo anuló las decisiones originales de Meta de eliminar los contenidos. El Consejo confirmó que Meta corrigió su error inicial después de haberle remitido estos casos.

Volver a Decisiones de casos y opiniones consultivas sobre políticas