Anulado

Educación de las niñas en Afganistán

Un usuario apeló la decisión de Meta de eliminar una publicación de Facebook en la que se debatía la importancia de educar a las niñas en Afganistán.

Tipo de decisión

Resumen

Políticas y temas

Tema
Discriminación, Igualdad de sexo y género, Niños y derechos de los niños
Estándar comunitario
Personas y organizaciones peligrosas

Regiones/Países

Ubicación
Afganistán

Plataforma

Plataforma
Facebook

Esta es una decisión resumida. Las decisiones resumidas examinan casos en los que Meta revirtió su decisión original sobre un contenido después de que el Consejo le remitiera el caso a la empresa. Estas decisiones incluyen información sobre los errores reconocidos de Meta. Un panel de miembros del Consejo las aprueba, pero no todo el Consejo. No abarcan el proceso de comentarios del público ni tienen un valor de precedente para el Consejo. Las decisiones resumidas aportan transparencia a las correcciones de Meta y destacan áreas en las que la empresa podría mejorar la aplicación de políticas.

Resumen del caso

Un usuario apeló la decisión de Meta de eliminar una publicación de Facebook en la que se debatía la importancia de educar a las niñas en Afganistán. Este caso pone de manifiesto un error de la empresa en la aplicación de la política sobre personas y organizaciones peligrosas. Después de que el Consejo le remitiera la apelación a Meta, la empresa revirtió su decisión original y restauró la publicación.

Descripción y contexto del caso

En julio de 2023, un usuario de Facebook en Afganistán publicó texto en pastún en donde se describía la importancia de educar a las niñas en Afganistán. El usuario instó a las personas a seguir planteando sus preocupaciones y remarcó las consecuencias de no exponérselas a los talibanes. El usuario también manifestó que impedir a las niñas acceso a la educación será una pérdida para la nación.

Meta originalmente eliminó la publicación de Facebook citando su política sobre personas y organizaciones peligrosas, de acuerdo con la cual la empresa elimina contenido que "exalta", "apoya de manera sustancial" o "representa" personas u organizaciones que la empresa designa como peligrosas, incluido los talibanes. La política permite contenido que debate sobre una organización o una persona peligrosa de una manera neutral o que condena sus acciones.

Después de que el Consejo remitiera este caso a Meta, la empresa determinó que el contenido no infringía la política sobre personas y organizaciones peligrosas, y admitió que la eliminación de la publicación fue incorrecta. Seguidamente, la empresa restauró el contenido.

Autoridad y alcance del Consejo

El Consejo tiene la facultad para revisar la decisión de Meta tras una apelación de la persona cuyo contenido se eliminó (artículo 2, sección 1, del acta constitutiva; artículo 3, sección 1, de los estatutos).

Cuando Meta reconoce que cometió un error y revierte su decisión en un caso en consideración para la revisión del Consejo, el Consejo puede seleccionar ese caso para una decisión resumida (artículo 2, sección 2.1.3, de los estatutos). El Consejo revisa la decisión original para entender mejor los procesos de moderación de contenido, reducir los errores y ser más justo con los usuarios de Facebook e Instagram.

Importancia del caso

Este caso pone de manifiesto errores de Meta en la aplicación de la política sobre personas y organizaciones peligrosas, que pueden perjudicar la capacidad de los usuarios de compartir comentarios políticos en las plataformas de Meta. Aquí se trató específicamente de un debate sobre la educación de las mujeres en Afganistán luego de la toma del poder de los talibanes.

En un caso anterior, el Consejo recomendó a Meta "agregar criterios y ejemplos ilustrativos a su política sobre personas y organizaciones peligrosas para conocer mejor las excepciones del debate neutral, la condena y los informes de noticias" (decisión sobre el caso Publicación compartida de Al Jazeera, recomendación n°. 1). Meta informó en su actualización trimestral del segundo trimestre de 2023 que esta recomendación se había implementado por completo. Asimismo, el Consejo recomendó a Meta "implementar un proceso de auditoría interno para analizar de forma constante una muestra estadísticamente representativa de las decisiones automatizadas de eliminación de contenido que deban revertirse a fin de aprender de los errores de la aplicación de políticas" (decisión sobre el caso Síntomas de cáncer de mama y desnudos, recomendación n.º 5). Meta informó que está implementando esta recomendación, pero aún no publicó información para demostrar su implementación.

Decisión

El Consejo anuló la decisión original de Meta de eliminar el contenido. El Consejo confirma que Meta corrigió su error inicial después de haberle remitido el caso. Asimismo, el Consejo insta a Meta a acelerar la implementación de recomendaciones aún abiertas para reducir dichos errores.

Volver a Decisiones de casos y opiniones consultivas sobre políticas