Anulado
Caricatura de golpe militar en Níger
8 de diciembre de 2023
Un usuario apeló la decisión de Meta de eliminar una publicación de Facebook sobre el golpe militar en Níger.
Esta es una decisión resumida. Las decisiones resumidas examinan casos en los que Meta revirtió su decisión original sobre un contenido después de que el Consejo le remitiera el caso a la empresa. Estas decisiones incluyen información sobre los errores reconocidos de Meta. Un panel de miembros del Consejo las aprueba, pero no todo el Consejo. No abarcan el proceso de comentarios del público ni tienen un valor de precedente para el Consejo. Las decisiones resumidas aportan transparencia a las correcciones de Meta y destacan áreas en las que la empresa podría mejorar la aplicación de políticas.
Resumen del caso
Un usuario apeló la decisión de Meta de eliminar una publicación de Facebook sobre el golpe militar en Níger. En este caso se hace hincapié en errores en la moderación de contenido de Meta, incluidos sus sistemas automatizados para detectar lenguaje que incita al odio. Después de que el Consejo le remitiera la apelación a Meta, la empresa revirtió su decisión original y restauró la publicación.
Descripción y contexto del caso
En julio de 2023, un usuario de Facebook en Francia publicó una caricatura de una bota militar con la etiqueta "Níger" pateando a una persona que llevaba un sombrero y un vestido rojos. En el vestido podía visualizarse el contorno geográfico de África. A principios de ese mismo mes, se produjo un golpe militar en Níger. El general Abdourahamane Tchiani, con la ayuda de la guardia presidencial que encabezaba, desafió al presidente Mohamed Bazoum y se autodeclaró líder del país.
Originalmente, Meta eliminó la publicación de Facebook en virtud de su política sobre lenguaje que incita al odio, según la cual la empresa elimina contenido que incluye ataques contra personas sobre la base de una característica protegida, incluidas algunas representaciones de violencia contra estos grupos.
Después de que el Consejo remitiera este caso a Meta, la empresa determinó que el contenido no infringía su política sobre lenguaje que incita al odio y admitió que la eliminación fue incorrecta. Seguidamente, la empresa restauró el contenido en Facebook.
Autoridad y alcance del Consejo
El Consejo tiene la facultad para revisar la decisión de Meta tras una apelación de la persona cuyo contenido se eliminó (artículo 2, sección 1, del acta constitutiva; artículo 3, sección 1, de los estatutos).
Cuando Meta reconoce que cometió un error y revierte su decisión en un caso en consideración para la revisión del Consejo, el Consejo puede seleccionar ese caso para una decisión resumida (artículo 2, sección 2.1.3, de los estatutos). El Consejo revisa la decisión original para entender mejor los procesos de moderación de contenido, reducir los errores y ser más justo con los usuarios de Facebook e Instagram.
Importancia del caso
Este caso deja en descubierto imprecisiones en los sistemas de moderación de Meta que detectan lenguaje que incita al odio. El Consejo recomendó mejorar la automatización y la transparencia e instó a Meta a implementar un proceso de auditoría interno para analizar de forma constante una muestra estadísticamente representativa de las decisiones automatizadas de eliminación que deban revertirse a fin de aprender de los errores del sistema de aplicación de políticas (decisión del caso Síntomas de cáncer de mama y desnudos, recomendación n.º 5). Meta informó que está implementando esta recomendación, pero aún no publicó información para demostrar su implementación.
Decisión
El Consejo anuló la decisión original de Meta de eliminar el contenido. El Consejo confirma que Meta corrigió su error inicial después de haberle remitido el caso. Asimismo, el Consejo insta a Meta a acelerar la implementación de recomendaciones aún abiertas para reducir dichos errores.
Volver a Decisiones de casos y opiniones consultivas sobre políticas