Anulado
Protesta en Siria
27 de febrero de 2024
Un usuario de Instagram apeló la decisión de Meta de eliminar un video que motivaba a la población siria a resistirse contra el régimen de Bashar al-Assad. Después de que el Consejo le remitiera la apelación a Meta, la empresa revirtió su decisión original y restauró la publicación.
Esta es una decisión resumida. Las decisiones resumidas examinan casos en los que Meta revirtió su decisión original sobre un contenido después de que el Consejo le remitiera el caso a la empresa. Estas decisiones incluyen información sobre los errores reconocidos por Meta e informan al púbico sobre el impacto del trabajo del Consejo. Un panel de miembros del Consejo las aprueba, pero no todo el Consejo. No tienen en cuenta los comentarios del público ni tienen un valor de precedente para el Consejo. Las decisiones resumidas aportan transparencia a las correcciones de Meta y destacan áreas en las que la empresa podría mejorar la aplicación de políticas.
Resumen del caso
Un usuario de Instagram apeló la decisión de Meta de eliminar un video que motivaba a la población siria a resistirse contra el régimen de Bashar al-Assad. Después de que el Consejo le remitiera la apelación a Meta, la empresa revirtió su decisión original y restauró la publicación.
Descripción y contexto del caso
En agosto de 2023, un usuario de Instagram publicó un video que mostraba a Abdul Baset al-Sarout, un jugador de fútbol sirio, activista y símbolo público de oposición al presidente del país, Bashar al-Assad. Sarout fue asesinado en 2019. En el video, se escucha a Sarout decir en árabe: "Tenemos un barrio liberado en Siria, somos un estorbo para este régimen, regresaremos a este barrio" y "la revolución continúa", motivando a la población siria a resistirse contra el régimen de Bashar al-Assad. El video se visualizó unas 30.000 veces.
La publicación de Instagram se eliminó por infringir la política de personas y organizaciones peligrosas de Meta, que prohíbe la representación de grupos y personas que la empresa considera que se vinculan a daños significativos en la vida real, así como cierto discurso sobre ellos.
En su apelación ante el Consejo, el usuario describió su cuenta como una página sin fines de lucro "dedicada a difundir información y generar conciencia". Asimismo, argumentó que el contenido no infringía las normas de Instagram.
Luego de que el Consejo remitiera este caso a Meta, la empresa determinó que el contenido no incluía referencias a una organización o persona designada y no infringía sus políticas. La empresa restauró el contenido en la plataforma.
Autoridad y alcance del Consejo
El Consejo tiene la facultad para revisar la decisión de Meta tras la apelación de un usuario cuyo contenido se eliminó (artículo 2, sección 1, del acta constitutiva; artículo 3, sección 1, de los estatutos).
Cuando Meta reconoce que cometió un error y revierte su decisión en un caso en consideración para la revisión del Consejo, el Consejo puede seleccionar ese caso para una decisión resumida (artículo 2, sección 2.1.3, de los estatutos). El Consejo revisa la decisión original para entender mejor los procesos de moderación de contenido empleados, reducir los errores y ser más justo con los usuarios de Facebook e Instagram.
Importancia del caso
Este caso expone la eliminación errónea de contenido que no incluía referencias a personas u organizaciones designadas.
Para reducir los errores de aplicación de políticas en lugares en conflicto o cuyas circunstancias son delicadas, el Consejo recomendó a Meta que "mejore la capacidad asignada a la revisión del sistema HIPO (anulación de falsos positivos de alto impacto) en los diversos idiomas para garantizar que una mayor cantidad de decisiones de contenido que pueden deberse a errores de aplicación de políticas se sometan a revisión manual", implementación en la cual Meta informó haber hecho progresos (Mención de los talibanes en los informes de noticias, recomendación n.º 7). El Consejo también recomendó a Meta que "evalúe los procesos de moderación automática en lo que respecta a la aplicación de la política sobre personas y organizaciones peligrosas" (Aislamiento de Öcalan, recomendación n.º 2), que Meta rechazó.
Este caso pone de manifiesto la sobreaplicación de la política sobre personas y organizaciones peligrosas de Meta. Los casos del Consejo sugieren que los errores de este tipo ocurren con demasiada frecuencia La reducción de estos errores debería ser una prioridad fundamental para la empresa. La adopción total de estas recomendaciones, junto con la información publicada que demuestre su exitosa aplicación, podrían reducir la cantidad de eliminaciones incorrectas conforme a la política de personas y organizaciones peligrosas de Meta.
Decisión
El Consejo anuló la decisión original de Meta de eliminar el contenido. El Consejo confirmó que Meta corrigió su error inicial después de haberle remitido el caso.
Volver a Decisiones de casos y opiniones consultivas sobre políticas