Anulado
Eliminación relacionada con Azov
8 de diciembre de 2023
Un usuario apeló la decisión de Meta de eliminar una publicación de Instagram en la que se planteaba la pregunta en ucraniano "¿Dónde está Azov?". La descripción de la publicación insta a la liberación de los soldados del regimiento Azov que cayeron en manos de Rusia.
Esta es una decisión resumida. Las decisiones resumidas examinan casos en los que Meta revirtió su decisión original sobre un contenido después de que el Consejo le remitiera el caso a la empresa. Estas decisiones incluyen información sobre los errores reconocidos de Meta. Un panel de miembros del Consejo las aprueba, pero no todo el Consejo. No abarcan el proceso de comentarios del público ni tienen un valor de precedente para el Consejo. Las decisiones resumidas aportan transparencia a las correcciones de Meta y destacan áreas en las que la empresa podría mejorar la aplicación de políticas.
Resumen del caso
Un usuario apeló la decisión de Meta de eliminar una publicación de Instagram en la que se planteaba la pregunta en ucraniano "¿Dónde está Azov?". La descripción de la publicación insta a la liberación de los soldados del regimiento Azov que cayeron en manos de Rusia. Después de que el Consejo le remitiera la apelación a Meta, la empresa revirtió su decisión original y restauró la publicación.
Descripción y contexto del caso
En diciembre de 2022, un usuario de Instagram creó una publicación con la imagen del símbolo del regimiento Azov. Superpuesto al símbolo estaba el texto en ucraniano "¿Dónde está Azov?". La descripción indicaba que más de 700 soldados de Azov permanecen cautivos en manos de los rusos y se desconoce su estado. El usuario insta a que se los libere y dice: "debemos gritar hasta que liberen a los soldados de Azov".
El usuario apeló la eliminación de la publicación e hizo hincapié en la importancia de compartir información durante épocas de guerra. Asimismo, manifestó que el contenido no infringía las políticas de Meta, dado que Meta admite contenido en el que se habla sobre el regimiento Azov. La publicación se vio casi 800 veces y la detectaron los sistemas automatizados de Meta.
Meta originalmente eliminó la publicación de Facebook citando su política sobre personas y organizaciones peligrosas, que prohíbe el contenido que "exalta", "apoya sustancialmente" o "representa" personas y organizaciones que Meta designa como peligrosas. Sin embargo, Meta permite "conversaciones sobre los derechos humanos de individuos designados o miembros de entidades peligrosas designadas, salvo que el contenido incluya exaltación, apoyo sustancial o representación de entidades designadas u otras infracciones de políticas, como incitación a la violencia".
Meta le indicó al Consejo que eliminó al regimiento Azov de su lista de personas y organizaciones peligrosas en enero de 2023. Un artículo del Washington Postmanifiesta que, ahora, Meta establece una distinción entre el regimiento Azov, que se considera bajo control formal del Gobierno ucraniano, y otros elementos del movimiento Azov más general, algunos de los cuales la empresa considera como nacionalistas de extrema derecha y sigue designando como peligrosos.
Después de que el Consejo remitiera este caso a Meta, la empresa determinó que su eliminación fue incorrecta y restauró el contenido en Instagram. La empresa confirmó que el regimiento Azov ya no se designa como una organización peligrosa. Asimismo, Meta reconoció que, pese a la designación del regimiento Azov, esta publicación recae en la excepción que permite referencias a personas y organizaciones peligrosas cuando se debate sobre los derechos humanos de individuos y miembros de entidades designadas.
Autoridad y alcance del Consejo
El Consejo tiene la facultad para revisar la decisión de Meta tras una apelación de la persona cuyo contenido se eliminó (artículo 2, sección 1, del acta constitutiva; artículo 3, sección 1, de los estatutos).
Cuando Meta reconoce que cometió un error y revierte su decisión en un caso en consideración para la revisión del Consejo, el Consejo puede seleccionar ese caso para una decisión resumida (artículo 2, sección 2.1.3, de los estatutos). El Consejo revisa la decisión original para entender mejor los procesos de moderación de contenido, reducir los errores y ser más justo con los usuarios de Facebook e Instagram.
Importancia del caso
Este caso pone de manifiesto las fallas en la actualización de la lista de personas y organizaciones peligrosas de Meta y su aplicación, que suscita otras preocupaciones más graves durante épocas de guerra. Asimismo, el caso ilustra los desafíos sistémicos que supone aplicar las excepciones a la política de personas y organizaciones peligrosas de Meta.
Anteriormente, el Consejo había emitido una recomendación en la que indicaba que la política de personas y organizaciones peligrosas de Meta debería permitir a los usuarios debatir presuntos abusos de derechos humanos de miembros de organizaciones peligrosas (decisión del caso Aislamiento de Öcalan, recomendación n.º 5), que Meta se comprometió a implementar. Asimismo, el regimiento Azov se eliminó de la lista de personas y organizaciones peligrosas de Meta en enero de 2023. El Consejo emitió una recomendación que indica que, cuando se adopta una nueva política, es necesario proporcionar pautas internas y capacitación a los moderadores de contenido (decisión del caso Aislamiento de Öcalan, recomendación n.º 8). El Consejo también realizó recomendaciones sobre la precisión en la aplicación de las políticas de Meta, e instó a una mayor transparencia en cuanto a las tasas de errores de aplicación de políticas respecto de la "exaltación" y el "apoyo" de personas y organizaciones peligrosas (decisión del caso Aislamiento de Öcalan recomendación n.º 12), y a la implementación de un procedimiento de auditoría interna que permita aprender de errores anteriores en la aplicación automatizada de políticas (decisión del caso Síntomas de cáncer de mama y desnudos, recomendación n.º 5). Si Meta implementara por completo estas recomendaciones, reduciría la cantidad de errores de moderación de contenido similares.
Decisión
El Consejo anuló la decisión original de Meta de eliminar el contenido. El Consejo confirma que Meta corrigió su error inicial después de haberle remitido el caso.
Volver a Decisiones de casos y opiniones consultivas sobre políticas