Anulado
Inundaciones en Libia
27 de febrero de 2024
Un usuario apeló la decisión de Meta de eliminar una publicación de Facebook sobre las recientes inundaciones en Libia. Este caso expone la sobreaplicación de la política de personas y organizaciones peligrosas de la empresa.
Esta es una decisión resumida. Las decisiones resumidas examinan casos en los que Meta revirtió su decisión original sobre un contenido después de que el Consejo le remitiera el caso a la empresa. Estas decisiones incluyen información sobre los errores reconocidos por Meta e informan al púbico sobre el impacto del trabajo del Consejo. Un panel de miembros del Consejo las aprueba, pero no todo el Consejo. No abarcan el proceso de comentarios del público ni tienen un valor de precedente para el Consejo. Las decisiones resumidas aportan transparencia a las correcciones de Meta y destacan áreas en las que la empresa podría mejorar la aplicación de políticas.
Resumen del caso
Un usuario apeló la decisión de Meta de eliminar una publicación de Facebook sobre las recientes inundaciones en Libia. En septiembre de 2023, devastadoras inundaciones arrasaron el noreste de Libia tras el paso de la tormenta Daniel y el desmoronamiento de dos represas. Se eliminó un video en apoyo a las víctimas de las inundaciones, en especial a las de la ciudad de Derna, por infringir la política de personas y organizaciones peligrosas de Meta. Este caso expone una sobreaplicación de la política de personas y organizaciones peligrosas de la empresa, que repercute de manera negativa en la libertad de los usuarios de expresar solidaridad y empatía en situaciones difíciles. Después de que el Consejo le remitiera la apelación a Meta, la empresa revirtió su decisión original y restauró la publicación.
Descripción y contexto del caso
En septiembre de 2023, un usuario de Facebook publicó un video que incluía dos imágenes sin descripción. En la imagen de fondo se veían dos personas en uniformes militares con insignias. Una de las insignias tenía texto en árabe que decía: "Brigada de combate 444". Esta imagen se superponía a la segunda, que mostraba a dos personas sacando a otra de un cuerpo de agua. Las personas a los costados tenían las palabras en árabe "oeste" y "sur" en el pecho, mientras que quien estaba en el medio tenía la palabra "este".
En agosto de 2023, se desataron conflictos armados en Trípoli entre la Brigada de combate 444 y la Fuerza Especial de Disuasión. Estos son dos de los grupos militares que se disputan el poder desde la caída de Muammar Gaddafi en 2011. En sus comentarios al Consejo, el usuario indicó que publicó el video para aclarar que Libia era "una unidad de personas" con "un ejército" en respaldo de la ciudad nororiental de Derna luego de las inundaciones a causa del derrumbe de unas represas tras el paso de la tormenta Daniel en septiembre de 2023.
Inicialmente, Meta eliminó la publicación de Facebook citando su política de personas y organizaciones peligrosas.
Después de que el Consejo remitiera este caso a Meta, la empresa determinó que su eliminación fue incorrecta y restauró el contenido en Facebook. La empresa le dijo al Consejo que el contenido no incluía referencias a una organización o persona designada y, por lo tanto, no infringía las políticas de Meta.
Autoridad y alcance del Consejo
El Consejo tiene la facultad para revisar la decisión de Meta tras la apelación de un usuario cuyo contenido se eliminó (artículo 2, sección 1, del acta constitutiva; artículo 3, sección 1, de los estatutos).
Cuando Meta reconoce que cometió un error y revierte su decisión en un caso en consideración para la revisión del Consejo, el Consejo puede seleccionar ese caso para una decisión resumida (artículo 2, sección 2.1.3, de los estatutos). El Consejo revisa la decisión original para entender mejor los procesos de moderación de contenido empleados, reducir los errores y ser más justo con los usuarios de Facebook e Instagram.
Importancia del caso
Este caso expone la sobreaplicación de la política de personas y organizaciones peligrosas de Meta, incluido por medio de sistemas automatizados, que puede repercutir de manera negativa en la libertad de expresión de los usuarios a la hora de compartir comentarios sobre acontecimientos actuales en las plataformas de Meta.
En el caso Aislamiento de Öcalan, el Consejo recomendó a Meta que "evalúe los procesos de moderación automática en lo que respecta a la aplicación de la política de personas y organizaciones peligrosas" (recomendación n.º 2). Meta informó que no tomaría medida alguna con respecto a esta recomendación porque "las pautas de aplicación de políticas en este caso no contribuyen directamente al desempeño de la aplicación automática de políticas".
En cuanto a la automatización, el Consejo instó a Meta a implementar un proceso de auditoría interno para analizar de forma constante una muestra estadísticamente representativa de las decisiones automatizadas de eliminación que deban revertirse a fin de aprender de los errores del sistema de aplicación de políticas (Síntomas de cáncer de mama y desnudos, recomendación n.º 5). Meta informó que está implementando esta recomendación, pero aún no publicó información para demostrar su implementación completa. Al cuarto trimestre de 2022, Meta informó "haber completado el lanzamiento mundial de mensajes nuevos y más específicos que permiten a las personas saber si su contenido se eliminó de Facebook tras someterse a revisión automática o a revisión manual", pero no proporcionó información que lo evidencie. En la misma decisión, el Consejo también recomendó que Meta "expanda los informes de transparencia para divulgar datos sobre la cantidad de decisiones de eliminación automatizadas por norma comunitaria y la proporción de dichas decisiones que se revirtieron posteriormente tras la revisión manual" (Síntomas de cáncer de mama y desnudos, recomendación n.º 6). Al tercer trimestre de 2023, Meta informó que estaba estableciendo una metodología de cálculo coherente para dichas métricas. En el caso Inquietud punyabí en torno a la RSS en la India, el Consejo instó a Meta a "mejorar sus informes de transparencia para aumentar la información pública relativa a la tasa de errores. Para ello, debería incluir esta información por país e idioma para cada norma comunitaria" (recomendación n.º 3). Al tercer trimestre de 2023, Meta informó estar trabajando para definir sus métricas de precisión, junto con su labor en cuanto a la recomendación n.º 6 del caso Síntomas de cáncer de mama y desnudos.
El Consejo reiteró que la implementación total de sus recomendaciones anteriores permitirá reducir los errores de aplicación de políticas conforme a la política de personas y organizaciones peligrosas, lo que disminuirá la cantidad de usuarios cuya libertad de expresión se vea afectada por la eliminación errónea de contenido.
Decisión
El Consejo anuló la decisión original de Meta de eliminar el contenido. El Consejo confirma que Meta corrigió su error inicial después de haberle remitido el caso. El Consejo destaca que la adopción total de estas recomendaciones, junto con la información publicada que demuestre su exitosa aplicación, podrían reducir la cantidad de errores en la aplicación de políticas conforme a la política de personas y organizaciones peligrosas en las plataformas de Meta.
Volver a Decisiones de casos y opiniones consultivas sobre políticas