El Consejo asesor de contenido anuló la decisión de Meta en el caso cautivo en video de las Fuerzas de Apoyo Rápido de Sudán

El Consejo asesor de contenido anuló la decisión original de Meta de conservar un video en el que se veía a hombres armados de las Fuerzas de Apoyo Rápido (FAR) de Sudán deteniendo a una persona en la parte trasera de un vehículo militar. El video infringe las normas comunitarias sobre personas y organizaciones peligrosas y sobre organización de actos dañinos y promoción de la delincuencia. Al Consejo le preocupa que Meta no haya eliminado con la rapidez suficiente el contenido, que muestra a un prisionero de guerra e incluye apoyo a un grupo que la empresa designó como peligroso. Esto indica que hay otros inconvenientes respecto de la eficacia con que se aplican políticas de contenido durante conflictos armados y cómo se revisa el contenido que devela ("expone") la identidad de un prisionero de guerra. El Consejo insta a Meta a desarrollar una solución escalable para identificar de forma proactiva el contenido que expone a prisioneros de guerra durante un conflicto armado.

Información sobre el caso

El 27 de agosto de 2023, un usuario de Facebook publicó un video en el que se veía a hombres armados en Sudán deteniendo a una persona en la parte trasera de un vehículo militar. Un hombre que habla árabe se identifica como miembro de las FAR y afirma que el grupo capturó a un extranjero, probablemente un combatiente asociado con las Fuerzas Armadas de Sudán (FAS). El hombre continúa diciendo que entregarán a esta persona a los líderes de las FAR, y que la intención es encontrar y capturar a los dirigentes de las FAS, así como a todos los colaboradores extranjeros de este grupo en Sudán. El video incluye comentarios insultantes sobre ciudadanos extranjeros y líderes de otros países que respaldan las FAS, mientras que la descripción que lo acompaña en árabe dice: "sabemos que hay extranjeros que luchan codo a codo con las diabólicas brigadas de la Hermandad".

En abril de 2023, se desató un conflicto armado en Sudán entre el grupo paramilitar FAR y las FAS, que es la fuerza militar oficial del Gobierno. Aproximadamente 7,3 millones de personas fueron desplazadas debido al conflicto y más de 25 millones quedaron expuestas a inseguridad alimentaria. Las organizaciones de derechos humanos sudanesas denunciaron que las FAR detuvieron a más de 5.000 personas, que quedaron cautivas en condiciones inhumanas. Se denuncia que ambos extremos cometieron crímenes de guerra y delitos de lesa humanidad. Meta designó a las FAR en virtud de su norma comunitaria sobre personas y organizaciones peligrosas.

Poco tiempo después de que se publicara el video, tres usuarios de Facebook reportaron el contenido, pero, como la puntuación de gravedad (probabilidad de infringir las Normas comunitarias) y viralidad (cantidad de visualizaciones) eran bajas, no se priorizó para remitirlo a revisión manual y se conservó en la plataforma. Uno de los usuarios presentó una apelación, pero el reporte se cerró debido a las políticas de automatización del COVID-19 de Meta. El mismo usuario, entonces, presentó una apelación ante el Consejo asesor de contenido. Luego de que el Consejo remitiera el caso a Meta, la empresa eliminó la publicación de Facebook en virtud de la norma comunitaria sobre personas y organizaciones peligrosas, y aplicó también una norma y una falta grave al perfil de la persona que publicó el video.

Conclusiones principales

El contenido infringe la norma comunitaria sobre personas y organizaciones peligrosas de Meta porque muestra apoyo a un grupo que la empresa designó como organización peligrosa de Nivel 1, específicamente por "canalizar información o recursos, incluidas comunicaciones oficiales" en nombre de la organización. El hombre que habla en el video se identifica como parte de las FAR, describe sus actividades, habla sobre las medidas que está tomando el grupo y nombra directamente al comandante, Mohamed Hamdan Dagalo. Para el Consejo, es necesario y proporcionado eliminar este contenido, que incluye amenazas a todo aquel que se oponga o desafíe a las FAR.

En decisiones anteriores, el Consejo destacó su preocupación respecto de la falta de transparencia de la lista de personas y organizaciones designadas de Meta. Dada la situación en Sudán, donde las FAR tienen influencia o control de facto sobre partes del país, la población civil que recurre a Facebook, incluidos a los canales de comunicación de las FAR, en busca de seguridad crítica e información humanitaria podría correr mayor riesgo debido a las restricciones impuestas sobre dichos canales.

Asimismo, el Consejo considera que este contenido infringe la política de organización de actos dañinos y promoción de la delincuencia porque muestra a un hombre capturado cuya identidad queda totalmente expuesta y a quien se describe como "prisionero extranjero" asociado con las FAS. La política de Meta no admite que la identidad de un prisionero de guerra quede expuesta durante un conflicto armado. Es necesario eliminar el video dadas las reglas específicas del derecho internacional humanitario que exige proteger a los detenidos en un conflicto armado. Al Consejo le preocupa que este contenido no se identificó ni eliminó por infringir la regla de Meta que prohíbe exponer a prisioneros de guerra. Esta ineficacia a la hora de aplicar políticas se debe probablemente a que esta regla actualmente se impone solo en el escalamiento, lo que significa que los revisores que moderan contenido a escala no pueden tomar medidas por sí mismos. De hecho, la regla únicamente se puede aplicar si los equipos solo de escalamiento de Meta toman conocimiento de ella a través de otros medios, como socios de confianza o contenido con mucha cobertura de prensa.

Por último, al Consejo también le preocupa que Meta no eliminó este contenido de inmediato ni poco después de haberse publicado. Los sistemas automatizados de Meta no lograron identificar una infracción correctamente en este video, lo que indica que hay un problema más grande de aplicación de políticas. El Consejo considera que se deben realizar cambios para permitir que más contenido que respalda a organizaciones peligrosas se envíe a revisión manual cuando se relaciona con conflictos armados.

Decisión del Consejo asesor de contenido

El Consejo asesor de contenido anuló la decisión original de Meta de conservar el video.

El Consejo le recomendó a Meta:

  • Desarrollar una solución escalable para aplicar la política de organización de actos dañinos y promoción de la delincuencia que prohíbe exponer a prisioneros de guerra en el contexto de un conflicto armado. Debe haber un equipo especializado que priorice e identifique de forma proactiva dicho tipo de contenido.
  • Auditar los datos de entrenamiento utilizados en su clasificador de interpretación de contenido de video para evaluar si cuenta con una cantidad suficiente de ejemplos diversos de contenido que respalda a organizaciones peligrosas en el contexto de conflictos armados, incluidos diferentes idiomas, dialectos, regiones y conflictos.
  • Incluir un hipervínculo a las listas de organizaciones terroristas extranjeras y de terroristas internacionales especialmente designados de los Estados Unidos en sus Normas comunitarias, en las que se mencionan dichas listas.

Más información

Para leer la decisión completa del caso, haz clic aquí.

Para leer una sinopsis de los comentarios del público sobre el caso, haz clic aquí.

Volver a Noticias