Anulado

Enlace a un artículo de Wikipedia sobre Hayat Tahrir al-Sham

Un usuario apeló la decisión de Meta de eliminar una respuesta a un comentario de Facebook que incluía un enlace a un artículo de Wikipedia sobre Hayat Tahrir al-Sham (HTS). Después de que el Consejo le remitiera la apelación a Meta, la empresa revirtió su decisión original y restauró el contenido.

Tipo de decisión

Resumen

Políticas y temas

Tema
Gobiernos, Guerras y conflictos, Libertad de expresión
Estándar comunitario
Personas y organizaciones peligrosas

Regiones/Países

Ubicación
Siria

Plataforma

Plataforma
Facebook

Las decisiones resumidas analizan casos en los que Meta revirtió su decisión original sobre un contenido después de que el Consejo lo remitiera a la empresa e incluyen información sobre los errores que Meta reconoció. Estas decisiones son aprobadas por un panel de miembros del Consejo, no por todo el Consejo, no implican comentarios del público ni tienen valor de precedencia para el Consejo. Las decisiones resumidas traen aparejados cambios directos en las decisiones de Meta, ya que aportan transparencia respecto de estas correcciones, a la vez que permiten identificar en qué aspectos Meta podría mejorar la aplicación de sus políticas.

Resumen

Un usuario apeló la decisión de Meta de eliminar una respuesta a un comentario de Facebook que incluía un enlace a un artículo de Wikipedia sobre Hayat Tahrir al-Sham (HTS). Después de que el Consejo le remitiera la apelación a Meta, la empresa revirtió su decisión original y restauró el contenido.

Información sobre el caso

En diciembre de 2024, en medio de una ofensiva rebelde que condujo a la caída del régimen de Bashar al-Assad en Siria, un usuario de Facebook en Macedonia publicó que el expresidente sirio huía a Moscú. Otro usuario comentó con una cita en búlgaro en la que se refería a Hayat Tahrir al-Sham (HTS) como "Islamistas de Al-Qaeda". Un tercer usuario respondió entonces al comentario en búlgaro diciendo que este es uno de los grupos que logró la expulsión de Assad e incluyó un enlace a un artículo de Wikipedia sobre HTS.

Inicialmente, Meta eliminó la respuesta del tercer usuario de Facebook citando su política de personas y organizaciones peligrosas. Esta política prohíbe la "glorificación", el "apoyo" y la "representación" de entidades designadas, sus líderes, fundadores o miembros destacados, así como las referencias poco claras a ellos. No obstante, la política permite el debate neutral, que incluye "afirmaciones fácticas, comentarios y preguntas, así como otra información que no exprese una opinión positiva hacia organizaciones o personas peligrosas designadas y su comportamiento".

La apelación del tercer usuario ante el Consejo indicaba que había compartido el enlace con fines informativos y que "no apoya a la organización, sino, por el contrario, la repudia".

Después de que el Consejo remitiera este caso a Meta, la empresa determinó que el contenido no infringía su política de personas y organizaciones peligrosas. Resolvió que su decisión original de eliminar el contenido era incorrecta porque el comentario no expresa un "juicio positivo" sobre Hayat Tahrir al-Sham. La empresa restauró el contenido en la plataforma.

Autoridad y alcance del Consejo

El Consejo tiene la facultad para revisar la decisión de Meta tras la apelación de un usuario cuyo contenido se eliminó (artículo 2, sección 1, del acta constitutiva; artículo 3, sección 1, de los estatutos).

Cuando Meta reconoce que cometió un error y revierte su decisión en un caso en consideración para la revisión del Consejo, el Consejo puede seleccionar ese caso para una decisión resumida (artículo 2, sección 2.1.3, de los estatutos). El Consejo revisa la decisión original para entender mejor los procesos de moderación de contenido empleados, reducir los errores y ser más justo con los usuarios de Facebook, Instagram y Threads.

Importancia del caso

Este caso pone de manifiesto la sobreaplicación de la política de personas y organizaciones peligrosas de Meta. El Consejo señaló anteriormente en la decisión del caso Comentario sobre las elecciones a la alcaldía de Karachi que dichos errores pueden afectar de manera negativa a la capacidad de los usuarios de "compartir noticias y comentarios políticos" sobre organizaciones etiquetadas como "peligrosas", lo que, por ende, infringe la libertad de expresión.

El Consejo emitió varias recomendaciones con el fin de mejorar la transparencia en torno a la precisión de la aplicación de la política de personas y organizaciones peligrosas de Meta y sus excepciones. Esto incluye recomendaciones para "evaluar la precisión de los revisores al aplicar la concesión para informes periodísticos correspondiente a la política de personas y organizaciones peligrosas a fin de identificar problemas sistémicos que causen errores en la aplicación" ( recomendación n.º 5 del caso Mención de los talibanes en los informes de noticias). Si bien Meta informó haber implementado esta recomendación, la empresa no publicó información que lo demuestre.

En la misma decisión, el Consejo recomendó a Meta que "mejore la capacidad de revisión asignada al sistema de anulación de falsos positivos de alto impacto (HIPO) en los diversos idiomas para garantizar que una mayor cantidad de decisiones de contenido que pueden deberse a errores de aplicación de políticas se sometan a revisión manual" (recomendación n.º 7 del caso Mención de los talibanes en los informes de noticias). Meta usa el sistema HIPO para identificar casos en los que actuó de forma incorrecta, por ejemplo, al eliminar contenido por error. Meta informó estar explorando mejoras para aumentar la capacidad de revisión de HIPO, lo que dio como resultado un "aumento de diversos grados en las anulaciones de HIPO" (actualización trimestral del cuarto trimestre de 2022 de Meta sobre el Consejo asesor de contenido). Para el Consejo, Meta reformuló esta recomendación, dado que no queda claro a partir de la respuesta de la empresa si los cambios implicaron sumar recursos o solo reubicar otros para aumentar la eficiencia.

En la decisión del caso Inquietud punyabí en torno a la RSS en la India, el Consejo recomendó que Meta "mejore sus informes de transparencia para aumentar la información pública relativa a la tasa de errores. Para ello, debería incluir esta información por país e idioma para cada norma comunitaria". El Consejo pone de relieve que, "con informes de transparencia más detallados, el público podrá detectar áreas en las que es más común que ocurran errores, incluido el posible impacto específico en grupos minoritarios" (recomendación n.º 3). La implementación de esta recomendación se encuentra actualmente en curso. En su actualización más reciente de esta recomendación, Meta explicó que la empresa "se encuentra en el proceso de recopilar información general sobre datos de aplicación de políticas para compartir con el Consejo en carácter confidencial". El documento detallará los puntos de datos que brindan indicadores de la precisión de la aplicación de diversas políticas, incluida la política de personas y organizaciones peligrosas. Meta señaló que la empresa "continúa comprometida con recopilar información general que aborde la principal incitación del Consejo a una mayor transparencia en cuanto a la precisión de aplicación de las diversas políticas" (Informe semestral de Meta del segundo semestre de 2024 sobre el Consejo asesor de contenido, apéndice).

Asimismo, en una opinión de asesoramiento normativo, el Consejo le pidió a Meta que "explicara los métodos que usa para evaluar la precisión de la revisión manual y el desempeño de los sistemas automáticos al aplicar la política de personas y organizaciones peligrosas" (refiriéndose a las personas peligrosas designadas como "shaheed", recomendación n.º 6). El Consejo consideró que Meta reformuló esta recomendación. La empresa informó que realiza auditorías para evaluar la precisión de sus decisiones de moderación de contenido y que, en función de los resultados obtenidos, detecta áreas de mejora. No obstante, Meta no explicó los métodos que emplea para llevar a cabo estas evaluaciones.

El Consejo insta a Meta a seguir mejorando su capacidad para tomar medidas normativas respecto de contenido que recae en las excepciones de la política de personas y organizaciones peligrosas. Si la empresa asume el pleno compromiso de implementar las recomendaciones antes mencionadas, reforzaría su capacidad para aumentar la precisión de aplicación de sus políticas.

Decisión

El Consejo anuló la decisión original de Meta de eliminar el contenido. El Consejo confirmó que Meta corrigió su error inicial después de haberle remitido el caso.

Volver a Decisiones de casos y opiniones consultivas sobre políticas