Decisión de casos múltiples
Entrevista a un negociador en situaciones de secuestros tailandés
18 de abril de 2024
El Consejo ha revisado dos publicaciones de Facebook que contenían segmentos prácticamente idénticos del vídeo de una entrevista de Sky News a un negociador en situaciones de secuestros tailandés que describía su experiencia al trabajar para liberar rehenes capturados por Hamás. Después de que el Consejo remitiera las apelaciones a Meta, la empresa revirtió sus decisiones originales y restauró ambas publicaciones.
2 casos incluidos en el paquete
FB-XO941WWQ
Caso sobre personas y organizaciones peligrosas en Facebook
FB-U3Y5VV2E
Caso sobre personas y organizaciones peligrosas en Facebook
Esta es una decisión resumida. En las decisiones resumidas se examinan casos en los que Meta ha revertido su decisión original respecto a un contenido después de que el Consejo llamara la atención de la empresa sobre el caso. Estas decisiones son aprobadas por un panel de miembros del Consejo, no por todo el Consejo; no admiten comentarios públicos, y no sientan precedente para el Consejo. Las decisiones resumidas dan lugar a cambios directos en las decisiones de Meta y aportan transparencia respecto de estas correcciones, al tiempo que permiten detectar en qué aspectos la empresa podría mejorar su sistema de aplicación de políticas.
Resumen
El Consejo ha revisado dos publicaciones de Facebook que contenían segmentos prácticamente idénticos del vídeo de una entrevista de Sky News a un negociador en situaciones de secuestros tailandés que describía su experiencia al trabajar para liberar rehenes capturados por Hamás. Después de que el Consejo remitiera las apelaciones a Meta, la empresa revirtió sus decisiones originales y restauró ambas publicaciones.
Información de los casos
En diciembre de 2023, dos usuarios apelaron la decisión de Meta de suprimir sus publicaciones, las cuales contenían clips prácticamente idénticos de una entrevista transmitida por Sky News en noviembre de 2023. En el vídeo aparecía un negociador de Tailandia que había dirigido a un equipo extraoficial de negociadores y conseguido la liberación de ciudadanos tailandeses que habían sido tomados como rehenes por Hamás el 7 de octubre en Israel.
En el clip, el entrevistado describe el papel que había jugado en las negociaciones y manifiesta que creía que Hamás “were well taken care of” (“había cuidado bien”) a los rehenes tailandeses y a todos los demás porque sigue la ley islámica, y que la organización no había puesto condiciones para la liberación de los cautivos tailandeses.
El negociador, que simpatiza con la población palestina, habla de décadas de lo que describe como maltrato israelí hacia los palestinos de los territorios ocupados y asegura que Hamás estaba “targeting soldiers” (“buscando soldados”), y justifica la toma de rehenes “to help the Palestinians” (“para ayudar a los palestinos”) y “to get the world’s attention focused on the Israeli treatment of Palestinians” (“dirigir la atención del mundo entero hacia el trato israelí para con los palestinos”).
En sus apelaciones al Consejo, ambos usuarios dijeron que habían publicado el vídeo para dar a conocer las declaraciones del negociador tailandés, pero por diferentes motivos. Uno de ellos manifestó que su intención era destacar una entrevista que “mostraba a Hamás desde una óptica más equilibrada”, en contraposición a las actitudes habituales del “aparato propagandístico occidental”. El usuario indicó en el texto que el negociador se negaba a ceñirse a los hechos y que su publicación se había censurado anteriormente porque el contenido mencionaba a una organización política concreta. En la segunda publicación, el usuario, que había publicado el vídeo sin ningún texto o comentario adicional, dijo que estaba “reprendiendo a colaboradores que mienten y manipulan” en apoyo a Hamás.
En un primer momento, Meta suprimió las publicaciones de Facebook ateniéndose a su política sobre personas y organizaciones peligrosas, de acuerdo con la cual la empresa prohíbe el contenido que “ensalce” (anteriormente “alabe”), “apoye” o “represente” a personas u organizaciones que la empresa haya designado como peligrosas. Sin embargo, en la política se reconoce que “los usuarios pueden compartir contenido que incluya referencias a personas y organizaciones peligrosas designadas en el contexto del discurso social y político, lo que incluye denunciarlas, condenarlas o hablar sobre ellas o sus actividades en un tono neutral”.
Cuando el Consejo puso estos casos en conocimiento de Meta, la empresa determinó que las publicaciones “no incluían texto que ensalce, apoye o represente a personas u organizaciones peligrosas”. Además, el vídeo había sido “compartido anteriormente por Sky News, y otros medios informativos, en Facebook… y [por lo tanto] forma parte de su excepción por interés periodístico”. Meta restauró ambas publicaciones.
Competencia y ámbito de actuación del Consejo
El Consejo tiene potestad para revisar la decisión de Meta tras la apelación de un usuario cuyo contenido se haya suprimido (artículo 2, apartado 1 del acta constitutiva; artículo 3, apartado 1 de los estatutos).
Si se da la circunstancia de que Meta reconoce haber cometido un error y revierte su decisión con respecto a un caso que el Consejo podría terminar examinando, este puede seleccionar dicho caso para una decisión resumida (artículo 2, apartado 2.1.3 de los estatutos). El Consejo revisa la decisión original para entender mejor el proceso de moderación de contenido, reducir los errores y ofrecer mayor equidad a quienes utilizan Facebook e Instagram.
Relevancia de los casos
Estos casos ponen de manifiesto la constante sobreaplicación de la norma comunitaria sobre personas y organizaciones peligrosas de la empresa, como ya se ha subrayado en decisiones previas del Consejo. Los constantes errores en la aplicación de esta política limitan el acceso de los usuarios a comentarios neutrales, la cobertura informativa y publicaciones de condena, en detrimento de la libertad de expresión.
En una decisión anterior, el Consejo instaba a Meta a “incluir datos más completos sobre los índices de error de la norma comunitaria sobre personas y organizaciones peligrosas en su informe de transparencia” (caso Aislamiento de Öcalan, recomendación n.° 12), que la empresa optó por no implementar tras una evaluación de viabilidad.
Asimismo, el Consejo recomendó incorporar “criterios y ejemplos ilustrativos a la norma comunitaria sobre personas y organizaciones peligrosas de Meta para conocer mejor las excepciones, concretamente en torno al debate neutral y las cobertura informativas” para brindar más recursos a los revisores (caso Publicación compartida de Al Jazeera, recomendación n.º 1). Esta recomendación es especialmente pertinente porque tenía que ver con la eliminación de una noticia sobre una amenaza de violencia de las Brigadas Ezzedin Al-Qassam, la rama militar del grupo palestino Hamás. El Consejo también aconsejó a Meta “evaluar la precisión de los revisores al aplicar la exención por interés periodístico… para identificar problemas sistémicos que causen errores a la hora de aplicar las políticas” (caso Mención de los talibanes en coberturas informativas, recomendación n.º 5). Si bien Meta ha informado de la implementación de ambas recomendaciones, no ha publicado información que lo confirme en el caso Mención de los talibanes en coberturas informativas, recomendación n.º 5.
El Consejo recomienda mejorar la moderación de las publicaciones que incluyen vídeos e insta a la empresa a adoptar “cambios en las pautas operativas o de productos que permitan una revisión más precisa de los vídeos largos” (caso Primer ministro de Camboya, recomendación n.° 5). Por su parte, Meta ha manifestado que “seguirá probando nuevas mejoras para los procesos de revisión de vídeos largos y la evaluación y la creación de métricas” en la actualización trimestral del tercer trimestre de 2023 del Consejo asesor de contenido.
El Consejo considera que la implementación total de estas recomendaciones podría reducir el número de errores ocasionados por la aplicación de la política sobre personas y organizaciones peligrosas de Meta.
Decisión
El Consejo anula la decisión original de Meta de suprimir los contenidos. El Consejo confirma que Meta ha corregido su error inicial después de haberle remitido estos casos.
Volver a Decisiones de casos y opiniones consultivas sobre políticas