Decisión de casos múltiples

Entrevista a un negociador de rehenes tailandés

El Consejo revisó dos publicaciones de Facebook que contenían segmentos prácticamente idénticos del video de una entrevista de Sky News a un negociador de rehenes tailandés que describía su experiencia al trabajar para liberar rehenes capturados por Hamás. Después de que el Consejo le remitiera las apelaciones a Meta, la empresa revirtió sus decisiones originales y restauró las publicaciones.

2 casos incluidos en el paquete

Anulado

FB-XO941WWQ

Caso sobre personas y organizaciones peligrosas en Facebook

Plataforma
Facebook
Tema
Acontecimientos periodísticos,Violencia,Guerras y conflictos
Estándar:
Personas y organizaciones peligrosas
Ubicación
Israel,Territorios Palestinos,Tailandia
Date
Publicado el 18 de abril de 2024
Anulado

FB-U3Y5VV2E

Caso sobre personas y organizaciones peligrosas en Facebook

Plataforma
Facebook
Tema
Acontecimientos periodísticos,Violencia,Guerras y conflictos
Estándar:
Personas y organizaciones peligrosas
Ubicación
Israel,Territorios Palestinos,Tailandia
Date
Publicado el 18 de abril de 2024

Esta es una decisión resumida. Las decisiones resumidas examinan casos en los que Meta revirtió su decisión original sobre un contenido después de que el Consejo lo remitiera a la empresa e incluyen información sobre los errores que Meta reconoció. Estas decisiones son aprobadas por un panel de miembros del Consejo, no por todo el Consejo, no implican comentarios del público ni tienen valor de precedencia para el Consejo. Las decisiones resumidas traen aparejados cambios directos en las decisiones de Meta, ya que aportan transparencia respecto de estas correcciones, mientras que permiten identificar en qué aspectos Meta podría mejorar la aplicación de sus políticas.

Resumen

El Consejo revisó dos publicaciones de Facebook que contenían segmentos prácticamente idénticos del video de una entrevista de Sky News a un negociador de rehenes tailandés que describía su experiencia al trabajar para liberar rehenes capturados por Hamás. Después de que el Consejo le remitiera las apelaciones a Meta, la empresa revirtió sus decisiones originales y restauró las publicaciones.

Información de los casos

En diciembre de 2023, dos usuarios apelaron las decisiones de Meta de eliminar sus publicaciones. Cada una de ellas tenía clips prácticamente idénticos de una entrevista transmitida por Sky News en noviembre de 2023. El video mostraba a un negociador de Tailandia que había dirigido a un equipo extraoficial de negociadores y ayudado a garantizar la liberación de ciudadanos tailandeses que habían sido tomados como rehenes por Hamás el 7 de octubre en Israel.

En el clip, el entrevistado describía el papel que había jugado en las negociaciones. Decía que creía que Hamás "había cuidado bien" a los rehenes tailandeses y a todos los rehenes porque sigue la ley islámica, y que Hamás no había puesto condiciones para la liberación de los cautivos tailandeses.

El negociador, que simpatizaba con la población palestina, citaba décadas de lo que describía como maltrato israelí hacia los palestinos en los territorios ocupados. Aseguraba que Hamás estaba "buscando soldados" y justificaba la toma rehenes "para ayudar a los palestinos" y "para enfocar la atención del mundo en el trato israelí hacia los palestinos".

En sus apelaciones al Consejo, ambos usuarios dijeron que habían publicado el video para dar a conocer las declaraciones del negociador tailandés, pero por diferentes motivos. Un usuario dijo que su intención era resaltar una entrevista que "mostraba a Hamás en un estado más equilibrado" en contraste con actitudes habituales del "aparato propagandístico occidental". El usuario indicó en el texto que el negociador se estaba rehusando a ceñirse a los hechos y también explicó que su publicación ya había sido previamente censurada porque el contenido mencionaba a una organización política particular. En la segunda publicación, el usuario, que había publicado el video sin ningún texto o comentario adicional, dijo que estaban "llamando a colaboradores que mienten y manipulan" en apoyo a Hamás.

Meta inicialmente eliminó las publicaciones de Facebook citando su política de personas y organizaciones peligrosas, de acuerdo con la cual la empresa prohíbe contenido que "glorifica" (previamente "exalta"), "apoya" o "representa" a personas u organizaciones que la empresa designa como peligrosas. Sin embargo, en la política se reconoce que "los usuarios pueden compartir contenido que incluya referencias a personas u organizaciones peligrosas designadas" en el contexto del discurso social y político. Esto incluye "reportarlas, condenarlas o hablar sobre ellas o sus actividades en un tono neutral".

Una vez que el Consejo le remitió estos casos a Meta, la empresa determinó que las publicaciones "no incluían texto que glorifica, apoya o representa a personas u organizaciones peligrosas". Además, el video había sido "compartido previamente por Sky News, y otros canales de noticias, en Facebook... y [por lo tanto] se encuentra bajo el alcance de su excepción de informes de noticias". Meta restauró ambas publicaciones.

Autoridad y alcance del Consejo

El Consejo tiene la facultad para revisar la decisión de Meta tras la apelación de un usuario cuyo contenido se eliminó (artículo 2, sección 1, del acta constitutiva; artículo 3, sección 1, de los estatutos).

Cuando Meta reconoce que cometió un error y revierte su decisión en un caso en consideración para la revisión del Consejo, el Consejo puede seleccionar ese caso para una decisión resumida (artículo 2, sección 2.1.3, de los estatutos). El Consejo revisa la decisión original para entender mejor el proceso de moderación de contenido, para reducir los errores y para ser más justo con las personas que usan Facebook e Instagram.

Significancia de los casos

Estos casos ponen énfasis en la constante sobreaplicación de la norma comunitaria sobre personas y organizaciones peligrosas de la empresa, como se señala en decisiones previas del Consejo. Los constantes errores en la aplicación de esta política reducen el acceso de los usuarios a comentarios neutrales, informes de noticias y publicaciones condenatorias, lo cual perjudica la libertad de expresión.

En una decisión anterior, el Consejo instó a Meta a "incluir datos más completos sobre los índices de error de la norma comunitaria sobre personas y organizaciones peligrosas en su informe de transparencia" (caso Aislamiento de Öcalan, recomendación n.° 12), que la empresa se rehusó a implementar tras una evaluación de viabilidad.

Asimismo, el Consejo recomendó agregar "criterios y ejemplos ilustrativos a la norma comunitaria sobre personas y organizaciones peligrosas de Meta para conocer mejor las excepciones, específicamente en torno al debate neutral y los informes de noticias" para brindar una mayor guía a los revisores (caso Publicación compartida de Al Jazeera, recomendación n.º 1). Esta recomendación es particularmente relevante porque tenía que ver con la eliminación de una noticia sobre una amenaza de violencia de las Brigadas Ezzedin Al-Qassam, la fuerza armada del grupo palestino Hamás. El Consejo también aconsejó a Meta "evaluar la precisión de los revisores al aplicar la concesión de informes periodísticos... para identificar problemas sistémicos que causen errores en la aplicación de políticas" (caso Mención de los talibanes en los informes de noticias, recomendación n.º 5). Si bien Meta informó la implementación de ambas recomendaciones, no publicó información que lo demuestre para el caso Mención de los talibanes en los informes de noticias, recomendación n.º 5.

El Consejo recomendó mejorar la moderación de las publicaciones que incluyen videos, e instó a la empresa a adoptar "cambios en pautas operativas o de productos que permitan una revisión más precisa de los videos largos (caso Primer ministro de Camboya, recomendación n.° 5). En respuesta, Meta indicó que "seguirá probando nuevas mejoras para los procesos de revisión de videos largos y para la evaluación y la creación de métricas" en la actualización trimestral del tercer trimestre de 2023 del Consejo asesor de contenido.

El Consejo considera que la implementación completa de estas recomendaciones podría reducir el número de errores al aplicar la política de personas y organizaciones peligrosas de Meta.

Decisión

El Consejo anuló las decisiones originales de Meta de eliminar los contenidos. El Consejo confirmó que Meta corrigió su error inicial después de haberle remitido estos casos.

Volver a Decisiones de casos y opiniones consultivas sobre políticas