Anulado
Artículo del Washington Post sobre el conflicto entre Israel y Palestina
4 de abril de 2024
Un usuario apeló la decisión de Meta de eliminar una publicación de Facebook con un enlace a un artículo del Washington Post que relataba la cronología del conflicto entre Israel y Palestina. Después de que el Consejo le remitiera la apelación a Meta, la empresa revirtió su decisión original y restauró la publicación.
Esta es una decisión resumida. Las decisiones resumidas examinan casos en los que Meta revirtió su decisión original sobre un contenido después de que el Consejo le remitiera el caso a la empresa e incluyen información sobre los errores que Meta reconoció. Estas decisiones son aprobadas por un panel de miembros del Consejo, no por todo el Consejo, no implican comentarios del público ni tienen valor de precedencia para el Consejo. Las decisiones resumidas traen aparejados cambios directos en las decisiones de Meta, ya que aportan transparencia respecto de estas correcciones, mientras que permiten identificar en qué aspectos Meta podría mejorar la aplicación de sus políticas.
Resumen del caso
Un usuario apeló la decisión de Meta de eliminar una publicación de Facebook con un enlace a un artículo del Washington Post que relataba la cronología del conflicto entre Israel y Palestina. Después de que el Consejo le remitiera la apelación a Meta, la empresa revirtió su decisión original y restauró la publicación.
Descripción y contexto del caso
En octubre de 2023, un usuario de Facebook publicó un enlace a un artículo del Washington Post que describía la cronología del conflicto entre Israel y Palestina. La vista previa del artículo, que se incluía automáticamente con el enlace, menciona a Hamás. El usuario no agregó una descripción para acompañar la publicación ni proporcionó contexto adicional.
Esta publicación de Facebook se eliminó en virtud de la política de personas y organizaciones peligrosas de Meta, que prohíbe la representación de grupos y personas que la empresa considera que se vinculan a daños significativos en la vida real, así como cierto discurso sobre ellos.
En su apelación ante el Consejo, el usuario señaló que la publicación tenía como fin dar a conocer el estado actual del conflicto entre Israel y Hamás, no apoyar a Hamás ni a otra organización peligrosa.
Después de que el Consejo remitiera este caso a Meta, la empresa determinó que el contenido no infringía la política sobre personas y organizaciones peligrosas, ya que la publicación hace referencia a Hamás en un contexto periodístico, que la política admite. Seguidamente, la empresa restauró el contenido en Facebook.
Autoridad y alcance del Consejo
El Consejo tiene la facultad para revisar la decisión de Meta tras una apelación de la persona cuyo contenido se eliminó (artículo 2, sección 1, del acta constitutiva; artículo 3, sección 1, de los estatutos).
Cuando Meta reconoce que cometió un error y revierte su decisión en un caso en consideración para la revisión del Consejo, el Consejo puede seleccionar ese caso para una decisión resumida (artículo 2, sección 2.1.3, de los estatutos). El Consejo revisa la decisión original para entender mejor los procesos de moderación de contenido, reducir los errores y ser más justo con los usuarios de Facebook e Instagram.
Importancia del caso
Este caso pone de manifiesto una instancia en la que Meta sobreaplicó su política de personas y organizaciones peligrosas, específicamente en relación con noticias sobre entidades que la empresa designa como peligrosas. Se trata de un problema recurrente, que sucede con particular frecuencia durante el conflicto entre Israel y Hamás, en el cual una de las partes es una organización designada. El Consejo formuló diversas recomendaciones relacionadas con la concesión de interés periodístico de conformidad con la política de personas y organizaciones peligrosas. Si sigue habiendo errores en la aplicación de esta concesión importante, se puede limitar en gran medida la libertad de expresión de los usuarios y el acceso del público a información, y socavar el discurso público.
En una decisión anterior, el Consejo recomendó que "Meta evalúe la precisión de los revisores al aplicar la concesión para informes periodísticos correspondiente a la política de personas y organizaciones peligrosas a fin de identificar problemas sistémicos que causen errores en la aplicación" ( Mención de los talibanes en los informes de noticias, recomendación n.º 5). Meta afirmó que ya estaba realizando esta implementación, sin publicar información que lo demuestre. El Consejo también recomendó a Meta "agregar criterios y ejemplos ilustrativos a su política de personas y organizaciones peligrosas para conocer mejor las excepciones del debate neutral, la condena y los informes de noticias" (Publicación compartida de Al Jazeera, recomendación n.º 1). La implementación de esta recomendación se demostró mediante información publicada. Asimismo, el Consejo recomendó a Meta "incluir información más integral respecto de las tasas de errores en la aplicación de las reglas sobre 'exaltación' y 'apoyo' de personas y organizaciones peligrosas" en sus informes de transparencia (Aislamiento de Öcalan, recomendación n.º 12). Meta se negó a implementar esta recomendación tras realizar una evaluación de viabilidad. Tras la actualización de su política del 29 de diciembre de 2023, Meta ahora usa el término "glorificación" en lugar de "exaltación" en su norma comunitaria.
El Consejo considera que la implementación completa de estas recomendaciones podría reducir el número de errores al aplicar la política de personas y organizaciones peligrosas de Meta.
Decisión
El Consejo anuló la decisión original de Meta de eliminar el contenido. El Consejo confirmó que Meta corrigió su error inicial después de haberle remitido el caso.
Volver a Decisiones de casos y opiniones consultivas sobre políticas