पलट जाना

Periodista relata un encuentro en Gaza

Un periodista apeló la decisión de Meta de suprimir una publicación de Facebook en la que relata su experiencia personal al entrevistar a Ábdel Aziz ar-Rantisi, cofundador de Hamás. Este caso pone de manifiesto un problema recurrente de sobreaplicación de la política sobre personas y organizaciones peligrosas de la empresa, en concreto, en relación con las publicaciones neutrales. Cuando el Consejo llamó la atención de Meta sobre la apelación, la empresa revocó su decisión original y restauró la publicación.

निर्णय का प्रकार

सारांश

नीतियां और विषय

विषय
अभिव्यक्ति की स्वतंत्रता, न्यूज़ ईवेंट, युद्ध और मतभेद
सामुदायिक मानक
ख़तरनाक लोग और संगठन

क्षेत्र/देश

जगह
फ़िलिस्तीनी क्षेत्र, स्पेन

प्लैटफ़ॉर्म

प्लैटफ़ॉर्म
Facebook

Esta es una decisión resumida. En las decisiones resumidas se examinan casos en los que Meta ha revertido su decisión original respecto a un contenido después de que el Consejo llamara la atención de la empresa sobre el caso eincluyen información sobre los errores que Meta ha reconocido. Estas decisiones son aprobadas por un panel de miembros del Consejo, no por todo el Consejo, no admiten comentarios públicos y no sientan precedente para el Consejo. Las decisiones resumidas dan lugar a cambios directos en las decisiones de Meta y aportan transparencia respecto de estas correcciones, al tiempo que permiten detectar en qué aspectos la empresa podría mejorar su sistema de aplicación de políticas.

Resumen del caso

Un periodista apeló la decisión de Meta de suprimir una publicación de Facebook en la que relata su experiencia personal al entrevistar a Ábdel Aziz ar-Rantisi, cofundador de Hamás. Este caso pone de manifiesto un problema recurrente de sobreaplicación de la política sobre personas y organizaciones peligrosas de la empresa, en concreto, en relación con las publicaciones neutrales. Cuando el Consejo llamó la atención de Meta sobre la apelación, la empresa revocó su decisión original y restauró la publicación.

Descripción y antecedentes del caso

Poco después del ataque terrorista en Israel del 7 de octubre de 2023, un periodista publicó en Facebook su recuerdo de una entrevista que le hizo a Ábdel Aziz ar-Rantisi, cofundador de Hamás, que es una organización designada de Nivel 1 conforme a la política sobre personas y organizaciones peligrosas de Meta. En la publicación, se describe el viaje del periodista a Gaza, sus encuentros con miembros de Hamás y residentes locales, así como la experiencia de encontrarse con ar-Rantisi y entrevistarlo. La publicación incluye cuatro fotos. En una, se ve a ar-Rantisi, el entrevistador y militantes de Hamás enmascarados.

En la apelación al Consejo, el usuario aclaró que la intención de la publicación era informar al público sobre su experiencia en Gaza y la entrevista a uno de los fundadores originales de Hamás.

Meta suprimió la publicación de Facebook en base a su política sobre personas y organizaciones peligrosas, según la cual la empresa suprime de sus plataformas determinado contenido sobre personas y organizaciones que designa como peligrosas. Sin embargo, en la política se reconoce que “los usuarios pueden compartir contenido que incluya referencias a personas y organizaciones peligrosas designadas en el contexto del discurso social y político. Esto incluye denunciarlas, condenarlas o hablar sobre ellas o sus actividades en un tono neutral”.

Después de que el Consejo llamara la atención de Meta sobre el caso, la empresa determinó que “el contenido pretendía generar conciencia sobre la coyuntura” y por tanto no infringía su política sobre personas y organizaciones peligrosas. Meta citó su exención al discurso social y político en un contexto de “descripciones neutrales e informativas sobre las actividades o el comportamiento de personas y organizaciones peligrosas”. Además, Meta afirmó que “el contexto de discurso social y político se menciona explícitamente en el contenido, por lo que no existe ambigüedad [sobre] la intención del usuario” en este caso.

Competencia y ámbito de actuación del Consejo

El Consejo tiene potestad para revisar la decisión de Meta tras la apelación de un usuario cuyo contenido se haya suprimido (artículo 2, apartado 1 del acta constitutiva; artículo 3, apartado 1 de los estatutos).

Si se da la circunstancia de que Meta reconoce haber cometido un error y revierte su decisión con respecto a un caso que el Consejo podría terminar examinando, este puede seleccionar dicho caso para una decisión resumida (artículo 2, apartado 2.1.3 de los estatutos). El Consejo revisa la decisión original para entender mejor el proceso de moderación de contenido, reducir los errores y ofrecer mayor equidad a quienes utilizan Facebook e Instagram.

Importancia del caso

Este caso pone de manifiesto la sobreaplicación de la política sobre personas y organizaciones peligrosas de Meta, en concreto, en relación con coberturas informativas sobre entidades que la empresa designa como peligrosas. Se trata de un problema recurrente, que viene sucediendo con especial frecuencia durante el conflicto entre Israel y Hamás, en el cual una de las partes es una organización designada. El Consejo ya ha emitido varias recomendaciones relativas a la exención por interés periodístico que recoge la política sobre personas y organizaciones peligrosas. Los errores constantes en la aplicación de esta importante exención pueden hacer que se limite en gran medida la libertad de expresión de los usuarios y el acceso del público a información, y que se socave el discurso público.

En una decisión anterior, el Consejo recomendó a Meta añadir criterios y ejemplos ilustrativos a su política sobre personas y organizaciones peligrosas para mejorar la comprensión de las excepciones, en particular, en torno al debate neutral, las actitudes de condena y los fines periodísticos (caso “Publicación compartida de Al Jazeera, recomendación n.º 1). Meta informó de que había implementado esta recomendación, lo cual ha quedado demostrado mediante la información publicada al respecto. En su actualización del 29 de diciembre de 2023, Meta modificó sus explicaciones y ahora utiliza el término “glorificación” en lugar de “apología” en la política sobre personas y organizaciones peligrosas.

Además, el Consejo ya ha recomendado a Meta evaluar la precisión con la que los revisores aplican la exención por interés periodístico incluida en la política sobre personas y organizaciones peligrosas con el fin de identificar la causa sistémica de los errores (caso “Mención de los talibanes en coberturas informativas”, recomendación n.º 5). Meta ha informado de la implementación de esta recomendación, pero no ha publicado información que lo constate.

En cuanto a la moderación automatizada, el Consejo ha instado a Meta a implementar un proceso de auditoría interno para analizar de forma continuada una muestra estadísticamente representativa de las decisiones automatizadas de supresión que deban revertirse a fin de aprender de los errores del sistema de aplicación de políticas ( caso “Síntomas de cáncer de mama y desnudos, recomendación n.º 5). Meta ha información de su implementación.

El Consejo considera que la implementación total de estas recomendaciones podría reducir el número de errores ocasionados por la aplicación de la política sobre personas y organizaciones peligrosas de Meta.

Decisión

El Consejo revoca la decisión original de Meta de suprimir el contenido y reconoce que Meta ha corregido su error inicial después de que el Consejo llamase su atención sobre el caso.

मामले के निर्णयों और नीति सलाहकार राय पर लौटें