Anulado
Periodista relata un encuentro en Gaza
4 de abril de 2024
Un periodista apeló la decisión de Meta de eliminar una publicación de Facebook en la que relata su experiencia personal al entrevistar a Ábdel Aziz ar-Rantisi, cofundador de Hamás. Este caso destaca un problema recurrente de sobreaplicación de la política sobre personas y organizaciones peligrosas de la empresa, específicamente en relación con publicaciones neutrales. Después de que el Consejo le remitiera la apelación a Meta, la empresa revirtió su decisión original y restauró la publicación.
Esta es una decisión resumida. Las decisiones resumidas examinan casos en los que Meta revirtió su decisión original sobre un contenido después de que el Consejo lo remitiera a la empresa eincluyen información sobre los errores que Meta reconoció. Estas decisiones son aprobadas por un panel de miembros del Consejo, no por todo el Consejo, no implican comentarios del público ni tienen valor de precedencia para el Consejo. Las decisiones resumidas traen aparejados cambios directos en las decisiones de Meta, ya que aportan transparencia respecto de estas correcciones, mientras que permiten identificar en qué aspectos Meta podría mejorar la aplicación de sus políticas.
Resumen del caso
Un periodista apeló la decisión de Meta de eliminar una publicación de Facebook en la que relata su experiencia personal al entrevistar a Ábdel Aziz ar-Rantisi, cofundador de Hamás. Este caso destaca un problema recurrente de sobreaplicación de la política sobre personas y organizaciones peligrosas de la empresa, específicamente en relación con publicaciones neutrales. Después de que el Consejo le remitiera la apelación a Meta, la empresa revirtió su decisión original y restauró la publicación.
Descripción y contexto del caso
Poco después del ataque terrorista en Israel ocurrido el 7 de octubre de 2023, un periodista publicó en Facebook su recuerdo de una entrevista que realizó con Ábdel Aziz ar-Rantisi, cofundador de Hamás, que es una organización designada de nivel 1 conforme a la política sobre personas y organizaciones peligrosas de Meta. En la publicación, se describe el viaje del periodista a Gaza, sus encuentros con miembros de Hamás y residentes locales, así como la experiencia de encontrarse con ar-Rantisi y entrevistarlo. La publicación incluye cuatro fotos. En una, se ve a ar-Rantisi, el entrevistador y militantes de Hamás enmascarados.
En la apelación al Consejo, el usuario aclaró que la intención de la publicación era informar al público sobre su experiencia en Gaza y la entrevista con uno de los fundadores originales de Hamás.
Meta eliminó la publicación de Facebook citando su política sobre personas y organizaciones peligrosas, de acuerdo con la cual la empresa elimina de sus plataformas determinado contenido sobre personas y organizaciones que designa como peligrosas. Sin embargo, en la política se reconoce que "los usuarios pueden compartir contenido que incluya referencias a personas y organizaciones peligrosas designadas" en el contexto del discurso social y político. Esto incluye "reportarlas, condenarlas o hablar sobre ellas o sus actividades en un tono neutral".
Después de que el Consejo remitiera este caso a Meta, la empresa determinó que "el contenido tenía como objetivo aumentar el conocimiento de la situación", por lo que no infringía la norma comunitaria sobre personas y organizaciones peligrosas. Meta citó su concesión de discurso social y político en el contexto de "descripciones neutrales e informativas de las actividades o el comportamiento de personas y organizaciones peligrosas". Además, Meta afirmó que "el contexto del discurso social y político se menciona explícitamente en el contenido, por lo que no se presenta ambigüedad [sobre] la intención del usuario" en este caso.
Autoridad y alcance del Consejo
El Consejo tiene la facultad para revisar la decisión de Meta tras la apelación de un usuario cuyo contenido se eliminó (artículo 2, sección 1, del acta constitutiva; artículo 3, sección 1, de los estatutos).
Cuando Meta reconoce que cometió un error y revierte su decisión en un caso en consideración para la revisión del Consejo, el Consejo puede seleccionar ese caso para una decisión resumida (artículo 2, sección 2.1.3, de los estatutos). El Consejo revisa la decisión original para entender mejor el proceso de moderación de contenido, para reducir los errores y para ser más justo con las personas que usan Facebook e Instagram.
Importancia del caso
El caso pone de manifiesto la sobreaplicación por parte de Meta de su política sobre personas y organizaciones peligrosas, específicamente en relación con noticias sobre entidades que la empresa designa como peligrosas. Se trata de un problema recurrente, que sucede con particular frecuencia durante el conflicto entre Israel y Hamás, en el cual una de las partes es una organización designada. El Consejo formuló varias recomendaciones relacionadas con la concesión de interés periodístico de conformidad con la política de personas y organizaciones peligrosas. Si sigue habiendo errores en la aplicación de esta concesión importante, se puede limitar en gran medida la libertad de expresión de los usuarios y el acceso del público a información, y socavar el discurso público.
En una decisión anterior, el Consejo recomendó a Meta "agregar criterios y ejemplos ilustrativos a su política sobre personas y organizaciones peligrosas para conocer mejor las excepciones, específicamente en torno al debate neutral y los informes de noticias" (caso Publicación compartida de Al Jazeera, recomendación n.º 1). Meta informó la implementación de esta recomendación, que demostró mediante información publicada. En una actualización a la política sobre personas y organizaciones peligrosas efectuada el 29 de diciembre de 2023, Meta modificó sus explicaciones y ahora utiliza el término "glorificación" en lugar de "exaltación" en la norma comunitaria.
Además, el Consejo recomendó a Meta "evaluar la precisión de los revisores al aplicar la concesión de interés periodístico conforme a la política de personas y organizaciones peligrosas a fin de identificar problemas sistémicos que ocasionan errores de aplicación" (caso Mención de los talibanes en los informes de noticias, recomendación n.º 5). Meta informó la implementación de esta recomendación, pero no publicó información que la demuestre.
En casos de moderación automatizada, el Consejo instó a Meta a implementar un proceso de auditoría interno para analizar de forma constante una muestra estadísticamente representativa de las decisiones automatizadas de eliminación que deban revertirse a fin de aprender de los errores del sistema de aplicación de políticas (caso Síntomas de cáncer de mama y desnudos, recomendación n.º 5). Meta informó la implementación de esta recomendación.
El Consejo considera que la implementación completa de estas recomendaciones podría reducir el número de errores al aplicar la política de personas y organizaciones peligrosas de Meta.
Decisión
El Consejo anuló la decisión original de Meta de eliminar el contenido. El Consejo confirmó que Meta corrigió su error inicial después de haberle remitido el caso.
Volver a Decisiones de casos y opiniones consultivas sobre políticas