Anulado

Clip promocional de una entrevista en Irak

Un usuario apeló la decisión de Meta de eliminar una publicación de Facebook con un video que incluía un clip de una entrevista televisada con un prominente clérigo y figura política chiíta iraquí. Después de que el Consejo le remitiera la apelación a Meta, la empresa revirtió su decisión original y restauró la publicación.

Tipo de decisión

Resumen

Políticas y temas

Tema
Acontecimientos periodísticos, Periodismo, Política
Estándar comunitario
Personas y organizaciones peligrosas

Regiones/Países

Ubicación
Irak

Plataforma

Plataforma
Facebook

Las decisiones resumidas analizan casos en los que Meta revirtió su decisión original sobre un contenido después de que el Consejo lo remitiera a la empresa e incluyen información sobre los errores que Meta reconoció. Estas decisiones son aprobadas por un panel de miembros del Consejo, no por todo el Consejo, no implican comentarios del público ni tienen valor de precedencia para el Consejo. Las decisiones resumidas traen aparejados cambios directos en las decisiones de Meta, ya que aportan transparencia respecto de estas correcciones, a la vez que permiten identificar en qué aspectos Meta podría mejorar la aplicación de sus políticas.

Resumen

Un usuario apeló la decisión de Meta de eliminar una publicación de Facebook con un video que incluía un clip de una entrevista televisada con un prominente clérigo y figura política chiíta iraquí. Después de que el Consejo le remitiera la apelación a Meta, la empresa revirtió su decisión original y restauró la publicación.

Información sobre el caso

En agosto de 2023, el jefe de la Red de Medios Iraquíes, una entidad de comunicación estatal que engloba varios medios de comunicación, publicó en Facebook un clip de una entrevista con Qais Hadi Sayed Hasan al-Khazali, político, clérigo y líder militante de Asa'ib Ahl al-Haq, una organización paramilitar y un partido político chiítas iraquíes. En el clip, al-Khazali habla sobre diferentes temas, como las relaciones de los Estados Unidos e Irak con Israel. Se incluía un texto en árabe que decía: "Esta noche... un debate importante sobre los últimos desarrollos políticos y los movimientos más recientes de las fuerzas extranjeras con Sheikh Qais Al-Khazali, secretario general de Asa'ib Ahl al-Haq". Además, se incluía el hashtag "#IraqiNews". En el clip, también había texto superpuesto en árabe que decía: "Entrevista exclusiva" y "Esta noche a las 22:00".

Conforme a la política de personas y organizaciones peligrosas, Meta designa a al-Khazali como una persona peligrosa y a Asa'ib Ahl al-Haq como una organización peligrosa. La empresa explica que el nivel 1 de esta política se centra en "organizaciones terroristas, incluidas entidades y personas que el Gobierno de los Estados Unidos designó como organizaciones terroristas extranjeras o terroristas mundiales especialmente designados". Sin embargo, Meta no divulga públicamente su lista de personas y organizaciones peligrosas.

De acuerdo con la norma comunitaria sobre personas y organizaciones peligrosas, la empresa elimina "la glorificación, el apoyo y la representación" de personas u organizaciones "que reivindiquen una misión violenta o cometan actos de violencia". La política da lugar a "contenido que incluya referencias a personas y organizaciones peligrosas designadas en el contexto del discurso social y político". Esto incluye "reportarlas, condenarlas o hablar sobre ellas o sus actividades en un tono neutral". Conforme a esta política, Meta explica que las coberturas informativas incluyen la "información que se comparte para generar conciencia sobre hechos locales o internacionales en los que hayan participado organizaciones y personas peligrosas designadas".

Después de que el Consejo remitiera este caso a Meta, la empresa determinó que el contenido no debería haberse eliminado conforme a la política de personas y organizaciones peligrosas, dado que el texto superpuesto "Entrevista exclusiva" y el hashtag "#IraqiNews" sugerían que el contenido informaba sobre una entrevista con Al-Khazali. Además, la empresa notó que "los clips no expresaban una opinión positiva sobre Al-Khazali o sus acciones". Seguidamente, la empresa restauró el contenido en Facebook.

Autoridad y alcance del Consejo

El Consejo tiene la facultad para revisar la decisión de Meta tras la apelación de un usuario cuyo contenido se eliminó (artículo 2, sección 1, del acta constitutiva; artículo 3, sección 1, de los estatutos).

Cuando Meta reconoce que cometió un error y revierte su decisión en un caso en consideración para la revisión del Consejo, el Consejo puede seleccionar ese caso para una decisión resumida (artículo 2, sección 2.1.3, de los estatutos). El Consejo revisa la decisión original para entender mejor los procesos de moderación de contenido empleados, reducir los errores y ser más justo con los usuarios de Facebook, Instagram y Threads.

Importancia del caso

Este caso destaca la sobreaplicación de la norma comunitaria de Meta sobre personas y organizaciones peligrosas. Los sistemas de moderación de contenido de la empresa no pudieron reconocer la concesión de interés periodístico en relación con entidades designadas. El Consejo señaló anteriormente en la decisión resumida del caso Comentario sobre las elecciones a la alcaldía de Karachi que dichos errores pueden afectar de manera negativa la capacidad de los usuarios de "compartir noticias y comentarios políticos" sobre organizaciones etiquetadas como "peligrosas", lo que, por ende, vulnera la libertad de expresión.

El Consejo emitió varias recomendaciones anteriores relevantes con el fin de mejorar la transparencia en torno a la precisión de la aplicación de la política de personas y organizaciones peligrosas y sus excepciones. Primero, el Consejo recomendó a Meta "evaluar la precisión de los revisores al aplicar la concesión de interés periodístico conforme a la política de personas y organizaciones peligrosas a fin de identificar problemas sistémicos que ocasionan errores de aplicación" (caso Mención de los talibanes en los informes de noticias, recomendación n.º 5). En noviembre de 2023, Meta informó que había implementado una actualización en la política de personas y organizaciones peligrosas que incluía detalles sobre cómo la empresa aborda los informes de noticias, así como los debates neutrales y condenatorios. Meta también informó que había realizado "un seguimiento de la precisión de la aplicación de políticas en relación con excepciones para el discurso social y político" (actualización trimestral de Meta del tercer trimestre de 2023 sobre el Consejo asesor de contenido). Sin embargo, la empresa no publicó información que demuestre dicha implementación.

Asimismo, en una de sus opiniones de asesoramiento normativo, el Consejo le pidió a Meta que "explicara los métodos que usa para evaluar la precisión de la revisión manual y el desempeño de los sistemas automáticos al aplicar la política de personas y organizaciones peligrosas" (Referencia a personas designadas como "shaheed", recomendación n.º 6). El Consejo consideró que Meta reformuló esta recomendación. La empresa declaró que realiza auditorías para evaluar la precisión de sus decisiones de moderación de contenido y que, en función de los resultados obtenidos, detecta áreas de mejora. No obstante, Meta no explicó los métodos que emplea para llevar a cabo estas evaluaciones.

La sobreaplicación repetida de la política de personas y organizaciones peligrosas por parte de la empresa afecta negativamente la capacidad de los usuarios de compartir información y noticias legítimas sobre las actividades de personas u organizaciones designadas. El Consejo considera que la implementación completa de ambas recomendaciones mencionadas más arriba fortalecería la capacidad de Meta de mejorar la precisión de la aplicación de políticas, lo que reduciría el impacto negativo de los errores en la libertad de expresión de los usuarios. Los informes públicos sobre la precisión de las revisiones y los métodos aplicados para evaluarlas aumentarían la transparencia y generarían un compromiso con Meta que tiene el potencial de conducir a nuevas mejoras.

Decisión

El Consejo anuló la decisión original de Meta de eliminar el contenido. El Consejo confirmó que Meta corrigió su error inicial después de haberle remitido el caso.

Volver a Decisiones de casos y opiniones consultivas sobre políticas