Anulado

Declaraciones contra el expresidente de Senegal

Un usuario apeló la decisión de Meta de eliminar una publicación de Facebook que criticaba los niveles de deuda de Senegal bajo el mandato del expresidente Macky Sall y afirmaba que el Sr. Sall merece "la guillotina pública". Después de que el Consejo le remitiera la apelación a Meta, la empresa revirtió su decisión original y restauró la publicación.

Tipo de decisión

Resumen

Políticas y temas

Tema
Gobiernos, Libertad de expresión, Política
Estándar comunitario
Violencia e incitación

Regiones/Países

Ubicación
Estados Unidos, Francia, Senegal

Plataforma

Plataforma
Facebook

Las decisiones resumidas analizan casos en los que Meta revirtió su decisión original sobre un contenido después de que el Consejo lo remitiera a la empresa e incluyen información sobre los errores que Meta reconoció. Estas decisiones son aprobadas por un panel de miembros del Consejo, no por todo el Consejo, no implican comentarios del público ni tienen valor de precedencia para el Consejo. Las decisiones resumidas traen aparejados cambios directos en las decisiones de Meta, ya que aportan transparencia respecto de estas correcciones, a la vez que permiten identificar en qué aspectos Meta podría mejorar la aplicación de sus políticas.

Resumen

Un usuario apeló la decisión de Meta de eliminar una publicación de Facebook que criticaba los niveles de deuda de Senegal bajo el mandato del expresidente Macky Sall y afirmaba que el Sr. Sall merece "la guillotina pública". Después de que el Consejo le remitiera la apelación a Meta, la empresa revirtió su decisión original y restauró la publicación.

Información sobre el caso

En febrero de 2025, un usuario publicó en Instagram una serie de emojis de llanto seguidos por una declaración que indicaba que la deuda nacional de Senegal bajo el mandato del expresidente senegalés Macky Sall parecía ser casi equivalente a la totalidad del producto interno bruto de Senegal y que el Sr. Sall merece "la guillotina pública".

En la época en la que se publicó el contenido, el Tribunal de Cuentas de Senegal emitió un informe que mostraba que la gestión del expresidente Sall había manipulado los datos económicos, incluidas las cifras de deuda.

El usuario que apeló el caso ante el Consejo afirmó que la eliminación del contenido dejaba en evidencia "medidas restrictivas injustas que socavan nuestra libertad de expresión".

La política de violencia e incitación de Meta afirma que la empresa elimina las "amenazas de violencia que podrían llevar a la muerte (u otras formas de violencia de gravedad alta)" contra cualquier persona, incluidas las figuras públicas. No obstante, las bases de la política indican que la empresa intenta "tener en cuenta el lenguaje y el contexto para distinguir afirmaciones casuales o de concientización de contenido que constituya una amenaza creíble a la seguridad pública o privada". Dichas bases también destacan que Meta "tiene en cuenta otros datos, como la visibilidad pública y el riesgo para la seguridad física de una persona" para determinar si una amenaza es creíble.

Después de que el Consejo remitiera este caso a Meta, la empresa determinó que el contenido no infringía su política de violencia e incitación y admitió que la eliminación fue incorrecta. La empresa señaló que, dada la "situación social y política más general en Senegal", la publicación parece "expresar repudio por la actitud del Gobierno de manipular datos económicos clave, no incitar genuinamente a la violencia contra Sall". Asimismo, al evaluar si el contenido representaba una amenaza creíble, la empresa expresó que el Sr. Sall actualmente reside fuera de Senegal y que la guillotina "no es un método moderno de ejecución". Seguidamente, la empresa restauró el contenido en Facebook.

Autoridad y alcance del Consejo

El Consejo tiene la facultad para revisar la decisión de Meta tras la apelación de un usuario cuyo contenido se eliminó (artículo 2, sección 1, del acta constitutiva; artículo 3, sección 1, de los estatutos).

Cuando Meta reconoce que cometió un error y revierte su decisión en un caso en consideración para la revisión del Consejo, el Consejo puede seleccionar dicho caso para una decisión resumida (artículo 2, sección 2.1.3, de los estatutos). El Consejo revisa la decisión original para entender mejor los procesos de moderación de contenido empleados, reducir los errores y ser más justo con los usuarios de Facebook, Instagram y Threads.

Importancia del caso

Este caso pone de manifiesto la aplicación excesiva de la política de violencia e incitación de Meta y cómo las deficiencias de la empresa a la hora de diferenciar entre amenazas de violencia creíbles o no a gran escala pueden afectar al discurso político. Errores de aplicación de políticas de esta naturaleza preocupan particularmente cuando repercuten en el discurso político de países como Senegal, donde la libertad de prensa y, de forma más general, la libertad de expresión sufren limitaciones.

En casos anteriores, el Consejo trató el tema de los errores que comete Meta al distinguir, a gran escala, entre amenazas creíbles y no creíbles contra figuras públicas. En la decisión del caso Eslogan de protesta contra Irán, el Consejo determinó que se empleó de forma retórica un eslogan de protesta muy utilizado, cuya traducción literalmente es una incitación a la muerte del líder supremo de Irán, el ayatolá Khamenei, para expresar desaprobación. Asimismo, en la decisión del caso Declaraciones sobre el primer ministro de Japón, el Consejo señaló que "la amenaza contra un líder político [ex primer ministro japonés Fumio Kishida] se entendía como una crítica política no literal cuyo objetivo era arrojar luz sobre presunta corrupción, con un lenguaje violento". El Consejo señaló también que es preocupante que, en la política de violencia e incitación de Meta, "no se distingan con claridad las amenazas literales de las figurativas".

En los casos "Declaraciones sobre el primer ministro de Japón" y "Eslogan de protesta contra Irán", el Consejo emitió recomendaciones que son relevantes para este caso. En primer lugar, el Consejo recomendó a Meta "modificar la norma comunitaria sobre violencia e incitación. En ella, debe (i) explicar que ciertas amenazas retóricas, como "muerte a X", por lo general están permitidas, excepto cuando el blanco de la amenaza es una persona de alto riesgo; (ii) incluir una lista ilustrativa de personas de alto riesgo y explicar que pueden incluir jefes de Estado; (iii) proporcionar criterios para cuando se permite la permanencia de afirmaciones que suponen amenazas dirigidas a jefes de Estado para proteger discursos políticos que claramente son retóricos en contextos de manifestaciones que no incitan a la violencia" (decisión del caso Eslogan de protesta contra Irán, recomendación n.º 1). Meta informó un progreso respecto de la implementación de esta recomendación y afirmó que la empresa está realizando un proceso de desarrollo normativo para evaluar la aplicación de políticas en caso de "incitaciones a la muerte" en sus plataformas (apéndice del informe semestral del segundo semestre de 2024 de Meta sobre el Consejo asesor de contenido).

Asimismo, el Consejo recomendó que Meta "actualice las pautas internas de la [empresa] que se proporcionan a los revisores a gran escala sobre las incitaciones a la muerte que empleen la frase 'muerte a' cuando vayan dirigidas contra personas de alto riesgo", específicamente para "permitir publicaciones que, en el contexto y el idioma locales, expresan desdén o desacuerdo por medio de expresiones de amenaza violenta superficiales no graves" (Declaraciones sobre el primer ministro de Japón, recomendación n.º 2). Meta también informó un progreso respecto de la implementación de esta recomendación y explicó que el desarrollo normativo de la empresa relacionado con "incitaciones a la muerte" incluye volver a revisarlo para "considerar potenciales declaraciones figurativas no graves". Meta afirmó que la empresa está "explorando mejoras" para aplicar a la política de violencia e incitación a fin de "permitir más matices" (apéndice del informe semestral del segundo semestre de 2024 de Meta sobre el Consejo asesor de contenido).

El Consejo cree que, si se implementaran ambas recomendaciones en su totalidad, se reduciría la cantidad de errores en la aplicación de la política de violencia e incitación de Meta, ya que la evaluación que realiza la empresa para determinar si las amenazas son creíbles incluiría más matices y se centraría más en el contexto.

Decisión

El Consejo anuló la decisión original de Meta de eliminar el contenido. El Consejo confirmó que Meta corrigió su error inicial después de haberle remitido el caso.

Volver a Decisiones de casos y opiniones consultivas sobre políticas