Decisión de casos múltiples

Amenazas retóricas contra autoridades

Cuatro usuarios apelaron la decisión de Meta de eliminar sus publicaciones de Facebook e Instagram que incluían amenazas retóricas contra las autoridades. Después de que el Consejo le remitiera las apelaciones a Meta, la empresa revirtió sus decisiones originales y restauró las cuatro publicaciones.

4 casos incluidos en el paquete

Anulado

IG-NCZ5E9W0

Caso sobre violencia e incitación en Instagram

Plataforma
Instagram
Tema
Libertad de expresión,Gobiernos,Política
Estándar:
Violencia e incitación
Ubicación
Italia
Date
Publicado el 29 de enero de 2026
Anulado

FB-FSSEO67W

Caso sobre violencia e incitación en Facebook

Plataforma
Facebook
Tema
Libertad de expresión,Gobiernos,Política
Estándar:
Violencia e incitación
Ubicación
Etiopía
Date
Publicado el 29 de enero de 2026
Anulado

FB-K4GVOGGB

Caso sobre violencia e incitación en Facebook

Plataforma
Facebook
Tema
Libertad de expresión,Gobiernos,Política
Estándar:
Violencia e incitación
Ubicación
Pakistán
Date
Publicado el 29 de enero de 2026
Anulado

FB-XYOQF1VK

Caso sobre violencia e incitación en Facebook

Plataforma
Facebook
Tema
Libertad de expresión,Gobiernos,Política
Estándar:
Violencia e incitación
Ubicación
Ucrania
Date
Publicado el 29 de enero de 2026

Las decisiones resumidas analizan casos en los que Meta revirtió su decisión original sobre un contenido después de que el Consejo lo remitiera a la empresa e incluyen información sobre los errores que Meta reconoció. Estas decisiones son aprobadas por un panel de miembros del Consejo, no por todo el Consejo, no implican comentarios del público ni tienen valor de precedencia para el Consejo. Las decisiones resumidas traen aparejados cambios directos en las decisiones de Meta, ya que aportan transparencia respecto de estas correcciones, a la vez que permiten identificar en qué aspectos Meta podría mejorar la aplicación de sus políticas.

Resumen

Cuatro usuarios apelaron la decisión de Meta de eliminar sus publicaciones de Facebook e Instagram que incluían amenazas retóricas contra las autoridades. Después de que el Consejo le remitiera las apelaciones a Meta, la empresa revirtió sus decisiones originales y restauró las cuatro publicaciones.

Información de los casos

En julio y agosto de 2025, cuatro usuarios de diferentes países (Etiopía, Pakistán, Ucrania e Italia) publicaron contenido que incluía amenazas retóricas contra las autoridades que Meta inicialmente eliminó por infringir la norma comunitaria sobre violencia e incitación.

En el primer caso, un usuario comentó en amárico en una publicación de Facebook que mostraba al primer ministro etíope Abiy Ahmed con Li Qiang, primer ministro de China. La publicación incluía también el mensaje de Ahmed sobre el aniversario n.º 55 de las relaciones entre Etiopía y China y los frutos de su cooperación. El comentario expresaba apoyo al reclamo de Etiopía del puerto de Assab, que se encuentra en Eritrea. Asimismo, el usuario mencionaba que esperaba que hubiera paz y colaboración entre Etiopía y Eritrea, y afirmaba que "el nazi de Isaias" [primer ministro de Eritrea Isaias Afwerki] "debería ser eliminado". En su apelación ante el Consejo, el usuario indicó que la publicación no incluía palabras o frases "sensibles".

El segundo caso tiene que ver con una publicación de Facebook en urdu en la que se criticaba la corrupción en el proceso de contratación del sector público en Baluchistán, provincia de Pakistán. La publicación incluía la foto de una persona caminando descalza en el desierto junto a un burro y señalaba que la pobreza en la provincia "aumenta día a día". El usuario también acusaba a funcionarios del Gobierno de aceptar sobornos para contratar a candidatos no aptos para que ocupen cargos públicos y afirmaba: "Que Alá maldiga a estos funcionarios corruptos y sin principios que venden nuestros derechos a cambio de dinero". Meta tradujo esta declaración al inglés originalmente como "May Allah drown those bastards, shameless and unscrupulous officers who sell our rights on us for money" (Qué Ala hunda a esos funcionarios bastardos, sinvergüenzas y sin escrúpulos que venden nuestros derechos por dinero". La descripción finaliza con un emoji de cara llorando. En su declaración ante el Consejo, el usuario explicó que se trata de "un asunto importante y grave en Pakistán" y que solo escribió sobre la realidad de su país.

En el tercer caso, un usuario publicó en ucraniano una foto de dos mujeres con máscaras en la cara acompañada por una descripción dirigida a miembros del Parlamento, políticos y el presidente de Ucrania que aborda lo que describe como errores en la respuesta a la ofensiva rusa con consecuencias "catastróficas" y afirma que los ucranianos pagaron con su vida. La publicación manifiesta que "se los juzgará y derrotará con dureza, no solo por sus palabras, sino por sus acciones". En su apelación ante el Consejo, el usuario indicó que Meta se equivocó porque la empresa "no tuvo en cuenta las palabras ni el contexto". También afirmó que usó "declaraciones informativas para mostrar a las personas los problemas del Gobierno corrupto", pero "no hubo incitación a la violencia". Asimismo, el usuario mencionó que la crítica contra los políticos y partidos políticos es un componente importante de la democracia y que eliminar esta publicación "afectará de manera negativa al estado de la sociedad civil en Ucrania", ya que privará a las personas de conocer "la verdad sobre el Gobierno y aquellos que se roban su dinero".

Por último, en el cuarto caso, un usuario de Instagram hizo un comentario en italiano en una secuencia de fotos de un evento artístico en el que los actores jugaban al fútbol con una réplica de la cabeza del dictador español Francisco Franco como pelota. El comentario decía que se debería repetir el partido "con la cabeza del calvo que algunas personas siguen venerando". El término "calvo" hace alusión al dictador italiano Benito Mussolini. El comentario también agrega que enviaría a esas personas a Piazzale Loreto, el lugar donde se exhibió públicamente el cuerpo de Mussolini en abril de 1945. En su apelación ante el Consejo, el usuario afirmó que su publicación "no tiene nada en contra de [la] comunidad o Instagram" y la etiquetó como un "comentario antifascista simpático".

En virtud de la norma comunitaria sobre violencia e incitación, Meta prohíbe las "amenazas de violencia que podrían llevar a la muerte" u "ocasionar lesiones graves" y "declaraciones cifradas en las que el método de violencia no se expresa con claridad, pero hay una amenaza encubierta o implícita". No obstante, las bases de la política indican que la empresa intenta "tener en cuenta el lenguaje y el contexto para distinguir afirmaciones casuales o de concientización de contenido que constituya una amenaza creíble a la seguridad pública o privada". Dichas bases también destacan que Meta "tiene en cuenta otros datos, como la visibilidad pública y el riesgo para la seguridad física de una persona" para determinar si una amenaza es creíble.

Después de que el Consejo remitiera estos casos a Meta, la empresa concluyó que los cuatro contenidos no infringían la política de violencia e incitación de Meta y que la eliminación fue incorrecta. La empresa determinó que las declaraciones dirigidas a las autoridades constituyen expresiones retóricas de crítica, desprecio o desaprobación, no amenazas creíbles.

En el primer caso, Meta concluyó que el término "eliminado" debe interpretarse como un llamado a la destitución del primer ministro Afwerki más que como una amenaza de violencia, ya que los debates en torno a su posible destitución fueron un tema recurrente dentro del discurso político regional. En el segundo caso, Meta concluyó que la declaración del usuario, que Meta originalmente tradujo al inglés como "drown those bastards, shameless and unscrupulous officers" (hunda a esos funcionarios bastardos, sinvergüenzas y sin escrúpulos), pero más adelante actualizó como "damn these corrupt and conscienceless officers" (maldiga a estos funcionarios corruptos y sin principios), debe interpretarse como una expresión de profundo desprecio (en forma de plegaria a Dios) contra los líderes locales. En el tercer caso, Meta decidió que la declaración "se los juzgará y derrotará con dureza, no solo por sus palabras, sino por sus acciones" debe interpretarse como una crítica contra los líderes ucranianos. Por último, en el cuarto caso, Meta identificó la referencia a Piazzale Loreto como una señal de amenaza dado el incidente histórico de violencia ocurrido en ese lugar, pero determinó que el comentario no supone un riesgo inminente de violencia contra simpatizantes de Mussolini. Meta determinó entonces que el comentario no cumplía los criterios para que se lo considere una amenaza velada. Por ende, la empresa restauró los cuatro contenidos en sus plataformas.

Autoridad y alcance del Consejo

El Consejo tiene la facultad para revisar la decisión de Meta tras la apelación de un usuario cuyo contenido se eliminó (artículo 2, sección 1, del acta constitutiva; artículo 3, sección 1, de los estatutos).

Cuando Meta reconoce que cometió un error y revierte su decisión en un caso en consideración para la revisión del Consejo, el Consejo puede seleccionar dicho caso para una decisión resumida (artículo 2, sección 2.1.3, de los estatutos). El Consejo revisa la decisión original para entender mejor los procesos de moderación de contenido empleados, reducir los errores y ser más justo con los usuarios de Facebook, Instagram y Threads.

Importancia de los casos

Estos casos destacan la aplicación excesiva de la política de violencia e incitación de Meta contra declaraciones retóricas y cómo las deficiencias de la empresa a la hora de distinguir entre amenazas de violencia creíbles y no creíbles siguen restringiendo el discurso político.

El Consejo hizo hincapié reiteradamente en la importancia de diferenciar una amenaza de violencia creíble que podría conducir a daños en la vida real de una amenaza de violencia retórica que se emplea para expresar desprecio, condena, crítica o resentimiento contra regímenes políticos o figuras de poder, así como la necesidad de proteger a estas últimas. Por ejemplo, en la decisión del caso Eslogan de protesta contra Irán, el Consejo determinó que se empleó de forma retórica un eslogan de protesta muy utilizado, cuya traducción literalmente es una incitación a la muerte del líder supremo de Irán, el ayatolá Khamenei, para expresar desaprobación. Asimismo, en la decisión del caso Declaraciones sobre el primer ministro de Japón, el Consejo señaló que "la amenaza contra un líder político [ex primer ministro japonés Fumio Kishida] se entendía como una crítica política no literal cuyo objetivo era arrojar luz sobre presunta corrupción, con un lenguaje violento".

En esos dos casos, el Consejo emitió recomendaciones relevantes para este caso. En primer lugar, el Consejo recomendó a Meta "modificar la norma comunitaria sobre violencia e incitación. En ella, debe (i) explicar que ciertas amenazas retóricas, como "muerte a X", por lo general están permitidas, excepto cuando el blanco de la amenaza es una persona de alto riesgo; (ii) incluir una lista ilustrativa de personas de alto riesgo y explicar que pueden incluir jefes de Estado; (iii) proporcionar criterios para cuando se permite la permanencia de afirmaciones que suponen amenazas dirigidas a jefes de Estado para proteger discursos políticos que claramente son retóricos en contextos de manifestaciones que no incitan a la violencia" (decisión del caso Eslogan de protesta contra Irán, recomendación n.º 1). En segundo lugar, el Consejo recomendó que Meta "actualice las pautas internas de la [empresa] que se proporcionan a los revisores a gran escala sobre las incitaciones a la muerte que empleen la frase 'muerte a' cuando vayan dirigidas contra personas de alto riesgo", específicamente para "permitir publicaciones que, en el contexto y el idioma locales, expresan desdén o desacuerdo por medio de expresiones de amenaza violenta superficiales no graves" (Declaraciones sobre el primer ministro de Japón, recomendación n.º 2).

Meta informó que hubo progreso respecto de la implementación de ambas recomendaciones y explicó que la empresa "se comprometió a realizar un desarrollo normativo en relación con [su] enfoque sobre las 'incitaciones a la muerte'" y "ajustar las definiciones y la labor en cuanto a [la] política de violencia e incitación" (apéndice del informe del primer semestre de 2025 de Meta sobre el Consejo asesor de contenido).

Asimismo, a fin de garantizar que se evalúen con mayor precisión las posibles amenazas encubiertas, el Consejo recomendó a Meta "realizar una evaluación anual de precisión en esta área problemática", incluido "un enfoque específico sobre los porcentajes de falsos negativos en la detección y eliminación de amenazas que perjudican a los defensores de los derechos humanos y de falsos positivos que recaen sobre el discurso político" ( Contenido dirigido a una defensora de los derechos humanos de Perú, recomendación n.º 2). La implementación se encuentra actualmente en curso. En su respuesta inicial al Consejo en relación con esta recomendación, Meta explicó que "llevar a cabo una evaluación de 'precisión' es complicado, ya que la evaluación final es el resultado de factores complejos que pueden ser específicos de un contexto regional, histórico o, de otro modo, situacional", pero destacó que la empresa trabajará para "ajustar la manera en que se detecta contenido para someter a evaluación de amenazas encubiertas". El Consejo cree que, si se implementaran estas recomendaciones en su totalidad, se reduciría la cantidad de errores en la aplicación de la política de violencia e incitación, ya que la evaluación que realiza la empresa para determinar si las amenazas son creíbles incluiría más matices y se centraría más en el contexto. Asimismo, permitiría a Meta identificar de manera más fácil las deficiencias en la aplicación de políticas relacionada con amenazas encubiertas, con lo que se asignarían recursos para mejorar las tasas de precisión cuando sea necesario.

Decisión

El Consejo anuló las decisiones originales de Meta de eliminar los cuatro contenidos. El Consejo confirmó que Meta corrigió sus errores iniciales después de haberle remitido los casos.

Volver a Decisiones de casos y opiniones consultivas sobre políticas