Anulado

Comentario sobre el Partido Comunista de China

Un usuario apeló la decisión de Meta de suprimir un comentario de Instagram en el que se pedía la “muerte” del Partido Comunista de China.

Tipo de decisão

Resumo

Políticas e tópicos

विषय
Liberdade de expressão, Governos, Protestos
Padrão da comunidade
Violência e incitação

Regiões/países

Localização
China

Plataforma

Plataforma
Instagram

En las decisiones resumidas se examinan casos en los que Meta ha revertido su decisión original respecto a un contenido después de que el Consejo llamara la atención de la empresa sobre el caso, e incluyen información sobre los errores que Meta ha reconocido. Estas decisiones son aprobadas por un panel de miembros del Consejo, no por todo el Consejo; no admiten comentarios públicos y no sientan precedente para el Consejo. Las decisiones resumidas dan lugar a cambios directos en las decisiones de Meta y aportan transparencia respecto de estas correcciones, al tiempo que permiten detectar en qué aspectos la empresa podría mejorar su sistema de aplicación de políticas.

Resumen

Un usuario apeló la decisión de Meta de suprimir un comentario de Instagram en el que se pedía la “muerte” del Partido Comunista de China. Cuando el Consejo llamó la atención de Meta sobre la apelación, la empresa revocó su decisión original y restauró la publicación.

Información sobre el caso

En marzo de 2024, un usuario de Instagram publicó un comentario en el que decía “Death to the Chinese Communist Party!” (¡Muerte al Partido Comunista de China!) e incluía a continuación emoticonos de calaveras. Se trataba de respuesta a una publicación de una cuenta de un canal de noticias que incluía un vídeo de Wang Wenbin, exportavoz del Ministerio de Asuntos Exteriores de China, en el que condenaba la aprobación de un proyecto de ley en la Cámara de Representantes de los Estados Unidos que podría afectar a la presencia de TikTok en el país.

Meta inicialmente suprimió la publicación del usuario de Facebook conforme a la política sobre violencia e incitación de sus Normas comunitarias, que prohíbe las “amenazas de violencia”. La empresa explicó que la prohibición incluye “ciertos llamamientos a la muerte si contienen un objetivo y un método de violencia”.

Después de que el Consejo llamase la atención de Meta sobre este caso, la empresa determinó que la supresión del comentario no había sido correcta, por lo que restauró el contenido en Instagram. Meta explicó que, tal como se detalla en sus pauta internas para los revisores de contenido, los llamamientos a la muerte de una institución como el Partido Comunista de China no se consideran infractores.

Competencia y ámbito de actuación del Consejo

El Consejo tiene potestad para revisar la decisión de Meta tras la apelación de un usuario cuyo contenido se haya suprimido (artículo 2, apartado 1 del acta constitutiva; artículo 3, apartado 1 de los estatutos).

Si se da la circunstancia de que Meta reconoce haber cometido un error y revierte su decisión con respecto a un caso que el Consejo podría terminar examinando, este puede seleccionar dicho caso para una decisión resumida (artículo 2, apartado 2.1.3 de los estatutos). El Consejo revisa la decisión original para entender mejor los procesos de moderación de contenido empleados, reducir los errores y ser más justo con los usuarios de Facebook, Instagram y Threads.

Relevancia del caso

Este caso pone de manifiesto una inconsistencia en la manera en que Meta aplica su política sobre violencia e incitación a las declaraciones metafóricas o figuradas en contextos políticos, que puede perjudicar de forma desproporcionada al discurso político que critica a Estados e instituciones gubernamentales. El caso pone de relieve la importancia de que, al diseñar sus sistemas de moderación, Meta tenga en cuenta el objetivo del discurso (en este caso, un partido político), así como el uso que las personas hacen de la hipérbole, la retórica, la ironía y la sátira para criticar a instituciones.

En cuanto al discurso retórico, en el caso Poema ruso, el Consejo también concluyó que los fragmentos con lenguaje violento del poema “Kill him!” (¡Mátalo!) podrían interpretarse como “expresiones descriptivas, y no alentadoras, de un estado mental”. El Consejo determinó que el lenguaje se empleó como recurso retórico para transmitir el mensaje del usuario y que, en consecuencia, las pautas internas de Meta relacionadas con su política sobre violencia e incitación permitían esa parte del contenido.

Si bien se refiere a una política de las Normas comunitarias (lenguaje que incita al odio) diferente de la correspondiente a este caso (violencia e incitación), la decisión del caso Bot de Myanmar/Birmania es pertinente aquí porque también está relacionada con discurso dirigido a Estados o instituciones políticas. En ese caso, el Consejo concluyó que, dado que el lenguaje malsonante de la publicación no se dirigía a personas por motivo de su raza, etnia u origen nacional, sino que estaban dirigidas a un Estado, no infringía la política sobre lenguaje que incita al odio de la Normas comunitarias. El Consejo remarca lo siguiente: “Es esencial garantizar que las prohibiciones que impiden dirigirse a personas en base a características protegidas no se interpreten de tal forma que acaben protegiendo a Gobiernos e instituciones contra las críticas”.

El Consejo ya ha instado a Meta en ocasiones anteriores a implementar procedimientos adecuados para evaluar el contenido como parte del contexto al que pertenece (caso El memede “los dos botones”, recomendación n.º 3). También ha recomendado lo siguiente: “Para informar a los usuarios de mejor forma sobre los tipos de afirmaciones que están prohibidos, Meta debe modificar la política sobre violencia e incitación de las Normas comunitarias. En ella, debe (i) explicar que determinadas amenazas retóricas, como ‘muerte a X’, por lo general están permitidas, excepto cuando el objetivo de la amenaza es una persona de alto riesgo […]” (caso Mensaje de protesta en Irán, recomendación n.º 1); y “es preferible que Meta tienda a conceder exenciones a gran escala cuando (i) no sea probable que esto genere violencia; (ii) el contenido potencialmente infractor se use en un contexto manifestaciones; y (iii) haya mucho interés público” (caso Mensaje de protesta en Irán, recomendación n.º 2).

Meta ha informado de que ha implementado la recomendación del caso Meme de “los dos botones” y la recomendación n.º 2 de la decisión del caso Mensaje de protesta en Irán, pero no ha publicado información que lo demuestre. En cuanto a la recomendación n.º 1 del caso Mensaje de protesta en Irán, en su actualización trimestral sobre el Consejo asesor de contenido del cuarto trimestre de 2023, Meta afirmó lo siguiente: “Hemos actualizado la política sobre violencia e incitación de nuestras Normas comunitarias. Ahora proporcionamos más detalles sobre lo que constituye una ‘amenaza’ y distinguimos la aplicación que hacemos de le política según el objetivo. En relación con este cambio, también hemos actualizado nuestras guías internas”.

El Consejo considera que la implementación total de estas recomendaciones podría contribuir a reducir el número de errores ocasionados por la aplicación de la política sobre violencia e incitación.

Decisión

El Consejo revoca la decisión original de Meta de suprimir el contenido y reconoce que la empresa ha corregido su error inicial después de que llamase su atención sobre el caso.

Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas