Anulado
Caricatura que muestra la opresión talibán contra las mujeres
7 de marzo de 2024
Un usuario apeló la decisión de Meta de eliminar una publicación de Facebook con una caricatura política que ilustraba la opresión de las mujeres afganas bajo el régimen talibán. Este caso pone de manifiesto los errores de Meta en la aplicación de la política de personas y organizaciones peligrosas.
Esta es una decisión resumida. Las decisiones resumidas examinan casos en los que Meta revirtió su decisión original sobre un contenido después de que el Consejo le remitiera el caso a la empresa. Estas decisiones incluyen información sobre los errores reconocidos por Meta e informan al púbico sobre el impacto del trabajo del Consejo. Un panel de miembros del Consejo las aprueba, pero no todo el Consejo. No tienen en cuenta los comentarios del público ni tienen un valor de precedente para el Consejo. Las decisiones resumidas aportan transparencia a las correcciones de Meta y destacan áreas en las que la empresa podría mejorar la aplicación de políticas.
Resumen del caso
Un usuario apeló la decisión de Meta de eliminar una publicación de Facebook con una caricatura política que ilustraba la opresión de las mujeres afganas bajo el régimen talibán. Este caso pone de manifiesto los errores de Meta en la aplicación de la política de personas y organizaciones peligrosas, específicamente en el contexto de discursos políticos expuestos a través de la sátira. Después de que el Consejo le remitiera la apelación a Meta, la empresa revirtió su decisión original y restauró la publicación.
Descripción y contexto del caso
En agosto de 2023, un usuario de Facebook, un caricaturista profesional de los Países Bajos, publicó una caricatura que mostraba a tres hombres talibanes sentados sobre una trituradora de automóviles con un grupo de mujeres angustiadas debajo. En el fondo, había un medidor con la frase "oppress-o-meter" (medidor de opresión) conectado a un panel de control, y se veía a uno de los hombres presionando un botón para que la trituradora baje. El texto que acompañaba a esta imagen decía: "2 years of Taliban rule. #Afghanistan #Taliban #women #oppression." (2 años de régimen talibán. #Afganistán #Talibán #mujeres #opresión). La publicación se eliminó por infringir la política de personas y organizaciones peligrosas de Meta, que prohíbe la representación de grupos y personas que la empresa considera que se vinculan a daños significativos en la vida real, así como cierto discurso sobre ellos.
En su apelación al Consejo, el usuario indicó que el contenido era una caricatura política de naturaleza satírica que comentaba sobre la opresión continua y cada vez peor que sufren las mujeres en Afganistán con el régimen talibán. La política de personas y organizaciones peligrosas de Meta permite contenido que reporta, condena o habla sobre ellas o sus actividades en un tono neutral.
Después de que el Consejo remitiera este caso a Meta, la empresa determinó que el contenido no infringía la política de personas y organizaciones peligrosas y que su eliminación había sido incorrecta. Seguidamente, la empresa restauró el contenido en Facebook.
Autoridad y alcance del Consejo
El Consejo tiene la facultad para revisar la decisión de Meta tras la apelación de un usuario cuyo contenido se eliminó (artículo 2, sección 1, del acta constitutiva; artículo 3, sección 1, de los estatutos).
Cuando Meta reconoce que cometió un error y revierte su decisión en un caso en consideración para la revisión del Consejo, el Consejo puede seleccionar ese caso para una decisión resumida (artículo 2, sección 2.1.3, de los estatutos). El Consejo revisa la decisión original para entender mejor los procesos de moderación de contenido empleados, reducir los errores y ser más justo con los usuarios de Facebook e Instagram.
Importancia del caso
Este caso expone las falencias de Meta en los procedimientos de aplicación de políticas, particularmente al detectar e interpretar imágenes asociadas con personas y organizaciones designadas. La sobreaplicación de esta política posiblemente podría causar, como ocurrió en este caso, la eliminación de expresiones artísticas vinculadas a discursos políticos legítimos.
En 2022, el Consejo también recomendó que "Meta debería evaluar la precisión de los revisores al aplicar la concesión para informes periodísticos correspondiente a la política de personas y organizaciones peligrosas a fin de identificar problemas sistémicos que causen errores en la aplicación" (decisión del caso Mención de los talibanes en los informes de noticias, recomendación n.º 5). Además, en la misma decisión (decisión del caso Mención de los talibanes en los informes de noticias, recomendación n.º 6), el Consejo indicó que "Meta debería realizar una revisión del sistema de invalidación de falsos positivos con una alta repercusión (HIPO) para examinar si puede priorizar de manera más efectiva errores potenciales en la aplicación de las concesiones para la política de personas y organizaciones peligrosas". Para ambas recomendaciones, Meta informó que hubo progreso en la implementación.
El Consejo recomendó que "Meta debería garantizar la implementación de procedimientos que permitan analizar contenido y contexto satíricos correctamente y que los moderadores reciban incentivos adecuados para investigar el contexto de contenido potencialmente satírico" (decisión del caso El meme de los dos botones, recomendación n°. 3). Meta informó la implementación parcial de esta recomendación.
El Consejo enfatizó que la implementación completa de estas recomendaciones podría reducir el número de errores de aplicación de normas conforme a la política de personas y organizaciones peligrosas de Meta.
Decisión
El Consejo anuló la decisión original de Meta de eliminar el contenido. El Consejo confirma que Meta corrigió su error inicial después de haberle remitido el caso.
Volver a Decisiones de casos y opiniones consultivas sobre políticas