Anulado
Imágenes de masacres en Siria
13 de mayo de 2025
Un usuario apeló la decisión de Meta de eliminar una publicación en Facebook de un video que incluía imágenes gráficas de violencia en Siria.
Las decisiones resumidas analizan casos en los que Meta revirtió su decisión original sobre un contenido después de que el Consejo lo remitiera a la empresa e incluyen información sobre los errores que Meta reconoció. Estas decisiones son aprobadas por un panel de miembros del Consejo, no por todo el Consejo, no implican comentarios del público ni tienen valor de precedencia para el Consejo. Las decisiones resumidas traen aparejados cambios directos en las decisiones de Meta, ya que aportan transparencia respecto de estas correcciones, a la vez que permiten identificar en qué aspectos Meta podría mejorar la aplicación de sus políticas.
Resumen
Un usuario apeló la decisión de Meta de eliminar una publicación en Facebook de un video que incluía imágenes gráficas de violencia en Siria. Después de que el Consejo le remitiera la apelación a Meta, la empresa revirtió su decisión original y restauró la publicación con una pantalla de advertencia.
Información sobre el caso
En diciembre de 2024, un usuario publicó un video en Facebook en el que se mostraban escenas de violencia, incluidos golpiza y apuñalamiento, personas quemadas y muertos y heridos, incluidos niños. La descripción del video, escrita en árabe, explica que el contenido muestra escenas de masacres perpetradas por "criminales del partido de Satanás en Siria" [que participaban en ellas], y afirma que las personas no lo olvidan y no perdonarán los crímenes cometidos. Según informes periodísticos establecidos, al parecer "partido de Satanás" hace referencia a Hezbolá.
En virtud de la norma comunitaria sobre contenido violento y gráfico, Meta elimina "el contenido que sea más gráfico y agrega etiquetas de advertencia a otro contenido gráfico para que las personas sepan que puede ser delicado o perturbador antes de hacer clic en él". Por ende, no se permiten "videos de personas, vivas o muertas, en contextos que no sean médicos", que muestren "desmembramiento", "vísceras visibles", "personas quemadas o carbonizadas" o "degollación". Meta señala también que, en el caso de las "imágenes (videos e imágenes estáticas) que muestran la muerte violenta de una persona (incluida su muerte o el momento posterior) o a una persona que experimenta un suceso fatal", la empresa aplica una pantalla de advertencia para que las personas sepan que el contenido puede ser perturbador, y, en estas instancias, puede limitarlo para que solo lo vean adultos mayores de 18 años. Asimismo, cuando se brinda contexto adicional, Meta puede permitir el contenido gráfico "para que las personas puedan condenar estos hechos o generar conciencia al respecto, como abusos de los derechos humanos o conflictos armados" a fin de "concientizar y dar lugar al debate".
Luego de que el Consejo remitiera este caso a Meta, la empresa determinó que el contenido no debería haberse eliminado en virtud de la política de contenido violento y gráfico. Seguidamente, la empresa lo restauró en Facebook con una pantalla de advertencia.
Autoridad y alcance del Consejo
El Consejo tiene la facultad para revisar la decisión de Meta tras la apelación de un usuario cuyo contenido se eliminó (artículo 2, sección 1, del acta constitutiva; artículo 3, sección 1, de los estatutos).
Cuando Meta reconoce que cometió un error y revierte su decisión en un caso en consideración para la revisión del Consejo, el Consejo puede seleccionar ese caso para una decisión resumida (artículo 2, sección 2.1.3, de los estatutos). El Consejo revisa la decisión original para entender mejor los procesos de moderación de contenido empleados, reducir los errores y ser más justo con los usuarios de Facebook, Instagram y Threads.
Importancia del caso
Este caso ilustra los problemas constantes relacionados con la capacidad de Meta para moderar contenido que genera conciencia respecto de violaciones flagrantes a los derechos humanos y las documenta. Pese al texto incluido en la política de contenido violento y gráfico de Meta que reconoce que los usuarios pueden compartir contenido para generar conciencia sobre "abusos a los derechos humanos o conflictos armados" o repudiarlos, la empresa sigue eliminando contenido de sus plataformas que justamente persigue este fin.
El Consejo emitió recomendaciones para guiar a Meta en sus prácticas de aplicación de políticas respecto del contenido violento o gráfico que se comparte en el contexto de repudio o para concientizar, con la intención de que estas concesiones se puedan imponer a gran escala y no solo en circunstancias excepcionales. Por ejemplo, en la decisión del caso Video gráfico de Sudán, el Consejo recomendó a "Meta enmendar la norma comunitaria sobre contenido violento y gráfico para permitir videos de personas o cadáveres cuando se comparten con el fin de generar conciencia en torno a los abusos de los derechos humanos o documentarlos. Este contenido se debe permitir con una pantalla de advertencia para que las personas sepan que puede ser perturbador" ( Video gráfico de Sudán, recomendación n.º 1). Se rechazó la recomendación luego de una evaluación de viabilidad. Meta informó haber emprendido el desarrollo de políticas que aborden el tema y, en última instancia, decidió mantener el status quo de "eliminar el contenido de forma predeterminada, pero permitirlo con una pantalla de advertencia cuando hay contexto adicional" ( Actualización trimestral de Meta del cuarto trimestre de 2023 sobre el Consejo asesor de contenido).
Asimismo, el Consejo recomendó anteriormente que "Meta debería agregar al texto público de su norma comunitaria sobre contenido violento y gráfico detalles de las pautas internas respecto de cómo la empresa determina si una imagen muestra la muerte violenta de una o más personas por accidente o asesinato" ( Poema ruso, recomendación n.º 2). Meta demostró la implementación parcial de esta recomendación por medio de información que publicó. La empresa actualizó el texto de su norma comunitaria sobre contenido violento y gráfico, que ahora incluye entre paréntesis, a modo de aclaración, lo que quiere decir con "muerte violenta". El texto ahora reza: "Imágenes (videos e imágenes estáticas) que muestran la muerte violenta de una persona (incluida su muerte o el momento posterior)". No obstante, la definición más amplia de Meta no fue suficiente para explicar cómo la empresa determina si una imagen "muestra la muerte violenta de una persona o varias a causa de un accidente o asesinato".
Asimismo, el Consejo recomendó que Meta "mejore sus informes de transparencia para aumentar la información pública relativa a la tasa de errores. Para ello, debería incluir esta información por país e idioma para cada norma comunitaria" ( Inquietud punyabí en torno a la RSS en la India, recomendación n.º 3). En esta recomendación, el Consejo pone de relieve que, con informes de transparencia más detallados, el público podrá detectar áreas en las que es más común que ocurran errores, incluido el posible impacto específico en grupos minoritarios. La implementación de esta recomendación se encuentra actualmente en curso. En su actualización más reciente de esta recomendación, Meta explicó que la empresa "se encuentra en el proceso de recopilar información general sobre datos de aplicación de políticas para compartir con el Consejo en carácter confidencial". El documento detallará los puntos de datos que brindan indicadores de precisión de la aplicación de diversas políticas. Meta señaló que la empresa "continúa comprometida con recopilar información general que aborde la principal incitación del Consejo a una mayor transparencia en cuanto a la precisión de la aplicación de las diversas políticas" (Informe semestral de Meta del segundo semestre de 2024 sobre el Consejo asesor de contenido, apéndice).
El Consejo destaca la importancia de que Meta siga mejorando su capacidad para detectar contenido cuyo fin es generar conciencia sobre abusos de los derechos humanos o repudiarlos, y conservar dicho contenido en la plataforma con una pantalla de advertencia, en virtud de la política de contenido violento y gráfico de la empresa.
Decisión
El Consejo anuló la decisión original de Meta de eliminar el contenido. El Consejo confirmó que Meta corrigió su error inicial después de haberle remitido el caso.
Volver a Decisiones de casos y opiniones consultivas sobre políticas