Decisión de casos múltiples

Contenido gráfico en un contexto de concientización

Cuatro usuarios apelaron la decisión de Meta de eliminar sus publicaciones de Facebook e Instagram en las que se mostraba contenido gráfico en un contexto de concientización.

4 casos incluidos en el paquete

Anulado

FB-PW4MPO8J

Caso sobre contenido violento y gráfico en Facebook

Plataforma
Facebook
Tema
Acontecimientos periodísticos,Seguridad,Guerra y conflictos
Estándar:
Contenido violento y gráfico
Ubicación
México
Date
Publicado el 21 de abril de 2026
Anulado

FB-GKN5CHBI

Caso sobre contenido violento y gráfico en Facebook

Plataforma
Facebook
Tema
Acontecimientos periodísticos,Seguridad,Guerra y conflictos
Estándar:
Contenido violento y gráfico
Ubicación
México
Date
Publicado el 21 de abril de 2026
Anulado

FB-S5ZFX6W8

Caso sobre contenido violento y gráfico en Facebook

Plataforma
Facebook
Tema
Acontecimientos periodísticos,Seguridad,Guerra y conflictos
Estándar:
Contenido violento y gráfico
Ubicación
Rusia,Ucrania
Date
Publicado el 21 de abril de 2026
Anulado

IG-IA95C08R

Caso sobre contenido violento y gráfico en Instagram

Plataforma
Instagram
Tema
Acontecimientos periodísticos,Seguridad,Guerra y conflictos
Estándar:
Contenido violento y gráfico
Ubicación
Brasil
Date
Publicado el 21 de abril de 2026

Las decisiones resumidas analizan casos en los que Meta revirtió su decisión original sobre un contenido después de que el Consejo lo remitiera a la empresa e incluyen información sobre los errores que Meta reconoció. Estas decisiones son aprobadas por un panel de miembros del Consejo, no por todo el Consejo, no implican comentarios del público ni tienen valor de precedencia para el Consejo. Las decisiones resumidas traen aparejados cambios directos en las decisiones de Meta, ya que aportan transparencia respecto de estas correcciones, a la vez que permiten identificar en qué aspectos Meta podría mejorar la aplicación de sus políticas.

Resumen

Cuatro usuarios apelaron la decisión de Meta de eliminar sus publicaciones de Facebook e Instagram en las que se mostraba contenido gráfico en un contexto de concientización. Después de que el Consejo le remitiera las apelaciones a Meta, la empresa revirtió sus decisiones originales y restauró las cuatro publicaciones.

Información de los casos

En agosto y septiembre de 2025, cuatro usuarios de tres países diferentes (México, Ucrania y Brasil) publicaron contenido con imágenes gráficas en un contexto de concientización que Meta eliminó originalmente por infringir la política de contenido violento y gráfico.

En el primer caso, el usuario publicó un video en Facebook donde aparecía una persona sosteniendo un cubo de agua cerca de varias otras con heridas de quemadura visibles, aparentemente en el momento posterior a la explosión de un camión cisterna en Ciudad de México. La descripción en español dice: "Errores que no debes cometer". En el audio, una persona explica que quien sostiene el cubo tenía intención de tirarles agua a las víctimas quemadas, lo que habría introducido bacterias a la piel expuesta. En su apelación al Consejo, el usuario indicó que el video era sobre una explosión en México.

El segundo caso tiene que ver con una publicación con video en Facebook en la que aparecían víctimas heridas, aparentemente a causa de la misma explosión en Ciudad de México. Como el video se centra en algunas de las víctimas, que están desnudas, se oscurece y ennegrece. La descripción en español dice "Imágenes fuertes", seguida de hashtags como "#incendio" y "#noticias". En su apelación al Consejo, el usuario señaló que estaba "informando al público sobre acontecimientos importantes".

En el tercer caso, una agencia de noticias publicó un video que, en dos momentos diferentes, mostraba la imagen de un cuello con un corte. La descripción, traducida del ucraniano al inglés, dice en español: "Con este corte en el cuello, [nombre] se arrastró durante cinco días para huir del cautiverio hasta las posiciones ucranianas [...] Junto con sus camaradas, cayó en una emboscada que les tendieron los soldados rusos". La publicación también afirma que el combatiente y sus compañeros recibieron torturas mientras estuvieron cautivos. En su apelación al Consejo, la agencia de noticias explicó que el video se publicó como "importante evidencia de tortura y violaciones graves de los derechos humanos" y "es en beneficio del interés público porque documenta crímenes y genera conciencia sobre [sus] consecuencias".

En el cuarto caso, un usuario de Instagram publicó un video de una persona quitándose la piel de la mano hasta exponer el tejido. La descripción, que se tradujo del portugués, brinda información sobre los riesgos de infección y deficiencia de líquidos asociados con la pérdida de la integridad de la piel. En ella se hace hincapié en la importancia de cuidar de forma adecuada las lesiones cutáneas. La descripción también incluye hashtags relacionados con enfermería y salud. En su apelación al Consejo, el usuario expresó que se dedica a la docencia con especialización en dermatología y que el contenido tenía como fin informar a estudiantes y profesionales de la salud.

En virtud de la política de contenido violento y gráfico, Meta prohíbe "videos de personas, vivas o muertas, en contextos que no sean médicos, que muestren [...] vísceras visibles, como órganos, huesos o tejido muscular expuestos en personas vivas o muertas; personas quemadas o carbonizadas; degollación".

Luego de que el Consejo seleccionara los casos, Meta determinó que había eliminado incorrectamente las cuatro publicaciones. En el primer caso, Meta concluyó que, si bien las heridas son visibles, el contenido no infringe la política porque no muestra enrojecimiento, ampollas, descamación ni supuración. En el segundo caso, Meta llegó a la misma conclusión, esta vez porque la imagen se oscurece a medida que se hace foco y no se pueden ver las heridas. Respecto del tercer caso, Meta explicó que, en el caso de las imágenes fijas que muestran un cuello cortado, aplica "una pantalla de advertencia para indicar que el contenido es delicado y restringe su visibilidad a personas mayores de 18 años". Por ende, Meta concluyó que el contenido debería permitirse, siempre y cuando se coloque una pantalla de advertencia con visibilidad limitada a adultos. En el cuarto caso, Meta observó que "el contenido muestra tejido superficial sin órganos, huesos o tejido muscular visibles" y agrega que "las quemaduras no parecen lo suficientemente graves para constituir una infracción" de la política de contenido violento y gráfico. En consecuencia, Meta restauró las cuatro publicaciones y, en el tercer caso, aplicó una pantalla de advertencia con restricciones de edad al contenido.

Autoridad y alcance del Consejo

El Consejo tiene la facultad para revisar la decisión de Meta tras la apelación de un usuario cuyo contenido se eliminó (artículo 2, sección 1, del acta constitutiva; artículo 3, sección 1, de los estatutos).

Cuando Meta reconoce que cometió un error y revierte su decisión en un caso en consideración para la revisión del Consejo, el Consejo puede seleccionar ese caso para una decisión resumida (artículo 2, sección 2.1.3, de los estatutos). El Consejo revisa la decisión original para entender mejor los procesos de moderación de contenido empleados, reducir los errores y ser más justo con los usuarios de Facebook, Instagram y Threads.

Importancia de los casos

Este paquete de casos brinda varios ejemplos de la sobreaplicación de la norma comunitaria sobre contenido violento y gráfico de Meta y demuestra cómo puede afectar a la concientización en torno a eventos informativos sobre temas de interés público, problemas relacionados con la salud y abusos de los derechos humanos.

En el caso Video gráfico de Sudán, el Consejo señaló que, si bien las bases de la norma comunitaria sobre contenido violento y gráfico indican que Meta permite generar conciencia, las reglas específicas que figuran en ella no incluyen una excepción de "concientización". El Consejo recomendó que "Meta enmiende la norma comunitaria sobre contenido violento y gráfico para permitir videos de personas o cadáveres cuando se comparten con el fin de generar conciencia en torno a los abusos de los derechos humanos o documentarlos. Este contenido se debe permitir con una pantalla de advertencia para que las personas sepan que puede ser perturbador" ( Video gráfico de Sudán, recomendación n.º 1). El Consejo consideró que Meta reformuló esta recomendación. La empresa señaló: "El año pasado, invitamos al Consejo a asistir a un Foro de políticas relacionado con esta recomendación [...] En última instancia, dados los comentarios que recibimos durante este desarrollo normativo, acordamos mantener la política de status quo para eliminar el contenido de forma predeterminada, pero permitirlo con una etiqueta de advertencia cuando hay contexto adicional. Si bien esto no enmienda la norma comunitaria para permitir videos de personas o cadáveres si se comparten para generar conciencia o documentar abusos de los derechos humanos a gran escala, sí se sigue permitiendo que este contenido se evalúe en la etapa de escalamiento (actualización trimestral de Meta sobre el Consejo asesor de contenido del cuarto trimestre de 2023).

En relación con el tercer caso, que muestra el resultado de presunta violencia contra un soldado ucraniano capturado, el Consejo recomendó anteriormente que "Meta asuma el compromiso de preservar y, cuando sea necesario, compartir con las autoridades pertinentes evidencia de crímenes atroces o violaciones graves de los derechos humanos, como aquellos que se especifican en el Estatuto de Roma de la Corte Penal Internacional, al actualizar sus políticas internas para aclarar los protocolos vigentes en este asunto" ( Video de prisioneros de guerra armenios, recomendación n.º 1). En la misma decisión, el Consejo recomendó también que, "tras la elaboración del protocolo sobre la preservación de evidencias en relación con crímenes atroces y violaciones graves de los derechos humanos, Meta debe compartir públicamente este protocolo en el Centro de transparencia" ( Video de prisioneros de guerra armenios, recomendación n.º 4). Meta informó la implementación de estas recomendaciones, pero no publicó información que la demuestre. En respuesta a ambas recomendaciones, Meta señaló: "Informamos al Consejo asesor de contenido [...] para brindarle detalles sobre nuestro nuevo enfoque respecto de la preservación de posible evidencia de crímenes atroces y violaciones graves de la ley internacional de derechos humanos" (actualización semestral de Meta sobre el Consejo asesor de contenido del primer semestre de 2024).

El Consejo cree que la implementación total de las recomendaciones antes mencionadas permitiría a los usuarios generar conciencia de forma más efectiva en torno a eventos informativos sobre temas de interés público, problemas relacionados con la salud y abusos de los derechos humanos.

Decisión

El Consejo anuló las decisiones originales de Meta de eliminar los cuatro contenidos. El Consejo confirmó que Meta corrigió sus errores iniciales después de haberle remitido los casos.

Volver a Decisiones de casos y opiniones consultivas sobre políticas