قرار قضية متعددة

Crónicas sobre víctimas de violación israelíes

Un usuario apeló las decisiones de Meta de suprimir dos publicaciones de Facebook que describían la violencia sexual empleada por militantes de Hamás durante los ataques terroristas en Israel del 7 de octubre de 2023. Cuando el Consejo llamó la atención de Meta sobre las apelaciones, la empresa revocó sus decisiones originales y restauró las publicaciones.

2 تم تضمين من الحالات في هذه الحزمة

أسقط

FB-YCJP0Q9D

Caso sobre personas y organizaciones peligrosas en Facebook

منصة
Facebook
عنوان
Igualdad de sexo y género,Violencia,Guerra y conflictos
معيار
Personas y organizaciones peligrosas
موقع
Israel,Territorios Palestinos
Date
تم النشر بتاريخ تم النشر بتاريخ 4 نَيْسان 2024
أسقط

FB-JCO2RJI1

Caso sobre personas y organizaciones peligrosas en Facebook

منصة
Facebook
عنوان
Igualdad de sexo y género,Violencia,Guerra y conflictos
معيار
Personas y organizaciones peligrosas
موقع
Israel,Estados Unidos,Territorios Palestinos
Date
تم النشر بتاريخ تم النشر بتاريخ 4 نَيْسان 2024

Esta es una decisión resumida. En las decisiones resumidas se examinan casos en los que Meta ha revertido su decisión original respecto a un contenido después de que el Consejo llamara la atención de la empresa sobre el caso. Estas decisiones son aprobadas por un panel de miembros del Consejo, no por todo el Consejo; no admiten comentarios públicos, y no sientan precedente para el Consejo. Las decisiones resumidas dan lugar a cambios directos en las decisiones de Meta y aportan transparencia respecto de estas correcciones, al tiempo que permiten detectar en qué aspectos la empresa podría mejorar su sistema de aplicación de políticas.

Resumen del caso

Un usuario apeló las decisiones de Meta de suprimir dos publicaciones de Facebook que describían la violencia sexual empleada por militantes de Hamás durante los ataques terroristas en Israel del 7 de octubre de 2023. Cuando el Consejo llamó la atención de Meta sobre las apelaciones, la empresa revocó sus decisiones originales y restauró las publicaciones.

Descripción y antecedentes del caso

En octubre de 2023, un usuario de Facebook subió dos publicaciones distintas, una después de la otra, con contenido idéntico que incluía un vídeo en el que una mujer describía las violaciones de mujeres israelíes cometidas por Hamás durante los ataques terroristas del 7 de octubre. La descripción contenía un aviso de contenido delicado y la persona que hablaba en el vídeo advertía a los usuarios de que se trataba de contenido gráfico. En el vídeo aparecían imágenes de dos mujeres secuestradas por Hamás: un clip mostraba a una mujer herida de gravedad que yacía boca abajo en un camión y en otro se veía a una mujer herida siendo arrastrada desde la parte trasera de un vehículo. Estas imágenes se difundieron ampliamente tras el ataque. La primera publicación se compartió aproximadamente 4000 veces, mientras que la segunda se compartió menos de 50.

Meta suprimió inicialmente ambas publicaciones por infringir la política sobre personas y organizaciones peligrosas de sus Normas comunitarias. Según esta política, la empresa prohíbe bajo cualquier circunstancia las imágenes de terceros que muestren el momento en que víctimas identificables sufren un ataque terrorista designado, incluso si se comparten a modo de condena o para generar conciencia al respecto. Asimismo, de conformidad con la política sobre violencia e incitación de Meta, la empresa suprime el contenido en el que se muestren o describan secuestros o raptos cuando está claro que no ha sido compartido por una víctima o su familia para pedir ayuda, ni con fines informativos, para condenar el suceso o concienciar al respecto.

Cuando comenzó el ataque de Hamás el 7 de octubre, Meta empezó a aplicar de manera estricta su política sobre personas y organizaciones peligrosas a vídeos que mostrasen momentos en los que víctimas visibles sufrían ataques concretos. Meta explicó esta decisión en su publicación de Newsroom del 13 de octubre, donde afirmaba haberlo hecho “para dar prioridad a la seguridad de las personas secuestradas por Hamás”. Las dos piezas de contenido de ambos casos se suprimieron entonces por infringir la política sobre personas y organizaciones peligrosas de Meta.

Tras esta decisión, muchos canales de noticias comenzaron a difundir imágenes relacionadas y hubo usuarios que publicaron contenido similar para generar conciencia y condenar los ataques. En consecuencia, en torno al 20 de octubre, Meta actualizó sus políticas para permitir que los usuarios compartieran este tipo de contenido si su propósito era generar conciencia o condenar estas atrocidades, en cuyo caso aplicaba una pantalla de advertencia para informar a los usuarios de que las imágenes podían ser perturbadoras. Meta informó de este cambio en la política en una actualización del 5 de diciembre de la publicación original de Newsroom del 13 de octubre (véase “Rehenes secuestrados de Israel” para más información y contexto).

Meta suprimió inicialmente ambas piezas de contenido de Facebook en los dos casos. El usuario apeló las decisiones de Meta ante el Consejo. Después de que el Consejo llamase la atención de Meta sobre estos casos, la empresa determinó que las publicaciones ya no infringían sus políticas debido a la nueva exención y las restauró.

Competencia y ámbito de actuación del Consejo

El Consejo tiene potestad para revisar las decisiones de Meta tras la apelación de la persona cuyo contenido se haya suprimido (acta constitutiva, artículo 2, apartado 1; artículo 3, apartado 1 de los estatutos).

Si se da la circunstancia de que Meta reconoce haber cometido un error y revierte su decisión con respecto a un caso que el Consejo podría terminar examinando, este puede seleccionar dicho caso para una decisión resumida (artículo 2, apartado 2.1.3 de los estatutos). El Consejo revisa la decisión original para entender mejor los procesos de moderación de contenido empleados, reducir los errores y ser más justo con los usuarios de Facebook e Instagram.

Importancia del caso

Estos dos casos ponen de manifiesto los retos a los que se enfrenta Meta a la hora de aplicar sus políticas al contenido en un contexto de conflicto de alto riesgo que se encuentra en constante y rápida evolución. Tal como determinó el Consejo en su decisión rápida del caso “Rehenes secuestrados en Israel”, la política inicial de Meta que prohibía el contenido en el que aparecen rehenes protegía la integridad de dichas personas y tenía como finalidad garantizar que no quedasen expuestas a la curiosidad pública. Sin embargo, el Consejo también determinó que, en circunstancias excepcionales, cuando el interés público sea tal que así lo exija o el interés vital de los rehenes lo requiera, estaría justificado aplicar excepciones temporales y limitadas. En vista del contexto, el Consejo considera que restaurar este tipo de contenido en la plataforma y añadirle una pantalla de advertencia es coherente con los valores, las políticas de contenido y las responsabilidades en materia de derechos humanos de Meta. Esta medida sería también coherente con el Derecho internacional humanitario y la práctica de preservar documentación de presuntas violaciones para poder obligar a la rendición de cuentas en el futuro, así como para generar conciencia entre la población. En ese caso, el Consejo señaló también que Meta tardó demasiado en iniciar la aplicación de esta excepción a todos los usuarios, y que este rápido cambio en la estrategia de moderación de contenido de la empresa durante el conflicto ha venido acompañado de una constante falta de transparencia.

El Consejo ya ha emitido varias recomendaciones pertinentes para este caso en ocasiones anteriores. Por ejemplo, ya había manifestado que Meta debería anunciar las excepciones a sus Normas comunitarias y especificar “su duración y finalización con el fin de informar a las personas que usan sus plataformas acerca de los cambios en sus políticas que permitan ciertos tipos de expresión” (véase “Mensaje de protesta en Irán”, recomendación n.º 5) La implementación parcial de esta recomendación por parte de Meta ha quedado demostrada mediante la información publicada al respecto. Asimismo, el Consejo también había recomendado a Meta preservar evidencias de posibles crímenes de guerra, delitos de lesa humanidad y violaciones graves de los derechos humanos para facilitar la rendición de cuentas en el futuro ( véase “Vídeo gráfico de Sudán, recomendación n.º 1 y “Vídeo de prisioneros de guerra armenios”, recomendación n.º 1). Meta ha aceptado implementar esta recomendación y está trabajando en ello. El Consejo destaca la necesidad de que Meta implemente estas recomendaciones para garantizar que, en sus plataformas, al contenido relacionado con los derechos humanos se le apliquen las políticas pertinentes de manera precisa.

Decisión

El Consejo revoca las decisiones originales de Meta de suprimir las dos piezas de contenido y reconoce que la empresa ha corregido sus errores iniciales después de que el Consejo llamase su atención sobre los casos.

العودة إلى قرارات الحالة والآراء الاستشارية المتعلقة بالسياسة