Decisión de casos múltiples
Denuncias de víctimas de violaciones en Israel
4 de abril de 2024
Un usuario apeló las decisiones de Meta de eliminar dos publicaciones de Facebook que describían la violencia sexual que ejercieron militantes de Hamás durante los ataques terroristas en Israel del 7 de octubre de 2023. Después de que el Consejo le remitiera las apelaciones a Meta, la empresa revirtió sus decisiones originales y restauró las publicaciones.
2 casos incluidos en el paquete
FB-YCJP0Q9D
Caso sobre personas y organizaciones peligrosas en Facebook
FB-JCO2RJI1
Caso sobre personas y organizaciones peligrosas en Facebook
Esta es una decisión resumida. Las decisiones resumidas examinan casos en los que Meta revirtió su decisión original sobre un contenido después de que el Consejo lo remitiera a la empresa e incluyen información sobre los errores que Meta reconoció. Estas decisiones son aprobadas por un panel de miembros del Consejo, no por todo el Consejo, no implican comentarios del público ni tienen valor de precedencia para el Consejo. Las decisiones resumidas traen aparejados cambios directos en las decisiones de Meta, ya que aportan transparencia respecto de estas correcciones, mientras que permiten identificar en qué aspectos Meta podría mejorar la aplicación de sus políticas.
Resumen del caso
Un usuario apeló las decisiones de Meta de eliminar dos publicaciones de Facebook que describían la violencia sexual que ejercieron militantes de Hamás durante los ataques terroristas en Israel del 7 de octubre de 2023. Después de que el Consejo le remitiera las apelaciones a Meta, la empresa revirtió sus decisiones originales y restauró las publicaciones.
Descripción y contexto del caso
En octubre de 2023, un usuario de Facebook subió dos publicaciones independientes, una después de la otra, con contenido idéntico que mostraba un video en el que una mujer describía las violaciones de mujeres israelíes perpetradas por Hamás durante los ataques terroristas del 7 de octubre. La descripción incluía un "aviso de advertencia" y la persona que hablaba en el video advertía a los usuarios que se trataba de contenido gráfico. En el video, se mostraban imágenes de dos mujeres diferentes secuestradas por Hamás; un clip mostraba a una mujer herida de gravedad yaciendo boca abajo en un camión y otro mostraba a una mujer herida siendo arrastrada desde la parte trasera de un vehículo. Estas imágenes se difundieron ampliamente luego del ataque. La primera publicación se compartió aproximadamente 4.000 veces, mientras que la segunda se compartió menos de 50 veces.
Meta eliminó inicialmente ambas publicaciones por infringir la norma comunitaria sobre personas y organizaciones peligrosas. En virtud de esta política, la empresa prohíbe en cualquier circunstancia imágenes de terceros que muestren el momento en que víctimas identificables sufren un ataque terrorista designado, incluso si se comparten a modo de repudio o para generar conciencia al respecto. Asimismo, de conformidad con la norma comunitaria sobre violencia e incitación de Meta, la empresa elimina el "contenido que represente secuestros o raptos, a menos que esté claro que las comparte una víctima o su familia para pedir ayuda, o bien que se las comparte con fines informativos, para condenar el suceso o generar conciencia".
Cuando comenzó el ataque de Hamás el 7 de octubre, Meta empezó a aplicar de manera estricta su política de personas y organizaciones peligrosas a videos que mostraban momentos en que víctimas visibles sufrían ataques individuales. Meta explicó este enfoque en su publicación de Newsroom del 13 de octubre, donde afirmaba haberlo hecho "para priorizar la seguridad de aquellos secuestrados por Hamás". Los dos contenidos en ambos casos se eliminaron entonces por infringir la política de personas y organizaciones peligrosas de Meta.
Tras esta decisión, muchos canales de noticias comenzaron a difundir imágenes relacionadas y hubo usuarios que publicaron contenido similar para generar conciencia y condenar los ataques. Como consecuencia, aproximadamente el 20 de octubre, Meta actualizó sus políticas para permitir que los usuarios compartieran este tipo de contenido solo en un contexto para generar conciencia o repudiar las atrocidades, y aplicó una pantalla de advertencia para informar a los usuarios que las imágenes pueden ser perturbadoras. Meta publicó este cambio a su política en una actualización del 5 de diciembre a la publicación original de Newsroom del 13 de octubre (consulta Rehenes secuestrados de Israel para obtener más información y antecedentes del caso).
Meta eliminó inicialmente ambos contenidos de Facebook en estos dos casos. El usuario apeló las decisiones de Meta ante el Consejo. Luego de que el Consejo remitiera estos casos a Meta, la empresa determinó que las publicaciones ya no infringían sus políticas debido a la concesión actualizada y las restauró.
Autoridad y alcance del Consejo
El Consejo tiene la facultad para revisar las decisiones de Meta tras una apelación de la persona cuyo contenido se eliminó (artículo 2, sección 1, del acta constitutiva; artículo 3, sección 1, de los estatutos).
Cuando Meta reconoce que cometió un error y revierte su decisión en un caso en consideración para la revisión del Consejo, el Consejo puede seleccionar ese caso para una decisión resumida (artículo 2, sección 2.1.3, de los estatutos). El Consejo revisa la decisión original para entender mejor los procesos de moderación de contenido empleados, reducir los errores y ser más justo con los usuarios de Facebook e Instagram.
Importancia del caso
Estos dos casos destacan los desafíos de Meta a la hora de aplicar políticas al contenido en una situación conflictiva de alto riesgo que se encuentra en constante y rápida evolución. Según lo determinó el Consejo en su decisión inmediata del caso "Rehenes secuestrados de Israel", la política inicial de Meta que prohíbe el contenido en el que aparecen rehenes protegía la integridad de dichos rehenes y tenía como fin garantizar que no quedasen expuestos a la curiosidad pública. Sin embargo, el Consejo determinó que, en circunstancias excepcionales, cuando un interés público imperioso o el interés vital de los rehenes lo requieran, pueden justificarse excepciones temporales y limitadas. Dado el contexto, restaurar este tipo de contenido en la plataforma, con la pantalla de advertencia que indique "marcar como perturbador", es coherente con las políticas de contenido, los valores y las responsabilidades en materia de derechos humanos de Meta. Esta medida sería también coherente con la ley humanitaria internacional y la práctica de preservar documentación de presuntas violaciones para asignar las responsabilidades correspondientes en un futuro, así como aumentar la concientización del público. En ese caso, el Consejo señaló también que Meta tardó demasiado en implementar la aplicación de esta excepción a todos los usuarios y que el enfoque de rápida evolución de la empresa respecto de la moderación de contenido durante el conflicto estuvo acompañado por una constante falta de transparencia.
Anteriormente, el Consejo emitió recomendaciones relevantes para este caso. El Consejo recomendó a Meta anunciar las excepciones a sus Normas comunitarias y señalar "su duración, así como dar aviso de su expiración, con el fin de notificar a las personas que usan sus plataformas los cambios en sus políticas que permitan ciertas expresiones" ( Eslogan de protesta contra Irán, recomendación n.º 5). Meta implementó parcialmente esta recomendación, según lo demostró mediante información publicada. Asimismo, el Consejo anteriormente había recomendado a Meta preservar evidencia de posibles crímenes de guerra, delitos de lesa humanidad y violaciones graves de los derechos humanos a fin de asignar las responsabilidades pertinentes en el futuro ( Video gráfico de Sudán, recomendación n.º 1 y Video de prisioneros de guerra armenios, recomendación n.º 1). Meta acordó implementar esta recomendación, y la labor se encuentra en progreso. El Consejo destacó la necesidad de que Meta implemente estas recomendaciones a fin de garantizar que se apliquen con precisión las políticas al contenido relacionado con los derechos humanos en sus plataformas.
Decisión
El Consejo anuló las decisiones originales de Meta de eliminar dos contenidos. El Consejo confirmó que Meta corrigió sus errores iniciales después de haberle remitido los dos casos.
Volver a Decisiones de casos y opiniones consultivas sobre políticas