قرار قضية متعددة

تقارير ضحايا الاغتصاب الإسرائيليات

تقدَّم أحد المستخدمين بطعن على قرارات Meta بإزالة منشورين على فيسبوك يصفان العنف الجنسي الذي نفذه مسلحو حماس خلال هجمات 7 أكتوبر 2023 التي وصفت بأنها إرهابية. وبعد أن لفت المجلس انتباه Meta إلى الطعون، ألغت الشركة قرارتها الأصلية وأعادت المنشورين.

2 تم تضمين من الحالات في هذه الحزمة

أسقط

FB-YCJP0Q9D

حالة بشأن أفراد خطرين ومنظمات خطرة على فيسبوك

منصة
Facebook
عنوان
المساواة بين الجنسين,عنف,حرب وصراع
معيار
أفراد خطرون ومنظمات خطرة
موقع
إسرائيل,الأراضي الفلسطينية
Date
تم النشر بتاريخ تم النشر بتاريخ 4 نَيْسان 2024
أسقط

FB-JCO2RJI1

حالة بشأن أفراد خطرين ومنظمات خطرة على فيسبوك

منصة
Facebook
عنوان
المساواة بين الجنسين,عنف,حرب وصراع
معيار
أفراد خطرون ومنظمات خطرة
موقع
إسرائيل,الولايات المتحدة,الأراضي الفلسطينية
Date
تم النشر بتاريخ تم النشر بتاريخ 4 نَيْسان 2024

هذا قرار موجز. تتم في القرارات الموجزة دراسة الحالات التي ألغت فيها Meta قرارها الأصلي بشأن أحد عناصر المحتوى بعد أن لفت المجلس انتباه الشركة إليه وتتضمن معلومات عن الأخطاء التي أقرت Meta بها. وتوافق عليها لجنة من أعضاء المجلس، وليس المجلس بكامله، ولا تتضمن تعليقات عامة ولا تُشكّل سابقة قانونية لدى المجلس. وتؤدي القرارات الموجزة إلى إحداث تغييرات مباشرة في قرارات Meta، مما يوفر الشفافية بشأن هذه التصحيحات، مع تحديد الجوانب التي يمكن أن تقوم Meta فيها بتحسين الإنفاذ.

ملخص الحالة

تقدَّم أحد المستخدمين بطعن على قرارات Meta بإزالة منشورين على فيسبوك يصفان العنف الجنسي الذي نفذه مسلحو حماس خلال هجمات 7 أكتوبر 2023 التي وصفت بأنها إرهابية. وبعد أن لفت المجلس انتباه Meta إلى الطعون، ألغت الشركة قرارتها الأصلية وأعادت المنشورين.

وصف الحالة ومعلومات أساسية عنها

قام أحد مستخدمي فيسبوك في أكتوبر 2023 بتحميل منشورين منفصلين متتاليين يتضمنان محتوى متطابقًا عبارة عن مقطع فيديو لامرأة تصف فيه عملية اغتصاب لنساء إسرائيليات على يد أفراد حماس خلال هجمات 7 أكتوبر التي وصفت بأنها إرهابية. يتضمن الشرح التوضيحي كلمة "تحذير"، ويحذر المتحدث في الفيديو المستخدمين من المحتوى الصادم الذي سيشاهدونه. يستمر الفيديو ليعرض لقطات لامرأتين مختلفتين يتم اختطافهما على يد أفراد حماس، حيث يُظهر أحد المقاطع امرأة مصابة بجروح خطيرة مستلقية على وجهها في شاحنة وآخر لامرأة مصابة يتم سحبها من مؤخرة إحدى المركبات. وتمت مشاركة هذه الصور على نطاق واسع في أعقاب الهجوم. تمت مشاركة المنشور الأول نحو 4000 مرة، بينما تمت مشاركة المنشور الثاني أقل من 50 مرة.

أزالت Meta كلا المنشورين في البداية لانتهاكهما معايير المجتمع بشأن المنظمات الخطرة والأفراد الخطرين. وبموجب هذه السياسة، تحظر الشركة الصور ومقاطع الفيديو التي تنشرها جهات خارجية وتصوّر لحظة هجوم إرهابي مصنّف على ضحايا يمكن تمييزهم تحت أي ظرف من الظروف، حتى إذا تمت مشاركتها بهدف إدانة الهجوم أو تعزيز الوعي به. إضافة إلى ذلك، بموجب معيار مجتمع Meta بشأن العنف والتحريض، تزيل الشركة "المحتوى الذي يصوّر عمليات الاختطاف أو الخطف إذا كان من الواضح أن المحتوى لا تتم مشاركته بواسطة الضحية أو عائلته كطلب للمساعدة أو مشاركته لأغراض إعلامية أو إدانة أو زيادة الوعي".

بالتزامن مع بداية هجوم حماس في 7 أكتوبر، بدأت Meta في إنفاذ سياستها بشأن المنظمات الخطرة والأفراد الخطرين بشكل صارم على مقاطع الفيديو التي تُظهر لحظات من الهجمات الفردية على الضحايا الظاهرين للعيان. وأوضحت Meta هذا النهج في منشورها في غرفة الأخبار في 13 أكتوبر معلنةً إنها فعلت ذلك "لمنح الأولوية لسلامة أولئك الذين اختطفتهم حماس". لذا تمت إزالة عنصري المحتوى في هاتين الحالتين نتيجة انتهاكهما سياسة Meta بشأن المنظمات الخطرة والأفراد الخطرين.

وبعد هذا القرار، بدأت العديد من وسائل الإعلام في بث لقطات ذات صلة، وبدأ المستخدمون أيضًا في نشر محتوى مماثلاً بهدف تعزيز الوعي وإدانة الهجمات. ونتيجة لذلك، قامت Meta بتاريخ 20 أكتوبر أو نحو ذلك بتحديث سياساتها للسماح للمستخدمين بمشاركة هذه اللقطات فقط في سياق تعزيز الوعي أو إدانة الفظائع، ووضعت شاشة تحذيرية لإبلاغ المستخدمين بأن اللقطات التي سيشاهدونها قد تكون مزعجة. نشرت شركة Meta هذا التغيير الذي طرأ على سياستها في تحديث بتاريخ 5 ديسمبر في منشورها الأصلي في غرفة الأخبار المنشور في 13 أكتوبر (راجع الرهائن الإسرائيليون للحصول على بيانات ومعلومات أساسية عنه).

أزالت Meta في البداية عنصري المحتوى من فيسبوك في هاتين الحالتين. تقدم المستخدم بطعن على قرارات Meta إلى المجلس. بعد أن لفت المجلس انتباه Meta إلى هاتين الحالتين، قررت الشركة أن المنشورين لم ينتهكا سياساتها؛ نظرًا للاستثناء المحدّث، وقامت بإعادتهما.

سُلطة المجلس ونطاق عمله

يتمتع المجلس بسلطة مراجعة قرارات شركة Meta بعد تلقي طعون من الشخص الذي تمت إزالة المحتوى الخاص به (المادة 2، القسم 1 من اتفاقية المجلس؛ والمادة 3، القسم 1 من اللائحة الداخلية).

عندما تُقر Meta بأنها ارتكبت خطأً وتُلغي قرارها الصادر بشأن حالة قيد النظر نتيجة مراجعة المجلس، يجوز للمجلس اختيار هذه الحالة لإصدار قرار موجز (المادة 2، القسم 2.1.3 من اللائحة الداخلية). ويراجع المجلس القرار الأصلي لزيادة فهم عمليات الإشراف على المحتوى، والحد من الأخطاء وتعزيز معدلات الإنصاف لمستخدمي فيسبوك وInstagram.

أهمية الحالة

تسلط هاتان الحالتان الضوء على التحديات التي تواجه قدرة Meta على اتخاذ إجراءات إنفاذ ضد المحتوى في وضع ينطوي على نزاع شديد الخطورة ويتطور باستمرار وبسرعة. ووجد المجلس في قراره العاجل بشأن "الرهائن الإسرائيليون" أن سياسة Meta الأولية التي تحظر المحتوى الذي يصور الرهائن عَمِلت على حماية كرامة هؤلاء الرهائن وسَعَت إلى ضمان عدم تعرضهم لفضول الجماهير. ومع ذلك، وجد المجلس أيضًا أن من المبرر تطبيق استثناءات مؤقتة ومحدودة في الظروف الاستثنائية، عندما تقتضي المصلحة العامة المُلِّحة أو المصلحة الحيوية للرهائن ذلك. وبالنظر إلى السياق، تُعد إعادة هذا النوع من المحتوى إلى المنصة مع تضمين شاشة تحذيرية بعنوان "تمييز كمزعج" متوافقًا مع سياسات المحتوى لدى Meta وقيمها ومسؤولياتها تجاه حقوق الإنسان. ويُعد ذلك متوافقًا أيضًا مع القانون الإنساني الدولي وممارسة الحفاظ على وثائق إثبات حدوث الانتهاكات المزعومة من أجل المساءلة في المستقبل، فضلاً عن تعزيز وعي الجمهور. في هذه الحالة، لاحظ المجلس أيضًا أن Meta استغرقت وقتًا طويلاً للغاية لتنفيذ تطبيق هذا الاستثناء على كل المستخدمين وأن نهج الشركة سريع التغيُّر تجاه الإشراف على المحتوى أثناء النزاع كان مصحوبًا بافتقار مستمر إلى الشفافية.

في السابق، أصدر المجلس توصيات ذات صلة بهذه الحالة. وقد أوصى المجلس Meta بضرورة الإعلان عن استثناءات معايير المجتمع هذه، وذلك بالإعلان عن "مدتها وإصدار إشعار عند انتهاء صلاحيتها لإبلاغ مستخدمي منصاتها بما يطرأ من تغييرات على السياسة تسمح بأنواع معينة من التعبير" (شعار الاحتجاجات في إيران، التوصية رقم 5). وقد نفَّذت Meta هذه التوصية بشكل جزئي كما اتضح من خلال المعلومات المنشورة. سبق أن أوصى المجلس Meta أيضًا بالحفاظ على أدلة ارتكاب جرائم حرب محتملة وجرائم ضد الإنسانية وانتهاكات جسيمة لحقوق الإنسان وذلك بهدف المساءلة في المستقبل ( فيديو صادم حول السودان، التوصية رقم 1 وفيديو لأسرى الحرب الأرمينيين، التوصية رقم 1). وافقت Meta على تنفيذ هذه التوصية ولا يزال العمل جاريًا. ويشدد المجلس على ضرورة أن تعمل Meta على تنفيذ هذه التوصيات لضمان اتخاذ إجراءات إنفاذ دقيقة بشأن المحتوى الذي يتعلق بحقوق الإنسان على منصاتها.

القرار

ألغى مجلس الإشراف قرارات Meta الأصلية بإزالة اثنين من عناصر المحتوى. ويُقر المجلس بأن Meta قد صحّحت أخطاءها الأولية بمجرد أن لفت المجلس انتباهها إلى هاتين الحالتين.

العودة إلى قرارات الحالة والآراء الاستشارية المتعلقة بالسياسة