قرار قضية متعددة
مقابلة شخصية مع مفاوض الرهائن التايلاندي
تم النشر بتاريخ 18 نَيْسان 2024
راجَع المجلس منشورين على فيسبوك يتضمنان أجزاءً متطابقة تقريبًا من مقابلة شخصية أجرتها قناة سكاي نيوز الإخبارية عبر الفيديو مع مفاوض رهائن تايلاندي الجنسية يشرح تجربته في تحرير الرهائن الذين أسرتهم حماس. وبعد أن لفَت المجلس انتباه Meta إلى الطعون، ألغت الشركة قرارتها الأصلية وأعادت المنشورين.
2 تم تضمين من الحالات في هذه الحزمة
FB-XO941WWQ
حالة بشأن أفراد خطرين ومنظمات خطرة على فيسبوك
FB-U3Y5VV2E
حالة بشأن أفراد خطرين ومنظمات خطرة على فيسبوك
هذا قرار موجز. تتم في القرارات الموجزة دراسة الحالات التي ألغت فيها Meta قرارها الأصلي بشأن أحد عناصر المحتوى بعد أن لفت المجلس انتباه الشركة إليه وتتضمن معلومات عن الأخطاء التي أقرت Meta بها. وتوافق عليها لجنة من أعضاء المجلس، وليس المجلس بكامله، ولا تتضمن تعليقات عامة ولا تُشكّل سابقة قانونية لدى المجلس. وتؤدي القرارات الموجزة إلى إحداث تغييرات مباشرة في قرارات Meta، مما يوفر الشفافية بشأن هذه التصحيحات، مع تحديد الجوانب التي يمكن أن تقوم Meta فيها بتحسين الإنفاذ.
الملخص
راجَع المجلس منشورين على فيسبوك يتضمنان أجزاءً متطابقة تقريبًا من مقابلة شخصية أجرتها قناة سكاي نيوز الإخبارية عبر الفيديو مع مفاوض رهائن تايلاندي الجنسية يشرح تجربته في تحرير الرهائن الذين أسرتهم حماس. وبعد أن لفَت المجلس انتباه Meta إلى الطعون، ألغت الشركة قرارتها الأصلية وأعادت المنشورين.
حول الحالات
في ديسمبر 2023، تقدم مستخدمان بطعن على قرارات Meta بإزالة منشوراتهما، حيث يحتوي كل منشور منهما على مقاطع متطابقة تقريبًا لمقابلة شخصية بثتها قناة سكاي نيوز الإخبارية في نوفمبر 2023. ويستعرض هذا الفيديو مفاوضًا من تايلاند كان على رأس فريق غير رسمي من المفاوضين وساهم في تأمين عملية إطلاق سراح المواطنين التايلانديين الذين احتجزتهم حماس كرهائن في 7 أكتوبر في إسرائيل.
في المقطع، يستعرض الشخص الذي أجريت معه المقابلة دوره في المفاوضات. ويقول إنه يعتقد أن الرهائن التايلانديين وباقي الرهائن "تلقوا رعاية جيدة" من أفراد حماس لأنهم يتبعون الشريعة الإسلامية وأن حماس لم تضع أي شروط لإطلاق سراح الأسرى التايلانديين.
ويستشهد المفاوض، المتعاطف مع الشعب الفلسطيني، لما وصفه بسوء معاملة إسرائيل للفلسطينيين في الأراضي المحتلة لعقود. ويؤكد أن حماس كانت "تستهدف الجنود"، ويؤكد أيضًا على أن حماس لديها مبررات لاحتجازها الرهائن "لمساعدة الفلسطينيين" و"لفت انتباه العالم إلى المعاملة الإسرائيلية للفلسطينيين".
وفي الطعن الذي تقدَّما به إلى المجلس، قال كلا المستخدمين إنهما نشرا الفيديو لجذب الانتباه إلى تصريحات المفاوض التايلاندي، ولكن مع اختلاف الأسباب. وقال أحدهما إنه كان يهدف إلى تسليط الضوء على مقابلة شخصية "تُظهر حماس في شكل أكثر توازنًا" وذلك على النقيض من الاتجاهات الشائعة التي تُروج لها "آلة الدعاية الغربية". ويشير المستخدم في الشرح التوضيحي إلى أن المفاوض يرفض الالتزام بالسرد، ويشير أيضًا إلى حظر منشوره سابقًا لأنه وَردَ في المحتوى ذِكر اسم منظمة سياسية معينة. وفي المنشور الثاني، قال المستخدم الذي نشر الفيديو دون شرح توضيحي أو تعليق آخر إنه كان "يذكُر أسماء المتعاونين الكاذبين المتلاعبين".
أزالت Meta المنشورين من فيسبوك في البداية، مُستشهدةً بسياسة المنظمات الخطرة والأفراد الخطرين التي تتبعها، والتي تحظر بموجبها الشركة "تمجيد" ("المدح" سابقًا) و"دعم" و"تمثيل" الأفراد والمنظمات التي تُصنفها على أنها جهات خطرة. وعلى الرغم من ذلك، تقرّ سياسة الشركة بأنه "يجوز للمستخدمين مشاركة محتوى يتضمن إشارات إلى منظمات خطرة وأفراد خطرين مصنفين وذلك في سياق الخطاب الاجتماعي والسياسي. ويشمل ذلك المحتوى الذي يستهدف الإبلاغ عنهم أو عن أنشطتهم أو إدانتهم أو مناقشتهم بشكل محايد".
بمجرد أن لفت المجلس انتباه Meta إلى هذه الحالات، قررت الشركة أن المنشورات "لا تتضمن أي شروح توضيحية تمجد أو تدعم أو تمثل منظمات خطرة أو أفرادًا خطرين". بالإضافة إلى ذلك، "تمت مشاركة الفيديو سابقًا بواسطة قناة سكاي نيوز ووسائل إخبارية أخرى على فيسبوك... و[وبالتالي] يُصنّف ضمن نطاق التقارير الإخبارية". وأعادت Meta كلا المنشورين.
سُلطة المجلس ونطاق عمله
يتمتع المجلس بسلطة مراجعة قرار شركة Meta بعد تلقي طعن من المستخدم الذي تعرض المحتوى الخاص به إلى الإزالة (المادة 2، القسم 1 من اتفاقية المجلس؛ والمادة 3، القسم 1 من اللائحة الداخلية).
عندما تُقر Meta بأنها ارتكبت خطأً وتُلغي قرارها الصادر بشأن حالة قيد النظر نتيجة مراجعة المجلس، يجوز للمجلس اختيار هذه الحالة لإصدار قرار موجز (المادة 2، القسم 2.1.3 من اللائحة الداخلية). ويراجع المجلس القرار الأصلي لزيادة فهم عملية الإشراف على المحتوى، وذلك بهدف تقليل الأخطاء ورفع مستوى الإنصاف لصالح الأشخاص الذين يستخدمون فيسبوك وInstagram.
أهمية الحالات
تؤكد هذه الحالات على الإفراط المستمر في إنفاذ معيار مجتمع المنظمات الخطرة والأفراد الخطرين لدى الشركة، كما تم تسليط الضوء عليه في القرارات السابقة الصادرة عن المجلس. وتؤدي الأخطاء المستمرة في تطبيق هذه السياسة إلى تقليص وصول المستخدمين إلى التقارير الإخبارية ومنشورات الإدانة والتعليقات المحايدة على حساب حرية التعبير.
في أحد القرارات السابقة، حثّ المجلس شركة Meta على "تضمين بيانات أكثر شمولاً حول معدلات الخطأ في معيار مجتمع المنظمات الخطرة والأفراد الخطرين في تقرير الشفافية التي تصدره" ( عزلة أوجلان، التوصية رقم 12)، والتي رفضت الشركة تنفيذها بعد تقييم الجدوى.
بالإضافة إلى ذلك، أوصى المجلس بتضمين "معايير وأمثلة توضيحية لسياسة Meta لمعيار المجتمع للمنظمات الخطرة والأفراد الخطرين لزيادة فهم الاستثناءات، وتحديدًا فيما يتعلق بالمناقشات الحيادية والتقارير الإخبارية" من أجل توفير المزيد من التوجيه للمراجعين البشريين ( مشاركة منشور الجزيرة باستخدام الذكاء الاصطناعي، التوصية رقم 1). وتتميز هذه التوصية بأهمية خاصة لأنها تتعلق بإزالة منشور إخباري يتحدث عن تهديد بالعنف من جانب كتائب عز الدين القسام، الجناح العسكري لحركة حماس الفلسطينية. ونَصحَ أيضًا المجلس Meta "بتقييم دقة المراجعين في إنفاذ استثناء التقارير... لتحديد المشكلات النظامية التي تتسبب في أخطاء الإنفاذ،" (ذِكر طالبان في التقارير الإخبارية، التوصية رقم 5). وعلى الرغم من إعلان Meta عن تنفيذ كلتا التوصيتين، إلا أنه بالنسبة إلى ذِكر طالبان في التقارير الإخبارية، التوصية رقم 5، لم تنشر Meta أي معلومات تثبت ذلك.
أوصى المجلس بإدخال تحسينات على الإشراف على المنشورات التي تحتوي على مقاطع فيديو، داعيًا الشركة إلى تبنّي "تغييرات المنتج و/أو الدليل التشغيلي التي تسمح بمراجعة أكثر دقة لمقاطع الفيديو الطويلة،" ( رئيس الوزراء الكمبودي، التوصية رقم 5). وردًا على ذلك، ذكرت شركة Meta أنها "ستواصل تكرار التحسينات الجديدة لعمليات مراجعة الفيديو الطويلة وإنشاء أدوات القياس والتقييم" في التحديث ربع السنوي للربع الثالث من 2023 بشأن مجلس الإشراف.
يعتقد المجلس أن تنفيذ هذه التوصيات بشكل كامل من شأنه الحد من أخطاء إنفاذ سياسة Meta بشأن المنظمات الخطرة والأفراد الخطرين.
القرار
ألغى المجلس قرارات Meta الأصلية بإزالة المحتوى. ويُقر بأن Meta قد صحّحت خطأها الأولي بمجرد أن لفت المجلس انتباهها إلى هاتين الحالتين.
العودة إلى قرارات الحالة والآراء الاستشارية المتعلقة بالسياسة