أسقط

مقالة واشنطن بوست بشأن إسرائيل وفلسطين

تقدم مستخدم بطعن على قرار Meta بإزالة منشور على فيسبوك يحتوي على رابط لمقالة في صحيفة واشنطن بوست تتناول التسلسل الزمني للصراع الإسرائيلي الفلسطيني. بعد أن لفت المجلس انتباه Meta إلى الطعن، ألغت الشركة قرارها الأصلي وأعادت المنشور.

نوع القرار

ملخص

السياسات والمواضيع

عنوان
حرب وصراع، صحافة، مناسبات إخبارية
معيار المجتمع
أفراد خطرون ومنظمات خطرة

المناطق/البلدان

موقع
إسرائيل، الأراضي الفلسطينية، الولايات المتحدة

منصة

منصة
Facebook

هذا قرار موجز. تتم في القرارات الموجزة دراسة الحالات التي ألغت فيها Meta قرارها الأصلي بشأن أحد عناصر المحتوى بعد أن لفت المجلس انتباه الشركة إليه وتتضمن معلومات عن الأخطاء التي أقرت Meta بها. وتوافق عليها لجنة من أعضاء المجلس، وليس المجلس بكامله، ولا تتضمن تعليقات عامة ولا تُشكّل سابقة قانونية لدى المجلس. وتؤدي القرارات الموجزة إلى إحداث تغييرات مباشرة في قرارات Meta، مما يوفر الشفافية بشأن هذه التصحيحات، مع تحديد الجوانب التي يمكن أن تقوم Meta فيها بتحسين الإنفاذ.

ملخص الحالة

تقدم مستخدم بطعن على قرار Meta بإزالة منشور على فيسبوك يحتوي على رابط لمقالة في صحيفة واشنطن بوست تتناول التسلسل الزمني للصراع الإسرائيلي الفلسطيني. بعد أن لفت المجلس انتباه Meta إلى الطعن، ألغت الشركة قرارها الأصلي وأعادت المنشور.

وصف الحالة ومعلومات أساسية عنها

في أكتوبر 2023، نشر أحد مستخدمي فيسبوك رابطًا لمقالة من صحيفة واشنطن بوست تتناول التسلسل الزمني للصراع الإسرائيلي الفلسطيني. وقد ورد ذِكر حماس في معاينة المقالة والتي يتم تضمينها تلقائيًا مع الرابط. لم يقم المستخدم بإضافة شرح توضيحي مع المنشور ولم يقدم أي سياق إضافي.

تمت إزالة منشور فيسبوك بموجب سياسة المنظمات الخطرة والأفراد الخطرين التي تنتهجها شركة Meta، والتي تحظر تمثيل الجماعات والأشخاص الذين صنّفتهم الشركة على أنهم يرتبطون بضرر كبير على أرض الواقع أو تناولهم ببعض أنواع الخطاب.

في الطعن الذي تقدم به إلى المجلس، شدد المستخدم على أن المنشور كان يهدف إلى نشر تقرير عن الصراع الراهن بين إسرائيل وحماس ولم يكن يهدف إلى تقديم الدعم لحماس، أو لأي منظمة خطرة أخرى.

بعد أن لفت المجلس انتباه Meta إلى هذه الحالة، قررت الشركة أن المحتوى لا ينتهك سياسة المنظمات الخطرة والأفراد الخطرين لأن المنشور يشير إلى حماس في سياق نشر التقارير الإخبارية، وهو ما تسمح به سياسة الشركة. ثم أعادت الشركة المحتوى إلى فيسبوك.

سُلطة المجلس ونطاق عمله

يتمتع المجلس بسلطة مراجعة قرار شركة Meta بعد تلقي طعن من الشخص الذي تعرض المحتوى الخاص به إلى الإزالة (المادة 2، القسم 1 من اتفاقية المجلس؛ والمادة 3، القسم 1 من اللائحة الداخلية).

عندما تُقر Meta بأنها ارتكبت خطأً وتُلغي قرارها الصادر بشأن حالة قيد النظر نتيجة مراجعة المجلس، يجوز للمجلس اختيار هذه الحالة لإصدار قرار موجز (المادة 2، القسم 2.1.3 من اللائحة الداخلية). ويراجع المجلس القرار الأصلي لزيادة فهم عمليات الإشراف على المحتوى المتبعة، والحد من الأخطاء وتعزيز معدلات الإنصاف لمستخدمي فيسبوك وInstagram.

أهمية الحالة

تسلط هذه الحالة الضوء على مثال لإفراط Meta في إنفاذ سياستها بشأن المنظمات الخطرة والأفراد الخطرين، وتحديدًا نشر تقارير إخبارية عن الكيانات التي تصنّفها الشركة على أنها خطرة. وهي مشكلة متكررة، وقد تكررت بشكل خاص خلال الصراع الراهن بين إسرائيل وحماس، والذي يعتبر أحد طرفيه كيانًا مصنّفًا. وقد أصدر المجلس توصيات عديدة تتعلق باستثناء نشر التقارير الإخبارية بموجب سياسة المنظمات الخطرة والأفراد الخطرين. ويمكن أن تؤدي الأخطاء المستمرة في تطبيق هذا الاستثناء المهم إلى الحد بشكل كبير من حرية التعبير لدى المستخدمين، والحد من وصول الجمهور إلى المعلومات، وتقويض الخطاب العام.

في قرار سابق، أوصى المجلس Meta "بتقييم دقة المراجعين في تنفيذ استثناء نشر التقارير الإخبارية بموجب سياسة الأفراد الخطرين والمنظمات الخطرة لتحديد المشكلات النظامية التي تتسبب في أخطاء الإنفاذ"، (ذِكر طالبان في التقارير الإخبارية، التوصية رقم 5). ذكرت Meta أنها تعمل على تنفيذ التوصية بالفعل، دون نشر معلومات تبرهن على ذلك. أوصى المجلس Meta أيضًا "بإضافة معايير وأمثلة توضيحية لسياستها بشأن الأفراد الخطرين والمنظمات الخطرة لزيادة فهم استثناءات المناقشات الحيادية والإدانة والتقارير الإخبارية"، ( مشاركة منشور الجزيرة، التوصية رقم 1). وقد برهنت Meta على تنفيذ هذه التوصية من خلال المعلومات المنشورة. علاوة على ذلك، أوصى المجلس Meta "بتضمين معلومات أكثر شمولاً عن معدلات الخطأ في إنفاذ القواعد فيما يتعلق "بالإشادة" و"الدعم" للأفراد الخطرين والمنظمات الخطرة" في تقارير الشفافية (عزلة أوجلان، التوصية رقم 12). رفضت Meta تنفيذ هذه التوصية بعد إجراء تقييم للجدوى. في تحديث سياستها بتاريخ 29 ديسمبر 2023، أصبحت Meta تستخدم الآن مصطلح "التمجيد" بدلاً من "الإشادة" في معيار مجتمعها.

يعتقد المجلس أن التنفيذ الكامل لهذه التوصيات من شأنه الحد من أخطاء الإنفاذ بموجب سياسة Meta بشأن المنظمات الخطرة والأفراد الخطرين.

القرار

ألغى المجلس قرار شركة Meta الأصلي بإزالة المحتوى. ويُقر المجلس بأن Meta قد صحّحت خطأها الأولي بمجرد أن لفت المجلس انتباهها إلى الحالة.

العودة إلى قرارات الحالة والآراء الاستشارية المتعلقة بالسياسة