أسقط

صحفي يروي قصة لقاء أجراه في غزة

تقدم صحفي بطعن على قرار Meta بإزالة منشور على فيسبوك يروي تجربته الشخصية في إجراء مقابلة مع عبد العزيز الرنتيسي، أحد مؤسسي حماس. تسلط هذه الحالة الضوء على مشكلة متكررة تتعلق بالإفراط في إنفاذ سياسة الشركة بشأن المنظمات الخطرة والأفراد الخطرين، وتحديدًا فيما يتعلق بالمنشورات المحايدة. بعد أن لفت المجلس انتباه Meta إلى الطعن، ألغت الشركة قرارها الأصلي وأعادت المنشور.

نوع القرار

ملخص

السياسات والمواضيع

عنوان
حرب وصراع، حرية التعبير، مناسبات إخبارية
معيار المجتمع
أفراد خطرون ومنظمات خطرة

المناطق/البلدان

موقع
إسبانيا، الأراضي الفلسطينية

منصة

منصة
Facebook

هذا قرار موجز. تتم في القرارات الموجزة دراسة الحالات التي ألغت فيها Meta قرارها الأصلي بشأن أحد عناصر المحتوى بعد أن لفت المجلس انتباه الشركة إليه وتتضمن معلومات عن الأخطاء التي أقرت Meta بها. وتوافق عليها لجنة من أعضاء المجلس، وليس المجلس بكامله،ولا تتضمن تعليقات عامة ولا تُشكّل سابقة قانونية لدى المجلس. وتؤدي القرارات الموجزة إلى إحداث تغييرات مباشرة في قرارات Meta، مما يوفر الشفافية بشأن هذه التصحيحات، مع تحديد الجوانب التي يمكن أن تقوم Meta فيها بتحسين الإنفاذ.

ملخص الحالة

تقدم صحفي بطعن على قرار Meta بإزالة منشور على فيسبوك يروي تجربته الشخصية في إجراء مقابلة مع عبد العزيز الرنتيسي، أحد مؤسسي حماس. تسلط هذه الحالة الضوء على مشكلة متكررة تتعلق بالإفراط في إنفاذ سياسة الشركة بشأن المنظمات الخطرة والأفراد الخطرين، وتحديدًا فيما يتعلق بالمنشورات المحايدة. بعد أن لفت المجلس انتباه Meta إلى الطعن، ألغت الشركة قرارها الأصلي وأعادت المنشور.

وصف الحالة ومعلومات أساسية عنها

بعد وقت قصير من هجمات 7 أكتوبر 2023 على إسرائيل والتي وصفت بأنها إرهابية، نشر أحد الصحفيين منشورًا على فيسبوك يروي فيه كتابةً تجربته في إجراء مقابلة مع عبد العزيز الرنتيسي، أحد مؤسسي حماس، وهي منظمة مصنّفة بموجب الفئة الأولى من سياسة المنظمات الخطرة والأفراد الخطرين لدى شركة Meta. يصف المنشور رحلة الصحفي إلى غزة، ولقاءاته مع أعضاء حماس والسكان المحليين، وتجربته في العثور على الرنتيسي وإجراء مقابلة معه. ويحتوي المنشور على أربع صور فوتوغرافية، بما في ذلك صورة للرنتيسي، والمحاور ومسلحين ملثمين من حماس.

في الطعن الذي قدمه إلى المجلس، أوضح المستخدم أن غرض المنشور يتمثل في إعلام الجمهور بتجربته في غزة والمقابلة التي أجراها مع مؤسسي حماس الأصليين.

أزالت Meta المنشور من فيسبوك، مُستشهدةً بسياسة المنظمات الخطرة والأفراد الخطرين التي تتبعها، والتي تُزيل بموجبها الشركة من منصاتها عناصر محتوى معينة بشأن الأفراد والمنظمات التي تُصنفها على أنها جهات خطرة. وعلى الرغم من ذلك، تقرّ سياسة الشركة بأنه "يجوز للمستخدمين مشاركة محتوى يتضمن إشارات إلى منظمات خطرة وأفراد خطرين مصنفين وذلك في سياق الخطاب الاجتماعي والسياسي. ويشمل ذلك المحتوى الذي يستهدف الإبلاغ عنهم أو عن أنشطتهم أو إدانتهم أو مناقشتهم بشكل محايد".

بعد أن لفت المجلس انتباه Meta إلى هذه الحالة، قررت الشركة أن "المحتوى يهدف إلى تعزيز الوعي بالموقف" وبالتالي لم ينتهك معيار المجتمع بشأن المنظمات الخطرة والأفراد الخطرين. استشهدت Meta باستثناء الخطاب الاجتماعي والسياسي في سياق "عمليات الوصف المحايدة والغنية بالمعلومات عن نشاط المنظمات الخطرة والأفراد الخطرين أو سلوكهم". علاوة على ذلك، قالت Meta إن "سياق الخطاب الاجتماعي والسياسي مذكور بشكل صريح في المحتوى وبالتالي لا مجال للغموض [بشأن] نية المستخدم" في هذه الحالة.

سُلطة المجلس ونطاق عمله

يتمتع المجلس بسلطة مراجعة قرار شركة Meta بعد تلقي طعن من المستخدم الذي تعرض المحتوى الخاص به إلى الإزالة (المادة 2، القسم 1 من اتفاقية المجلس؛ والمادة 3، القسم 1 من اللائحة الداخلية).

عندما تُقر Meta بأنها ارتكبت خطأً وتُلغي قرارها الصادر بشأن حالة قيد النظر نتيجة مراجعة المجلس، يجوز للمجلس اختيار هذه الحالة لإصدار قرار موجز (المادة 2، القسم 2.1.3 من اللائحة الداخلية). ويراجع المجلس القرار الأصلي لزيادة فهم عملية الإشراف على المحتوى، بهدف تقليل الأخطاء ورفع مستوى الإنصاف لصالح الأشخاص الذين يستخدمون فيسبوك وInstagram.

أهمية الحالة

تسلط الحالة الضوء على إفراط Meta في إنفاذ سياستها بشأن المنظمات الخطرة والأفراد الخطرين، وتحديدًا نشر تقارير إخبارية عن الكيانات التي تصنّفها الشركة على أنها خطرة. وهي مشكلة متكررة، وقد تكررت بشكل خاص خلال الصراع بين إسرائيل وحماس، والذي يعتبر أحد طرفيه كيانًا مصنّفًا. وقد أصدر المجلس العديد من التوصيات بشأن استثناء نشر التقارير الإخبارية بموجب سياسة المنظمات الخطرة والأفراد الخطرين. ويمكن أن تؤدي الأخطاء المستمرة في تطبيق هذا الاستثناء المهم إلى الحد بشكل كبير من حرية التعبير لدى المستخدمين، والحد من وصول الجمهور إلى المعلومات، وتقويض الخطاب العام.

في قرار سابق، أوصى المجلس Meta "بإضافة معايير وأمثلة توضيحية لسياستها بشأن الأفراد الخطرين والمنظمات الخطرة لزيادة فهم الاستثناءات، وتحديدًا فيما يتعلق بالمناقشات الحيادية والتقارير الإخبارية"، (مشاركة منشور الجزيرة، التوصية رقم 1). وقد أبلغت Meta عن تنفيذ هذه التوصية من خلال المعلومات المنشورة. في أحد تحديثات سياسة المنظمات الخطرة والأفراد الخطرين بتاريخ 29 ديسمبر 2023، قامت Meta بتعديل تفسيراتها وباتت تستخدم الآن مصطلح "التمجيد" بدلاً من "الإشادة" في معيار مجتمعها.

علاوة على ذلك، أوصى المجلس أنه "يتعين على Meta تقييم دقة المراجعين في تنفيذ استثناء نشر التقارير الإخبارية بموجب سياسة الأفراد الخطرين والمنظمات الخطرة لتحديد المشكلات النظامية التي تتسبب في أخطاء الإنفاذ"، (ذِكر طالبان في التقارير الإخبارية، التوصية رقم 5). أبلغت Meta عن تنفيذ هذه التوصية لكنها لم تنشر أي معلومات لتبرهن على ذلك.

في حالات الإشراف التلقائي، حث المجلس Meta على "تنفيذ تدقيق داخلي لإجراء تحليل مستمر لعينة مُعبرة إحصائيًا من قرارات إزالة المحتوى التلقائية لتصحيح أخطاء الإنفاذ والتعلم منها" ( أعراض سرطان الثدي والعُري، التوصية رقم 5)، والتي أبلغت Meta عن تنفيذها.

يعتقد المجلس أن التنفيذ الكامل لهذه التوصيات من شأنه الحد من أخطاء إنفاذ سياسة Meta بشأن المنظمات الخطرة والأفراد الخطرين.

القرار

ألغى المجلس قرار شركة Meta الأصلي بإزالة المحتوى. ويُقر المجلس بأن Meta قد صحّحت خطأها الأولي بمجرد أن لفت المجلس انتباهها إلى الحالة.

العودة إلى قرارات الحالة والآراء الاستشارية المتعلقة بالسياسة