أسقط

فيديو صحفي حول مستقبل الصومال

تقدم أحد المستخدمين بطعن على قرار Meta بإزالة فيديو يتضمن مقطعًا لتقرير إخباري حول مؤتمر دولي بشأن الصومال.

نوع القرار

ملخص

السياسات والمواضيع

عنوان
صحافة
معيار المجتمع
أفراد خطرون ومنظمات خطرة

المناطق/البلدان

موقع
الصومال، المملكة المتحدة

منصة

منصة
Facebook

تدرس القرارات الموجزة الحالات التي تراجعت فيها Meta عن قرارها الأصلي بشأن محتوى معين بعد أن لفت المجلس انتباه الشركة إليه، وتتضمن معلومات حول الأخطاء التي أقرت بها Meta. وتوافق عليها لجنة من أعضاء المجلس، وليس المجلس بكامله، ولا تتضمن تعليقات عامة ولا تُشكّل سابقة قانونية لدى المجلس. وتُحدث القرارات الموجزة تغييرات مباشرة في قرارات Meta، مما يوفر الشفافية بشأن هذه التصحيحات، مع تحديد الجوانب التي يمكن أن تحسّن Meta فيها الإنفاذ.

الملخص

تقدم أحد المستخدمين بطعن على قرار Meta بإزالة فيديو يتضمن مقطعًا لتقرير إخباري حول مؤتمر دولي بشأن الصومال. ويتضمن المقطع صحفيًا يطرح أسئلة على أشخاص في الصومال ولقطات لقادة وأعلام الجماعة المسلحة المعروفة باسم حركة الشباب. وبعد أن لفت المجلس انتباه Meta إلى الطعن، تراجعت الشركة عن قرارها الأصلي وأعادت المنشور.

حول الحالة

في مايو 2025، نشر مستخدم على فيسبوك، وهو صحفي تم التحقق منه، فيديو يتضمن مقطعًا لتقرير إخباري مصحوبًا بالسؤال: "من له الحق في تقرير مستقبل الصومال؟". كما تضمن الشرح التوضيحي إشارات إلى مؤتمر لندن لعام 2012 حول الصومال. هذا وقد ورد كل من الفيديو والشرح التوضيحي باللغة الإنجليزية. عُرض الفيديو الأصلي عام 2013 على القناة الرابعة، وهي قناة تلفزيونية بريطانية عامة.

ويناقش الصحفي في الفيديو الجدل المحيط بالمؤتمر المعني بالصومال، وهو اجتماع دولي كبير عقدته حكومة المملكة المتحدة لمناقشة مستقبل هذا البلد الأفريقي. ويشير الشرح التوضيحي إلى أن المؤتمر استبعد حركة الشباب، منوهًا إلى أن الجماعة كانت تعمل على الإطاحة بالحكومة في الصومال، وأنها كانت "تسيطر على معظم أنحاء البلاد" في ذلك الوقت. ويسلط الصحفي في الفيديو الضوء على البُعد المجازي بين القادة الغربيين والشعب الصومالي، لافتًا إلى أن الكثير من السكان المحليين لم يتمكنوا من التعرف على قادة بارزين في المملكة المتحدة يناقشون مستقبل بلادهم عند عرض صورهم عليهم. كما يحتوي الفيديو على لقطات لقادة وأعلام حركة الشباب.

تُعد حركة الشباب المجاهدين، المعروفة باسم حركة الشباب، جماعة إسلامية متمردة تربطها صلات بتنظيم القاعدة. وتنشط الجماعة بشكل رئيسي في الصومال، وقد نفذت عدة هجمات في البلدان المجاورة. وتجدر الإشارة إلى أن حركة الشباب مُصنَّفة كمنظمة خطرة بموجب سياسة Meta بشأن المنظمات الخطرة والأفراد الخطرين.

وبموجب سياسة المنظمات الخطرة والأفراد الخطرين، تزيل الشركة "تمجيد أو دعم أو تمثيل" لأفراد أو منظمات "تتبنى مهام تنطوي على أعمال عنف أو تشارك في أعمال عنف". ومع ذلك، تسمح السياسة بنشر "المحتوى الذي يستهدف الإبلاغ عن المنظمات الخطرة والأفراد الخطرين أو عن أنشطتها أو مناقشتها بشكل محايد أو إدانتها" في سياق "الخطاب الاجتماعي والسياسي". ووفقًا للسياسة، "تتضمن التقارير الإخبارية المعلومات التي تتم مشاركتها بهدف تعزيز الوعي بالأحداث المحلية والعالمية التي تشارك فيها منظمات خطرة مصنّفة خطرون مُصنّفون".

وفي طعنه المقدم إلى المجلس، ذكر المستخدم أنه يتناول "قضايا مهمة لإطلاع الجمهور"، وأن هذا التقرير عُرض على قناة تلفزيونية تلتزم بالإرشادات الوطنية. كما شدد المستخدم على أن "الصحافة ليست جريمة".

وبعد أن لفت المجلس انتباه Meta إلى هذه الحالة، تراجعت الشركة عن قرارها الأصلي. وقد قررت Meta أن المحتوى عبارة عن تقرير إخباري يطرح تساؤلات حول استبعاد حكومة المملكة المتحدة لحركة الشباب من مؤتمر بشأن مستقبل الصومال، نظرًا لسيطرة الحركة على أجزاء كبيرة من البلاد. كما ذكرت Meta أن لقطات قادة حركة الشباب وأعلامها "تُعرض مع تدخل تحريري مناسب ولا تتضمن أي تمجيد أو دعم" للجماعة. وخلصت Meta إلى أن قرار الإزالة الأولي كان غير صحيح، حيث إن المنشور يستوفي شروط استثناء الخطاب الاجتماعي والسياسي المنصوص عليه في سياسة المنظمات الخطرة والأفراد الخطرين. وعلى إثر ذلك، أعادت الشركة المحتوى إلى فيسبوك.

سُلطة المجلس ونطاق عمله

يتمتع المجلس بسلطة مراجعة قرار Meta بعد تلقي طعن من المستخدم الذي تعرض المحتوى الخاص به إلى الإزالة (المادة 2، القسم 1 من اتفاقية المجلس؛ والمادة 3، القسم 1 من اللائحة الداخلية).

عندما تُقر Meta بأنها ارتكبت خطأً وتُلغي قرارها الصادر بشأن حالة قيد النظر نتيجة مراجعة المجلس، يجوز للمجلس اختيار هذه الحالة لإصدار قرار موجز (المادة 2، القسم 2.1.3 من اللائحة الداخلية). ويراجع المجلس القرار الأصلي بهدف تعزيز فهم عمليات الإشراف على المحتوى والحد من الأخطاء وتحقيق مزيد من الإنصاف لمستخدمي فيسبوك وInstagram وThreads.

أهمية الحالة

تسلط هذه الحالة الضوء على استمرار الإفراط في إنفاذ معيار مجتمع Meta بشأن المنظمات الخطرة والأفراد الخطرين، بما في ذلك ضد المحتوى الذي ينشره صحفي تم التحقق منه والذي عُرض على خدمة بث رئيسية ويندرج ضمن استثناء السياسة "الخطاب الاجتماعي والسياسي". ولا تقتصر تداعيات أخطاء الإنفاذ، مثل هذا الخطأ، على التأثير في حرية التعبير للمستخدمين الذين قاموا بنشر المحتوى فحسب، بل تمتد لتؤثر في قدرة المستخدمين الآخرين على الوصول إلى المعلومات، لا سيّما في البلدان التي تشهد نزاعات، حيث يحظى هذا الأمر بأهمية بالغة.

وسبق للمجلس أن أصدر قرارًا يتعلق بمنشورين تضمنا إشارة إلى حركة الشباب. وفي تلك الحالات، ارتكبت Meta أخطاءً بإزالة المحتوى بموجب سياستها بشأن المنظمات الخطرة والأفراد الخطرين، رغم أن المنشورين كانا يغطيان بوضوح أخبار كيان مصنَّف - في الحالة الأولى - ويدينانه - في الحالة الثانية. كما أصدر المجلس عدة توصيات تتعلق بإنفاذ سياسة Meta بشأن المنظمات الخطرة والأفراد الخطرين. وتشمل هذه التوصيات، من بين أمور أخرى، توصية للشركة بأن "تُقيم دقة المراجعين القائمين على إنفاذ استثناء نشر التقارير الإخبارية بموجب سياسة المنظمات الخطرة والأفراد الخطرين بهدف تحديد المشكلات المنهجية التي تتسبب في أخطاء الإنفاذ" (ذِكر طالبان في التقارير الإخبارية، التوصية رقم 5). وفي نوفمبر 2023، أبلغت Meta عن تنفيذ تحديث لسياسة المنظمات الخطرة والأفراد الخطرين، تضمّن تفاصيل حول نهج الشركة في التعامل مع "التقارير الإخبارية وكذلك النقاش المحايد والمُدين". كما أفادت Meta بأنها "تتتبع دقة إنفاذ استثناء الخطاب الاجتماعي والسياسي" (تقرير Meta للربع الثالث لعام 2023، التحديث ربع السنوي بشأن مجلس الإشراف). ومع ذلك، لم تشارك Meta النتائج مع المجلس. وبناءً على ذلك، يرى المجلس أن Meta لم تنشر معلومات تُثبت تنفيذ هذه التوصية.

علاوة على ذلك، وفي أحد آرائه الاستشارية بشأن السياسات، أوصى المجلس بأن تقوم Meta "بشرح الأساليب التي تستخدمها لتقييم دقة المراجعة البشرية وأداء الأنظمة التلقائية في إنفاذ سياستها بشأن المنظمات الخطرة والأفراد الخطرين" (الإشارة إلى أفراد مصنّفين باستخدام كلمة "شهيد"، التوصية رقم 6). وقد اعتبر المجلس أن Meta أعادت صياغة هذه التوصية. إذ ذكرت الشركة أنها تجري عمليات تدقيق لتقييم دقة قراراتها بشأن الإشراف على المحتوى، وأن عمليات التدقيق هذه توفر رؤى حول أوجه التحسين. إلا أن Meta لم تشرح الأساليب التي تستخدمها لإجراء هذه التقييمات، وهو الأمر الذي كان من شأنه تعزيز شفافية عمليات الإنفاذ، بما في ذلك ما يتعلق بالاختلافات بين الأسواق واللغات. وقد امتنعت Meta عن نشر هذه الأساليب للجمهور.

كما أصدر المجلس توصية تركز على الإنفاذ التلقائي، طالب فيها Meta "بتنفيذ تدقيق داخلي لتحليل عينة ممثلة إحصائيًا من قرارات إزالة المحتوى التلقائية بصفة مستمرة، وذلك لتصحيح أخطاء الإنفاذ والاستفادة منها" (أعراض سرطان الثدي والعُري، التوصية رقم 5). ويرى المجلس أن Meta لم تتعامل مع هذه التوصية، نظرًا لأن الشركة دمجتها مع توصية أخرى دون الالتزام بإجراء التدقيق الداخلي الذي حدده المجلس.

ويؤدي تكرار الإفراط في الإنفاذ لسياسة المنظمات الخطرة والأفراد الخطرين الخاصة بالشركة إلى تقويض قدرة المستخدمين على نشر ومشاركة التقارير الإخبارية والمعلومات حول المنظمات المصنَّفة، مما ينتهك حرية التعبير للمستخدمين. وتُشير الحالات التي نظر فيها المجلس إلى أن الأخطاء من هذا النوع متكررة للغاية. وفي هذه الحالة، أخذ المجلس في الاعتبار أيضًا حقيقة أن هذا الفيديو يعود لصحفي تم التحقق منه، وأنه عُرض على خدمة بث رئيسية في المملكة المتحدة عام 2013. وينبغي لشركة Meta أن تضع الحد من هذه الأخطاء على رأس أولوياتها. ومن شأن التنفيذ الكامل للتوصيات المذكورة أعلاه أن يقلل عدد عمليات الإزالة غير الصحيحة بموجب سياسة المنظمات الخطرة والأفراد الخطرين الخاصة بالشركة.

القرار

ألغى المجلس قرار Meta الأصلي بإزالة المحتوى. ويقر المجلس بتصحيح Meta لخطئها الأولي بمجرد أن لفت المجلس انتباه الشركة إلى الحالة.

العودة إلى قرارات الحالة والآراء الاستشارية المتعلقة بالسياسة