قرار قضية متعددة

بيان صحفي صادر عن جبهة تحرير أورومو

طعن مستخدِمان على نحو منفصل في قرارات اتخذتها Meta لإزالة منشور لكل منهما، حيث شارك كلاهما بيانًا صحفيًا صادرًا عن جبهة تحرير أورومو (OLF)، وهي حزب سياسي يدعو إلى حق تقرير المصير لشعب الأورومو في إثيوبيا.

2 تم تضمين من الحالات في هذه الحزمة

أسقط

FB-KW5ZYLJ8

حالة بشأن أفراد خطرين ومنظمات خطرة على فيسبوك

منصة
Facebook
عنوان
حرية التعبير,سياسة
معيار
الأفراد الخطرون والمنظمات الخطرة
موقع
إثيوبيا
Date
تم النشر بتاريخ تم النشر بتاريخ 24 شُباط 2026
أسقط

FB-A41GXKK9

حالة بشأن أفراد خطرين ومنظمات خطرة على فيسبوك

منصة
Facebook
عنوان
حرية التعبير,سياسة
معيار
الأفراد الخطرون والمنظمات الخطرة
موقع
إثيوبيا
Date
تم النشر بتاريخ تم النشر بتاريخ 24 شُباط 2026

تدرس القرارات الموجزة الحالات التي تراجعت فيها Meta عن قرارها الأصلي بشأن محتوى معين بعد أن لفت المجلس انتباه الشركة إليه، وتتضمن معلومات حول الأخطاء التي أقرت بها Meta. وتوافق عليها لجنة من أعضاء المجلس، وليس المجلس بكامله، ولا تتضمن تعليقات عامة ولا تُشكّل سابقة قانونية لدى المجلس. وتُحدث القرارات الموجزة تغييرات مباشرة في قرارات Meta، مما يوفر الشفافية بشأن هذه التصحيحات، مع تحديد الجوانب التي يمكن أن تحسّن Meta فيها عمليات الإنفاذ.

الملخص

طعن مستخدِمان على نحو منفصل في قرارات اتخذتها Meta لإزالة منشور لكل منهما، حيث شارك كلاهما بيانًا صحفيًا صادرًا عن جبهة تحرير أورومو (OLF)، وهي حزب سياسي يدعو إلى حق تقرير المصير لشعب الأورومو في إثيوبيا. وبعد أن لفت المجلس انتباه Meta إلى الطعنين، تراجعت الشركة عن قراريها واستعادت المنشورين.

حول الحالات

راجع المجلس عنصري محتوى يشاركان بيانًا صحفيًا صادرًا عن جبهة تحرير أورومو. وفي كلتا الحالتين، شارك مستخدِمان مختلفان على فيسبوك بيانًا صحفيًا وشرحًا توضيحيًا بلغة "الأورومو" يفيد بأن المكتب الرئيسي لجبهة تحرير أورومو في العاصمة الإثيوبية أديس أبابا قد أُعيد رسميًا إلى الحزب في يونيو 2025. ووصفت جبهة تحرير أورومو الحدث في البيان الصحفي بأنه ثمرة جهود ممتدة، وأعربت عن امتنانها لجميع المؤسسات والأعضاء الذين دعموا هذه العملية.

تأسست جبهة تحرير أورومو في عام 1973 بوصفها منظمة سياسية تدعو إلى حق تقرير المصير لشعب "الأورومو"، وهو أكبر مجموعة عرقية في إثيوبيا. وتاريخيًا، انخرطت الجبهة في صراعات مسلحة ضد الحكومة الإثيوبية التي صنفتها كجماعة إرهابية. غير أن الحكومة الإثيوبية استبعدت جبهة تحرير الأورومو من قائمة الإرهاب لديها في عام 2018، مما سمح لقادتها بالعودة من المنفى. ولقد رفض فصيل منشق كان يعمل جناحًا عسكريًا للجبهة إلقاء السلاح وواصل مقاومته المسلحة ضد الحكومة الفيدرالية. ولقد صنفت السلطات الإثيوبية هذا الفصيل كمنظمة إرهابية في عام 2021.

وبموجب سياسة المنظمات الخطرة والأفراد الخطرين، تزيل الشركة "تمجيد أو دعم أو تمثيل" الأفراد أو المنظمات التي "تتبنى مهامًا تنطوي على أعمال عنف أو تشارك في أعمال عنف".

أفاد المستخدِمان في طعنيهما المقدَّمين إلى المجلس بأن المنشورين يشاركان بيانًا صحفيًا صادرًا عن جبهة تحرير أورومو بخصوص إعادة افتتاح مقرها الرئيسي في أديس أبابا، ولا ينتهكان سياسات Meta. وأكدا أن جبهة تحرير أورومو حزب سياسي مسجل قانونًا يعترف به المجلس الوطني للانتخابات في إثيوبيا.

وبعد أن لفت المجلس انتباه Meta إلى هاتين الحالتين، قررت الشركة أن المنشورين يشيران إلى جبهة تحرير أورومو، وهي تختلف عن منظمة تحمل اسمًا مشابهًا مصنّفة باعتبارها جهة فاعلة عنيفة غير حكومية من الفئة الثانية بموجب سياسة المنظمات الخطرة والأفراد الخطرين. واستنادًا إلى Meta، لم ينتهك المنشوران السياسة نظرًا لعدم تعلقهما بكيان مصنّف. ومن ثم، كان قرارا Meta الأصليان بإزالة المنشورين غير صحيحين. وعلى إثر ذلك أعادت الشركة عنصري المحتوى إلى فيسبوك.

سُلطة المجلس ونطاق عمله

يتمتع المجلس بسلطة مراجعة قرار Meta بعد تلقي طعن من المستخدم الذي أُزيل محتواه (المادة 2، القسم 1 من اتفاقية المجلس؛ والمادة 3، القسم 1 من اللائحة الداخلية).

عندما تُقر Meta بأنها ارتكبت خطأً وتتراجع عن قرارها بشأن حالة قيد النظر للمراجعة من قِبل المجلس، يجوز للمجلس اختيار هذه الحالة لإصدار قرار موجز (المادة 2، القسم 2.1.3 من اللائحة الداخلية). ويراجع المجلس القرار الأصلي لزيادة فهم عمليات الإشراف على المحتوى والحد من الأخطاء وتعزيز معدلات الإنصاف لمستخدمي فيسبوك وInstagram وThreads.

أهمية الحالات

تسلط هاتان الحالتان الضوء على استمرار الإنفاذ غير الدقيق لمعيار مجتمع Meta بشأن المنظمات الخطرة والأفراد الخطرين، حتى ضد المحتوى الذي لا يشير إلى كيان مصنّف. وتثير أخطاء الإنفاذ هذه، التي تنتهك حرية التعبير للمستخدمين، قلقًا بالغًا في بلد مثل إثيوبيا، حيث يوجد نزاع مستمر وحرية التعبير مقيّدة.

وكان المجلس قد أصدر سابقًا عدة توصيات بشأن هذا الموضوع. ومن بينها، أوصى المجلس Meta "بشرح الأساليب التي [تستخدمها الشركة] لتقييم دقة المراجعة البشرية وأداء الأنظمة التلقائية في إنفاذ سياستها بشأن المنظمات الخطرة والأفراد الخطرين" (الإشارة إلى أفراد مصنّفين باستخدام كلمة "شهيد"، التوصية رقم 6). ويرى المجلس أن Meta قد أعادت صياغة هذه التوصية. إذ ذكرت الشركة أنها تجري عمليات تدقيق لتقييم دقة قراراتها بشأن الإشراف على المحتوى، وأن عمليات التدقيق هذه توفر رؤى حول أوجه التحسين. ومع ذلك، لم تشرح Meta الأساليب التي تستخدمها لإجراء هذه التقييمات ورفضت الكشف عنها للجمهور، وهو ما من شأنه تعزيز شفافية إنفاذ الشركة، بما في ذلك عند تطبيقها على مناطق وأسواق ولغات مختلفة.

وعلاوة على ذلك، ولتحسين الشفافية الشاملة حول تصنيف الكيانات وإلغاء تصنيفها، أوصى المجلس بما يلي: "يتعين على Meta أن تشرح بمزيد من التفصيل الإجراء الذي يتم بموجبه تصنيف الكيانات والأحداث. ويتعين عليها أيضًا نشر معلومات مجمعة عن قائمة التصنيف بصفة دورية، بما في ذلك العدد الإجمالي للكيانات التي تندرج تحت كل فئة من فئات القائمة، وعدد ما تمت إضافته أو إزالته من كل فئة خلال العام الماضي." (الإشارة إلى أفراد مصنّفين باستخدام كلمة "شهيد"، التوصية رقم 4). نفذت Meta هذه التوصية جزئيًا. وفي نوفمبر 2024، نشرت Meta معلومات حول كيفية وسبب تصنيف الشركة للمنظمات أو الأفراد، وكيف ومتى ستنظر في إزالتهم من قائمة المنظمات الخطرة والأفراد الخطرين. غير أن Meta لم تنشر بيانات عن العدد الإجمالي للكيانات في كل فئة من القائمة، أو عدد الكيانات التي تمت إزالتها من القائمة.

كما أصدر المجلس توصية تركز على الإنفاذ التلقائي، طالب فيها Meta "بتنفيذ تدقيق داخلي لتحليل عينة ممثلة إحصائيًا من قرارات إزالة المحتوى التلقائية بصفة مستمرة، وذلك لتصحيح أخطاء الإنفاذ والاستفادة منها" (أعراض سرطان الثدي والعُري، التوصية رقم 5). ويرى المجلس أن Meta لم تعالج هذه التوصية، نظرًا لدمجها مع التوصية رقم 1 من الحالة نفسها، والتي طلبت من Meta "تحسين وسائل الاكتشاف التلقائي للصور التي تتضمن تراكبات نصية لضمان عدم تمييز المنشورات التي تعزز الوعي بأعراض سرطان الثدي عن طريق الخطأ كمنشورات تتطلب المراجعة". ورغم أن Meta أبلغت عن تحسينات في الاكتشاف التلقائي للصور، فإن الشركة لم تلتزم بإجراءات التدقيق الداخلي التي حددها المجلس في التوصية رقم 5 (تحديث Meta للربعين الثاني والثالث من عام 2021 بشأن مجلس الإشراف، ص 32).

ويؤدي التكرار في الإفراط في إنفاذ سياسة المنظمات الخطرة والأفراد الخطرين، كما هو موضح في القرارات الموجزة السابقة (مثل: رابط لمقالة ويكيبيديا حول هيئة تحرير الشام، وذِكر حركة الشباب، والزعيم المناهض للاستعمار أميلكار كابرال)، إلى تقويض قدرة المستخدمين على مشاركة الأخبار عبر منصات Meta. ويؤمن المجلس بأن التنفيذ الكامل لهذه التوصيات سيعزز قدرة الشركة على تحسين دقة الإنفاذ وحماية خطاب المستخدمين بشكل أفضل. وبالإضافة إلى ذلك، فإن مشاركة معلومات إضافية حول تصنيف الكيانات ستزيد من الشفافية العامة وتعزز التفاعل مع Meta بما قد يؤدي إلى مزيد من التحسينات.

القرار

يلغي المجلس قراري Meta الأصليين بإزالة عنصري المحتوى. ويُقرّ المجلس بأن Meta قد صحّحت أخطاءها الأولية بمجرد أن لفت المجلس انتباهها إلى هاتين الحالتين.

العودة إلى قرارات الحالة والآراء الاستشارية المتعلقة بالسياسة