أيد

الجرائم المزعومة في ريا كوبو

أيد مجلس الإشراف القرار الأصلي الذي اتخذته شركة Meta بإزالة منشور يزعم تورط مدنيين ترجع أصولهم العرقية إلى إقليم تيجراي في ارتكاب فظائع في منطقة أمهرة الإثيوبية.

نوع القرار

معيار

السياسات والمواضيع

عنوان
حرب وصراع، حرية التعبير
معيار المجتمع
خطاب يحض على الكراهية

المناطق/البلدان

موقع
إثيوبيا

منصة

منصة
Facebook

هذا القرار متاح أيضًا باللغة الأمهرية والتجرينية.

ሙሉ ውሳኔውን በአማርኛ ለማንበብ፣ እዚህ ይጫኑ

ብትግርኛ እተገብረ ውሳነ ምሉእ ከተንብቦ እንተ ደሊኻ ኣብዚ ጠውቕ

ملخص الحالة

ملاحظة: في 28 أكتوبر 2021، أعلنت فيسبوك عن تغيير اسم الشركة إلى Meta. في النص الذي بين أيدينا، تشير كلمة Meta إلى الشركة، بينما تستمر كلمة فيسبوك في الإشارة إلى المنتج والسياسات الخاصة بالتطبيق المعني.

أيد مجلس الإشراف القرار الأصلي الذي اتخذته شركة Meta بإزالة منشور يزعم تورط مدنيين ترجع أصولهم العرقية إلى إقليم تيجراي في ارتكاب فظائع في منطقة أمهرة الإثيوبية. مع هذا، ولأن شركة Meta قد استعادت المنشور بعد تقدم المستخدم بطعن إلى المجلس، وجب على الشركة إزالة المحتوى مرة أخرى من المنصة.

حول هذه الحالة

في أواخر يوليو 2021، نشر أحد مستخدمي فيسبوك من إثيوبيا منشورًا باللغة الأمهرية. وتضمن المنشور ادعاءات بأن جبهة تحرير شعب تيجراي (TPLF) قتلت واغتصبت نساءً وأطفالاً، كما نهبت ممتلكات المدنيين في ريا كوبو وبلدات أخرى في منطقة أمهرة الإثيوبية. وادعى المستخدم أن المدنيين الذين ترجع أصولهم العرقية إلى إقليم تيجراي ساعدوا جبهة تحرير شعب تيجراي في ارتكاب هذه الفظائع. وزعم المستخدم في منشوره أنه حصل على المعلومات من سكان ريا كوبو. وأنهى المستخدم منشوره بهذه العبارة "سنحقق حريتنا بكفاحنا".

بعد تمييز أنظمة شركة Meta التلقائية باللغة الأمهرية لهذا المنشور باعتباره مخالفًا، قرر أحد المشرفين أن المحتوى ينتهك معيار مجتمع فيسبوك بشأن المحتوى الذي يحض على الكراهية وقام بإزالته. وعندما قدّم المستخدم طعنًا على هذا القرار إلى شركة Meta، أكد مشرف آخر من مشرفي المحتوى أن المنشور قد انتهك معايير مجتمع فيسبوك. وينتمي كلا المشرفين إلى فريق مراجعة المحتوى باللغة الأمهرية لدى شركة Meta.

وقد تقدم المستخدم بعد ذلك بطعن إلى مجلس الإشراف. وبعد اختيار المجلس لهذه الحالة، حددت شركة Meta أن قرارها الأصلي بإزالة المنشور لم يكن صحيحًا واستعادته بتاريخ 27 أغسطس. وأخبرت شركة Meta المجلس أنها عادة ما تخطر المستخدمين باستعادة المحتوى الخاص بهم في نفس يوم استعادتها له. ومع هذا، نتيجة لخطأ بشري، أخطرت شركة Meta هذا المستخدم باستعادة منشوره بتاريخ 30 سبتمبر - بعد مرور أكثر من شهر. وقد تم إرسال هذا الإشعار إلى المستخدم بعد أن استفسر المجلس عما إذا كانت شركة Meta قد أخطرت المستخدم باستعادة المحتوى الخاص به أم لا.

أهم النتائج

وجد المجلس أن المحتوى قد انتهك معيار مجتمع فيسبوك بشأن العنف والتحريض.

وعلى الرغم من أن شركة Meta قد أزالت المنشور في البداية لانتهاك معيار المجتمع بشأن الخطاب الذي يحض على الكراهية، فقد استعادت الشركة المحتوى بعد اختيار المجلس للحالة، حيث زعمت شركة Meta أن المنشور لم يستهدف مجموعة تيجراي العرقية ولم تمثل ادعاءات المستخدم خطابًا يحض على الكراهية. وقد وجد المجلس أن التفسير الذي أوردته الشركة كسبب لاستعادة المحتوى غير صحيح ويفتقر إلى التفاصيل.

طبّق المجلس، بدلاً من ذلك، معيار مجتمع فيسبوك بشأن العنف والتحريض على هذا المنشور. ويحظر هذا المعيار "المعلومات المضللة أو الشائعات التي لا يمكن التحقق من صحتها والتي تسهم في مخاطر اندلاع أحداث عنف أو أذى جسدي وشيك." وقد وجد المجلس أن المحتوى في هذه الحالة يتضمن شائعة لا يمكن التحقق من صحتها وفق تعريف شركة Meta للمصطلح. وعلى الرغم من ادعاء المستخدم أن مصادره عبارة عن تقارير سابقة لم يسميها وأشخاص على الأرض، فإنه لم يقدم حتى دليلاً غير مباشر يدعم مزاعمه. وتتسم الشائعات التي تزعم ضلوع جماعة عرقية في ارتكاب فظائع جماعية، كما هو الحال في هذا المنشور، بالخطورة وتزيد من احتمالات ارتكاب أعمال عنف وشيكة.

وجد المجلس أيضًا أن إزالة المنشور تتفق مع مسؤوليات Meta كشركة تجاه حقوق الإنسان. وقد تؤدي الشائعات التي لا يمكن التحقق من صحتها في ظل اندلاع صراع ساخن ومستمر إلى حدوث فظائع خطيرة، كما حدث في حالة ميانمار. وفي القرار الصادر بشأن الحالة ‎2020-003-FB-UA، صرّح المجلس أنه "في حالات النزاع المسلح على وجه الخصوص، يتجلى بشكل خاص خطر تراكم التعبيرات التي تحض على الكراهية والتي تجرد الأشخاص من إنسانيتهم وانتشارها على إحدى المنصات، مما يؤدي إلى ارتكاب أعمال على أرض الواقع تؤثر على الحق في الأمن الشخصي وربما الحق في الحياة." وقد يصل التأثير التراكمي إلى التسبب في تصاعد الأمور من خلال "التراكم التدريجي للأثر"، كما حدث في الإبادة الجماعية في رواندا.

توصل المجلس إلى قراره وهو مدرك للشد والجذب بين حماية حرية التعبير والحد من خطر اندلاع صراع طائفي. ويدرك المجلس مشاركة المدنيين في الفظائع التي وقعت في العديد من أنحاء إثيوبيا، ولكن ليس في ريا كوبو، كما يدرك عدم قدرة شركة Meta على التحقق من صحة المزاعم التي وردت في المنشور عندما تم نشرها. ويعلم المجلس أيضًا أن التقارير الحقيقية عن الفظائع المرتكبة يمكن أن تنقذ الأرواح في مناطق النزاع، في حين أن الادعاءات التي لا أساس لها من الصحة بشأن الجناة من المدنيين يمكن أن تزيد من مخاطر ارتكاب أعمال عنف على المدى القريب.

قرار مجلس الإشراف

أيد مجلس الإشراف القرار الأصلي الذي اتخذته شركة Meta بإزالة المنشور. ولأن شركة Meta قد استعادت المحتوى بعد تقدم المستخدم بطعن إلى المجلس، وجب على الشركة إزالة المحتوى مرة أخرى من المنصة.

في بيان استشاري بشأن السياسة، يوصي المجلس شركة Meta بما يلي:

  • إعادة صياغة قيمة "السلامة" لتؤكد أن الخطاب المنشور على الإنترنت يمكن أن يشكل خطرًا على الأمن الجسدي للأشخاص وحقهم في الحياة، فضلاً عن مخاطر التخويف والإقصاء والإسكات.
  • أن تعكس معايير مجتمع فيسبوك أن الشائعات التي لا يمكن التحقق من صحتها تشكّل، في سياقات الحرب والنزاع العنيف، خطرًا أكبر على الحق في الحياة وأمان الأشخاص. ويجب أن ينعكس ذلك في كل مستويات عملية الإشراف.
  • إجراء تقييم مستقل للعناية الواجبة بحقوق الإنسان يتناول الكيفية التي يتم بها استخدام فيسبوك وInstagram لنشر الخطاب الذي يحض على الكراهية والشائعات التي لم يتم التحقق من صحتها والتي تزيد من خطر اندلاع أعمال عنف في إثيوبيا. ويجب أن يراجع التقييم مدى نجاح التدابير التي اتخذتها شركة Meta لمنع إساءة استخدام منتجاتها وخدماتها في إثيوبيا. ويجب أن يراجع التقييم أيضًا مدى نجاح التدابير التي اتخذتها شركة Meta للسماح بتقديم تقارير مؤيدة وتقارير تدعم المصلحة العامة عن الفظائع التي ارتكبت ضد حقوق الإنسان في إثيوبيا. ويجب أن يراجع التقييم الإمكانات اللغوية لشركة Meta في إثيوبيا ومدى كفايتها لحماية حقوق المستخدمين. علاوة على ذلك، يجب أن يتناول التقييم الفترة من 1 يونيو 2020 وحتى الآن. ويجب أن تنتهي الشركة من التقييم في غضون ستة أشهر من استجابتها لهذه التوصيات. ويجب نشر التقييم كاملاً.

*توفر ملخصات الحالة نظرة عامة على الحالة ولا تُشكّل سابقة قانونية.

القرار الكامل للمجلس بشأن الحالة

1. ملخص القرار

أيد مجلس الإشراف القرار الأصلي الذي اتخذته شركة Meta بإزالة المحتوى. يزعم المنشور تورط مدنيين ترجع أصولهم العرقية إلى إقليم تيجراي في الفظائع المرتكبة ضد الأشخاص في منطقة أمهرة الإثيوبية. طبقت شركة Meta في البداية معيار المجتمع بشأن الخطاب الذي يحض على الكراهية لإزالة المنشور من فسبوك، لكنها استعادته بعد اختيار المجلس للحالة. وقد وجد المجلس أن التفسير الذي أوردته شركة Meta كسبب لاستعادة المحتوى يفتقد إلى التفاصيل وغير صحيح. ووجد المجلس أن المحتوى انتهك الحظر المفروض على نشر الشائعات التي لا يمكن التحقق من صحتها بموجب معيار المجتمع بشأن العنف والتحريض.

2. وصف الحالة

في أواخر يوليو 2021، نشر أحد مستخدمي فيسبوك باللغة الأمهرية في يومياته مزاعم عن قيام جبهة تحرير شعب تيجراي (TPLF) بقتل واغتصاب نساء وأطفال، ونهب ممتلكات المدنيين في ريا كوبو وبلدات أخرى في منطقة أمهرة في إثيوبيا. زعم المستخدم أيضًا أن مدنيين ترجع أصولهم العرقية إلى إقليم تيجراي ساعدوا جبهة تحرير شعب تيجراي في ارتكاب هذه الفظائع (للاطلاع على ترجمة ومعنى المنشور المكتوبة باللغة الأمهرية، راجع القسم 6 أدناه). وأنهى المستخدم منشوره بهذه العبارة "سنحقق حريتنا بكفاحنا". وزعم المستخدم في منشوره أنه حصل على المعلومات من سكان ريا كوبو.

حقّق المنشور نحو 5000 مشاهدة، وحصل على أقل من 35 تعليقًا وأكثر من 140 تفاعلاً. وتمت مشاركته أكثر من 30 مرة. ظل المنشور موجودًا على فيسبوك لمدة يوم تقريبًا. تضمنت التعليقات المكتوبة باللغة الأمهرية عبارات ترجمها الخبراء اللغويون التابعون للمجلس على النحو التالي: "خيار[نا] الوحيد هو الوقوف معًا للانتقام" و"هل أنتم مستعدون لتسوية هذا الأمر أيها الإخوة والأخوات؟" بحسب شركة Meta، يقع حساب المستخدم الذي نشر المحتوى في إثيوبيا، ولكن ليس في منطقة تيجراي أو أمهرة. وتتضمن صورة الملف الشخصي للمستخدم علامة هاشتاج تشير إلى رفض جبهة تحرير شعب تيجراي. واستنادًا إلى المعلومات المتوفرة للمجلس، يصف المستخدم نفسه بأنه رجل إثيوبي من ريا.

حدد نظام شركة Meta التلقائي باللغة الأمهرية (أداة التصنيف) أن المنشور يمثل انتهاكًا محتملاً لسياستها. وتوظِف شركة Meta أدوات تصنيف تعمل بنظام التعلُّم الآلي تم تدريبها لتكتشف تلقائيًا الانتهاكات المحتملة لمعايير مجتمع فيسبوك. أعلنت شركة Meta أنها "تستخدم هذه التكنولوجيا لتكتشف بشكل استباقي الخطاب الذي يحض على الكراهية باللغة الأمهرية ولغة الأورومو، إلى جانب أكثر من 40 لغة أخرى عالميًا." ويتفهم المجلس أن إثيوبيا بلد متعدد اللغات، حيث تعتبر لغات الأورومو والأمهرية والصومالية والتجرينية هي اللغات الأربع الأكثر استخدامًا في إثيوبيا. أفادت شركة Meta أيضًا أنها توظف مشرفين يمكنهم مراجعة المحتوى باللغات الأمهرية والأورومو والتجرينية والصومالية.

تستخدم شركة Meta طريقة "العينة المتحيزة" التي تأخذ عينات من المحتوى لتحسين جودة أداة التحديد باللغة الأمهرية. وهذا يعني أنه يتم باستمرار أخذ عينات من محتوى مكتوب باللغة الأمهرية له درجات مطابقة محتملة منخفضة ومرتفعة وإدراجها في قائمة للمراجعة البشرية لتحسين أداء أداة التصنيف." وقد تم تحديد هذا المحتوى للمراجعة البشرية كجزء من عملية التحسين هذه. وأوضحت شركة Meta أيضًا أن نظامها التلقائي قرر أن هذا المحتوى ينطوي "على عدد مرتفع من المشاهدات المحتملة" وأنه أعطى المنشور "درجة انتهاك منخفضة." وتعني درجة الانتهاك المنخفضة أن المحتوى لا يرقى إلى مستوى الإزالة التلقائية بواسطة نظام شركة Meta التلقائي.

قرر أحد مشرفي المحتوى التابع لفريق مراجعة المحتوى باللغة الأمهرية أن المنشور انتهك معيار المجتمع بشأن المحتوى الذي يحض على الكراهية من فيسبوك وقام بإزالته. ويحظر هذا المعيار المحتوى الذي يستهدف شخصًا أو مجموعة أشخاص استنادًا إلى العرق أو السلالة أو الأصل القومي باستخدام "خطاب ينطوي على عنف." وقد أشارت شركة Meta إلى أنها أخطرت المستخدم بأن منشوره يخالف معيار مجتمع فيسبوك بشأن الخطاب الذي يحض على الكراهية، لكنها لم تخطره بالقواعد التي انتهكها تحديدًا. وتقدم المستخدم بطعن على القرار إلى شركة Meta، وبعد إجراء مراجعة ثانية بواسطة مراجع آخر من فريق مراجعة المحتوى باللغة الأمهرية، أكدت شركة Meta أن المنشور انتهك سياسات فيسبوك.

وقد تقدم المستخدم بعد ذلك بطعن إلى مجلس الإشراف. نتيجة لقيام المجلس باختيار الحالة، قالت شركة Meta إن إزالة المنشور قد نتجت عن "خطأ في الإنفاذ" لتقوم على إثر ذلك باستعادته في 27 أغسطس. وقد أشارت شركة Meta إلى أنها عادةً ما تخطر المستخدمين باستعادة المحتوى في اليوم ذاته. ومع هذا، ونتيجة لخطأ بشري، أخبرت شركة Meta هذا المستخدم باستعادة المحتوى في 30 سبتمبر. وهو ما قد حدث بعد أن استفسر المجلس عما إذا كان المستخدم قد تم إخطاره باستعادة المحتوى أم لا.

تتعلق الحالة بادعاءات لا يمكن التحقق من صحتها تفيد بأن أشخاصًا من تيجراي ممن يعيشون في بلدة ريا كوبو كانوا يتعاونون مع جبهة تحرير شعب تيجراي لارتكاب فظائع من بينها الاغتصاب ضد جماعة الأمهرة العرقية. وقد نُشرت هذه الادعاءات على فيسبوك في خضم الحرب الأهلية المستمرة في إثيوبيا والتي اندلعت عام 2020 بين قوات إقليم تيجراي وقوات الحكومة الفيدرالية الإثيوبية والجيش وحلفائها (مجموعة الأزمات الدولية، الحرب الأهلية الإثيوبية: عقد صفقة لإيقاف إراقة الدماء 26 أكتوبر 2021).

وفقًا لإفادات تلقاها المجلس من خبراء، يعتبر فيسبوك وسيلة تواصل مهمة ومؤثرة ورائجة عبر الإنترنت في إثيوبيا. وقد أشارت إفادات الخبراء أيضًا إلى ضعف التغطية الإعلامية الإثيوبية أو انعدامها في المناطق المتأثرة بالنزاع، ويستخدم الشعب الإثيوبي فيسبوك لمشاركة وتلقي معلومات عن النزاع.

شهدت إثيوبيا في تاريخها الحديث نزاعًا عرقيًا متكررًا ضم جماعات مختلفة من بينها جماعات تنتمي أصولها العرقية إلى إقليم تيجراي (المركز الإفريقي للتسوية البناءة للنزاعات، الفيدرالية العرقية والصراع في إثيوبيا، 2017). والمجلس على دراية بمزاعم ارتكاب انتهاكات جسيمة لحقوق الإنسان والقانون الإنساني في إقليم تيجراي وفي أجزاء أخرى من البلاد، بما في ذلك أقاليم عفار وأمهرة وأورومو وصومالي على أيدي الأطراف المشاركة في النزاع الحالي (مستشار الأمم المتحدة الخاص المعني بمنع الإبادة الجماعية، في بيان عن التدهور المستمر للوضع في إثيوبيا، 30 يوليو 2021؛ مكتب مفوض الأمم المتحدة السامي لحقوق الإنسان (UN OHCHR)، إثيوبيا: باشيليت تدعو إلى إنهاء الحرب "المتهورة" في ظل تصاعد الصراع في تيجراي، 3 نوفمبر 2021). علاوة على ذلك، وفقًا للتحقيق المشترك المنشور مؤخرًا بواسطة اللجنة الإثيوبية لحقوق الإنسان (EHRC) ومفوضية الأمم المتحدة السامية لحقوق الإنسان، شارك المدنيين من إقليمي تيجراي وأمهرة في انتهاكات حقوق الإنسان في أواخر 2020. ومع ذلك، فإن نطاق التحقيق لم يتضمن الانتهاكات التي حدثت خلال شهر يوليو 2021 في المناطق المذكورة في منشور المستخدم (تقرير اللجنة الإثيوبية لحقوق الإنسان ومفوضية الأمم المتحدة السامية لحقوق الإنسان، والتحقيق المشترك في الانتهاكات المزعومة للقانون الدولي لحقوق الإنسان والقانون الإنساني وقانون اللاجئين والتي ارتكبتها كل أطراف النزاع في إقليم تيجراي بجمهورية إثيوبيا الفيدرالية الديمقراطية، 3 نوفمبر 2021).

وفقًا لتقرير وكالة رويترز، زعم مسؤولون محليون من إقليم أمهرة أن قوات تيجراي قتلت 120 مدنيًا في قرية داخل إقليم أمهرة يومي 1 و2 سبتمبر (رويترز، 8 سبتمبر). أصدرت قوات تيجراي لاحقًا بيانًا ترفض فيه ما قالت إنه "ادعاءات مختلقة" صادرة عن حكومة إقليم أمهرة. ولم يتسن التأكد من هذه الادعاءات بشكل مستقل. والمجلس على دراية أيضًا بالادعاءات القائلة بأن شعب تيجراي يتم تصنيفه عرقيًا ومضايقة أفراده الذي يتعرضون بشكل متزايد للخطاب الذي يحض على الكراهية (ملاحظات مفوضة الأمم المتحدة السامية لحقوق الإنسان ميشيل باشيليت رداً على أسئلة متعلقة بإثيوبيا، 9 ديسمبر 2020؛ المنظمات غير الحكومية تدعو إلى مجلس حقوق الإنسان التابع للأمم المتحدة لإصدار قرار بشأن تيجراي، 11 يونيو 2021).

3. السُلطة والنطاق

يتمتع المجلس بسلطة مراجعة قرار شركة Meta بعد تلقي طعن من المستخدم الذي تعرض منشوره إلى الإزالة (المادة 2، القسم 1 من اتفاقية المجلس). ويجوز للمجلس تأييد هذا القرار أو إلغائه، ويكون قراره بهذا الشأن ملزمًا لشركة Meta (اتفاقية المجلس، المادة 3، القسم 5، والمادة 4). وقد تتضمن قرارات المجلس بيانات استشارية بشأن السياسية تضم توصيات غير ملزمة يجب على شركة Meta الرد عليها (اتفاقية المجلس، المادة 3، القسم 4). ووفقًا لاتفاقيته، يعتبر مجلس الإشراف جهة مستقلة معنية بحماية حرية التعبير من خلال اتخاذ قرارات مستقلة تستند إلى مجموعة من المبادئ بشأن عناصر المحتوى المهمة. يعمل المجلس بشفافية، وتتسم أحكامه بالحيادية والاستقلال ويصدر قراراته دون تحيز.

4. المعايير ذات الصلة

أخذ مجلس الإشراف المعايير التالية في الاعتبار عند إصدار قراره:

1. معايير مجتمع فيسبوك

في مبادئ السياسة لمعيار مجتمع فيسبوك بشأن الخطاب الذي يحض على الكراهية، تذكر شركة Meta أن الخطاب الذي يحض على الكراهية غير مسموح به على المنصة "لأنه يخلق بيئة من التخويف والإقصاء ويقود في بعض الحالات إلى العنف على أرض الواقع." يضع معيار المجتمع تعريفًا للخطاب الذي يحض على الكراهية بأنه "هجوم مباشر على الأشخاص — وليس على مفاهيم أو مؤسسات — على أساس ما نطلق عليه سمات تتمتع بحقوق حماية: العرق والسلالة والأصل القومي والعجز والانتماء الديني والطبقة الاجتماعية والتوجه الجنسي والجنس والنوع والهوية الجنسية والأمراض الخطيرة." وتعرِّف مبادئ السياسة أيضًا الهجوم بأنه "خطاب يحض على العنف أو الازدراء أو القوالب النمطية الضارة، أو ينطوي على عبارات دونية أو عبارات ازدراء أو اشمئزاز أو نبذ أو سب أو دعوات للإقصاء أو التمييز." يصف معيار مجتمع فيسبوك بشأن المحتوى الذي يحض على الكراهية ثلاث طبقات من الهجمات. بموجب الطبقة الأولى، يحظر معيار مجتمع فيسبوك "المحتوى الذي يستهدف شخصًا أو مجموعة أشخاص (بما في ذلك كل المجموعات الفرعية باستثناء تلك الموصوفة بأنها ارتكبت جرائم عنف أو اعتداءات جنسية) على أساس السمة (السمات) التي تتمتع بحقوق حماية سالفة الذكر من خلال "خطاب ازدرائي". قد يأتي هذا النوع من الخطاب في صورة تعميمات أو عبارات سلوكية غير متحفظة تصف أشخاصًا يشتركون في سمة تتمتع بحقوق حماية بأنهم "مرتكبو جرائم عنف أو جرائم جنسية" أو "مرتكبو جرائم أخرى".

تنص مبادئ معيار مجتمع فيسبوك بشأن العنف والتحريض على أن شركة Meta "تهدف إلى منع أي أذى محتمل على أرض الواقع قد ينتج عن محتوى" يتم نشره على المنصة. وتحظر شركة Meta على وجه الخصوص المحتوى الذي يتضمن "معلومات مضللة أو شائعات لا يمكن التحقق من صحتها والتي تسهم في مخاطر اندلاع أحداث عنف أو أذى جسدي وشيك." كجزء من المعايير الداخلية للإنفاذ، ترى شركة Meta أن الشائعات التي لا يمكن التحقق من صحتها هي معلومات يصعب للغاية أو يستحيل تتبع مصدرها، أو لا يمكن تأكيدها أو تفنيدها في إطار زمني مناسب لأنه من يصعب للغاية أو يستحيل تتبع مصدر المعلومات. وترى شركة Meta أيضًا أن المعلومات التي تفتقد إلى تحديد الادعاء بما يكفي لتفنيده بمثابة شائعة لا يمكن التحقق من صحتها. وتشير شركة Meta إلى أنها تحتاج إلى سياق إضافي لإنفاذ هذه السياسة المنصوص عليها في معيار مجتمع فيسبوك بشأن العنف والتحريض.

2. قيم شركة Meta

تم توضيح قيم شركة Meta في مقدمة معايير مجتمع فيسبوك. وقد جرى وصف قيمة "حرية الرأي" بأنها "ذات أهمية قصوى":

يتمثل هدف معايير مجتمعنا دائمًا في توفير مكان لحرية الرأي يستطيع الأشخاص من خلاله إبداء وجهات نظرهم. [...] ونحن نريد أن يتمتع الأشخاص بالقدرة على التحدث بحرية عن القضايا التي تهمهم، حتى في حالة عدم اتفاق البعض أو اعتراضهم.

تُقيد شركة Meta "حرية الرأي" لخدمة أربع قيم أخرى، ترتبط اثنتان منها بهذه الحالة:

"السلامة": نحن ملتزمون بجعل فيسبوك مكانًا آمنًا. ولا شك أن أشكال التعبير التي تحمل تهديدًا للأشخاص قد تتسبب في إخافة الآخرين أو إقصائهم أو إسكاتهم ونحن لا نسمح بذلك على فيسبوك.

"الكرامة" : نحن نؤمن بأن الأشخاص متساوون في الكرامة والحقوق. ونتوقع من الجميع احترام كرامة الآخرين وعدم الإساءة إليهم أو الحط من قدر الآخرين.

3. معايير حقوق الإنسان

تُرسي مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان (UNGP)، التي أقرها مجلس حقوق الإنسان التابع للأمم المتحدة عام 2011، إطار عمل تطوعي لمسؤوليات الأنشطة التجارية الخاصة فيما يتعلق بحقوق الإنسان. خلال عام 2021، أعلنت شركة Meta عن سياسة حقوق الإنسان الخاصة بالشركة، والتي أعادت من خلالها التأكيد على الالتزام باحترام حقوق الإنسان على نحو يتفق مع مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان. استند تحليل المجلس في هذه الحالة إلى معايير حقوق الإنسان التالية:

  • حرية التعبير: المادة 4 والمادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية (ICCPR)، لجنة حقوق الإنسان، التعليق العام رقم 34، 2011 (التعليق العام رقم 34)، مقرر الأمم المتحدة الخاص المعني بتعزيز وحماية الحق في حرية الرأي والتعبير، تنظيم المحتوى عبر الإنترنت، A/HRC/38/35.
  • الحق في الحياة: المادة 6 من العهد الدولي الخاص بالحقوق المدنية والسياسية، حسب تفسيرها في التعليق العام رقم 36، لجنة حقوق الإنسان (2018) (التعليق العام رقم 36)؛ فريق الأمم المتحدة العامل المعني بمسألة حقوق الإنسان والشركات عبر الوطنية وغيرها من مؤسسات الأعمال، تقرير الأعمال التجارية وحقوق الإنسان والمناطق المتأثرة بالنزاعات: نحو مضاعفة العمل (A/75/212).

5. بيان المستخدم

ذكر المستخدم في الطعن الذي قدمه إلى المجلس أنه نشر المحتوى لحماية مجتمعه المعرض للخطر وأن على شركة Meta مساعدة المجتمعات في مناطق الحروب. وأشار إلى أن المنشور ليس خطابًا يحض على الكراهية، "ولكنه حقيقة". وذكر أيضًا أن جبهة تحرير شعب تيجراي استهدفت مجتمعه الذي يبلغ عدد سكانه مليون نسمة وتركتهم بلا طعام وماء وغيرها من أساسيات الحياة. وأشار المستخدم إلى اعتقاده بأن "أعضاء وأنصار تلك الجماعة الإرهابية" هم من أبلغوا عن منشوره، وزعم أنه "يعرف معظم القواعد جيدًا" وأنه "لم ينتهك أبدًا أيًا من قواعد فيسبوك".

6. شرح قرار شركة Meta

أوضحت شركة Meta في حيثياتها أن المحتوى أزيل في الأصل باعتباره هجومًا بموجب معيار مجتمع فيسبوك بشأن الخطاب الذي يحض على الكراهية، وتحديدًا لانتهاك سياستها التي تحظر "الخطاب الذي ينطوي على عنف" والذي يستهدف شعب تيجراي استنادًا إلى أصولهم العرقية. وقد أخبرت شركة Meta المجلس أن مشرفيها لا يسجلون أسباب إزالتهم للمحتوى، ويقتصرون على الإشارة إلى معيار المجتمع الذي تم انتهاكه. وبالتالي، لم تؤكد شركة Meta ما إذا كان المشرفون الذين راجعوا المنشور في البداية وبعد الطعن قد طبقوا نفس القاعدة التي تنص عليها سياسة فيسبوك بشأن المحتوى الذي يحض على الكراهية لإزالة المنشور أم لا.

ذكرت شركة Meta في حيثياتها أنه نتيجة اختيار المجلس لهذه الحالة، رأت الشركة أن "قرارها كان خاطئًا" واستعادت المنشور. وذكرت شركة Meta أيضًا أن المحتوى لم ينتهك قواعدها لأنه لم يكن يستهدف جماعة تيجراي العرقية وأن ادعاءات المستخدم بشأن جبهة تحرير شعب تيجراي أو أهل تيجراي لا ترقى لمستوى الخطاب الذي يحض على الكراهية.

أكدت شركة Meta في ردها على سؤال طرحه المجلس أن أنظمتها التلقائية باللغة الأمهرية تعمل وأنها تخضع للتدقيق والتحديث كل ستة أشهر. وأوضحت شركة Meta أيضًا أن النص الأصلي باللغة الأمهرية هو ما جعل النظام التلقائي يحدد المحتوى باعتباره يشكل مخالفة محتملة. على نحو مشابه، أكدت شركة Meta أن مشرفي المحتوى كانا من المتحدثين باللغة الأمهرية وأنهما استندا في مراجعتهما إلى النص الأصلي باللغة الأمهرية.

أوضحت شركة ميتا في المعلومات المقدَّمة أن فريقها الإقليمي قدّم سياقًا ثقافيًا ولغويًا عند إعداد ملف الحالة لهذا الطعن. على سبيل المثال، تستند حيثيات قرار شركة Meta المقدمة إلى المجلس إلى ترجمة الفريق الإقليمي للمحتوى. ترجم الفريق الإقليمي لشركة Meta الجزء الذي يفترض أنه يمثل انتهاكًا من منشور المستخدم على النحو التالي: يمهد المعلمون والمتخصصون في مجال الصحة والتجار الذين ينتمون إلى إقليم تيجراي الطرق أمام قوات جبهة تحرير شعب تيجراي المتمردة لاغتصاب النساء ونهب الممتلكات."

طلب المجلس ترجمة إنجليزية إضافية للنص وحصل عليها من خبرائه اللغويين وقدمت شركة Meta ترجمة أخرى للنص من موِّرد خارجي تتعامل معه في مجال الخدمات اللغوية. أكدت الترجمات المختلفة أن المعنى السائد للنص يشير إلى أن المدنيين الذين ينتمون إلى شعب تيجراي قد ساعدوا في ارتكاب الفظائع المنسوبة إلى جبهة تحرير شعب تيجراي. ولأغراض هذا القرار، اعتمد المجلس على النسخة المقدمة من الموِّرد الخارجي الذي تتعامل معه شركة Meta. وتمت ترجمة النص في هذه النسخة على النحو التالي: "كما ذكرنا سابقًا ووفقًا للمعلومات المستقاة من أشخاص يعيشون في المنطقة من معلمين ومتخصصين في مجال الصحة وتجار وعمال يومية وعمال [بأجر] متدني، نتلقى تقارير مباشرة تفيد بأن شعب تيجراي، وأنا أعرف المنطقة جيدًا، يقودون الجماعة المتمردة من باب إلى باب لتعريض النساء للاغتصاب وتعريض الممتلكات للنهب". علاوة على ذلك، أشارت التعليقات على المنشور باللغة الأمهرية إلى أن: "خيار[نا] الوحيد هو الوقوف معًا للانتقام" و"هل أنتم مستعدون لتسوية هذا الأمر أيها الإخوة والأخوات؟"

أكدت شركة Meta في إجابتها عن سؤال طرحه المجلس أن إثيوبيا "مصنفة كبلد معرض للخطر من الطبقة الأولى". ويعتبر ذلك، وفقًا لشركة Meta، أعلى مستوى للخطر. وأشارت شركة Meta إلى أنها صنفت إثيوبيا "كموقع أزمة" فيما يتعلق بسياسة المحتوى وأعمال النزاهة. ومن هذا المنطلق، أنشأت مركزًا "رفيع المستوى" هو مركز عمليات نزاهة المنتجات (IPOC) من أجل انتخابات يونيو 2021 في إثيوبيا ومركزًا آخر لمراقبة التطورات التي أعقبت الانتخابات في شهر سبتمبر. وقد أنهى المركزان عملهما في نفس الشهر الذي أنشئا فيه. وأشارت شركة Meta أيضًا إلى أن فِرق العمليات والسياسات والمنتجات كانت تتعامل مع الوضع في إثيوبيا باعتباره يمثل "أزمة عالية المستوى". وقد ذكرت شركة Meta أن "فريقها متعدد الوظائف للاستجابة للأزمات" والذي يركز على إثيوبيا يجتمع أسبوعيًا لتحديد المخاطر المستمرة والتخفيف من حدتها. وأضافت شركة Meta أن هذه الجهود لا تغير الطريقة التي تُراجع بها المحتوى الذي لا يشكل هذا القدر من الخطر، وأن تلك الجهود لم تؤثر في القرار الذي اتخذته بشأن هذه الحالة.

في إجابتها عن سؤال طرحه المجلس، أوضحت شركة Meta أن الشركاء الموثوق بهم لم يقوموا بتصعيد المنشور من أجل مراجعة إضافية لانتهاك سياسات المعلومات المضللة والأضرار. وذكرت شركة Meta أيضًا أنه نظرًا لعدم تدقيق الحقائق بواسطة جهة خارجية "فليس هناك دليل يشير إلى أن الادعاءات التي تضمنها المنشور كانت كاذبة أو شائعات لا يمكن التحقق من صحتها."

7. المعلومات المقدمة من جهات خارجية

تلقى مجلس الإشراف 23 تعليقًا عامًا ذا صلة بهذه الحالة. وردت ستة تعليقات من بلدان أفريقيا جنوب الصحراء، وتحديدًا من إثيوبيا، وتعليق من الشرق الأوسط وشمال أفريقيا، وتعليق من آسيا والمحيط الهادئ والأوقيانوس، وخمسة تعليقات من أوروبا و10 تعليقات من الولايات المتحدة وكندا. تلقى المجلس تعليقات من المساهمين بما في ذلك المؤسسات الأكاديمية والأفراد ومنظمات المجتمع المدني وكانت تلك التعليقات تركز على حرية التعبير والخطاب الذي يحض على الكراهية في إثيوبيا. تناولت التعليقات المقدمة موضوعات تتضمن ما إذا كان المحتوى ينبغي أن يظل على المنصة، وصعوبات التفرقة بين انتقاد جبهة تحرير شعب تيجراي والخطاب الذي يحض على الكراهية الموجه إلى شعب تيجراي، وافتقار شركة Meta لمشرفي المحتوى الذين يتحدثون اللغات الإثيوبية.

لقراءة التعليقات العامة المقدمة في هذه الحالة، يرجى النقر هنا.

8. تحليل مجلس الإشراف

تتعلق الحالة بادعاءات حدثت أثناء اندلاع حرب أهلية وعرقية مستمرة في منطقة لها تاريخ من الصراع العرقي المميت. وهناك شد وجذب بين حماية حرية التعبير والحد من خطر اندلاع صراع طائفي. ولا يمكن تجاوز هذا الشد والجذب إلا من خلال الاهتمام بتفاصيل الصراع الدائر هذا. ويعلم المجلس بمشاركة مدنيين في الفظائع المرتكبة في العديد من أنحاء إثيوبيا، ولكن ليس في ريا كوبو (راجع السياق المرتبط بالصراع في إثيوبيا في القسم 2 أعلاه). وقد أشارت شركة Meta إلى أنها لم تكن تمتلك دليلاً على كذب المحتوى أو كونه شائعة لا يمكن التحقق من صحتها. وذكر المجلس أنه حين نُشر المحتوى لم يكن بإمكان شركة Meta التحقق بشكل استباقي من صحة الادعاءات ولم تفعل ذلك. ولم يتسن التحقق من صحة الادعاءات نظرا لانقطاع الاتصالات في منطقة أمهرة. وكان الوضع في أمهرة بعيدًا عن متناول المراقبين الدوليين والصحفيين. ويدرك المجلس أيضًا أن التقارير الحقيقية عن الفظائع يمكن أن تنقذ الأرواح في مناطق النزاع من خلال إعلام الضحايا المحتملين بالجناة المحتملين. ومع هذا، وفي ظل الصراع المحتدم والمستمر، من المرجح أن تؤدي المزاعم التي لا أساس لها بشأن وجود جناة من المدنيين إلى زيادة مخاطر اندلاع أعمال عنف على المدى القريب.

8.1. الامتثال لمعايير المجتمع

استعادت شركة Meta المحتوى لأنها وجدت أنه لا يشكل خطابًا يحض على الكراهية (راجع القسم 6 أعلاه). وقد وجد المجلس أن هذا التفسير غير صحيح ويفتقر إلى التفاصيل. وجد المجلس أيضًا أن معيار المجتمع بشأن العنف والتحريض وثيق الصلة في هذه الحالة. وخلُص المجلس إلى أن المنشور ينتهك الحظر الذي تفرضه سياسة العنف والتحريض على نشر "المعلومات المضللة والشائعات التي لا يمكن التحقق من صحتها والتي تسهم في مخاطر اندلاع أحداث عنف أو أذى جسدي وشيك" (راجع القسم 4، للاطلاع على تعريف "الشائعة التي لا يمكن التحقق من صحتها").

يندرج المحتوى ضمن تعريف الشائعة التي لا يمكن التحقق من صحتها في معايير الإنفاذ الداخلي لشركة Meta (راجع القسم 4، للاطلاع على تعريف "الشائعة التي لا يمكن التحقق من صحتها"). ويرى المجلس أن الشائعات التي تزعم تواطؤ مجموعة عرقية في ارتكاب فظائع جماعية هي شائعات خطيرة وتزيد بشكل كبير من خطر اندلاع أعمال عنف وشيك في ظل اندلاع نزاع عنيف ومستمر كما هو الحال في إثيوبيا حاليًا. ويدرك المجلس أن شعب تيجراي في إثيوبيا، مثله مثل باقي الجماعات العرقية، عرضة بالفعل لخطر العنف والأذى الجسدي الوشيك والفعلي في بعض الأحيان.

8.2. الامتثال لقيم شركة Meta

يرى المجلس أن قرار شركة Meta باستعادة المحتوى والسماح به لا يتفق مع قيم "الكرامة" و"السلامة" التي تتبناها الشركة. ويدرك المجلس أن "حرية الرأي" هي أهم قيمة لدى شركة Meta، لكن الشركة تسمح بتقييد حرية التعبير لمنع الإساءة وغيرها من أشكال الضرر داخل الإنترنت وخارجه.

في سياق هذه الحالة، فإن "حرية الرأي" التي تفضح انتهاكات حقوق الإنسان تحظى بأهمية قصوى. مع هذا، فإن الشكل الذي يتخذه التعبير في ظل الصراع العنيف يحظى بأهمية أيضًا. إن الخطاب الذي يسعى في ظاهره إلى تسليط الضوء على انتهاكات مزعومة لحقوق الإنسان ويقدم في الوقت ذاته ادعاءات لم يتم التحقق من صحتها في ظل اندلاع نزاع عنيف مستمر بأن مجموعة عرقية متواطئة في الفظائع، يزيد من مخاطر تأجيج أعمال عنف انتقامية أو تبرير ارتكابها. وهو ما ينطبق بشكل كبير على الوضع في إثيوبيا خلال الأزمة الحالية.

8.3. الامتثال لمسؤوليات شركة Meta تجاه حقوق الإنسان

يرى المجلس أن إزالة المحتوى في هذه الحالة تتسق مع مسؤوليات Meta كشركة تجاه حقوق الإنسان بموجب المبدأ رقم 13 من مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان، والذي يفرض على الشركات "تجنب التسبب أو الإسهام في حدوث آثار ضارة لحقوق الإنسان نتيجة لأنشطتها، وأن تعمل على التخفيف من تلك الآثار حال حدوثها." وأثناء اندلاع صراع محتدم ومستمر، قد تؤدي الشائعات التي لم يتم التحقق من صحتها إلى ارتكاب فظائع خطيرة، وهو ما ثبت بالتجربة في ميانمار. وللتخفيف من حدة هذه المخاطر، من الضروري اتباع نظام يتسم بالشفافية للإشراف على المحتوى في مناطق النزاعات، بما في ذلك وضع سياسة للتعامل مع الشائعات التي لم يتم التحقق من صحتها.

حرية التعبير والمادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية

توفر المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية حماية واسعة لحرية التعبير من خلال أي وسيلة إعلامية وبغض النظر عن أي حدود. ومع هذا، تسمح المادة بتقييد هذا الحق بموجب بعض الشروط الضيقة والمحدودة، والتي تعرف باسم الاختبار الثلاثي الذي يتألف من الشرعية (الوضوح) والهدف المشروع والضرورة، والذي يتضمن أيضًا تقييمًا للتناسب. على الرغم من أن العهد الدولي الخاص بالحقوق المدنية والسياسية لا يفرض التزامات على شركة Meta كما هو الحال مع الدول، فقد التزمت شركة Meta باحترام حقوق الإنسان كما هو منصوص عليها في مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان. ويشمل هذا الالتزام حقوق الإنسان المعترف بها دوليًا كما حددها العهد الدولي الخاص بالحقوق المدنية والسياسية، إلى جانب اتفاقيات أخرى. وقد اقترح مقرر الأمم المتحدة الخاص المعني بحرية الرأي والتعبير أن المادة 19، الفقرة 3 من العهد الدولي الخاص بالحقوق المدنية والسياسية توفر إطارًا مفيدًا لتوجيه ممارسات الإشراف على المحتوى لدى المنصات (A/HRC/38/35، الفقرة 6)

1. الشرعية (وضوح القواعد وسهولة الوصول إليها)

يقتضي مطلب الشرعية أن يكون أي قيد يُفرض على حرية التعبير: (أ) متاحًا على نحو يوفر للأفراد مؤشرًا كافيًا عن كيفية تقييد القانون لحقوقهم؛ و(ب) أن تتم صياغة القانون بدقة كافية حتى يتمكن الأفراد من ضبط سلوكهم وفقًا له. بالإضافة إلى ذلك، لا يجوز أن يمنح القانون الأشخاص المسؤولين عن تنفيذه سلطة تقديرية مطلقة في تقييد حرية التعبير (التعليق العام رقم 34، الفقرة 25).

لم يرد تعريف مصطلح "شائعة لم يتم التحقق من صحتها" في معايير المجتمع المتاحة لعامة الجمهور. وعندما تخفق شركة Meta في توضيح المصطلحات الهامة وكيفية تطبيق سياساتها، قد يجد المستخدمون صعوبة في تحديد ما إذا كان المحتوى الخاص بهم ينتهك معايير مجتمع فيسبوك أم لا. ومع ذلك، وكما تم تطبيقه على وقائع هذه الحالة التي انطوت على ادعاء لم يتم التحقق صحته في خضم نزاع عنيف مستمر، يرى المجلس أن مصطلح "شائعة لا يمكن التحقق من صحتها " واضح بالقدر الكافي. لم يتسن لشركة Meta التحقق من صحة الشائعة وكذلك الأمر بالنسبة للمستخدم الذي لم يكن موجودًا في ريا كوبو. ولم يتسن أيضًا للمراقبين الدوليين والصحفيين التحقق من صحة الشائعة بسبب النزاع المستمر وانقطاع خدمات الاتصالات. في ظل مثل هذه الظروف، يمكن للمستخدمين التنبؤ بأن هذا المنشور يقع ضمن نطاق الحظر.

2. الهدف المشروع

يجب أن تسعى القيود المفروضة على حرية التعبير إلى تحقيق هدف مشروع، وهو ما يتضمن حماية حقوق الآخرين، على سبيل المثال لا الحصر. فسرت لجنة حقوق الإنسان مصطلح "حقوق" على نحو يجعله يتضمن حقوق الإنسان المعترف بها في العهد الدولي الخاص بالحقوق المدنية والسياسية وبشكل أعم في القانون الدولي لحقوق الإنسان (التعليق العام رقم 34، الفقرة 28). وُضع معيار مجتمع فيسبوك بشأن العنف والتحريض جزئيًا لمنع وقوع ضرر على أرض الواقع على نحو قد يرتبط بالمحتوى على فيسبوك. وتهدف القيود التي يتم فرضها استنادًا إلى هذه السياسة إلى تحقيق هدف مشروع هو حماية الحق في الحياة.

3. الضرورة والتناسب

تقتضي مبادئ الضرورة والتناسب المنصوص عليها في القانون الدولي لحقوق الإنسان أن تكون أي تقييدات يتم فرضها على حرية التعبير "مناسبة لتحقيق وظيفتها الحمائية، ويجب أن تكون أقل الوسائل تدخلاً مقارنة بغيرها من الوسائل التي يمكن أن تحقق النتيجة المنشودة؛ ويجب أن تكون متناسبة مع المصلحة التي ستحميها" (التعليق العام رقم 34، الفقرة 34). يقتضي مبدأ التناسب أخذ شكل التعبير موضع النظر في الاعتبار (التعليق العام رقم 34، الفقرة 34).

عند تقييم مدى تحقيق التقييد المفروض على خطاب المستخدم لهدفه بمقتضى مسؤوليات شركة Meta تجاه حقوق الإنسان، نظر المجلس في الجهود التي بذلتها شركة Meta لمنع وتخفيف أي مخاطر على الأرواح تنتج عن انتشار الشائعات التي لا يمكن التحقق من صحتها حول أطراف النزاع الإثيوبي (انظر القسم 6 أعلاه، للاطلاع على وصف لجهود شركة Meta في إثيوبيا).

زعم المستخدم أن مدنيين من تيجراي تورطوا في الفظائع الخطيرة التي ارتكبتها قوات جبهة تحرير شعب تيجراي. وكانت مصادر ادعاء المستخدم عبارة عن تقارير سابقة لم يسميها ومصادر على الأرض، لكنه لم يقدم حتى دليلاً غير مباشر يدعم مزاعمه والتي كان بإمكانه إضافتها دون أن يعرض مصادره للخطر.

يدرك المجلس أهمية إلقاء الضوء على انتهاكات حقوق الإنسان في حالات النزاع. ويعد إعداد تقارير عن الفظائع نشاطًا مهمًا يخدم حق الآخرين في الحصول على المعلومات. "الصحافة مهنة تتقاسمها طائفة واسعة من الجهات الفاعلة...[بما في ذلك] أصحاب المدونات الإلكترونية وغيرهم ممن يشاركون في أشكال النشر الذاتي ...على الإنترنت...") (التعليق العام رقم 34، الفقرة 44). ويتقاسم الأشخاص الذين يشتركون في أشكال النشر الذاتي المسؤوليات المتعلقة بوظيفة المراقبة ويجب عليهم الالتزام بمعايير الدقة عند إعداد تقارير عن حقوق الإنسان. وعلاوة على ذلك، فقد تؤدي المعلومات التي تتحدث عن الفظائع إلى إنقاذ الأرواح، لا سيّما عندما تكون وسائل التواصل الاجتماعي هي المصدر النهائي للمعلومات. ومع هذا، يفتقد منشور المستخدم إلى المحددات السابقة لأنه لم يتضمن معلومات عن التهديدات الفعلية للأرواح ولم يحتوي على معلومات معينة يمكن استخدامها لتوثيق انتهاكات حقوق الإنسان. وبصيغته المنشورة، قد يسهم المنشور في زيادة الكراهية العرقية. وتستوجب حالات النزاعات العرقي اتباع أعلى درجات الحرص فيما يتعلق بكيفية إعداد تقارير عن انتهاكات حقوق الإنسان التي ارتكبها أطراف النزاع ومناقشتها. تنطبق هذه الاعتبارات على منشورات فيسبوك، والتي يمكن استخدامها لنشر شائعات لا يمكن التحقق من صحتها بسرعة كبيرة.

لاحظ المجلس أن بعض مسؤولي الحكومة الإثيوبية حرضوا على أو قاموا بنشر خطاب يحض على الكراهية يستهدف شعب تيجراي (راجع، على سبيل المثال، منظمة العفو الدولية، إثيوبيا: سلطات طوارئ واسعة للغاية وتصاعد مثير للقلق في خطاب الكراهية عبر الإنترنت مع تفاقم نزاع تيجراي، تقرير شبكة DW ‏2020). لا يوجد دليل على أن هذا المنشور كان يشكل جزءًا من هذه الجهود المتعمدة لإثارة الخلاف، لكن المحتوى الحالي يجب أن يُنظر إليه في ضوء التقارير التي تفيد بأن بعض المسؤولين الحكوميين في إثيوبيا وبعض الشخصيات العامة نشرت أو حرضت على الخطاب الذي يحض على الكراهية. وقد تسهم المنشورات أو المعلومات التي تُنشر بحسن نية عن أمور تحظى باهتمام عام في تمكين السكان المعرضين للخطر من حماية أنفسهم بشكل أفضل. بالإضافة إلى ذلك، قد يساعد تكوين فهم أفضل عن الأحداث المهمة في السعي وراء المساءلة. مع هذا، قد تغذي الشائعات التي لم يتم التحقق من صحتها سرديات الكراهية وقد تسهم في قبولها، لا سيّما في ظل غياب جهود الخطاب المضاد.

يرى المجلس أنه في بلد به نزاع مسلح مستمر وعجز مفترض للمؤسسات الحكومية في الوفاء بالتزاماتها تجاه حقوق الإنسان المنصوص عليها في القانون الدولي، يجوز لشركة Meta تقييد حرية التعبير التي لا تقيدها في الأحوال العادية (راجع المادة 4 من العهد الدولي الخاص بالحقوق المدنية والسياسية بشأن الاستثناءات في أوقات الطوارئ العامة). يجب أن يأخذ مبدأ التناسب في الاعتبار "شكل التعبير موضع النظر فضلاً عن وسائل نشره" (التعليق العام رقم 34، الفقرة 34). قد لا تؤدي الشائعات التي لم يتم التحقق من صحتها، في حد ذاتها، إلى إحداث ضرر فوري أو مباشر. ومع هذا، عندما يظهر هذا المحتوى على منصة تواصل اجتماعي مهمة ومؤثرة ورائجة خلال نزاع مستمر، تزداد مخاطر واحتمالات حدوث ضرر. توصل المجلس إلى نتيجة مماثلة في قراره بشأن الحالة ‎2020-003-FB-UA. في هذا القرار، رأى المجلس أنه في حالات النزاع المسلح على وجه الخصوص، يتجلى بشكل خاص خطر تراكم التعبيرات التي تحض على الكراهية والتي تجرد الأشخاص من إنسانيتهم وانتشارها على إحدى المنصات، مما يؤدي إلى اتخاذ إجراءات أثناء عدم الاتصال بالإنترنت تؤثر على الحق في الأمن الشخصي وربما الحياة." وعلاوة على ذلك، فإن التأثير التراكمي يمكن أن يتسبب في تصاعد الأمور من خلال "التراكم التدريجي للأثر"، كما حدث في رواندا عندما تكررت دعوات الإبادة الجماعية (راجع قضية ناهيمانا، القضية رقم ICTR-99-52-T، الفقرات أرقام 436 و478 و484 و485). لم يتضمن المنشور دعوة مباشرة لارتكاب أعمال عنف في هذه الحالة، رغم ذكر كلمة "كفاحنا". علاوة على ذلك، فقد شاهد المحتوى آلاف المتحدثين باللغة الأمهرية خلال فترة 24 ساعة التي ظل فيها المنشور على الإنترنت. ترك بعضهم تعليقات تضمنت دعوات للانتقام (انظر القسم 2 أعلاه).

يستلزم الحق في الحياة مسؤولية بذل العناية الواجبة لاتخاذ تدابير إيجابية معقولة لا تفرض أعباءً غير متناسبة على حرية التعبير، وذلك ردًا على التهديدات المتوقعة التي قد تهدد الأرواح والتي تنشأ من أفراد وكيانات لا يُنسب سلوكهم إلى الدولة. ويجب اتخاذ تدابير خاصة لحماية الأشخاص في حالات ضعفهم (أعضاء الأقليات العرقية والدينية) الذين تتعرض أرواحهم للخطر بشكل خاص بسبب تهديدات محددة أو أنماط مسبقة من العنف (التعليق العام رقم 36، الفقرتان 21 و23). مع مراعاة الاختلافات ذات الصلة، ترتبط هذه الاعتبارات بمسؤوليات شركة Meta تجاه حماية حقوق الإنسان، لأن الأعمال التجارية مطالبة "بالسعي إلى تجنب التسبب في حدوث آثار سلبية تتعلق بحقوق الإنسان أو التخفيف من حدتها عندما ترتبط ارتباطًا مباشرًا بعملياتها أو منتجاتها أو خدماتها" (مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان، المبدأ 13).

أعلن فريق الأمم المتحدة العامل المعني بمسألة حقوق الإنسان والشركات عبر الوطنية وغيرها من مؤسسات الأعمال أن مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان تفرض على الشركات مسؤولية كبيرة تقتضي بذل العناية الواجبة في سياق النزاع ("الأعمال التجارية وحقوق الإنسان والمناطق المتأثرة بالنزاعات: نحو مضاعفة العمل"، A/75/212، الفقرات من 41 إلى 54). وبالتالي، فإن الهدف المشروع المتمثل في حماية حق الآخرين في الحياة يعني أن شركة Meta تتحمل مسؤولية متزايدة في سياق النزاع الحالي. وهو ما سيراعيه المجلس في تحليله للتناسب.

يلاحظ المجلس الخطوات التي اتخذتها شركة Meta حتى الآن في إثيوبيا. وقد أزيل المحتوى في البداية. ومع هذا، فقد حددت أنظمة شركة Meta التلقائية أن المحتوى حصل على "درجة انتهاك منخفضة"، وبالتالي لم تقم الأنظمة التلقائية لشركة Meta بإزالته تلقائيًا. حتى إذا كان هذا المحتوى تحديدًا قد أزيل في بادئ الأمر، فقد قررت شركة Meta لاحقًا أنها أزالته نتيجة لخطأ في الإنفاذ. أخبرت شركة Meta المجلس أن تعامل شركة Meta مع إثيوبيا باعتبارها مصنفة كبلد معرض للخطر من الطبقة الأولى لم يؤثر في أداء أداة تصنيف أو في قدرتها على تحديد المحتوى باعتباره يشكل انتهاكًا محتملاً. ولذلك فقد خلُص المجلس إلى أنه دون تدابير إضافية، لا يمكن لشركة Meta الوفاء بشكل صحيح بمسؤولياتها تجاه حقوق الإنسان. وتؤكد حقيقة قيام شركة Meta باستعادة المحتوى هذا القلق.

في الحالة التي بين أيدينا، تم نشر المحتوى أثناء اندلاع نزاع مسلح. وفي مثل هذه الأوضاع، يجب على شركة Meta بذل أكبر قدر من العناية الواجبة لحماية الحق في الحياة. وترتبط الشائعات التي لا يمكن التحقق من صحتها ارتباطًا وثيقًا ومباشرًا بالتهديدات الوشيكة للأرواح ويجب على شركة Meta إثبات قدرة سياساتها والتدابير التي اتخذتها في حالة النزاع في إثيوبيا على حماية الأرواح ومنع ارتكاب الفظائع (راجع القسم 6 للاطلاع على استجابة شركة Meta للنزاع الإثيوبي). في ظل غياب هذه التدابير، توصل المجلس إلى ضرورة إزالة المحتوى. لمنع عدد لا يحصى من المنشورات التي تغذي هذا السرد من خلال شائعات لم يتم التحقق من صحتها، فإن الإزالة هي الإجراء المطلوب في هذه الحالة أثناء اندلاع صراع عرقي عنيف ومستمر.

أكدت أقلية من أعضاء المجلس تفهمها للطبيعة المحدودة لهذا القرار. في سياق نزاع عنيف ومستمر، يشكل أي منشور يتضمن شائعة لم يتم التحقق من صحتها بشأن ارتكاب مدنيين لأعمال عنف ذات دوافع عرقية ضد مدنيين آخرين مخاطر جسيمة لتصعيد الأوضاع التي تنطوي على عنف بالفعل، لا سيّما عندما لا تتمكن شركة Meta من التحقق من صحة الشائعة في الوقت الفعلي. أدت هذه المخاطر المتزايدة إلى تعزيز مسؤولية شركة Meta تجاه حقوق الإنسان لتبذل أعلى درجات العناية الواجبة فيما يتعلق بالإشراف على المحتوى الذي يدور حول النزاع. على الرغم من توظيفها لأنواع متعددة من وسائل التنبيه عالية المستوى، فقد أكدت شركة Meta أن هذه الأنظمة لم تؤثر في قرارها في هذه الحالة، وهو ما يصعب فهمه في ظل وجود مخاطر اندلاع أعمال عنف على المدى القريب. وكما ذُكر في القرار السابق الصادر عن المجلس في الحالة (‎2021-001-FB-FBR)، من الصعب تقييم ما إذا كانت الإجراءات التي لا ترقى إلى إزالة المحتوى ستشكل أقل عبء على خطاب المستخدم لتحقيق الهدف المشروع عندما لا توفر شركة Meta معلومات ذات صلة بشأن ما إذا كانت قرارات التصميم والسياسات الخاصة بها قد أدت إلى تعظيم الخطاب الضار.

9. قرار مجلس الإشراف

أيد مجلس الإشراف القرار الأصلي الذي اتخذته شركة Meta بإزالة المحتوى. نظرًا لقيام شركة Meta باستعادة المحتوى لاحقًا بعد تقدم المستخدم بطعن إلى المجلس، يجب عليها الآن إزالة المحتوى مرة أخرى من المنصة.

10. البيان الاستشاري بشأن السياسة

سياسة المحتوى

1. ينبغي على شركة Meta إعادة صياغة قيمة "السلامة" لتؤكد أن الخطاب المنشور على الإنترنت يمكن أن يشكل خطرًا على الأمن الجسدي للأشخاص وحقهم في الحياة، فضلاً عن مخاطر التخويف والإقصاء والإسكات.

2. يجب أن تعكس معايير مجتمع فيسبوك أن الشائعات التي لا يمكن التحقق من صحتها تشكّل، في سياقات الحرب والنزاع العنيف، خطرًا أكبر على الحق في الحياة وأمان الأشخاص. ويجب أن ينعكس ذلك في كل مستويات عملية الإشراف.

الشفافية

3. يجب على شركة Meta إجراء تقييم مستقل للعناية الواجبة بحقوق الإنسان يتناول الكيفية التي يتم بها استخدام فيسبوك وInstagram لنشر الخطاب الذي يحض على الكراهية والشائعات التي لم يتم التحقق من صحتها والتي تزيد من خطر اندلاع أعمال عنف في إثيوبيا. ويجب أن يراجع التقييم مدى نجاح التدابير التي اتخذتها شركة Meta لمنع إساءة استخدام منتجاتها وخدماتها في إثيوبيا. ويجب أن يراجع التقييم أيضًا مدى نجاح التدابير التي اتخذتها شركة Meta للسماح بتقديم تقارير مؤيدة وتقارير تدعم المصلحة العامة عن الفظائع التي ارتكبت ضد حقوق الإنسان في إثيوبيا. ويجب أن يراجع التقييم الإمكانات اللغوية لشركة Meta في إثيوبيا ومدى كفايتها لحماية حقوق المستخدمين. علاوة على ذلك، يجب أن يتناول التقييم الفترة من 1 يونيو 2020 وحتى الآن. ويجب أن تنتهي الشركة من التقييم في غضون ستة أشهر من استجابتها لهذه التوصيات. ويجب نشر التقييم كاملاً.

*ملاحظة إجرائية:

يتم إعداد قرارات مجلس الإشراف من قِبل لجان مكونة من خمسة أعضاء ويتم اعتمادها من أغلبية أعضاء المجلس. ولا يلزم بالضرورة أن تُعبّر قرارات المجلس عن وجهات النظر الشخصية لجميع الأعضاء.

بالنسبة إلى القرار المتخذ بشأن هذه الحالة، تم إجراء بحث مستقل نيابة عن المجلس. وقد توافرت الخبرة اللازمة في السياق الاجتماعي والسياسي والثقافي عن طريق معهد أبحاث مستقل يقع مقره في جامعة جوتنبرج ويعتمد على فريق مكون من أكثر من 50 عالم اجتماع من ست قارات، فضلاً عن أكثر من 3200 خبير محلي من جميع أنحاء العالم. وقد تم تقديم الخبرة اللغوية من شركة Lionbridge Technologies LLC، التي يتقن المتخصصون بها أكثر من 350 لغة ويعملون من 5000 مدينة حول العالم. وقد تم تقديم الأبحاث أيضًا من شركة Duco Advisers، وهي شركة تركز على نقطة التقاء الجغرافيا السياسية والثقة والأمان والتكنولوجيا.

العودة إلى قرارات الحالة والآراء الاستشارية المتعلقة بالسياسة