مجلس الإشراف يؤيد قرار Meta الأصلي: الحالة 2021-014-FB-UA
تم النشر بتاريخ 14 كانُون الْأَوَّل 2021
في 28 أكتوبر 2021، أعلنت فيسبوك عن تغيير اسم الشركة إلى Meta. في النص الذي بين أيدينا، تشير كلمة Meta إلى الشركة، بينما تستمر كلمة فيسبوك في الإشارة إلى المنتج والسياسات الخاصة بالتطبيق المعني.
أيد مجلس الإشراف القرار الأصلي الذي اتخذته Meta بإزالة منشور يزعم تورط مدنيين ترجع أصولهم العرقية إلى إقليم تيجراي في ارتكاب فظائع في منطقة أمهرة الإثيوبية. ولكن، نظرًا لقيام Meta باستعادة المنشور بعد تقدم المستخدم بطعن إلى المجلس، وجب على الشركة إزالة المحتوى مرة أخرى من المنصة.
حول هذه الحالة
في أواخر شهر يوليو 2021، نشر أحد مستخدمي فيسبوك من إثيوبيا منشورًا باللغة الأمهرية. وتضمن المنشور ادعاءات بأن جبهة تحرير شعب تيجراي (TPLF) قتلت واغتصبت نساءً وأطفالاً، كما نهبت ممتلكات المدنيين في ريا كوبو وبلدات أخرى في منطقة أمهرة الإثيوبية. وادعى المستخدم أن المدنيين الذين ترجع أصولهم العرقية إلى إقليم تيجراي ساعدوا جبهة تحرير شعب تيجراي في ارتكاب هذه الفظائع. وزعم المستخدم في منشوره أنه حصل على المعلومات من سكان ريا كوبو. وأنهى المستخدم منشوره بهذه العبارة "سنحقق حريتنا بكفاحنا".
بعد تمييز أنظمة Meta التلقائية باللغة الأمهرية لهذا المنشور باعتباره مخالفًا، قرر أحد المشرفين أن المحتوى ينتهك معيار مجتمع فيسبوك بشأن المحتوى الذي يحض على الكراهية وقام بإزالته. وعندما قدّم المستخدم طعنًا على هذا القرار إلى Meta، أكد مشرف آخر من مشرفي المحتوى أن المنشور قد انتهك معايير مجتمع فيسبوك. وينتمي كلا المشرفين إلى فريق مراجعة المحتوى باللغة الأمهرية لدى Meta.
بعد ذلك، قام المستخدم بتقديم بطعن إلى مجلس الإشراف. وعقب اختيار المجلس لهذه الحالة، حددت Meta أن قرارها الأصلي بإزالة المنشور لم يكن صحيحًا وقامت باستعادته بتاريخ 27 أغسطس. وأخبرت Meta المجلس أنها عادة ما تخطر المستخدمين باستعادة المحتوى الخاص بهم في نفس يوم استعادتها له. ولكن، نتيجة لخطأ بشري، أخطرت Meta هذا المستخدم باستعادة منشوره بتاريخ 30 سبتمبر - أي بعد مرور أكثر من شهر. وقد تم إرسال هذا الإشعار إلى المستخدم بعد أن استفسر المجلس عما إذا كانت Meta قد أخطرت المستخدم باستعادة المحتوى الخاص به أم لا.
النتائج الرئيسية
وجد المجلس أن المحتوى قد انتهك معيار مجتمع فيسبوك بشأن العنف والتحريض.
وعلى الرغم من أن Meta قد أزالت المنشور في البداية لانتهاك معيار المجتمع المتعلق بالخطاب الذي يحض على الكراهية، فقد استعادت الشركة المحتوى بعد اختيار المجلس للحالة، حيث زعمت Meta أن المنشور لم يستهدف مجموعة تيجراي العرقية ولم تمثل ادعاءات المستخدم خطابًا يحض على الكراهية. وقد وجد المجلس أن التفسير الذي أوردته الشركة كسبب لاستعادة المحتوى يفتقد إلى التفاصيل وغير صحيح.
طبّق المجلس، بدلاً من ذلك، معيار مجتمع فيسبوك بشأن العنف والتحريض على هذا المنشور. ويحظر هذا المعيار "المعلومات المضللة أو الشائعات التي لا يمكن التحقق من صحتها والتي تسهم في مخاطر اندلاع أحداث عنف أو أذى جسدي وشيك." وقد وجد المجلس أن المحتوى في هذه الحالة يتضمن شائعة لا يمكن التحقق من صحتها وفق تعريف Meta للمصطلح. وعلى الرغم من ادعاء المستخدم أن مصادره عبارة عن تقارير سابقة لم يسميها وأشخاص على أرض الواقع، فإنه لم يقدم حتى دليلاً غير مباشر يدعم مزاعمه. وتتسم الشائعات التي تزعم ضلوع جماعة عرقية في ارتكاب فظائع جماعية، كما هو الحال في هذا المنشور، بالخطورة وتزيد من احتمالات ارتكاب أعمال عنف وشيكة.
وجد المجلس أيضًا أن إزالة المنشور تتفق مع مسؤوليات Meta كشركة تجاه حقوق الإنسان. وقد تؤدي الشائعات التي لا يمكن التحقق من صحتها في ظل اندلاع صراع محتدم ومستمر إلى حدوث فظائع خطيرة، كما حدث في حالة ميانمار. في القرار الصادر بشأن الحالة 2020-003-FB-UA، صرّح المجلس أنه "في حالات النزاع المسلح على وجه الخصوص، يتجلى بشكل خاص خطر تراكم التعبيرات التي تحض على الكراهية والتي تجرد الأشخاص من إنسانيتهم وانتشارها على إحدى المنصات، مما يؤدي إلى ارتكاب أعمال على أرض الواقع تؤثر على الحق في الأمن الشخصي وربما الحق في الحياة." وقد يصل التأثير التراكمي إلى التسبب في تصاعد الأمور من خلال "التراكم التدريجي للأثر"، كما حدث في الإبادة الجماعية في رواندا.
توصل المجلس إلى قراره وهو مدرك للشد والجذب بين حماية حرية التعبير والحد من خطر اندلاع صراع طائفي. يدرك المجلس مشاركة المدنيين في الفظائع التي وقعت في العديد من أنحاء إثيوبيا، ولكن ليس في ريا كوبو، كما يدرك عدم قدرة Meta على التحقق من صحة المزاعم التي وردت في المنشور عندما تم نشرها. ويعلم المجلس أيضًا أن التقارير الحقيقية عن الفظائع المرتكبة يمكن أن تنقذ الأرواح في مناطق النزاع، في حين أن الادعاءات التي لا أساس لها من الصحة بشأن الجناة من المدنيين يمكن أن تزيد من مخاطر ارتكاب أعمال عنف على المدى القريب.
قرار مجلس الإشراف
أيد مجلس الإشراف القرار الأصلي الذي اتخذته Meta بإزالة المنشور. ونظرًا لاستعادة Meta للمحتوى بعد تقدم المستخدم بطعن إلى المجلس، وجب على الشركة إزالة المحتوى مرة أخرى من المنصة.
في بيان استشاري بشأن السياسة، يوصي المجلس Meta بما يلي:
- إعادة صياغة قيمة "السلامة" لتؤكد أن الخطاب المنشور على الإنترنت يمكن أن يشكل خطرًا على الأمن الجسدي للأشخاص وحقهم في الحياة، فضلاً عن مخاطر التخويف والإقصاء والإسكات.
- أن تعكس معايير مجتمع فيسبوك أن الشائعات التي لا يمكن التحقق من صحتها تشكّل، في سياقات الحرب والنزاع العنيف، خطرًا أكبر على الحق في الحياة وأمان الأشخاص. ويجب أن ينعكس ذلك في كل مستويات عملية الإشراف.
- إجراء تقييم مستقل للعناية الواجبة بحقوق الإنسان يتناول الكيفية التي يتم بها استخدام فيسبوك وInstagram لنشر الخطاب الذي يحض على الكراهية والشائعات التي لم يتم التحقق من صحتها والتي تزيد من خطر اندلاع أعمال عنف في إثيوبيا. يجب أن يستعرض التقييم مدى نجاح التدابير التي اتخذتها Meta لمنع إساءة استخدام منتجاتها وخدماتها في إثيوبيا. كما يتعين على التقييم استعراض مدى نجاح التدابير التي اتخذتها Meta للسماح بتقديم تقارير مؤيدة وتقارير تدعم المصلحة العامة حول الفظائع التي ارتكبت ضد حقوق الإنسان في إثيوبيا. ينبغي أن يستعرض التقييم القدرات اللغوية التي تتمتع بها Meta في إثيوبيا ومدى ملائمتها لحماية حقوق المستخدمين. يجب أن يتناول التقييم الفترة من 1 يونيو 2020 وحتى وقتنا الحاضر. ويتعين على الشركة الانتهاء من التقييم في غضون ستة أشهر من استجابتها لهذه التوصيات. وينبغي نشر التقييم كاملاً.
لمزيد من المعلومات:
للاطلاع على القرار الكامل بشأن الحالة، انقر هنا.
للاطلاع على ملخص تعليقات العامة لهذه الحالة، يرجى النقر على المرفق الموجود أدناه.