مجلس الإشراف يلغي قرار Meta الأصلي: الحالة ‎2021-012-FB-UA

في 28 أكتوبر 2021، أعلنت فيسبوك عن تغيير اسم الشركة إلى Meta. في النص الذي بين أيدينا، تشير كلمة Meta إلى الشركة، بينما تستمر كلمة فيسبوك في الإشارة إلى المنتج والسياسات الخاصة بالتطبيق المعني.

ألغى مجلس الإشراف القرار الأصلي الذي اتخذته Meta بإزالة منشور على فيسبوك لفنان من السكان الأصليين في أمريكا الشمالية بعد أن تمت إزالته بموجب معيار مجتمع فيسبوك بشأن الخطاب الذي يحض على الكراهية. وجد المجلس أن المحتوى يندرج تحت استثناءات سياسة الخطاب الذي يحض على الكراهية نظرًا لأنه يهدف إلى تعزيز الوعي بالجرائم التاريخية ضد السكان الأصليين في أمريكا الشمالية.

حول هذه الحالة

في أغسطس 2021، نشر أحد مستخدمي فيسبوك صورة لحزام وامبوم، مصحوبة بوصف نصي باللغة الإنجليزية. وحزام وامبوم عبارة عن عمل فني يشتهر به السكان الأصليون لأمريكا الشمالية ويتم تصنيعه من خلال نسج الصدف لتشكيل الصور وتسجيل القصص والاتفاقيات. يتضمن هذا الحزام سلسلة من الرسوم التي يقول المستخدم إنها مستوحاة من "قصة كاملوبس"، وذلك في إشارة إلى اكتشاف مقبرة جماعية في مايو 2021 لمجموعة من أطفال السكان الأصليين في مدرسة داخلية سابقة في مقاطعة كولومبيا البريطانية بكندا.

يتضمن النص عنوان العمل الفني، "اقتلوا الهندي الذي بداخله، وأنقذوا الإنسان" ويشير إلى أن المستخدم هو منشئ العمل الفني. ويصف المستخدم سلسلة الصور التي يحملها الحزام على النحو التالي: "سرقة الأبرياء، والأشرار ينتحلون صفة المنقذين، ومدرسة داخلية/معسكر اعتقال، وفي انتظار الاكتشاف، وأعيدوا أطفالنا إلى الوطن." وقد وصف المستخدم في المنشور معنى عمله الفني وتاريخ أحزمة وامبوم والغرض منها كوسيلة تثقيفية. ويذكر المستخدم أن صنع الحزام لم يكن عملية سهلة وأن سرد قصة ما حدث في كاملوبس كان مثيرًا للمشاعر. ويعتذر عن أي ألم سببه العمل الفني للناجين مما حدث في كاملوبس، مشيرًا إلى أن "الغرض الوحيد هو نشر الوعي بهذه القصة المروعة."

حددت أنظمة Meta التلقائية المحتوى باعتباره يمثل انتهاكًا محتملاً لمعيار مجتمع فيسبوك بشأن المحتوى الذي يحض على الكراهية بعد نشره بيوم. وأسفر تقييم المراجعة البشرية عن أن المحتوى مخالف وتمت إزالته في اليوم نفسه. وقد تقدم المستخدم بطعن على القرار إلى Meta ليخضع المحتوى لمراجعة بشرية ثانية أسفرت عن تقييمه كمحتوى مخالف أيضًا. في وقت الإزالة، كانت قد تمت مشاهدة المحتوى ما يزيد عن 4000 مرة ومشاركته ما يزيد عن 50 مرة. ولم يقم أي مستخدم بالإبلاغ عن المحتوى.

نتيجة لقيام المجلس باختيار هذه الحالة، أوضحت Meta أن إزالة المحتوى قد نتجت عن "خطأ في الإنفاذ" لتقوم على إثر ذلك باستعادة المحتوى في 27 أغسطس. ومع ذلك، لم تخطر Meta المستخدم باستعادة المحتوى حتى 30 سبتمبر، بعد يومين من مطالبة المجلس Meta بتقديم محتوى مراسلاتها مع المستخدم. وأرجعت Meta تأخر المراسلات إلى حدوث خطأ بشري.

النتائج الرئيسية

تتفق Meta على أن قرارها الأصلي بإزالة هذا المحتوى يتعارض مع معايير مجتمع فيسبوك وهو بمثابة "خطأ في الإنفاذ". ويرى المجلس أن هذا المحتوى مثال واضح على "الخطاب المضاد" حيث يُشار إلى مقاومة القمع والتمييز كخطاب يحض على الكراهية.

توضح مقدمة سياسة فيسبوك بشأن الخطاب الذي يحض على الكراهية أن الخطاب المضاد مسموح به عندما بين المستخدم نيته بوضوح. ويتضح من محتوى المنشور أنه ليس خطابًا يحض على الكراهية. ويسرد العمل الفني قصة ما حدث في كاملوبس، ويوضح السرد المصاحب دلالات ذلك. وعلى الرغم من أن كلمات "اقتل الهندي الذي بداخله" قد تشكل منفصلةً خطابًا يحض على الكراهية، فإن هذه العبارة في سياقها تلفت الانتباه إلى أعمال معينة تنم عن الكراهية والتمييز وتدينها.

وقد أشار المجلس إلى قراره رقم ‎2020-005-FB-UA في الحالة التي تضمنت اقتباسًا لمسؤول نازي. وتقدم هذه الحالة دروسًا مشابهة بشأن كيفية تقييم النية من خلال مؤشرات أخرى غير العبارات المباشرة، مثل محتوى الاقتباس ومعناه، وتوقيت المنشور والبلد الذي نُشر فيه، وجوهر التفاعلات والتعليقات على المنشور.

في هذه الحالة، وجد المجلس أنه لم يكن يتعين على المستخدم الإشارة بوضوح إلى أنه كان يهدف إلى التوعية حتى يتم النظر إلى المنشور باعتباره خطابًا مضادًا. وقد أشار المجلس إلى التوجيهات الداخلية لمشرفي المحتوى تحت مسمى "الأسئلة المعروفة" والتي تنص على أن إبداء النية بشكل واضح قد لا يكفي دائمًا لتغيير معنى منشور يشكل خطابًا يحض على الكراهية. ويُتوقع من المشرفين الاستنتاج من المحتوى لتقييم النية، وعدم الاعتماد على العبارات الصريحة فقط.

خلُص مشرفان منفصلان إلى أن هذا المنشور يشكل خطابًا يحض على الكراهية. ولم تتمكن Meta من تقديم أسباب محددة عن سبب وقوع هذا الخطأ مرتين.

قرار مجلس الإشراف

ألغى مجلس الإشراف قرار Meta الأصلي بإزالة المحتوى.

في بيان استشاري بشأن السياسة، يوصي المجلس Meta بما يلي:

  • تقديم إشعار فوري ودقيق للمستخدمين بشأن أي إجراءات تتخذها الشركة تجاه المحتوى الذي تم تقديم طعن بشأنه. ويجب أن يشير الإشعار، بما يشمل حالات الخطأ في الإنفاذ كهذه الحالة، إلى أن الإجراء نتج عن عملية المراجعة التي أجراها مجلس الإشراف.
  • دراسة مدى تأثر دقة المراجعين عندما يتم إخبار مشرفي المحتوى بأنهم يُجرون مراجعة ثانية، حتى يعلموا أن القرار الأول قد تم الاعتراض عليه.
  • إجراء تقييم لدقة المراجعين يركز على استثناءات سياسة الخطاب الذي يحض على الكراهية فيما يتعلق بالتعبير الفني والتعبير الذي يتعلق بانتهاكات حقوق الإنسان (على سبيل المثال، عند استخدامه للإدانة أو تعزيز الوعي أو الإشارة إلى الذات أو بطريقة إيجابية). ويجب أن ينظر هذا التقييم بشكل خاص في تأثير موقع المراجع على تمكُّن المشرفين من تقييم الخطاب الذي يحض على الكراهية والخطاب المضاد بشكل دقيق من المناطق نفسها أو مناطق مختلفة. وينبغي أن تشارك Meta نتائج هذا التقييم مع المجلس، بما في ذلك دور النتائج في تحسين عمليات الإنفاذ ووضع السياسات وما إذا كانت تخطط لإجراء تقييمات دورية لدقة المراجعين فيما يتعلق بهذه الاستثناءات. يدعو المجلس أيضًا Meta لمشاركة ملخص نتائج هذه التقييمات علنًا في التحديثات ربع السنوية التي تقدمها للمجلس بشأن الشفافية لإثبات امتثالها لهذه التوصية.

لمزيد من المعلومات:

للاطلاع على القرار الكامل بشأن الحالة، انقر هنا.

للاطلاع على ملخص تعليقات العامة بخصوص هذه الحالة، يرجى النقر على المرفق الموجود أدناه.

الملفات المرفقة

Public Comments 2021-012-FB-UA

العودة إلى الأخبار