أسقط

حزام وامبوم

ألغى مجلس الإشراف القرار الأصلي الذي اتخذته شركة Meta بإزالة منشور على فيسبوك لفنان من السكان الأصليين في أمريكا الشمالية بعد أن تمت إزالته بموجب معيار مجتمع فيسبوك بشأن الخطاب الذي يحض على الكراهية.

نوع القرار

معيار

السياسات والمواضيع

عنوان
ثقافة، فنون/كتابة/شعر، مجتمعات مهمشة
معيار المجتمع
خطاب يحض على الكراهية

المناطق/البلدان

موقع
الولايات المتحدة، كندا

منصة

منصة
Facebook

الملفات المرفقة

Public Comments 2021-012-FB-UA

ملخص الحالة

ملاحظة: في 28 أكتوبر 2021، أعلنت فيسبوك عن تغيير اسم الشركة إلى Meta. في النص الذي بين أيدينا، تشير كلمة Meta إلى الشركة، بينما تستمر كلمة فيسبوك في الإشارة إلى المنتج والسياسات الخاصة بالتطبيق المعني.

ألغى مجلس الإشراف القرار الأصلي الذي اتخذته شركة Meta بإزالة منشور على فيسبوك لفنان من السكان الأصليين في أمريكا الشمالية بعد أن تمت إزالته بموجب معيار مجتمع فيسبوك بشأن الخطاب الذي يحض على الكراهية. وجد المجلس أن المحتوى يندرج تحت أحد استثناءات سياسة الخطاب الذي يحض على الكراهية نظرًا لأنه يهدف إلى تعزيز الوعي بالجرائم التاريخية ضد السكان الأصليين في أمريكا الشمالية.

حول هذه الحالة

في أغسطس 2021، نشر أحد مستخدمي فيسبوك صورة لحزام وامبوم، مصحوبة بوصف نصي باللغة الإنجليزية. وحزام وامبوم عبارة عن عمل فني يشتهر به السكان الأصليون لأمريكا الشمالية ويتم تصنيعه من خلال نسج الصدف لتشكيل الصور وتسجيل القصص والاتفاقيات. يتضمن هذا الحزام سلسلة من الرسوم التي يقول المستخدم إنها مستوحاة من "قصة كاملوبس"، وذلك في إشارة إلى اكتشاف مقبرة جماعية في مايو 2021 لمجموعة من أطفال السكان الأصليين في مدرسة داخلية سابقة في مقاطعة كولومبيا البريطانية بكندا.

يتضمن النص عنوان العمل الفني، "اقتلوا الهندي الذي بداخله، وأنقذوا الإنسان" ويشير إلى أن المستخدم هو منشئ العمل الفني. ويصف المستخدم سلسلة الصور التي يحملها الحزام على النحو التالي: "سرقة الأبرياء، والأشرار ينتحلون صفة المنقذين، ومدرسة داخلية/معسكر اعتقال، وفي انتظار الاكتشاف، وأعيدوا أطفالنا إلى الوطن." وقد وصف المستخدم في المنشور معنى عمله الفني وتاريخ أحزمة وامبوم وغرضها كوسيلة تعليمية. ويذكر المستخدم أن صنع الحزام لم يكن عملية سهلة وأن سرد قصة ما حدث في كاملوبس كان مثيرًا للمشاعر. ويعتذر عن أي ألم سببه العمل الفني للناجين مما حدث في كاملوبس، مشيرًا إلى أن "الغرض الوحيد هو نشر الوعي بهذه القصة المروعة."

حددت أنظمة Meta التلقائية المحتوى باعتباره يمثل انتهاكًا محتملاً لمعيار مجتمع فيسبوك بشأن المحتوى الذي يحض على الكراهية بعد نشره بيوم. وأسفر تقييم أجراه مراجع بشري عن أن المحتوى مخالف لتتم إزالته في نفس اليوم. وقد تقدم المستخدم بطعن على القرار إلى شركة Meta ليخضع المحتوى لمراجعة بشرية ثانية أسفرت عن تقييمه كمحتوى مخالف أيضًا. وقد حصل المحتوى عند إزالته على أكثر من 4000 مشاهدة وأكثر من 50 مشاركة. ولم يقم أي مستخدم بالإبلاغ عن المحتوى.

نتيجة لقيام المجلس باختيار هذه الحالة، قالت شركة Meta إن إزالة المحتوى قد نتجت عن "خطأ في الإنفاذ" لتقوم على إثر ذلك باستعادة المحتوى في 27 أغسطس. مع هذا، لم تخطر شركة Meta المستخدم باستعادة المحتوى حتى 30 سبتمبر، بعد يومين من مطالبة المجلس شركة Meta بتقديم محتوى مراسلاتها مع المستخدم. وأوضحت شركة Meta أن تأخر المراسلات نتج عن خطأ بشري.

أهم النتائج

تتفق شركة Meta على أن قرارها الأصلي بإزالة هذا المحتوى يتعارض مع معايير مجتمع فيسبوك وهو بمثابة "خطأ في الإنفاذ". ويرى المجلس أن هذا المحتوى مثال واضح على "الخطاب المضاد" حيث يُشار إلى الخطاب الذي يحض على الكراهية لمقاومة القمع والتمييز.

توضح مقدمة سياسة فيسبوك بشأن الخطاب الذي يحض على الكراهية أن الخطاب المضاد مسموح به عندما بين المستخدم نيته بوضوح. ويتضح من محتوى المنشور أنه ليس خطابًا يحض على الكراهية. ويحكي العمل الفني قصة ما حدث في كاملوبس، ويوضح السرد المصاحب أهميته. وعلى الرغم من أن كلمات "اقتل الهندي الذي بداخله" قد تشكل منفصلةً خطابًا يحض على الكراهية، فإن هذه العبارة في سياقها تلفت الانتباه إلى أعمال معينة تنم عن الكراهية والتمييز وتدينها.

وقد أشار المجلس إلى قراره رقم ‎2020-005-FB-UA في الحالة التي تضمنت اقتباس لمسؤول نازي. وتوفر هذه الحالة دروسًا مشابهة بشأن كيفية تقييم النية من خلال مؤشرات أخرى غير العبارات المباشرة، مثل محتوى الاقتباس ومعناه، وتوقيت المنشور والبلد الذي نُشر فيه، وجوهر التفاعلات والتعليقات على المنشور.

في هذه الحالة، وجد المجلس أنه لم يكن يتعين على المستخدم الإشارة بوضوح إلى أنه كان يهدف إلى التوعية حتى يتم النظر إلى المنشور باعتباره خطابًا مضادًا. وقد أشار المجلس إلى التوجيهات الداخلية لمشرفي المحتوى تحت مسمى "الأسئلة المعروفة" والتي تنص على أن إبداء النية بشكل واضح قد لا يكفي دائمًا لتغيير معنى المنشور الذي يشكّل خطابًا يحض على الكراهية. ويُتوقع من المشرفين الاستنتاج من المحتوى لتقييم النية، وعدم الاعتماد فقط على العبارات الصريحة.

خلُص مشرفان منفصلان إلى أن هذا المنشور يشكل خطابًا يحض على الكراهية. ولم تتمكن شركة Meta من تقديم أسباب محددة عن سبب وقوع هذا الخطأ مرتين.

قرار مجلس الإشراف

ألغى مجلس الإشراف قرار شركة Meta الأصلي بإزالة المحتوى.

في بيان استشاري بشأن السياسة، يوصي المجلس شركة Meta بما يلي:

  • توفير إشعار فوري ودقيق للمستخدمين بشأن أي إجراءات تتخذها الشركة تجاه المحتوى الذي تم تقديم طعن بشأنه. ويجب أن يشير الإشعار، في حالات مثل الخطأ في الإنفاذ كهذه الحالة، إلى أن الإجراء نتج عن عملية المراجعة التي أجراها مجلس الإشراف.
  • دراسة مدى تأثر دقة المراجعين عندما يتم إخبار مشرفي المحتوى بأنهم يُجرون مراجعة ثانية، حتى يعلموا أن القرار الأول قد تم الاعتراض عليه.
  • إجراء تقييم لدقة المراجعين يركز على استثناءات سياسة الخطاب الذي يحض على الكراهية فيما يتعلق بالتعبير الفني والتعبير الذي يتعلق بانتهاكات حقوق الإنسان (على سبيل المثال، عند استخدامه للإدانة أو تعزيز الوعي أو الإشارة إلى الذات أو بطريقة إيجابية). ويجب أن ينظر هذا التقييم بشكل خاص في تأثير موقع المراجع على تمكُّن المشرفين من تقييم الخطاب الذي يحض على الكراهية والخطاب المضاد بشكل دقيق من نفس المناطق أو مناطق مختلفة. وينبغي أن تشارك شركة Meta نتائج هذا التقييم مع المجلس، بما في ذلك دور النتائج في تحسين عمليات الإنفاذ ووضع السياسات وما إذا كانت تخطط لإجراء تقييمات دورية لدقة المراجعين فيما يتعلق بهذه الاستثناءات. يدعو المجلس أيضًا شركة Meta بمشاركة ملخص نتائج هذه التقييمات علنًا في التحديثات الفصلية التي تقدمها للمجلس بشأن الشفافية لإثبات امتثالها لهذه التوصية.

*توفر ملخصات الحالة نظرة عامة على الحالة ولا تُشكّل سابقة قانونية.

القرار الكامل للمجلس بشأن الحالة

1. ملخص القرار

ألغى مجلس الإشراف القرار الأصلي الذي اتخذته شركة Meta بإزالة منشور لفنان من السكان الأصليين في أمريكا الشمالية تضمّن صورة لعمله الفني مصحوبًا بعنوان يقتبس مثالاً تاريخيًا للخطاب الذي يحض على الكراهية. وتتفق شركة Meta أن المنشور يندرج تحت أحد استثناءات معيار مجتمع فيسبوك بشأن الخطاب الذي يحض على الكراهية لأنه يهدف كما هو واضح إلى التوعية بالجرائم التاريخية المرتكبة ضد السكان الأصليين في أمريكا الشمالية.

2. وصف الحالة

في أوائل أغسطس 2021، نشر أحد مستخدمي فيسبوك صورة لحزام وامبوم، مصحوبة بوصف نصي باللغة الإنجليزية. وحزام وامبوم عبارة عن عمل فني يشتهر به السكان الأصليون لأمريكا الشمالية ويتم تصنيعه من خلال نسج الصدف لتشكيل الصور وتسجيل القصص والاتفاقيات. يتضمن هذا الحزام سلسلة من الرسوم التي يقول المستخدم إنها مستوحاة من "قصة كاملوبس"، وذلك في إشارة إلى اكتشاف مقبرة جماعية في مايو 2021 لمجموعة من أطفال السكان الأصليين في مدرسة داخلية سابقة في مقاطعة كولومبيا البريطانية بكندا.

يتضمن النص عنوان العمل الفني، "اقتلوا الهندي الذي بداخله، وأنقذوا الإنسان" ويشير إلى أن المستخدم هو منشئ العمل الفني. وقد قدّم المستخدم بعد ذلك قائمة بالعبارات المقابلة لسلسلة الصور التي يحملها الحزام. "سرقة الأبرياء، والأشرار ينتحلون صفة المنقذين، ومدرسة داخلية/معسكر اعتقال، وفي انتظار الاكتشاف، وأعيدوا أطفالنا إلى الوطن." وقد وصف المستخدم في المنشور معنى عمله الفني وتاريخ أحزمة وامبوم وغرضها كوسيلة تعليمية. ويذكر المستخدم أن صنع الحزام لم يكن عملية سهلة وأن سرد قصة ما حدث في كاملوبس كان مثيرًا للمشاعر لأقصى درجة. وقد تابع المستخدم قائلاً إنه لا يمكن إخفاء القصة عن العامة مرة أخرى وإنه يأمل في أن يساعد الحزام على منع حدوث ذلك. واختتم المستخدم منشوره بالاعتذار عن أي ألم سببه العمل الفني للناجين من نظام المدرسة الداخلية، قائلاً إن "الغرض الوحيد هو نشر الوعي بهذه القصة المروعة."

حددت أنظمة Meta التلقائية المحتوى باعتباره ينتهك بشكل محتمل معيار مجتمع فيسبوك بشأن المحتوى الذي يحض على الكراهية بعد نشره بيوم واحد. وأسفر تقييم أجراه مراجع بشري عن أن المحتوى مخالف لتتم إزالته في نفس اليوم. وقد تقدم المستخدم بطعن على القرار إلى شركة Meta ليخضع المحتوى لمراجعة بشرية ثانية أسفرت عن تقييمه كمحتوى مخالف أيضًا. وقد حصل المحتوى عند إزالته على أكثر من 4000 مشاهدة وأكثر من 50 مشاركة. ولم يقم أي مستخدم بالإبلاغ عن المحتوى. نتيجة لقيام المجلس باختيار هذه الحالة، قالت شركة Meta إن إزالة المحتوى قد نتجت عن "خطأ في الإنفاذ" لتقوم على إثر ذلك باستعادة المحتوى في 27 أغسطس. مع هذا، لم تخطر شركة Meta المستخدم باستعادة المحتوى حتى 30 سبتمبر، بعد يومين من مطالبة المجلس شركة Meta بتقديم محتوى مراسلاتها مع المستخدم. وأوضحت شركة Meta أن تأخر المراسلات نتج عن خطأ بشري. ولم تخبر المراسلات ذاتها المستخدم بأن المحتوى الخاص به قد تمت استعادته نتيجة الطعن الذي قدمه إلى المجلس كما لم تخبره باختيار المجلس لهذه الحالة.

يشير تعليق عام صادر عن جمعية شؤون الهنود الأمريكيين (التعليق العام رقم 10208) إلى أن الاقتباس المستخدم كعنوان للعمل الفني يعود إلى ريتشارد هنري برات، وهو ضابط بالجيش أنشأ أول مدرسة داخلية فيدرالية للهنود في الولايات المتحدة الأمريكية. وقد لخصت العبارة السياسات التي أدت إلى إنشاء المدارس الداخلية التي سعت إلى "تمدين" السكان الأصليين بالقوة و"القضاء على كل ما تبقى من ثقافة الهنود." وقد تم إقرار سياسات مماثلة في كندا ووجدت لجنة الحقيقة والمصالحة الكندية أنها ترقى إلى مستوى الإبادة الجماعية للثقافة.

تعتبر إشارة المستخدم إلى ما حدث في "كاملوبس" إشارة إلى مدرسة كاملوبس الداخلية للهنود، وهي مدرسة داخلية سابقة لأطفال السكان الأصليين في كولومبيا البريطانية بكندا. في مايو 2021، أعلن قادة جمعية Tk’emlúps te Secwépemc First Nation اكتشاف مقبرة جماعية في كاملوبس. وقد أكدت السلطات وجود 200 موقع دفن محتمل في المنطقة.

تشير تقديرات الحكومة الكندية إلى أن ما لا يقل عن 150000 من أطفال السكان الأصليين قد خضعوا لنظام المدارس الداخلية قبل إغلاق المدرسة الأخيرة في عام 1997. وغالبًا ما كان أطفال السكان الأصليين يؤخذون قسرًا من عائلاتهم ويُحظر عليهم التعبير عن أي جانب من جوانب ثقافتهم الأصلية. وقد استخدمت المدارس أساليب عقاب جسدي تتسم بالقسوة والإساءة، وقد ارتكب العاملون بها انتهاكات جنسية وأعمال عنف خطيرة ضد الكثير من الطلاب أو تغاضوا عنها. وقد عانى الطلاب من سوء التغذية وتدني مستوى التدفئة والنظافة في المدارس، فمات العديد منهم مصابين بالسل والأمراض الأخرى دون أن يحظوا إلا بالحد الأدنى من الرعاية الطبية. خلُصت لجنة الحقيقة والمصالحة إلى وفاة ما لا يقل عن 4100 طالب أثناء الدراسة بهذه المدارس، وكثير منهم ماتوا بسبب سوء المعاملة أو الإهمال، بينما مات الآخرون بسبب الأمراض أو الحوادث.

3. السُلطة والنطاق

يتمتع المجلس بسلطة مراجعة قرار شركة Meta بعد تلقي طعن من المستخدم الذي تعرض المحتوى الخاص به إلى الإزالة (المادة 2، القسم 1 من اتفاقية المجلس؛ المادة 3، القسم 1 من اللائحة الداخلية). يجوز للمجلس تأييد قرار شركة Meta أو إلغائه، ويكون قراره بهذا الشأن ملزمًا للشركة (المادة 4 من اتفاقية المجلس؛ المادة 3، القسم 5). وقد تتضمن قرارات المجلس بيانات استشارية بشأن السياسية تضم توصيات غير ملزمة يجب على شركة Meta الرد عليها (اتفاقية المجلس، المادة 4؛ المادة 3، القسم 4).

عندما يحدد المجلس حالات كهذه الحالة التي اتفقت فيها شركة Meta بعد ذلك على وقوع خطأ، يراجع المجلس القرار الأصلي للمساعدة على تعزيز فهم أسباب وقوع الأخطاء، وتقديم ملاحظات أو توصيات تسهم في التقليل من الأخطاء وتحسين العمليات. وبعد قرار المجلس بشأن أعراض سرطان الثدي والعُري (‎2020-004-IG-UA، القسم 3)، أقر المجلس عملية تتيح لشركة Meta تحديد أخطاء الإنفاذ قبل تخصيص الحالة إلى اللجنة (راجع: تقارير الشفافية، صفحة 30). ولا يفيد في هذه الحالات أن تركز حيثيات شركة Meta بالكامل على قرارها الذي تمت مراجعته، وتوضيح ما كان يجب أن يحدث بشأن محتوى المستخدم، وأن تدعو المجلس إلى التعامل مع ذلك باعتباره القرار "النهائي" للشركة. وعلاوة على توضيح سبب خطأ القرار الذي طعن عليه المستخدم، يقترح المجلس أن توضح شركة Meta كيفية حدوث الخطأ، وسبب إخفاق العمليات الداخلية للشركة في تحديده أو تصحيحه. وسيظل المجلس يستند في مراجعاته إلى القرار الذي طعن عليه المستخدم.

4. المعايير ذات الصلة

أخذ مجلس الإشراف المعايير التالية في الاعتبار عند إصدار قراره:

1.معايير مجتمع فيسبوك:

يُعرّف معيار مجتمع فيسبوك الخطاب الذي يحض على الكراهية على أنه "هجوم مباشر على الأشخاص على أساس ما نطلق عليه سمات تتمتع بحقوق حماية – العِرق والسلالة والأصل القومي والانتماء الديني والتوجه الجنسي والطبقة الاجتماعية والجنس والنوع والهوية الجنسية والأمراض أو الإعاقات الخطيرة." بموجب "الطبقة الأولى"، يتضمن المحتوى المحظور أي "خطاب يحض على العنف أو يدعمه في شكل مكتوب أو مرئي." ويتضمن معيار المجتمع أيضًا استثناءات لتمييز المحتوى الذي لا يحض على العنف:

ندرك أن الأشخاص يشاركون أحيانًا محتوى يتضمن خطابًا يحض على الكراهية على لسان شخص آخر لإدانته أو تعزيز الوعي به حتى يتجنبه الأشخاص. وفي حالات أخرى، يُسمح بالخطاب الذي قد ينتهك معاييرنا بشكل آخر عندما يُستخدم للإشارة إلى الذات أو بطريقة إيجابية." وتم تصميم سياساتنا لتوفير مساحة لهذه الأنواع من الخطاب، لكننا نحث الأشخاص على الإشارة بوضوح إلى نواياهم. وإذا كانت النية غير واضحة، فقد نقوم بإزالة المحتوى.

2. قيم شركة Meta:

تم توضيح قيم شركة Meta في مقدمة معايير مجتمع فيسبوك. وقد جرى وصف قيمة "حرية الرأي" بأنها "ذات أهمية قصوى":

يتمثل هدف معايير مجتمعنا دائمًا في توفير مكان لحرية الرأي يستطيع الأشخاص من خلاله إبداء وجهات نظرهم. [...] ونحن نريد أن يتمتع الأشخاص بالقدرة على التحدث بحرية عن القضايا التي تهمهم، حتى في حالة عدم اتفاق البعض أو اعتراضهم.

تُقيد شركة Meta "حرية الرأي" لخدمة أربع قيم، ترتبط اثنتان منها بهذه الحالة:

"السلامة": نحن ملتزمون بجعل فيسبوك مكانًا آمنًا. ولا شك أن أشكال التعبير التي تحمل تهديدًا للأشخاص قد تتسبب في إخافة الآخرين أو إقصائهم أو إسكاتهم ونحن لا نسمح بذلك على فيسبوك.

"الكرامة": نحن نؤمن بأن الأشخاص متساوون في الكرامة والحقوق. ونتوقع من الجميع احترام كرامة الآخرين وعدم الإساءة إليهم أو الحط من قدرهم.

3. معايير حقوق الإنسان:

تُرسي مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان (UNGP)، التي أقرها مجلس حقوق الإنسان التابع للأمم المتحدة عام 2011، إطار عمل تطوعي لمسؤوليات الأنشطة التجارية الخاصة فيما يتعلق بحقوق الإنسان. في عام 2021، أعلنت شركة Meta عن سياسة حقوق الإنسان الخاصة بالشركة، والتي أعادت التأكيد من خلالها على الالتزام باحترام حقوق الإنسان على نحو يتفق مع مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان. وقد استند تحليل المجلس لمسؤوليات شركة Meta تجاه حقوق الإنسان في هذه الحالة إلى معايير حقوق الإنسان التالية:

  • حرية التعبير: المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية (ICCPRالتعليق العام رقم 34، اللجنة المعنية بحقوق الإنسان 2011، المادة 5، الاتفاقية الدولية للقضاء على جميع أشكال التمييز العنصري (ICERD)، تقرير مقرر الأمم المتحدة الخاص المعني بالخطاب الذي يحض على الكراهية، A/74/486، ‏2019؛ تقرير مقرر الأمم المتحدة الخاص المعني بتنقيح المحتوى، A/HRC/38/35، ‏2018.
  • المساواة وعدم التمييز: المادة 2، الفقرة 1 والمادة 26 (العهد الدولي الخاص بالحقوق المدنية والسياسية)؛ المادة 2، الاتفاقية الدولية للقضاء على جميع أشكال التمييز العنصري؛ التوصية العامة رقم 35، لجنة القضاء على التمييز العنصري، 2013.
  • الحقوق الثقافية: المادة 27، العهد الدولي الخاص بالحقوق المدنية والسياسية، المادة 15، العهد الدولي الخاص بالحقوق الاقتصادية والاجتماعية والثقافية (ICESCR)، مقرر الأمم المتحدة الخاص في مجال الحقوق الثقافية، تقرير عن حرية التعبير والإبداع الفنيين، A/HRC/23/34، ‏2013.
  • حقوق السكان الأصليين: إعلان الأمم المتحدة بشأن حقوق الشعوب الأصلية، المادة 7، الفقرة 2، المادة 8، الفقرة 1، والمادة 19.

5. بيان المستخدم

أشار المستخدم في الطعن الذي تقدم به إلى المجلس أن منشوره كان يعرض قطعة فنية تقليدية توثق التاريخ، ولا صلة له بالخطاب الذي يحض على الكراهية. وأشار المستخدم أيضًا أن هذا التاريخ "يجب أن يُعرض" وأشار في معرض حديثه عن قيام شركة Meta بإزالة المنشور إلى أن ذلك "يعتبر من قبيل الرقابة."

6. شرح قرار شركة Meta

أخبرت شركة Meta المجلس أن عبارة "اقتلوا الهندي الذي بداخله" تشكل هجومًا بموجب الطبقة الأولى من معيار المجتمع بشأن الخطاب الذي يحض على الكراهية الذي تقره فيسبوك، والذي يحظر "الخطاب الذي يحض على العنف" والذي يستهدف الأشخاص على أساس سمة تتمتع بحقوق حماية، بما في ذلك العِرق أو السلالة. ومع هذا، أقرت شركة Meta أن إزالة المحتوى تمت عن طريق الخطأ لأن السياسة تسمح بمشاركة الخطاب الذي يحض على الكراهية الخاص بالغير بهدف "إدانته أو تعزيز الوعي به." وقد أشارت شركة Meta إلى أن المستخدم قال في المنشور إنه كان يهدف إلى تعزيز الوعي بالقصة المروعة التي حدثت في كاملوبس.

أشارت شركة Meta إلى أن عبارة "اقتلوا الهندي الذي بداخليه، وأنقذوا الإنسان" نشأت عن الدمج القسري لأطفال السكان الأصليين. ومن خلال تعزيز الوعي بقصة كاملوبس، استطاع المستخدم أن يعزز الوعي أيضًا بالدمج القسري من خلال المدارس الداخلية. وردًا على سؤال من المجلس، أوضحت شركة Meta أن مراجع المحتوى لم يكن بحاجة إلى معرفة هذا التاريخ لإنفاذ السياسة بشكل صحيح. وقد أشار المستخدم في منشوره إلى أنه كان يهدف إلى تعزيز الوعي بالقصة المروعة وبالتالي كان بإمكان المراجع الاستنتاج على نحو معقول أن المنشور كان يعزز الوعي بالخطاب الذي يحض على الكراهية من خلال وجوده في المنشور كاقتباس.

أبلغت شركة Meta المجلس أن المستخدمين لم يبلغوا عن المحتوى في هذه الحالة. وتوظِف شركة Meta أدوات تصنيف تعمل بنظام التعلُّم الآلي تم تدريبها لتكتشف تلقائيًا الانتهاكات المحتملة لمعايير مجتمع فيسبوك. وفي هذه الحالة، تعرفت اثنتان من أدوات التصنيف تلقائيًا على المنشور باعتباره خطابًا محتملاً يحض على الكراهية. ولم تكن أداة التصنيف الأولى التي حللت المحتوى على ثقة كافية بأن المنشور قد انتهك معيار المجتمع. ومع هذا، فقد حددت أداة تصنيف أخرى، على أساس مجموعة من الإشارات السياقية، أن المنشور قد تتم مشاركته على نطاق واسع وقد يحظى بمشاهدة الكثير من الأشخاص. وفي ضوء الضرر المحتمل الذي قد ينشأ عن الانتشار الواسع للخطاب الذي يحض على الكراهية، فقد أرسل نظام شركة Meta المنشور تلقائيًا للمراجعة البشرية.

أوضحت شركة Meta في ردها على أسئلة المجلس أن مراجعًا من منطقة آسيا والمحيط الهادئ قرر أن المنشور يشكل خطابًا يحض على الكراهية وأزاله من المنصة. وقد طعن المستخدم على القرار لتتم مراجعة المحتوى بواسطة مراجع آخر من منطقة آسيا والمحيط الهادي ليقرر بدوره أنه يشكل خطابًا يحض عل الكراهية. وقد أكدت شركة Meta للمجلس أن المشرفين لا يسجلون مبررات كل قرار يتخذونه بشأن المحتوى.

7.المعلومات المقدمة من جهات خارجية

نظر المجلس في ثمانية تعليقات عامة تتعلق بهذه الحالة: أربعة تعليقات من الولايات المتحدة وكندا، وتعليقان من أوروبا، وتعليق من دول أفريقيا الواقعة جنوب الصحراء الكبرى، وتعليق من منطقة آسيا والمحيط الهادئ والأوقيانوس. تناولت التعليقات المقدمة موضوعات تتضمن مدلول الاقتباس الذي استند إليه المستخدم كعنوان للعمل الفني، وسياق عن استخدام المدارس الداخلية في أمريكا الشمالية، ومدى تأثير الإشراف على المحتوى لدى شركة Meta في حقوق حرية التعبير والإبداع الفني للأشخاص الذين ترجع أصولهم أو هويتهم إلى السكان الأصليين.

لقراءة التعليقات العامة المقدمة في هذه الحالة، يرجى النقر هنا.

8.تحليل مجلس الإشراف

نظر المجلس في مسألة ما إذا كان ينبغي استعادة هذا المحتوى من خلال ثلاث رؤى: معايير مجتمع فيسبوك، وقيم شركة Meta ومسؤولياتها تجاه حقوق الإنسان.

8.1 الامتثال لمعايير المجتمع

اتفقت شركة Meta على أن قرارها الأصلي بإزالة هذا المحتوى يتعارض مع معايير مجتمع فيسبوك وأنه كان عبارة عن "خطأ في الإنفاذ". وقد وجد المجلس أن المحتوى في هذه الحالة لا يعتبر خطابًا يحض على الكراهية وذلك بشكل لا لبس فيه. ويعتبر هذا المحتوى مثالاً واضحًا على "الخطاب المضاد"، حيث يُشار إلى الخطاب الذي يحض على الكراهية أو يُعاد توظيفه لمكافحة القمع والتمييز.

يسمح معيار المجتمع بشأن الخطاب الذي يحض على الكراهية بوضوح بنشر "محتوى يتضمن خطابًا يحض على الكراهية لشخص آخر لإدانته أو لتعزيز وعي الأشخاص به." مع هذا، فقد خلُص مشرفان منفصلان إلى أن هذا المنشور يشكل خطابًا يحض على الكراهية. ولم تتمكن شركة Meta من تقديم أسباب محددة عن سبب وقوع هذا الخطأ تحديدًا مرتين.

في حالة الاقتباس النازي (‎2020-005-FB-UA)، لاحظ المجلس أن السياق الذي استُخدم فيه الاقتباس كان مهمًا لفهم معناه. في هذه الحالة، كان المحتوى ومعنى الاقتباس وتوقيت المنشور والبلد الذي نُشر فيه، وكذلك جوهر التفاعلات والتعليقات على المنشور مؤشرات واضحة على أن المستخدم لم يكن يهدف إلى الإطراء على شخصية معينة تحض على الكراهية.

وجد المجلس أنه لم يكن يتعين على المستخدم الإشارة بوضوح إلى أنه كان يهدف إلى التوعية حتى تتضح النية والمعنى الخاص بهذا المنشور. ويحكي العمل الفني المصوّر قصة ما حدث في كاملوبس، ويوضح السرد المصاحب أهميته. وعلى الرغم من أن كلمات مثل "اقتل الهندي الذي بداخله" قد تشكّل، في حد ذاتها، خطابًا يحض على الكراهية، فإن تقييم المحتوى ككل يوضح أن العبارة قد استُخدمت لتعزيز الوعي بالكراهية والتمييز وإدانتهما. وقد استخدم المحتوى علامات اقتباس لتمييز العبارة التي تحض على الكراهية في عنوانه، حيث كان العنوان بالكامل هو "اقتلوا الهندي الذي بداخله، وأنقذوا الإنسان". لقد كان من المفترض أن يدفع ذلك المراجع إلى التأني والنظر في الأمر عن كثب. ولقد اتضح من الطريقة التي سرد بها المستخدم قصة كاملوبس وقيامه بتوضيح الأهمية الثقافية لحزام وامبوم أنه في صف ضحايا التمييز والعنف، وليس مع مرتكبي تلك الأعمال. لقد أدانت كلماته بكل وضوح الأحداث المكتشفة في كاملوبس. وقد اتضح من التعليقات والتفاعلات مع المنشور أن نية الإدانة وتعزيز الوعي كانت مفهومة لدى جمهور المستخدم.

أشار المجلس إلى أن توجيه فيسبوك الداخلي الذي يعرف باسم "الأسئلة المعروفة"، والذي يشكّل جزءًا من الإرشادات المقدمة للمشرفين، يرشد المشرفين إلى ارتكاب خطأ يتمثل في إزالة المحتوى الذي يتضمن خطابًا يحض على الكراهية إذا كانت نية المستخدم غير واضحة. وتشير "الأسئلة المعروفة" أيضًا إلى أن إبداء النية بشكل واضح قد لا يكفي دائمًا لتغيير معنى المنشور الذي يشكّل خطابًا يحض على الكراهية. يوفر هذا التوجيه الداخلي إرشادات محدودة للمشرفين بشأن كيفية التمييز بشكل صحيح بين النوع المحظور من الخطاب الذي يحض على الكراهية والخطاب المضاد الذي يقتبس الخطاب الذي يحض على الكراهية لإدانته أو تعزيز الوعي به. وعلى حد علم المجلس، لا توجد توجيهات بشأن كيفية تقييم ما يدل على النية في حالة المحتوى الفني الذي يقتبس مصطلحات تعتبر خطابًا يحض على الكراهية أو يستخدمها، أو في حالة المحتوى الذي يناقش انتهاكات حقوق الإنسان، عندما يندرج هذا المحتوى تحت إحدى استثناءات السياسة.

8.2 الامتثال لقيم شركة Meta

وجد المجلس أن القرار الأصلي بإزالة المحتوى لم يكن يتسق مع قيم شركة Meta المتمثلة في "حرية الرأي" و"الكرامة" ولم يخدم قيمة "السلامة". وعلى الرغم من اتفاق المجلس مع قيم شركة Meta التي تهدف إلى الحد من انتشار الخطاب الذي يحض على الكراهية على منصاتها، يشعر المجلس بالقلق من أن عمليات الإشراف لدى شركة Meta غير قادرة على تحديد وحماية قدرة الأشخاص الذين يتعرضون للتهميش أو التمييز على التعبير عن أنفسهم من خلال الخطاب المضاد.

شركة Meta أعلنت التزامها بدعم الخطاب المضاد:

يدعم فيسبوك، كمجتمع ومنصة للتواصل الاجتماعي وتجمع للتجارب الإنسانية المشتركة، مبادرات الخطاب المضاد الناقد من خلال تطبيق سياسات محتوى قوية والتعاون مع المجتمعات المحلية وواضعي السياسات والخبراء وصنّاع التغيير لإطلاق مبادرات الخطاب المضاد في جميع أنحاء العالم.

تقول شركة Meta إن "حرية الرأي" هي أهم قيمة لدى الشركة. ويعد الفن الذي يسعى إلى إلقاء الضوء على أهوال الفظائع التي ارتكبت في الماضي وتعريف الأشخاص بتأثيرها الدائم هو أحد أهم وأقوى صور التعبير عن قيمة "حرية الرأي"، خاصةً بالنسبة للفئات المهمشة التي تعبر عن ثقافتها وتسعى جاهدة لضمان معرفة الآخرين بتاريخها. ولا يعتبر الخطاب المضاد مجرد تعبير عن "حرية الرأي" وإنما هو أداة أساسية للمستهدفين بالخطاب الذي يحض على الكراهية لحماية كرامتهم ومكافحة أي سلوكيات تنم عن القمع أو التمييز أو الإهانة. ويجب أن تضمن شركة Meta أن سياسات المحتوى وممارسات الإشراف التي تتبعها تأخذ في الحسبان هذا الشكل من أشكال التعبير وتوفر الحماية له.

عندما يتم إخبار مستخدم يعمل على التوعية بالفظائع الجماعية التي وقعت بأن خطابه سيُقمع باعتباره خطابًا يحض على الكراهية فإن ذلك يعد إهانة لكرامته. وقد يؤدي هذا الاتهام، لا سيّما عندما أكدته شركة Meta في الطعن، إلى الرقابة الذاتية.

8.3 الامتثال لمسؤوليات شركة Meta تجاه حقوق الإنسان

خلُص المجلس إلى أن إزالة هذا المنشور تتعارض مع مسؤوليات Meta كشركة تجاه حقوق الإنسان. ألزمت شركة Meta نفسها باحترام حقوق الإنسان بموجب مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان (UNGP). وتنص سياسة حقوق الإنسان الخاصة بشركة فيسبوك على أن ذلك يتضمن العهد الدولي الخاص بالحقوق المدنية والسياسية (ICCPR).

تعتبر الحالة التي بين أيدينا هي أول حالة ينظر فيها المجلس بشأن حرية التعبير الفني، وأول حالة بشأن حرية التعبير يشير فيها المستخدم إلى أنه شخص من السكان الأصليين. وهي واحدة من عدة حالات اختارها المجلس وكان المستخدم يسعى فيها إلى لفت الانتباه إلى انتهاكات جسيمة لحقوق الإنسان.

حرية التعبير (المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية)

تؤكد المعايير الدولية لحقوق الإنسان على قيمة التعبير السياسي (لجنة حقوق الإنسان التعليق العام رقم 34، الفقرة 38). وقد تم تحديد نطاق الحماية المكفول لهذا الحق في المادة 19، الفقرة 2 من العهد الدولي الخاص بالحقوق المدنية والسياسية، والذي يعطي إشارة خاصة إلى حرية التعبير "في قالب فني." وتوفر الاتفاقية الدولية للقضاء على جميع أشكال التمييز العنصري أيضًا حماية لحرية التعبير ضد التمييز في ممارسة الحق (المادة 5)، وقد أكدت اللجنة المكلفة بمراقبة امتثال الدول على أهمية الحق فيما يتعلق بمساعدة "الفئات الضعيفة على تصحيح توازن القوى بين مكونات المجتمع" وتقديم "آراء ووجهات نظر بديلة" في المناقشات (لجنة القضاء على التمييز العنصري، التوصية العامة رقم 35، الفقرة 29).

غالبًا ما يكون الفن سياسيًا، وتعترف المعايير الدولية بالدور الفريد والقوي لهذا الشكل من أشكال الاتصال في تحدي الوضع الراهن (المقرر الخاص للأمم المتحدة في مجال الحقوق الثقافية، A/HRC/23/34، في الفقرتين 3 و4). يحظى الإنترنت ومنصات التواصل الاجتماعي مثل فيسبوك وInstagram على وجه الخصوص، بقيمة خاصة لدى الفنانين فيما يتعلق بالوصول إلى جماهير جديدة وزيادة الجماهير. وقد تعتمد سبل عيشهم على الوصول إلى منصات التواصل الاجتماعي التي تهيمن على الإنترنت.

الحق في حرية التعبير مكفول لجميع الأشخاص دون تمييز (المادة 19، الفقرة 2، العهد الدولي الخاص بالحقوق المدنية والسياسية). وقد تلقى المجلس تعليقًا يفيد بأن حقوق السكان الأصليين في الموافقة الحرة والمسبقة والمستنيرة عند تبنى الدول لإجراءات تشريعية أو إدارية تؤثر على تلك المجتمعات توحي ضمنيًا بمسؤولية شركة Meta عن التشاور مع هذه المجتمعات أثناء قيامها بتطوير سياسات المحتوى الخاصة بها (التعليق العام رقم 10240، مجموعة حقوق الأقليات؛ راجع أيضًا إعلان الأمم المتحدة بشأن حقوق الشعوب الأصلية، المادة 19). وقد أعرب المقرر الأمم المتحدة الخاص المعني بحرية الرأي والتعبير عن قلق مماثل في سياق مسؤوليات منصات التواصل الاجتماعي (A/HRC/38/35، الفقرة 54).

ينطوي المحتوى في هذه الحالة على عدد من الحقوق الأخرى أيضًا، بما في ذلك حق الأشخاص المنتمين إلى أقليات وطنية أو عرقية أو لغوية في التمتع بثقافتهم الخاصة في المجتمع مع باقي أعضاء مجموعتهم، (المادة 27، العهد الدولي الخاص بالحقوق المدنية والسياسية)، والحق في المشاركة في الحياة الثقافية والاستمتاع بالفنون (المادة 15، العهد الدولي الخاص بالحقوق الاقتصادية والاجتماعية والثقافية). ويتمتع فن صُنع حزام وامبوم الذي يسعى إلى تسجيل الفظائع التي ارتكبت ضد حقوق الإنسان والتوعية بها وبإرثها المستمر بحماية بموجب إعلان الأمم المتحدة بشأن المدافعين عن حقوق الإنسان، المادة 6(ج)، وكذلك الحق في إظهار حقيقة تلك الفظائع (مجموعة مبادئ الأمم المتحدة لمكافحة الإفلات من العقاب). يقر إعلان الأمم المتحدة بشأن حقوق الشعوب الأصلية صراحةً أن الإبعاد القسري للأطفال يمكن أن يكون عملاً من أعمال العنف والإبادة الجماعية (المادة 7، الفقرة 2) ويوفر حماية خاصة ضد الدمج القسري والتدمير الثقافي (المادة 8، الفقرة 1).

تنص المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية على أنه عند فرض الدولة لقيود على حرية التعبير، يجب أن تفي تلك القيود بمتطلبات الشرعية والهدف المشروع والضرورة والتناسب (المادة 19، الفقرة 3، العهد الدولي الخاص بالحقوق المدنية والسياسية). وقد حث مقرر الأمم المتحدة الخاص المعني بحرية التعبير شركات وسائل التواصل الاجتماعي على الاسترشاد بهذه المبادئ عند الإشراف على أشكال التعبير على الإنترنت، مع الأخذ في الاعتبار أن تنظيم أشكال التعبير على نطاق واسع من قبل الشركات الخاصة قد يثير مخاوف خاصة بهذا السياق (A/HRC/38/35، الفقرتان 45 و70). قام المجلس بتوظيف الاختبار الثلاثي استنادًا إلى المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية في كل قراراته حتى الآن.

1. الشرعية (وضوح القواعد وسهولة الوصول إليها)

يسمح معيار المجتمع بشأن الخطاب الذي يحض على الكراهية بوضوح بالمحتوى الذي يدين هذا النوع من الخطاب أو يعزز الوعي به. ويتمتع هذا الجزء من السياسة بالوضوح الكافي ويسهل للمستخدم الوصول إليه لفهم القواعد وضبط سلوكه وفقًا لها (التعليق العام رقم 34، الفقرة 25). يتطلب معيار الشرعية أيضًا أن توفر القواعد التي تقيد حرية التعبير "إرشادات كافية للأشخاص المسؤولين عن إنفاذها حتى تتيح لهم التأكد من ضروب التعبير المقيدة وغير المقيدة بشكل صحيح" (المرجع نفسه.) ويشير إخفاق اثنين من المشرفين في تقييم تطبيق استثناءات السياسة بشكل صحيح على هذا المحتوى إلى إنه قد تكون هناك حاجة إلى تزويد المشرفين بمزيد من التوجيهات الداخلية.

2. الهدف المشروع

يجب أن تستند أي قيود تفرضها الدولة على حرية التعبير إلى أحد الأهداف المشروعة الواردة في المادة 19، الفقرة 3 من العهد الدولي الخاص بالحقوق المدنية والسياسية. وقد استندت شركة Meta بشكل روتيني في المعلومات التي قدمتها إلى المجلس إلى أهداف من هذه القائمة عند تبرير الإجراء الذي اتخذته لقمع هذا الخطاب. وقد أقر المجلس في السابق بأن معيار مجتمع فيسبوك بشأن الخطاب الذي يحض على الكراهية يسعى إلى تحقيق هدف مشروع يتمثل في حماية حقوق الآخرين. تتضمن هذه الحقوق الحق في المساواة وعدم التمييز، والحق في حرية التعبير، والحق في السلامة الجسدية.

3. الضرورة والتناسب

يعني الخطأ الواضح في هذه الحالة أن الإزالة لم تكون ضرورية دون أدنى شك، وهو ما وافقت عليه شركة Meta. ويشعر المجلس بالقلق من أن مثل هذا الخطأ الذي لا لبس فيه قد يشير إلى مشكلة أعمق تتعلق بالتناسب في عمليات المراجعة التلقائية والبشرية التي تجريها شركة Meta. وينبغي أن تكون أي تقييدات لحرية التعبير مناسبة لتحقيق وظيفتها الحمائية، وينبغي أن تكون أقل الوسائل تدخلاً مقارنة بغيرها من الوسائل التي يمكن أن تحقق النتيجة المنشودة (التعليق العام رقم 34، الفقرة 34). يعتمد استيفاء نظام الإشراف على المحتوى لدى شركة Meta لمتطلبات الضرورة والتناسب بشكل كبير على مدى فعاليته في إزالة الخطاب الفعلي الذي يحض على الكراهية وتقليل عدد عمليات الاكتشاف والإزالة الخاطئة.

يُلحق أي منشور تتم إزالته بالخطأ الضرر بحرية التعبير. يتفهم المجلس أن الأخطاء واردة، للبشر والآلات. وسيظل الخطاب الذي يحض على الكراهية وإجراءات الاستجابة له مرهونة دائمًا بالسياق، كما أن حدوده ليست واضحة دائمًا. مع هذا، فإن أنواع الأخطاء والأشخاص أو المجتمعات التي تتحمل عبء هذه الأخطاء تعكس خيارات التصميم التي يجب تقييمها واختبارها باستمرار. ويتطلب ذلك مزيدًا من التحقيق في الأسباب الجذرية التي أدت إلى وقوع الأخطاء في هذه الحالة، والتقييم الأوسع نطاقًا لمدى فاعلية الإشراف على الخطاب المضاد.

نظرًا لأهمية الفن الناقد من الفنانين الذين ينتمون إلى الشعوب الأصلية ودوره في المساعدة على مواجهة الكراهية والقمع، يتوقع المجلس أن تتحلى شركة Meta بحساسية خاصة تجاه احتمال إزالة المحتوى عن طريق الخطأ في هذه الحالة والمحتوى المماثل على فيسبوك وInstagram. لا يكفي تقييم أداء شركة Meta فيما يتعلق بإنفاذ سياسة فيسبوك بشأن الخطاب الذي يحض على الكراهية ككل. فقد يكون النظام الذي يحقق أداءً جيدًا في المتوسط ضعيفًا جدًا في الفئات الفرعية للمحتوى حيث يكون للقرارات غير الصحيحة تأثير واضح لا سيّما فيما يتعلق بحقوق الإنسان. من الممكن أن تكون أنواع الأخطاء التي وقعت في هذه الحالة نادرة؛ ومع ذلك، يرى المجلس أن أعضاء الفئات المهمشة يعربون عن مخاوفهم بشأن معدل عمليات الإزالة الإيجابية الكاذبة وتأثيرها منذ عدة سنوات. وتُظهر الأخطاء في هذه الحالة أنه يتعين على شركة Meta إثبات اتخاذها لإجراءات العناية الواجبة بحقوق الإنسان لضمان أن أنظمتها تعمل بشكل عادل ولا تؤدي إلى تفاقم الاضطهاد التاريخي والمستمر (مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان، المبدأ 17).

تجري شركة Meta تقييمات روتينية لدقة أنظمة الإنفاذ لديها في التعامل مع الخطاب الذي يحض على الكراهية. ولا يتم تقسيم هذا التقييم إلى تقييمات للدقة تقيس تحديدًا قدرة شركة Meta على التمييز بين الخطاب الذي يحض على الكراهية والمحتوى المسموح به الذي يدين الخطاب الذي يحض على الكراهية أو يعزز الوعي به.

تتضمن العمليات الحالية لشركة Meta أيضًا آليات مخصصة لتحديد اتجاهات الأخطاء والتحقيق في أسبابها الجذرية، لكن ذلك يتطلب عينات كبيرة من المحتوى التي يمكن قياس أداء النظام مقارنة بها. وقد استفسر المجلس عما إذا كانت شركة Meta قد قيّمت تحديدًا أداء نظام المراجعة الخاص بها فيما يتعلق بالتقييم الدقيق للخطاب المضاد الذي يشكل نوعًا من أنواع التعبير الفني والخطاب المضاد الذي يعزز الوعي بانتهاكات حقوق الإنسان. وقد أخبرت شركة Meta المجلس أنها لم تقم بإجراء أبحاث خاصة تتناول تأثير عمليات الإزالة الإيجابية الكاذبة في التعبير الفني أو التعبير بوجه عام من الأشخاص الذين ترجع أصولهم أو هويتهم إلى السكان الأصليين.

أخطرت شركة Meta المجلس بالعقبات التي تحول دون بدء هذه التقييمات، بما في ذلك عدم وجود نظام لأتمتة تجميع عينات المحتوى التي تستفيد من استثناءات السياسة. ويرجع السبب في ذلك إلى أن المراجعين يميزون المحتوى على أنه مخالف أو غير مخالف، وليسوا مطالبين بالإشارة إلى ما إذا كان المحتوى غير المخالف ينطوي على استثناء للسياسة أم لا. وسيحتاج الأمر إلى تجميع عينات الخطاب المضاد التي تندرج تحت هذا الاستثناء بشكل يدوي.

على الرغم من أن مستوى التفاصيل المقدمة حول كيفية تقييم شركة Meta للأداء أثناء جلسة الأسئلة والأجوبة التي عقدت بناءً على طلب المجلس مُشجعًا، فمن الواضح وجود حاجة إلى مزيد من الاستثمار في تقييم مدى دقة إنفاذ استثناءات سياسة الخطاب الذي يحض على الكراهية والتعلم من اتجاهات الخطأ. ودون معلومات إضافية عن قرارات التصميم لدى شركة Meta وأداء أنظمتها البشرية والتلقائية، يصعب على المجلس أو شركة Meta تقييم ما إذا كان نهج الشركة الحالي في التعامل مع الخطاب الذي يحض على الكراهية مناسبًا أم لا.

عند تقييم ضرورة وتناسب استخدام أدوات التعلُّم الآلي المستخدمة تحديدًا في هذه الحالة لتكتشف تلقائيًا المحتوى المحتمل أنه يكون خطابًا يحض على الكراهية، يعتبر الوقوف على مستوى دقة هذه الأدوات أمرًا أساسيًا. ودائمًا ما تتضمن أدوات التصنيف الخاصة بالتعلُّم الآلي مفاضلات بين معدلات عمليات الإزالة الإيجابية والسلبية الكاذبة. وكلما كانت أداة التصنيف أكثر حساسية، كان احتمال تعرفها بشكل صحيح على حالات الخطاب الذي يحض على الكراهية أكبر، لكنها تكون أكثر احتمالاً أيضًا للخطأ في تمييز المواد باعتبارها خطابًا يحض على الكراهية دون أن تكون كذلك بالفعل. وتتباين أدوات التصنيف التي تم تدريبها بشكل مختلف والنماذج المختلفة في استخداماتها وفعاليتها مع المهام المختلفة. وبالنسبة لأي نموذج معين، يمكن استخدام حدود قصوى مختلفة تعكس تقييمًا للأهمية النسبية التي يمثلها تجنب الأنواع المختلفة من الأخطاء. ويجب أن تكون القرارات الخاصة بكيفية نشر أدوات التصنيف نابعة من احتمالية حدوث الأخطاء ومدى خطورتها، بما في ذلك ما إذا كان بإمكانها اتخاذ إجراءات فورية أو ما إذا كانت تتطلب موافقة بشرية، ووسائل الحماية المتبعة.

أوضحت شركة Meta أن المنشور المعني في هذه الحالة قد أُرسل للمراجعة من خلال أنظمتها التلقائية نظرًا لاحتمال وصوله إلى جمهور كبير. وهذا النهج يمكن أن يقلل انتشار المواد الضارة، لكنه قد يزيد في الوقت ذاته من مخاطر إزالة أعمال فنية قوية مضادة للخطاب الذي يحض على الكراهية عن طريق الخطأ. أخبرت شركة Meta المجلس أنها تعمل بشكل دوري على تقييم معدلات عمليات الإزالة الإيجابية الكاذبة بمرور الوقت، حيث يتم قياسها مقارنة بمجموعة من القرارات المتخذة بواسطة مراجعين خبراء. وقد أشارت شركة Meta أيضًا إلى أنه كان بالإمكان تقييم دقة نماذج التعلُّم الآلي المحددة ذات الصلة بهذه الحالة وأنها تحتفظ بمعلومات عن تنبؤ أدوات التصنيف الخاصة بها لمدة 90 يومًا على الأقل. وقد طلب المجلس معلومات قد تسمح لنا بتقييم أداء أداة التصنيف ومدى تناسب الحدود القصوى التي استخدمتها شركة Meta في هذه الحالة. وقد أخبرت شركة Meta المجلس أنها لم تتمكن من توفير المعلومات التي طلبها لأنها لا تملك الوقت الكافي لإعدادها لنا. ومع هذا، فقد أشارت شركة Meta إلى أنها كانت تأخذ في الاعتبار جدوى تقديم هذه المعلومات في الحالات المستقبلية.

يمكن أن توفر المراجعة البشرية ضمانين مهمين بشأن تشغيل أدوات التصنيف التي تستخدمها شركة Meta: أولاً قبل إزالة المنشور، وثانيًا عند تقديم طعن. تشير الأخطاء في هذه الحالة إلى أن توجيهات شركة Meta للمشرفين الذين يعملون على تقييم الخطاب المضاد قد لا تكون كافية. هناك عدد غير محدد من الأسباب التي ربما قد أسهمت في توصل اثنين من المشرفين إلى القرار الخاطئ بشأن هذه الحالة. ويعرب المجلس عن مخاوفه تجاه احتمال عدم توفر الموارد الكافية على صعيد الوقت أو التدريب للمراجعين بشكل يحول دون وقوع نوع الأخطاء الذي شهدناه في هذه الحالة، لا سيّما فيما يتعلق بالمحتوى المسموح به بموجب استثناءات السياسة (بما في ذلك، على سبيل المثال، "إدانة" الخطاب الذي يحض على الكراهية و"تعزيز الوعي" به).

في هذه الحالة، كان كلا المراجعين من منطقة آسيا والمحيط الهادئ. ولم تتمكن شركة Meta من إخبار المجلس بما إذا كانت معدلات دقة المراجعين قد اختلفت في حالة انتماء المشرفين الذين يقيّمون الخطاب الذي يحتمل أنه يحض على الكراهية في منطقة غير التي خرج منها المحتوى. ويشير المجلس إلى التعقيد الذي تنطوي عليه عملية تقييم الخطاب الذي يحض على الكراهية، وصعوبة فهم التاريخ والسياق المحلي، لا سيّما بالنظر إلى حجم المحتوى الذي يراجعه المشرفون كل يوم. ومن المتصور أن خبرة المشرفين الذين قيّموا المحتوى في هذه الحالة كانت قليلة فيما يتعلق باضطهاد الشعوب الأصلية في أمريكا الشمالية. ويجب أن تتضمن التوجيهات إرشادات واضحة لتقييم المحتوى بالكامل وأن تدعم المشرفين لتقييم السياق بدقة أكبر تخولهم من تحديد دليل النية والمعنى.

أوصى المجلس في قراره بشأن الرسم الكاريكاتيري زرا الاختيار (‎2021-005-FB-UA) أن تتيح شركة Meta للمستخدمين الإشارة في طعنهم إلى أن المحتوى يندرج تحت أحد استثناءات معيار مجتمع فيسبوك بشأن الخطاب الذي يحض على الكراهية. وفي الوقت الحالي، عندما يستأنف أحد المستخدمين على أحد قرارات شركة Meta التي تخضع لمراجعة بشرية، لا يتم إخطار المراجع أن المستخدم قد اعترض على قرار سابق كما أنه لا يعلم نتيجة المراجعة السابقة. وفي حين أخبرت شركة Meta المجلس أن هذه المعلومات ستؤدي من وجهة نظرها إلى انحياز المراجعة، فإن المجلس مهتم بما إذا كانت هذه المعلومات ستزيد من احتمالية اتخاذ قرارات أكثر دقة أم لا. وهي مسألة يمكن اختبارها تجريبيًا بواسطة شركة Meta؛ وستكون نتائج تلك الاختبارات مفيدة في تقييم مدى تناسب الإجراءات المحددة التي اختارت شركة Meta إقرارها.

بموجب مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان، تتحمل شركة Meta مسؤولية بذل العناية الواجبة تجاه حقوق الإنسان (المبدأ رقم 17). وهو ما يفترض أن يتضمن تحديد أي آثار سلبية للإشراف على المحتوى تجاه التعبير الفني والتعبير السياسي للشعوب الأصلية التي يواجه أفرادها التمييز. ينبغي على شركة Meta أيضًا أن تحدد بشكل أكبر كيف ستحول دون حدوث هذه الآثار السلبية والتخفيف من حدتها وتوضيح الجهود التي تبذلها لمعالجة تلك الآثار. ويلتزم المجلس بمراقبة أداء شركة Meta ويتوقع من الشركة إعطاء الأولوية للمخاطر التي تتعرض لها الفئات المهمشة وأن تظهر دليلاً على التحسين المستمر.

9.قرار مجلس الإشراف

ألغى مجلس الإشراف قرار شركة Meta الأصلي بإزالة المحتوى.

10. البيان الاستشاري بشأن السياسة

الإنفاذ

1. توفير إشعار فوري ودقيق للمستخدمين بشأن أي إجراءات تتخذها الشركة تجاه المحتوى الذي تم تقديم طعن بشأنه. ويجب أن يشير الإشعار، في حالات مثل الخطأ في الإنفاذ كهذه الحالة، إلى أن الإجراء نتج عن عملية المراجعة التي أجراها مجلس الإشراف. وينبغي على شركة Meta مشاركة رسائل المستخدم التي تم إرسالها عندما تؤثر إجراءات المجلس في قرارات المحتوى الذي تقدم المستخدم بطعن بشأنه، لتبرهن على أنها تمتثل لهذه التوصية. وينبغي اتخاذ هذه الإجراءات فيما يتعلق بكل الحالات التي تم تصحيحها في مرحلة الأهلية ضمن عملية المجلس.

2. دراسة آثار المنهجيات المعدلة للمراجعة الثانية على دقة المراجعين وإنتاجيتهم. على وجه التحديد، طلب المجلس تقييم معدلات الدقة عندما يتم إخبار مشرفي المحتوى بأنهم يُجرون مراجعة ثانية، حتى يعلموا أن القرار الأول قد تم الاعتراض عليه. وينبغي أن تتضمن هذه التجربة في الوضع الأمثل فرصة تسمح للمستخدمين بتقديم سياق ذي صلة من شأنه مساعدة المراجعين على تقييم المحتوى، تمشيًا مع التوصيات السابقة للمجلس. ينبغي على شركة Meta مشاركة نتائج تقييمات الدقة هذه مع المجلس وأن تلخص النتائج في تقرير الشفافية الفصلي المقدم إلى المجلس لتبرهن على امتثالها لهذه التوصية.

3. إجراء تقييمات للدقة تركز على استثناءات سياسة الخطاب الذي يحض على الكراهية فيما يتعلق بالتعبير الفني والتعبير الذي يتعلق بانتهاكات حقوق الإنسان (على سبيل المثال، عند استخدامه للإدانة أو تعزيز الوعي أو الإشارة إلى الذات أو بطريقة إيجابية). ويجب أن ينظر هذا التقييم بشكل خاص في تأثير موقع المراجع على تمكُّن المشرفين من تقييم الخطاب الذي يحض على الكراهية والخطاب المضاد بشكل دقيق من نفس المناطق أو مناطق مختلفة. يتفهم المجلس أن هذا التحليل يتطلب على الأرجح تطوير عينات مناسبة ومصنفة بشكل دقيق من المحتوى ذي الصلة. وينبغي أن تشارك شركة Meta نتائج هذا التقييم مع المجلس، بما في ذلك دور هذه النتائج في تحسين عمليات الإنفاذ ووضع السياسات وما إذا كانت تخطط لإجراء تقييمات دورية لدقة المراجعين فيما يتعلق بهذه الاستثناءات وأن تلخص النتائج في تقرير الشفافية الفصلي المقدم إلى المجلس لتبرهن على امتثالها لهذه التوصية.

*ملاحظة إجرائية:

يتم إعداد قرارات مجلس الإشراف من قِبل لجان مكونة من خمسة أعضاء ويتم اعتمادها من أغلبية أعضاء المجلس. ولا يلزم بالضرورة أن تُعبّر قرارات المجلس عن وجهات النظر الشخصية لجميع الأعضاء.

بالنسبة إلى القرار المتخذ بشأن هذه الحالة، تم إجراء بحث مستقل نيابة عن المجلس. وقد توافرت الخبرة اللازمة في السياق الاجتماعي والسياسي والثقافي عن طريق معهد أبحاث مستقل يقع مقره في جامعة جوتنبرج ويعتمد على فريق مكون من أكثر من 50 عالم اجتماع من ست قارات، فضلاً عن أكثر من 3200 خبير محلي من جميع أنحاء العالم ومن شركة Duco Advisers، وهي شركة تركز على نقطة التقاء الجغرافيا السياسية والثقة والأمان والتكنولوجيا.

العودة إلى قرارات الحالة والآراء الاستشارية المتعلقة بالسياسة