أسقط

البرنامج التلقائي لميانمار

ألغى مجلس الإشراف قرار فيسبوك بإزالة منشور باللغة البورمية بموجب معيار مجتمعها المعني بمكافحة الخطاب الذي يحض على الكراهية.

نوع القرار

معيار

السياسات والمواضيع

عنوان
حرية التعبير، سياسة
معيار المجتمع
خطاب يحض على الكراهية

المناطق/البلدان

موقع
ميانمار

منصة

منصة
Facebook

الملفات المرفقة

2021-007-FB-UA Public Comments

ملخص الحالة

ألغى مجلس الإشراف قرار فيسبوك بإزالة منشور باللغة البورمية بموجب معيار مجتمعها المعني بمكافحة الخطاب الذي يحض على الكراهية. وجد المجلس أن المنشور لا يستهدف الصينيين، وإنما يستهدف الصين كدولة. وقد استخدم على وجه التحديد ألفاظًا نابية للإشارة إلى السياسة التي تتبعها الحكومة الصينية في هونج كونج في خضم مناقشة سياسية عن دور الحكومة الصينية في ميانمار.

حول هذه الحالة

في أبريل 2021، نشر مستخدم لفيسبوك بدا أنه في ميانمار منشورًا باللغة البورمية على يومياته. ناقش المنشور طرق الحد من تمويل النظام العسكري في ميانمار في أعقاب الانقلاب الذي وقع في الأول من فبراير عام 2021 في ميانمار. وقد اقترح إعطاء إيرادات الضرائب إلى لجنة تمثيل برلمان الاتحاد (CRPH)، وهي مجموعة من المشرعين المعارضين للانقلاب. حقق المنشور نحو نصف مليون مشاهدة ولم يقم أي مستخدم على فيسبوك بالإبلاغ عنه.

ترجمت فيسبوك الجزء المفترض أنه يشكل انتهاكًا من منشور المستخدم على النحو التالي ‎"Hong Kong people, because the fucking Chinese tortured them, changed their banking to UK, and now (the Chinese) they cannot touch them" (شعب هونج كونج، لأن الصينيون أولاد العاهرة عذبوهم، نقلوا معاملاتهم المصرفية إلى المملكة المتحدة، والآن لا يمكن (للصينيين) أن يمسوهم.) أزالت فيسبوك المنشور بموجب معيار المجتمع المعني بمكافحة الخطاب الذي يحض على الكراهية. وهو معيار يحظر المحتوى الذي يستهدف شخصًا أو مجموعة من الأشخاص استنادًا إلى العرق أو السلالة أو الأصل القومي باستخدام "الألفاظ أو العبارات البذيئة التي تنم عن نية الإهانة."

اتفق مراجعو المحتوى الأربعة الذين راجعوا المنشور على مخالفته لقواعد فيسبوك. في الطعن الذي تقدم به إلى المجلس، أشار المستخدم إلى أنه نشر المحتوى بهدف "stop the brutal military regime" (وقف النظام العسكري الوحشي).

أهم النتائج

تسلط هذه الحالة الضوء على أهمية مراعاة السياق عند إنفاذ سياسات الخطاب الذي يحض على الكراهية، بالإضافة إلى أهمية حماية الخطاب السياسي. ويستحوذ ذلك على أهمية خاصة في ميانمار بالنظر إلى انقلاب فبراير 2021 ودور فيسبوك الأساسي كوسيلة اتصال في البلاد.

استخدم المنشور هذه العبارة باللغة البورمية "$တရုတ်" والتي ترجمتها فيسبوك إلى "الصينيون أولاد العاهرة" (أو "sout ta-yote"). وفقًا لفيسبوك، فإن كلمة "ta-yote" "يُنظر إليها ثقافيًا ولغويًا باعتبارها تمثل تداخلاً في الهوية/المعاني بين الصين كبلد والصينيين كشعب." ذكرت فيسبوك أنه نظرًا لطبيعة هذه الكلمة وعدم "قيام المستخدم بتوضيح أن هذا المصطلح يشير إلى الصين كبلد/حكومة،" فقد رأت أن "المستخدم يشير، على أقل تقدير، إلى الصينيين." ومن هذا المنطلق، أزالت فيسبوك المنشور بموجب معيار المجتمع المعني بمكافحة الخطاب الذي يحض على الكراهية.

ولأن الكلمة ذاتها تستخدم باللغة البورمية للإشارة إلى البلد وإلى مواطنيها على حد سواء، يكون السياق أساسيًا لفهم المعنى المقصود. وقد أدت مجموعة من العوامل إلى اقتناع المجلس بأن المستخدم لم يكن يستهدف الصينيين، وإنما كان يستهدف الصين كدولة.

كان الجزء الذي يفترض أنه ينتهك قواعد فيسبوك من المنشور يشير إلى السياسات المالية الصينية في هونج كونج باعتبارها شكلاً من أشكال "التعذيب" أو "الاضطهاد"، ولم يكن يشير إلى تصرفات الأفراد أو الصينيين في ميانمار. وقد أشار مترجما المجلس إلى أن كلمة "ta-yote"، في هذه الحالة، تشير إلى دولة. وعند سؤالهم عن مدى وجود أي غموض محتمل في هذه الإشارة، لم يشر المترجمون إلى وجود أي شك. وأشار مترجما المجلس أيضًا إلى أن المنشور قد تضمن مصطلحات يشيع استخدامها بواسطة حكومة ميانمار والسفارة الصينية عند مخاطبة بعضهما البعض. وعلاوة على ذلك، على الرغم من مشاهدة نصف مليون شخص للمنشور ومشاركته بواسطة أكثر من 6000 شخص، فلم يقم أحد بالإبلاغ عنه. وقد وصفت التعليقات العامة أيضًا الأسلوب العام للمنشور بأنه نقاش سياسي.

نظرًا لأن المنشور لم يستهدف الأشخاص استنادًا إلى العرق أو السلالة أو الأصل القومي، وكان موجهًا إلى الدولة، فقد وجد المجلس أنه لم ينتهك معيار مجتمع فيسبوك المعني بمكافحة الخطاب الذي يحض على الكراهية.

قرار مجلس الإشراف

ألغى مجلس الإشراف قرار فيسبوك بإزالة المحتوى، وطالب باستعادة المنشور.

في بيان استشاري بشأن السياسة، أوصى المجلس فيسبوك بما يلي:

  • ضمان توفر جميع معايير الإنفاذ الداخلية باللغة التي يستخدمها مشرفو المحتوى أثناء المراجعة. وإذا استدعى الأمر ترتيب الأولويات، على فيسبوك أن تركز أولاً على السياقات التي تكون فيها المخاطر على حقوق الإنسان أشد.

*توفر ملخصات الحالة نظرة عامة على الحالة ولا تُشكّل سابقة قانونية.

القرار الكامل للمجلس بشأن الحالة

1. ملخص القرار

ألغى مجلس الإشراف قرار فيسبوك بإزالة عنصر محتوى بموجب معيار المجتمع المعني بمكافحة الخطاب الذي يحض على الكراهية. وجد المجلس أن المنشور لا يعتبر نوعًا من أنواع الخطاب الذي يحض على الكراهية.

2. وصف الحالة

في أبريل 2021، نشر مستخدم لفيسبوك بدا أنه في ميانمار منشورًا باللغة البورمية على يومياته. ناقش المنشور طرق الحد من تمويل النظام العسكري في ميانمار في أعقاب الانقلاب الذي وقع في الأول من فبراير عام 2021 في ميانمار. وقد اقترح إعطاء إيرادات الضرائب إلى لجنة تمثيل برلمان الاتحاد (CRPH)، وهي مجموعة من المشرعين المعارضين للانقلاب. حقق المنشور نحو 500 ألف مشاهدة، وما يقرب من 6000 تفاعل وتمت مشاركته حوالي 6000 مرة. ولم يقم أي من مستخدمي فيسبوك بالإبلاغ عن المنشور.

ترجمت فيسبوك الجزء المفترض أنه يشكل انتهاكًا من منشور المستخدم على النحو التالي ‎"Hong Kong people, because the fucking Chinese tortured them, changed their banking to UK, and now (the Chinese) they cannot touch them" (شعب هونج كونج، لأن الصينيون أولاد العاهرة عذبوهم، نقلوا معاملاتهم المصرفية إلى المملكة المتحدة، والآن لا يمكن (للصينيين) أن يمسوهم.) أزالت فيسبوك المنشور باعتباره خطابًا يحض على الكراهية من "الطبقة الثانية" بموجب معيار المجتمع المعني بمكافحة الخطاب الذي يحض على الكراهية بعد يوم من نشره. وهو معيار يحظر المحتوى الذي يستهدف شخصًا أو مجموعة من الأشخاص استنادًا إلى العرق أو السلالة أو الأصل القومي باستخدام "الألفاظ أو العبارات البذيئة التي تنم عن نية الإهانة."

وفقًا لفيسبوك، فإن إحدى مرات إعادة مشاركة المنشور "قد جرى اختيارها تلقائيًا كجزء من عينة وتم إرسالها إلى مراجع بشري لاستخدامها في تدريب أداة التصنيف." يتضمن ذلك قيام فيسبوك بإنشاء مجموعات بيانات من نماذج المحتوى المخالفة وغير المخالفة لتدريب عمليات الاكتشاف والإنفاذ التلقائي للتنبؤ بمدى مخالفة المحتوى لسياسات فيسبوك. وقد قرر المراجع أن المنشور الذي تمت مشاركته يخالف معيار المجتمع المعني بمكافحة الخطاب الذي يحض على الكراهية. وعلى الرغم من أن العملية كانت تهدف إلى إنشاء مجموعات من المحتوى لتدريب أداة التصنيف، فقدت تمت إزالة المنشور الذي تمت مشاركته بمجرد اكتشاف أنه مخالف.

نظرًا لاكتشاف أن المنشور الذي تمت مشاركته يخالف قواعد فيسبوك، فقد حدد "برنامج تلقائي للإجراءات الإدارية" المنشور الأصلي لمراجعته. وقد أوضحت فيسبوك أن البرنامج التلقائي للإجراءات الإدارية هو حساب داخلي تابع لفيسبوك لا يقوم بأي تقييم للمحتوى ولكنه ينفذ "مجموعة متنوعة من الإجراءات على مستوى منظومة الإنفاذ استنادًا إلى القرارات التي يتخذها المراجعون أو الوسائل التلقائية." إثر ذلك، حلل مراجعان المنشور الأصلي، وقررا أنه خطابًا يحض على الكراهية من "الطبقة الثانية". ومن ثم فقد تمت إزالة المحتوى. وتقدم المستخدم بطعن إلى فيسبوك على قرار إزالة المحتوى، ليقوم مراجع رابع بتأييد القرار. وفقًا لفيسبوك، "كان كل مراجعو المحتوى في هذه الحالة أعضاءً في فريق مراجعة المحتوى البورمي لدى فيسبوك." وقد تقدم المستخدم بعد ذلك بطعن إلى مجلس الإشراف.

3. السُلطة والنطاق

يتمتع المجلس بسلطة مراجعة قرار فيسبوك بعد تلقي طعن من المستخدم الذي تعرض منشوره إلى الإزالة (المادة 2، القسم 1 من اتفاقية المجلس؛ المادة 2، القسم 2.1 من اللائحة الداخلية). يجوز للمجلس تأييد هذا القرار أو إلغائه (المادة 3، القسم 5 من اتفاقية المجلس). وتكون قرارات المجلس مُلزمة وقد تتضمن بيانات استشارية بشأن السياسة تحتوي على توصيات. ولا تكون هذه التوصيات ملزمة ولكن يجب أن يصدر رد بشأنها من فيسبوك (المادة 3، القسم 4 من اتفاقية المجلس). ويعتبر المجلس بمثابة آلية تظلُّم مستقلة لتسوية النزاعات بطريقة تنطوي على الشفافية وتستند إلى المبادئ.

4. المعايير ذات الصلة

أخذ مجلس الإشراف المعايير التالية في الاعتبار عند إصدار قراره:

1. معايير مجتمع فيسبوك

يُعرّف معيار مجتمع فيسبوك الخطاب الذي يحض على الكراهية على أنه "هجوم مباشر على الأشخاص على أساس ما نطلق عليه سمات تتمتع بحقوق حماية – العِرق والسلالة والأصل القومي والانتماء الديني والتوجه الجنسي والطبقة الاجتماعية والجنس والنوع والهوية الجنسية والأمراض أو الإعاقات الخطيرة." بموجب "الطبقة الثانية"، يتضمن المحتوى المحظور السباب، الذي يتم تعريفه بأنه "الألفاظ أو العبارات البذيئة التي تنم عن نية الإهانة، بما في ذلك على سبيل المثال لا الحصر: عاهرة، ابن السافلة، ابن القحبة."

2. قيم فيسبوك

تم توضيح قيم فيسبوك في مقدمة معايير المجتمع. وقد جرى وصف قيمة "حرية الرأي" بأنها "ذات أهمية قصوى":

يتمثل هدف معايير مجتمعنا دائمًا في توفير مكان لحرية الرأي يستطيع الأشخاص من خلاله إبداء وجهات نظرهم. [...] ونحن نريد أن يتمتع الأشخاص بالقدرة على التحدث بحرية عن القضايا التي تهمهم، حتى في حالة عدم اتفاق البعض أو اعتراضهم.

تُقيد فيسبوك "حرية الرأي" لخدمة أربع قيم، ترتبط اثنتان منها بهذه الحالة:

"السلامة": نحن ملتزمون بجعل فيسبوك مكانًا آمنًا. ولا شك أن أشكال التعبير التي تحمل تهديدًا للأشخاص قد تتسبب في إخافة الآخرين أو إقصائهم أو إسكاتهم ونحن لا نسمح بذلك على فيسبوك.

"الكرامة" : نحن نؤمن بأن الأشخاص متساوون في الكرامة والحقوق. ونتوقع من الجميع احترام كرامة الآخرين وعدم الإساءة إليهم أو الحط من قدر الآخرين.

3. معايير حقوق الإنسان

تُرسي مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان (UNGP)، التي أقرها مجلس حقوق الإنسان التابع للأمم المتحدة عام 2011، إطار عمل تطوعي لمسؤوليات الأنشطة التجارية الخاصة فيما يتعلق بحقوق الإنسان. في عام 2021، أعلنت فيسبوك عن سياسة حقوق الإنسان الخاصة بالشركة، والتي أبدت من خلالها الالتزام باحترام حقوق الإنسان على نحو يتفق مع مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان. استند تحليل المجلس في هذه الحالة إلى معايير حقوق الإنسان التالية:

  1. حرية التعبير: المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية (ICCPRالتعليق العام رقم 34، لجنة حقوق الإنسان، 2011
  2. مسؤوليات الأنشطة التجارية: تقرير الأعمال التجارية وحقوق الإنسان والمناطق المتأثرة بالنزاعات: نحو مضاعفة العمل (A/75/212)، فريق الأمم المتحدة العامل المعني بمسألة حقوق الإنسان والشركات عبر الوطنية وغيرها من مؤسسات الأعمال

5. بيان المستخدم

أكد المستخدم في الطعن الذي تقدم به إلى المجلس أنه نشر هذا المحتوى من أجل "stop the brutal military regime" (وقف النظام العسكري الوحشي) وتقديم المشورة للقادة الديمقراطيين في ميانمار. وكرر المستخدم أيضًا الحاجة إلى الحد من تمويل النظام العسكري في ميانمار. عرّف المستخدم نفسه بأنه "ناشط" وتكهن أن مخبري النظام العسكري في ميانمار قد أبلغوا عن منشوره. أشار المستخدم كذلك أنه يتعين مراجعة منشوره من قبل "someone who understands Myanmar Language" (شخص على دراية تامة بلغة ميانمار).

6. شرح قرار فيسبوك

أزالت فيسبوك المحتوى باعتباره هجومًا من "الطبقة الثانية" بموجب معيار المجتمع المعني بمكافحة الخطاب الذي يحض على الكراهية، وتحديدًا لانتهاك سياستها التي تحظر ألفاظ السباب البذيئة التي تستهدف الأشخاص استنادًا إلى العرق و/أو السلالة و/أو الأصل القومي. وفقًا لفيسبوك، تم اعتبار المحتوى الذي يُزعم أنه مخالف بمثابة هجوم على الصينيين.

تضمن المحتوى عبارة باللغة البورمية "$တရုတ်" والتي ترجمها فريق فيسبوك الإقليمي إلى "الصينيون أولاد العاهرة" (أو "sout ta-yote"). أشار فريق فيسبوك الإقليمي أيضًا إلى أن "$" يمكن استخدامها كاختصار لكلمة "စောက်" أو "sout"، التي تتم ترجمتها إلى "عاهرة." وفقًا لفريق فيسبوك، فإن كلمة "ta-yote" "يُنظر إليها ثقافيًا ولغويًا باعتبارها تمثل تداخلاً في الهوية/المعاني بين الصين كبلد والصينيين كشعب." وقد وفرت فيسبوك للمجلس الإرشادات الداخلية السرية ذات الصلة التي توفرها الشركة لمشرفيها، أو ما يعرف باسم معايير الإنفاذ الداخلية، عن كيفية التمييز بين اللغة التي تستهدف الأشخاص استنادًا إلى سمات تتمتع بحقوق حماية والمفاهيم المرتبطة بسمات تتمتع بحقوق حماية.

أشارت فيسبوك أيضًا في حيثيات قرارها إلى أنه في أعقاب انقلاب فبراير 2021 "وردت تقارير عن زيادة المشاعر المناهضة للصينيين" في ميانمار وقد "أصيب الكثير من الصينيين أو حوصروا أو قتلوا في هجوم مزعوم تم خلاله إحراق مصنع ملابس بتمويل صيني في يانجون، ميانمار." وفي ردها على سؤال من المجلس، أشارت فيسبوك إلى أنها لم تتواصل بأي شكل من الأشكال مع النظام العسكري في ميانمار بشأن هذا المنشور.

ذكرت فيسبوك أنه نظرًا لطبيعة كلمة "ta-yote" وعدم "قيام المستخدم بتوضيح أن هذا المصطلح يشير إلى الصين كبلد/حكومة،" فقد رأت فيسبوك أن "المستخدم يشير، على أقل تقدير، إلى الصينيين." ومن هذا المنطلق، قالت فيسبوك إن إزالة المنشور تتفق مع معيار مجتمعها المعني بمكافحة الخطاب الذي يحض على الكراهية.

أشارت فيسبوك أيضًا إلى أن الإزالة تتسق مع قيم "الكرامة" و"السلامة" التي تقرها الشركة، عند موازنتها مع قيمة "حرية الرأي". ووفقًا لفيسبوك، فإن السباب البذيء الموجه إلى الصينيين "قد يسفر عن إلحاق الضرر بهؤلاء الأشخاص" وينم عن "الحط من كرامتهم الشخصية وتجريدهم من إنسانيتهم والاستخفاف بهم."

ذكرت فيسبوك أن قرارها يتفق مع المعايير الدولية لحقوق الإنسان. وأشارت فيسبوك إلى أن قراراها يمتثل لمتطلبات القانون الدولي لحقوق الإنسان المتمثلة في الشرعية والهدف المشروع والضرورة والتناسب. وفقًا لفيسبوك، كانت سياساتها "متاحة بسهولة" في معايير المجتمع وكان "اختيار المستخدم لكلماته يندرج تمامًا تحت حظر الألفاظ النابية". وعلاوة على ذلك، فقد كان قرار إزالة المحتوى مشروعًا لحماية "حقوق الآخرين ضد الضرر والتمييز." أخيرًا، فقد كان قرارها بإزالة المحتوى "ضروريًا ومتناسبًا" لأن "تراكم المحتوى الذي ينطوي على ألفاظ بذيئة موجهة إلى الصينيين يخلق بيئة تزداد فيها احتمالات التسامح مع أعمال العنف وانتشار التمييز في المجتمع" مستشهدة بقرار المجلس رقم ‎2021-002-FB-UA المتعلق بحالة زوارت بييت. أشارت فيسبوك إلى وجود تشابه "لأن الحالتين تضمنتا خطابًا يحض على الكراهية ويستهدف الأشخاص استنادًا إلى العرق أو السلالة."

7. المعلومات المقدمة من جهات خارجية

تلقى مجلس الإشراف 10 تعليقات عامة ذات صلة بهذه الحالة. وردت خمسة من التعليقات من آسيا والمحيط الهادئ والأوقيانوس، وتحديدًا ميانمار، وخمسة من الولايات المتحدة وكندا. تلقى المجلس تعليقات من المساهمين بما في ذلك من المدافعين عن حقوق الإنسان ومنظمات المجتمع المدني وكانت تلك التعليقات تركز على حرية التعبير والخطاب الذي يحض على الكراهية في ميانمار.

تناولت التعليقات المقدمة موضوعات تتضمن ترجمة وتحليل كلمة "sout ta-yote"، وما إذا كان المحتوى يهاجم الصين أم الصينيين؛ وما إذا كان المنشور خطابًا سياسيًا ينبغي أن يتمتع بالحماية في سياق الصراع الدائر في ميانمار؛ وما إذا كانت هناك زيادة في المشاعر المناهضة للصين في ميانمار في أعقاب انقلاب فبراير 2021؛ والعلاقة بين الصين والنظام العسكري في ميانمار؛ وسياسات الإشراف على المحتوى في فيسبوك، لا سيّما استخدام وتدريب ومراجعة أدوات الأتمتة التي توفرها فيسبوك للمحتوى المنشور باللغة البورمية.

لقراءة التعليقات العامة المقدمة في هذه الحالة، يرجى النقر هنا.

8. تحليل مجلس الإشراف

تسلط هذه الحالة الضوء على أهمية السياق عند إنفاذ سياسات المحتوى التي تهدف إلى حماية المستخدمين من الخطاب الذي يحض على الكراهية، وتحترم في الوقت ذاته الخطاب السياسي. ويستحوذ ذلك على أهمية خاصة في ميانمار بسبب انقلاب فبراير 2021 وأهمية فيسبوك كوسيلة اتصال. نظر المجلس في مسألة ما إذا كان ينبغي استعادة هذا المحتوى من خلال ثلاث رؤى: معايير مجتمع فيسبوك؛ وقيم الشركة؛ ومسؤوليات الشركة تجاه حقوق الإنسان.

8.1 الامتثال لمعايير المجتمع

وجد المجلس أن استعادة هذا المحتوى تتسق مع معيار مجتمع فيسبوك المعني بمكافحة الخطاب الذي يحض على الكراهية. تحظر سياسة فيسبوك "الألفاظ البذيئة التي تنم عن نية الإهانة" وتستهدف الشخص أو الأشخاص استنادًا إلى العرق أو السلالة أو الأصلي القومي. خلُص المجلس إلى أن المنشور لم يكن يستهدف الأشخاص، وإنما كان موجهًا إلى سياسة الحكومة الصينية في هونج كونج، وذلك في سياق مناقشة دور الحكومة الصينية في ميانمار.

بالإضافة إلى التعليقات العامة، سعى المجلس أيضًا إلى الحصول على ترجمتين للنص. ويتضمن ذلك ترجمات من متحدث باللغة البورمية متواجد في ميانمار ومتحدث آخر بنفس اللغة متواجد خارج ميانمار. أشارت التعليقات العامة وملاحظات مترجمي المجلس أن نفس الكلمة في اللغة البورمية تُستخدم للإشارة إلى البلدان والأشخاص الذين ينتمون إلى تلك البلدان. وبالتالي، يعتبر السياق ضروريًا لفهم المعنى المقصود. ويستحوذ ذلك على أهمية خاصة عند تطبيق سياسة فيسبوك بشأن الخطاب الذي يحض على الكراهية. حين تمت إزالة المحتوى، كان معيار المجتمع المعني بمكافحة الخطاب الذي يحض على الكراهية ينص على حظر الهجوم الذي يستهدف الأشخاص استنادًا إلى الأصل القومي ولا يحظر الهجوم الذي يستهدف البلدان.

راعى المجلس عدة عوامل عندما قرر أن هذا المنشور لم يستهدف الصينيين استنادًا إلى السلالة أو العرق أو الأصل القومي. أولاً، يقترح المنشور الأوسع طرقًا للحد من المشاركة المالية مع النظام العسكري ويدعو لتقديم الدعم المالي إلى لجنة تمثيل برلمان الاتحاد. ثانيًا، كان الجزء الذي يُزعم أنه مخالف من المنشور يشير إلى السياسات المالية الصينية في هونج كونج باعتبارها شكلاً من أشكال "التعذيب" أو "الاضطهاد"، ولم يكن يشير إلى تصرفات الأفراد أو الصينيين في ميانمار. ثالثًا، في حين أن عدم تقديم بلاغات بشأن منشور تمت مشاركته على نطاق واسع لا تشير دائمًا إلى أنه غير مخالف، فقد شاهد أكثر من 500 ألف شخص المنشور وشاركه أكثر من 6000 ولم يبلغ عنه أي مستخدم. رابعًا، أشار المترجمان اللذان استشارهما المجلس إلى أنه على الرغم من استخدام نفس المصطلح للإشارة إلى البلد والشعب، فقد استخدم هنا للإشارة إلى البلد. وعند سؤالهم عن أي غموض محتمل في هذه الإشارة، لم يشر المترجمون إلى وجود أي شك. خامسًا، أشار المترجمان إلى أن المنشور قد تضمن مصطلحات يشيع استخدامها بواسطة حكومة ميانمار والسفارة الصينية عند مخاطبة بعضهما البعض. أخيرًا، أشارت التعليقات العامة بوجه عام إلى المضمون الإجمالي للمنشور باعتباره مناقشة سياسية إلى حد كبير.

من هذا المنطلق، ونظرًا لأن الألفاظ البذيئة لم تستهدف الأشخاص استنادًا إلى العرق أو السلالة أو الأصل القومي، وكانت موجهة إلى الدولة، فقد خلُص المجلس إلى أنها لم تنتهك معيار مجتمع فيسبوك المعني بمكافحة الخطاب الذي يحض على الكراهية. ومن الأهمية بمكان ألا يتم تفسير حظر استهداف الأشخاص استنادًا إلى سمات تتمتع بحقوق حماية بطريقة تحمي الحكومات أو المؤسسات من الانتقاد. ويقر المجلس بأن الخطاب الذي يحض على الكراهية المناهض للصينيين يشكل مصدر قلق بالغ، لكن هذا المنشور يشير إلى الصين كدولة.

لا يتفق المجلس مع ما أوردته فيسبوك من أن قرارها بإزالة المحتوى يتبع مبادئ المجلس في القرار الصادر بشأن الحالة ‎2021-002-FB-UA (حيث أيد المجلس إزالة تصوير الأشخاص بوجه أسود). في هذه الحالة، كانت لدى فيسبوك قاعدة ضد تصوير الأشخاص بوجه أسود، وقد سمح المجلس لفيسبوك بتطبيق هذه القاعدة على المحتوى الذي يتضمن صورًا بوجه أسود لشخصية زوارت بييت. هنا، على العكس من ذلك، يشير سياق المنشور إلى أن اللغة المستخدمة لم تنتهك قواعد فيسبوك على الإطلاق.

أثناء مداولات المجلس بشأن هذه الحالة، قامت فيسبوك بتحديث معيار مجتمعها المعني بمكافحة الخطاب الذي يحض على الكراهية لتوفير مزيد من المعلومات عن طريقتها في حظر "المفاهيم" ذات الصلة بالسمات التي تتمتع بحقوق حماية في ظروف معينة. تنص هذه القاعدة على أن فيسبوك "يطلب معلومات و/أو سياق إضافي" من أجل الإنفاذ وأن على المستخدمين الامتناع عن نشر "محتوى يهاجم المفاهيم أو المؤسسات أو الأفكار أو الممارسات أو المعتقدات المرتبطة بسمات تتمتع بحقوق حماية، والتي يحتمل أن تسهم في حدوث ضرر بدني وشيك، أو تخويف أو تمييز ضد الأشخاص المرتبطين بالسمة التي تتمتع بحقوق حماية."

ولأنها لم تكن جزءًا من معيار المجتمع عندما أزالت فيسبوك هذا المحتوى، لم تقل فيسبوك للمجلس إنها أزالت المحتوى بموجب هذا المعيار المحدث، ولم يقم المجلس بتحليل مدى تطبيق هذه السياسة على الحالة التي بين أيدينا. مع هذا، يلاحظ المجلس أن "المفاهيم أو المؤسسات أو الأفكار أو الممارسات أو المعتقدات" قد تغطي مجموعة واسعة جدًا من أوجه التعبير، بما في ذلك الخطاب السياسي.

8.2 الامتثال لقيم فيسبوك

خلُص المجلس إلى أن استعادة المحتوى تتفق مع قيم فيسبوك. على الرغم من أهمية قيم "الكرامة" و"السلامة" لدى فيسبوك، لا سيّما في سياق انقلاب فبراير 2021 في ميانمار، فإن هذا المحتوى لم يشكّل خطرًا على تلك القيم على نحو يبرر تفضيلها على قيمة "حرية الرأي". وجد المجلس أيضًا أن المنشور يحتوي على خطاب سياسي مهم لقيمة "حرية الرأي".

8.3 الامتثال لمسؤوليات فيسبوك تجاه حقوق الإنسان

خلُص المجلس إلى أن استعادة المحتوى تتفق مع مسؤوليات فيسبوك كشركة تجاه حقوق الإنسان. ألزمت فيسبوك نفسها باحترام حقوق الإنسان بموجب مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان (UNGP). وتنص سياسة حقوق الإنسان الخاصة بشركة فيسبوك على أن ذلك يتضمن العهد الدولي الخاص بالحقوق المدنية والسياسية (ICCPR).

تنص المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية على ضرورة توفير حماية واسعة النطاق لحرية التعبير. تكون الحماية "مشددة بشكل خاص" لأوجه التعبير والنقاش السياسي، بما في ذلك، النقاش الدائر حول المؤسسات العامة (التعليق العام رقم 34، الفقرة 38). تقتضي المادة 19 أن يستوفي فرض الدولة لقيود على حرية التعبير متطلبات اختبار ثلاثي يتألف من الشرعية والهدف المشروع والضرورة والتناسب. خلُص المجلس إلى أن إجراءات فيسبوك لم تفي بمسؤولياتها كشركة بموجب هذا الاختبار.

1. الشرعية (وضوح القواعد وسهولة الوصول إليها)

يقتضي مبدأ الشرعية بموجب القانون الدولي لحقوق الإنسان أن تكون القواعد التي تستخدمها البلدان للحد من حرية التعبير واضحة ومتاحة لعامة الجمهور (التعليق العام رقم 34، الفقرة 25). يجب أن توفر القواعد التي تقيد حرية التعبير "إرشادات كافية للأشخاص المسؤولين عن إنفاذها حتى تتيح لهم التأكد من ضروب التعبير المقيدة وغير المقيدة بشكل صحيح" (التعليق العام رقم 34، الفقرة 25).

يحظر معيار المجتمع المعني بمكافحة الخطاب الذي يحض على الكراهية استخدام ألفاظ بذيئة تستهدف الأشخاص استنادًا إلى العرق أو السلالة أو الأصل القومي. أخبرت فيسبوك المجلس أنه نظرًا للصعوبات التي ينطوي عليها "تحديد النوايا على نطاق واسع، فإن فيسبوك تنظر إلى عبارة "الصينيون أولاد العاهرة" باعتبار أنها تشير إلى كل من الصينيين كشعب والصين كبلد أو حكومة، ما لم يوفر المستخدم سياقًا إضافيًا يوضح أنه يشير فقط إلى البلد أو الحكومة." لم يرد ذكر سياسة اتباع الإزالة كإجراء افتراضي في معيار المجتمع.

خلُص المجلس إلى أن المستخدم قد قدم سياقًا إضافيًا يفيد بأن المنشور يشير إلى دولة أو بلد، كما تبين في تحليل المجلس لمعيار المجتمع المعني بمكافحة الخطاب الذي يحض على الكراهية (القسم 8.1 أعلاه). توصل عدد من مراجعي فيسبوك إلى استنتاج مختلف عما توصل إليه مترجما المجلس، ومرسلو التعليقات العامة والكثير من المستخدمين الذين يزيد عددهم عن 500 ألف ممن شاهدوا المنشور ولم يبلغوا عنه. وبالنظر إلى هذا الاختلاف، يتساءل المجلس عن كفاية الإرشادات والموارد والتدريبات الداخلية المتوفرة لمشرفي المحتوى.

بالنظر إلى توصل المجلس إلى أن المستخدم لم ينتهك سياسة فيسبوك بشأن الخطاب الذي يحض على الكراهية، لم يقرر المجلس ما إذا كانت السياسة غير المعلنة التي تقضي بأن إزالة المحتوى هي الإجراء الافتراضي تشكل مخالفة لمبدأ الشرعية. ومع هذا، يشعر المجلس بالقلق تجاه عدم وضوح السياسة التي تقضي بإزالة المحتوى افتراضيًا عند إمكانية تفسير الألفاظ البذيئة باعتبارها موجهة إلى الأشخاص أو إلى الدولة في معايير المجتمع. بوجه عام، ينبغي على فيسبوك إتاحة التوجيهات الداخلية غير العلنية التي يمكن أن تغير تفسير معايير مجتمعها المعلنة.

2. الهدف المشروع

ينبغي أن تستند أي قيود تفرضها الدولة على حرية التعبير إلى أحد الأهداف المشروعة الواردة في العهد الدولي الخاص بالحقوق المدنية والسياسية. ويتضمن ذلك "حقوق الآخرين". وفقًا لفيسبوك، فإن سياستها المعنية بمكافحة الخطاب الذي يحض على الكراهية تهدف إلى حماية المستخدمين من التمييز. ويوافق المجلس على أن ذلك يعتبر أحد الأهداف المشروعة.

3. الضرورة والتناسب

تقتضي مبادئ الضرورة والتناسب المنصوص عليها في القانون الدولي لحقوق الإنسان أن تكون أي تقييدات يتم فرضها على حرية التعبير "مناسبة لتحقيق وظيفتها الحمائية، ويجب أن تكون أقل الوسائل تدخلاً مقارنة بغيرها من الوسائل التي يمكن أن تحقق النتيجة المنشودة؛ ويجب أن تكون متناسبة مع المصلحة التي ستحميها" (التعليق العام رقم 34، الفقرة 34). في هذه الحالة، استنادًا إلى تفسيره للمحتوى، رأى المجلس أن تقييد هذا المنشور لن يحقق وظيفة حمائية.

تنص مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان أن على الأنشطة التجارية ممارسة العناية الواجبة بحقوق الإنسان بشكل مستمر لتقييم آثار أنشطتها (المبدأ رقم 17 من مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان) والإقرار بأن مخاطر الإضرار بحقوق الإنسان تزداد في السياقات المتأثرة بالنزاعات (المبدأ رقم 17 من مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان). أشار فريق الأمم المتحدة العامل المعني بمسألة حقوق الإنسان والشركات عبر الوطنية والأنشطة التجارية الأخرى إلى ضرورة أن تعكس مسؤوليات العناية التي تقع على عاتق الأنشطة التجارية ما تنطوي عليه بعض السيناريوهات من تعقيد واحتمال أكبر لوقوع ضرر (A/75/212، الفقرات 41 إلى 49). على نحو مشابه، في القرار الصادر بشأن الحالة ‎2021-001-FB-FBR، أوصى المجلس فيسبوك "بضرورة تخصيص ما يكفي من الموارد والخبرة لتقييم مخاطر حدوث ضرر من حسابات الشخصيات المؤثرة على مستوى العالم" مع الإقرار بضرورة اعتناء فيسبوك بالمناطق التي تزداد فيها المخاطر.

في هذه الحالة، وجد المجلس أن هذه المسؤوليات المؤكدة لا ينبغي أن تؤدي إلى الإزالة افتراضيًا، حيث تتساوى المخاطر الناجمة عن ترك المحتوى الضار مع المخاطر الناجمة عن إزالة المحتوى الذي يشكل خطرًا ضئيلاً أو معدومًا. على الرغم من أن مخاوف فيسبوك بشأن الخطاب الذي يحض على الكراهية في ميانمار لها ما يبررها، ينبغي أيضًا أن تولي عناية خاصة حتى لا تزيل محتوى يتعلق بحرية التعبير والنقد السياسي، وأن تدعم الحكم الديمقراطي في هذه الحالة.

لاحظ المجلس أن سياسة فيسبوك التي تفترض أن الألفاظ البذيئة التي تذكر الأصل القومي (في هذه الحالة "$တရုတ်") تشير إلى الدول والأشخاص قد تؤدي إلى إنفاذ السياسات بشكل غير متناسب في بعض السياقات اللغوية، مثلما حدث في هذه الحالة، حيث يتم استخدام الكلمة ذاتها للإشارة إلى الدول والأشخاص. لاحظ المجلس أيضًا أن تأثير الإزالة قد امتد لما يتجاوز هذه الحالة، لأن فيسبوك أشارت إلى استخدام الحالة لتدريب أداة التصنيف باعتبارها مثالاً على المحتوى الذي ينتهك معيار المجتمع المعني بمكافحة الخطاب الذي يحض على الكراهية.

بالنظر إلى كل ما سبق، فإن المعايير الدولية لحقوق الإنسان تدعم استعادة المحتوى إلى فيسبوك.

9. قرار مجلس الإشراف

ألغى مجلس الإشراف قرار فيسبوك بإزالة المحتوى وطلب استعادته. وتلتزم فيسبوك بموجب اتفاقية المجلس بتنفيذ هذا القرار على السياقات المشابهة، وينبغي أن تميز هذا المحتوى باعتباره غير مخالف حال استخدامه في تدريب أداة التصنيف.

10. توصية بشأن السياسة

ينبغي على فيسبوك أن تضمن توفر جميع معايير الإنفاذ الداخلية باللغة التي يستخدمها مشرفو المحتوى أثناء المراجعة. وإذا استدعى الأمر ترتيب الأولويات، على فيسبوك أن تركز أولاً على السياقات التي تكون فيها المخاطر على حقوق الإنسان أشد.

*ملاحظة إجرائية:

يتم إعداد قرارات مجلس الإشراف من قِبل لجان مكونة من خمسة أعضاء ويتم اعتمادها من أغلبية أعضاء المجلس. ولا يلزم بالضرورة أن تُعبّر قرارات المجلس عن وجهات النظر الشخصية لجميع الأعضاء.

بالنسبة إلى القرار المتخذ بشأن هذه الحالة، تم إجراء بحث مستقل نيابة عن المجلس. وقد توافرت الخبرة اللازمة في السياق الاجتماعي والسياسي والثقافي عن طريق معهد أبحاث مستقل يقع مقره في جامعة جوتنبرج ويعتمد على فريق مكون من أكثر من 50 عالم اجتماع من ست قارات، فضلاً عن أكثر من 3200 خبير محلي من جميع أنحاء العالم. وقد تم تقديم الخبرة اللغوية من شركة Lionbridge Technologies LLC، التي يتقن المتخصصون بها أكثر من 350 لغة ويعملون من 5000 مدينة حول العالم.

العودة إلى قرارات الحالة والآراء الاستشارية المتعلقة بالسياسة