أسقط

منشور في ميانمار ضد المسلمين

ألغى مجلس الإشراف قرار فيسبوك بإزالة منشور بموجب معيار المجتمع المعني بمكافحة الخطاب الذي يحض على الكراهية.

نوع القرار

معيار

السياسات والمواضيع

عنوان
دين، سياسة، عنف
معيار المجتمع
خطاب يحض على الكراهية

المناطق/البلدان

موقع
الصين، فرنسا، ميانمار

منصة

منصة
Facebook

لقراءة هذا القرار باللغة البورمية، انقر هنا.

ဆုံးဖြတ်ချက် အပြည့်အစုံကို ဗမာဘာသာဖြ ဖြင့် ဖတ်ရှူရန်၊ ဤနေရာကို နှိပ်ပါ-

ملخص الحالة

ألغى مجلس الإشراف قرار فيسبوك بإزالة منشور بموجب معيار المجتمع المعني بمكافحة الخطاب الذي يحض على الكراهية. وجد المجلس أنه على الرغم من أن المنشور قد يعتبر مُسيئًا، فإنه لم يصل إلى مستوى الخطاب الذي يحض على الكراهية.

حول هذه الحالة

بتاريخ 29 أكتوبر 2020، نشر مستخدم في ميانمار منشورًا باللغة البورمية في مجموعة على فيسبوك. تضمن المنشور صورتين تمت مشاركتهما على نطاق واسع لطفل سوري من أصل كردي غرق أثناء محاولة الوصول إلى أوروبا في سبتمبر 2015.

أشار النص المصاحب إلى وجود خلل ما في نفوس المسلمين (أو الرجال المسلمين) أو عقليتهم. وتساءل عن عدم إبداء المسلمين عامةً رد فعل تجاه المعاملة التي يتعرض لها مسلمو الإيغور في الصين، مقارنة بتنفيذ عمليات قتل للرد على الرسوم الكاريكاتورية للنبي محمد في فرنسا. وقد انتهى المنشور إلى أن الأحداث التي وقعت مؤخرًا في فرنسا تقلل من تعاطف المستخدم مع الطفل الذي ظهر في الصور، ويبدو أنها توحي ضمنيًا أن الطفل ربما كان سيصبح متطرفًا عندما يكبر.

أزالت فيسبوك هذا المحتوى بموجب معيار المجتمع المعني بمكافحة الخطاب الذي يحض على الكراهية.

أهم النتائج

أزالت فيسبوك هذا المحتوى لاحتوائه على العبارة "[هناك] خلل ما في نفوس المسلمين." ولأن معيار المجتمع المعني بمكافحة الخطاب الذي يحض على الكراهية يحظر استخدام عبارات تعميمية تنعت بالدونية أوجه القصور العقلي لدى مجموعة ما على أساس ديانتها، فقد أزالت الشركة المنشور.

اعتبر المجلس أنه في حين قد يبدو الجزء الأول من المنشور، في حد ذاته، وكأنه يوجه تعميمًا مُهينًا للمسلمين (أو الرجال المسلمين)، فإنه يجب قراءة المنشور ككل، مع مراعاة السياق.

وعلى الرغم من أن فيسبوك قد ترجمت النص على هذا النحو: "[هناك] حقًا خلل ما في نفوس المسلمين"، فقد اقترح مترجمو المجلس هذه الترجمة: "[هؤلاء] الرجال المسلمون لديهم خلل ما في عقليتهم." وأشاروا أيضًا إلى أن المصطلحات المستخدمة لم تكن مُهينة أو تنم عن العنف.

أشار خبراء السياق لدى المجلس أنه، على الرغم من أن استخدام خطاب يحض على الكراهية ضد الأقليات المسلمة هو أمر شائع تزداد حدته في بعض الأحيان في ميانمار، فإن العبارات التي تشير إلى أن المسلمين مريضون عقليًا أو غير مستقرين نفسيًا لا تشكّل جزءًا قويًا من هذا الخطاب.

بوضع الأمر في سياقه، يرى المجلس أن النص يُفهم بشكل أفضل كتعليق على تناقض واضح بين ردود أفعال المسلمين تجاه الأحداث في فرنسا والصين. وهذا التعبير عن الرأي يتمتع بالحماية بموجب معايير مجتمع فيسبوك ولا يرقى إلى مستوى الخطاب الذي يحض على الكراهية.

بالنظر إلى المعايير الدولية لحقوق الإنسان التي تتناول الحد من حرية التعبير، فقد وجد المجلس أنه على الرغم من أن المنشور قد يُعتبر من قبيل التحقير أو الإساءة إلى المسلمين، فإنه لا يدعو إلى الكراهية أو يحرض عن عمد على أي شكل من أشكال الأذى الوشيك. ومن هذا المنطلق، لا يعتبر المجلس أن من الضروري إزالته لحماية حقوق الآخرين.

أكد المجلس أيضًا أن حساسية فيسبوك للخطاب الذي يحض على الكراهية تجاه المسلمين كانت مفهومة، لا سيّما بالنظر إلى تاريخ العنف والتمييز ضد المسلمين في ميانمار والخطر المتزايد قبل الانتخابات العامة في البلاد خلال شهر نوفمبر 2020. ومع ذلك، وبالنسبة إلى هذا المنشور تحديدًا، فقد خلُص المجلس إلى أن إزالة فيسبوك لهذا المحتوى لم تكن على صواب.

قرار مجلس الإشراف

ألغى مجلس الإشراف قرار فيسبوك بإزالة المحتوى وطلب استعادة المنشور.

*توفر ملخصات الحالة نظرة عامة على الحالة ولا تُشكّل سابقة قانونية.

القرار الكامل للمجلس بشأن الحالة

1. ملخص القرار

ألغى مجلس الإشراف قرار فيسبوك بإزالة المحتوى الذي اعتبرته الشركة خطابًا يحض على الكراهية. وقد خلُص المجلس إلى أن فيسبوك صنفت المنشور باعتباره خطابًا يحض على الكراهية رغم أنه لم يصل إلى هذا المستوى.

2. وصف الحالة

في 29 أكتوبر 2020، نشر أحد مستخدمي فيسبوك في ميانمار منشورًا باللغة البورمية في مجموعة تصف نفسها كمنتدى للنقاش الفكري. تضمن المنشور صورتين تمت مشاركتهما على نطاق واسع لطفل سوري من أصل كردي غرق في البحر المتوسط في سبتمبر 2015. يبدأ النص المصاحب بالإشارة إلى وجود خلل ما في نفوس المسلمين (أو الرجال المسلمين) أو عقليتهم. وتساءل عن عدم إبداء المسلمين عامةً رد فعل تجاه المعاملة التي يتعرض لها مسلمو الإيغور في الصين، مقارنة بتنفيذ عمليات قتل للرد على الرسوم الكاريكاتورية للنبي محمد في فرنسا. وقد انتهى المنشور إلى أن الأحداث التي وقعت مؤخرًا في فرنسا تقلل من تعاطف المستخدم مع الطفل الذي ظهر في الصور، ويبدو أنها توحي ضمنيًا أن الطفل ربما كان سيصبح متطرفًا عندما يكبر.

ترجمت فيسبوك العبارة إلى "[هناك] خلل ما في نفوس المسلمين" لتُشكّل خطابًا يحض على الكراهية من "الطبقة الثانية" بموجب معايير المجتمع التي تقرها الشركة. ولأن هذا المعيار يحظر استخدام عبارات تعميمية تنعت بالدونية أوجه القصور العقلي لدى شخص أو مجموعة أشخاص على أساس ديانتها، فقد أزالت فيسبوك المحتوى.

قبل الإزالة، يوم 3 نوفمبر 2020، كانت الصورتان المتضمنتان في المنشور تحملان شاشة تحذيرية بموجب معيار المجتمع المعني بمكافحة المحتوى العنيف أو الصادم. ووفقًا لفيسبوك، لم يرد في المنشور أي شيء آخر ينتهك سياساتها. وقد قدم المستخدم طعنًا إلى مجلس الإشراف يفيد بأنه لم يستخدم خطابًا يحض على الكراهية.

3. السُلطة والنطاق

يتمتع مجلس الإشراف بسُلطة مراجعة قرار فيسبوك بموجب المادة 2.1 من اتفاقية المجلس ويجوز له تأييد هذا القرار أو إلغائه بموجب المادة 3.5. يدخل هذا المنشور ضمن نطاق مراجعة مجلس الإشراف: ولا يندرج تحت أي فئة من فئات المحتوى المستبعد الواردة في المادة 2، القسم 1.2.1 من اللائحة الداخلية للمجلس ولا يتعارض مع التزامات فيسبوك القانونية بموجب المادة 2، القسم 1.2.2 من اللائحة الداخلية.

4. المعايير ذات الصلة

أخذ مجلس الإشراف المعايير التالية في الاعتبار عند إصدار قراره:

1. معايير مجتمع فيسبوك

ينُص معيار المجتمع المعني بمكافحة الخطاب الذي يحض على الكراهيةعلى أن فيسبوك "لا تسمح باستخدام خطاب يحض على الكراهية في فيسبوك لأنه يخلق بيئة من التخويف والإقصاء ويقود في بعض الحالات إلى العنف على أرض الواقع." تُعرّف فيسبوك الخطاب الذي يحض على الكراهية بأنه هجوم على أساس سمات تتمتع بحقوق حماية. قد تكون الهجمات عبارة عن "خطاب يحض على العنف أو الازدراء أو القوالب النمطية الضارة، أو ينطوي على عبارات دونية أو دعوات للإقصاء أو التمييز" وتنقسم إلى ثلاث طبقات من المحتوى المحظور. ضمن الطبقة الثانية، يتضمن المحتوى المحظور:

التعميمات التي تُعبّر عن الدونية (في شكل مكتوب أو مرئي) بالطرق التالية [...] يتم تعريف حالات القصور العقلي بأنها تلك التي تتعلق بما يلي: القدرة الفكرية [...] التعليم [...] الصحة العقلية.

السمات التي تتمتع بحقوق حماية هي "العرق والسلالة والأصل القومي والعجز والانتماء الديني والطبقة الاجتماعية والتوجه الجنسي والجنس والنوع والهوية الجنسية والأمراض الخطيرة" مع توفير بعض الحماية للعمر وحالة الهجرة.

2. قيم فيسبوك

تشير مقدمة معايير المجتمع إلى أن "حرية الرأي" أهم قيمة لدى فيسبوك، لكن المنصة قد تُقيد "حرية الرأي" لصالح عدة قيم أخرى بما في ذلك "السلامة". ينُص تعريف فيسبوك "للسلامة" على ما يلي: "نحن ملتزمون بجعل فيسبوك مكانًا آمنًا. ولا شك أن أشكال التعبير التي تحمل تهديدًا للأشخاص قد تتسبب في إخافة الآخرين أو استبعادهم أو إسكاتهم ونحن لا نسمح بذلك على فيسبوك."

3. معايير حقوق الإنسان ذات الصلة التي أخذها المجلس في الاعتبار

تُرسي مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان (UNGP)، التي أقرها مجلس حقوق الإنسان التابع للأمم المتحدة عام 2011، إطار عمل تطوعي لمسؤوليات الأنشطة التجارية الخاصة فيما يتعلق بحقوق الإنسان. واستنادًا إلى المبادئ التوجيهية للأمم المتحدة، فقد تم أخذ معايير حقوق الإنسان الدولية التالية في الحسبان عند دراسة هذه الحالة:

  • الحق في حرية التعبير: العهد الدولي الخاص بالحقوق المدنية والسياسية (ICCPR)؛ المادة 19؛ التعليق العام رقم 34، لجنة حقوق الإنسان (2011) (التعليق العام رقم 34)؛ خطة عمل الرباط؛ تقرير مقرر الأمم المتحدة الخاص المعني بتعزيز وحماية الحق في حرية التعبير بشأن الخطاب الذي يحض على الكراهية على الإنترنت (2019) (A/74/486).
  • الحق في عدم التعرض للتمييز: المادتان 2 و26 من العهد الدولي الخاص بالحقوق المدنية والسياسية.
  • الحق في الحياة والأمان: المادتان 6 و9 من العهد الدولي الخاص بالحقوق المدنية والسياسية.

5. بيان المستخدم

قدم المستخدم طعنًا على قرار فيسبوك بإزالة المحتوى في نوفمبر 2020. وأشار المستخدم إلى أن منشوره لم ينتهك معايير مجتمع فيسبوك وأنه لم يستخدم خطابًا يحض على الكراهية. أوضح المستخدم أن منشوره كان ساخرًا ويهدف إلى مقارنة ردود الأفعال الدينية المتطرفة على مستوى البلدان المختلفة. وقد أشار المستخدم أيضًا إلى عدم قدرة فيسبوك على التمييز بين السخرية والمناقشات الجدية باللغة البورمية وفي ضوء السياق في بورما.

6. شرح قرار فيسبوك

أزالت فيسبوك هذا المحتوى استنادًا إلى معيار المجتمع المعني بمكافحة الخطاب الذي يحض على الكراهية. رأت فيسبوك أن هذا المنشور هجومًا من الطبقة الثانية بموجب هذا المعيار، كتعميم ينعت المسلمين بالقصور العقلي. وفقًا لمعلومات قدمتها فيسبوك ولا تقع حاليًا ضمن المجال العام، فإن التعميمات هي "عبارات سلبية غير متحفظة وغير مبررة وتفتقد إلى الدقة الواقعية أو الحُجة وتنتهك حقوق الآخرين وسُمعتهم." أشارت فيسبوك إلى أن الجزء الوحيد الذي انتهك معايير المجتمع في هذا المنشور هو العبارة التي تنص على وجود خلل ما في نفوس المسلمين.

أفادت فيسبوك أيضًا بأن معيار المجتمع المعني بمكافحة الخطاب الذي يحض على الكراهية يتوافق مع المعايير الدولية لحقوق الإنسان. وفقًا لفيسبوك، على الرغم من أن الخطاب المحظور بموجب هذا المعيار قد لا يرقى إلى مستوى "تأييد العنف أو التحريض عليه"، فقد يتم تقييد هذا التعبير لما ينطوي عليه من "إمكانية إثارة أعمال تمييز أو عنف أو كراهية، لا سيّما في حالة انتشاره على نطاق واسع أو بوتيرة سريعة أو في سياقات تنطوي على مخاطر جسيمة تتعلق بحقوق الإنسان." وفي سياق هذه الحالة، استشهدت فيسبوك بالهجوم الأخير في نيس بفرنسا والذي خلف ثلاثة قتلى، والاحتجاز المستمر لمسلمي الإيغور في الصين، وأزمة اللاجئين السوريين، والعنف ضد المسلمين بشكل عام.

7. المعلومات المقدمة من جهات خارجية

تلقى المجلس 11 تعليقًا عامًا على صلة بهذه الحالة. على الرغم من عدم احتواء أحد التعليقات على أي محتوى، فقد قدمت 10 تعليقات معلومات جوهرية حول هذه الحالة. وتمثًل التقسيم الإقليمي للتعليقات على النحو التالي: تعليق من منطقة آسيا والمحيط الهادئ والأوقيانوس، وأربعة تعليقات من أوروبا وخمسة تعليقات من الولايات المتحدة وكندا. تناولت التعليقات المقدمة عدة موضوعات، على سبيل المثال، ما إذا كان المنشور الاستفزازي والمُسيء يُشكّل بالوضوح الكافي خطابًا يحض على الكراهية أم لا؛ وما إذا كان المحتوى عبارة عن هجوم على المسلمين؛ وما إذا كانت نية المستخدم تتمثل في تسليط الضوء على معاملة مسلمي الإيغور في الصين وأزمة اللاجئين السوريين؛ وما إذا كانت نية المستخدم الإدانة وليس الدعوة إلى موت الأفراد؛ وما إذا كان استخدام الانتقام في هذا المنشور قد يوحي بوجود دعوة مباشرة إلى العنف الجسدي ضد المواطنين الصينيين؛ إلى جانب ملاحظات لتحسين عملية التعليق العام التي يوفرها المجلس.

8. تحليل مجلس الإشراف

8.1 الامتثال لمعايير المجتمع

لا يُشكّل المنشور خطابًا يحض على الكراهية بالمعنى الوارد في معيار المجتمع المعني.

في هذه الحالة، أشارت فيسبوك إلى أن الخطاب الذي بين أيدينا يندرج تحت الطبقة الثانية بموجب معيار المجتمع المعني بمكافحة الخطاب الذي يحض على الكراهية. وكانت السمة التي تتمتع بحقوق حماية هي العقيدة الدينية، لأن المحتوى وصف المسلمين أو الرجال المسلمين. وفقًا لفيسبوك، كان الهجوم عبارة عن "تعميم يعبر عن الدونية" يتعلق "بالقصور العقلي." يحظر هذا القسم الهجمات التي تتناول "الصحة العقلية، بما في ذلك على سبيل المثال لا الحصر: مريض عقليًا، متخلف، مجنون، مختل" و"القدرة الفكرية، بما في ذلك على سبيل المثال لا الحصر: غبي، أحمق، أبله."

على الرغم من أن أول جملة من المنشور قد تبدو في حد ذاتها وكأنها توجه تعميمًا مُسيئًا ومُهينًا للمسلمين (أو الرجال المسلمين)، فإنه يجب قراءة المنشور ككل، مع مراعاة السياق.

أشارت منظمات حقوق الإنسان وخبراء آخرون إلى أن الخطاب الذي يحض على الكراهية ضد الأقليات المسلمة في ميانمار أمر شائع وشديد الخطورة أحيانًا، لا سيّما مع اقتراب الانتخابات العامة في 8 نوفمبر 2020 ورقة إحاطة من (منتدى آسيا حول الخطاب المنتشر الذي يحض على الكراهية ودور فيسبوك في ميانمار، الصفحات من 5 إلى 8، وتقرير بعثة الأمم المتحدة الدولية المستقلة لتقصي الحقائق بشأن ميانمار، A/HRC/42/50، الفقرات 1303 و1312 و1315 و1317). ومع ذلك، لم يكن هناك ما يشير إلى أن العبارات التي تصف المسلمين بأنهم مريضون عقليًا أو غير مستقرين نفسيًا هي جزء مهم من الخطاب المعادي للمسلمين في ميانمار. علاوة على ذلك، على الرغم من أن فيسبوك قد ترجمت الجملة إلى "[هناك] حقًا خلل ما في نفوس المسلمين"، فقد وجد مترجمو المجلس أن الجملة تنص على "[هؤلاء] الرجال المسلمون لديهم خلل ما في عقليتهم." اقترح المترجمون أيضًا أنه في حين قد توحي المصطلحات المستخدمة بعدم التسامح، فإنها لم تكن مُهينة أو عنيفة.

وبالتالي من الأفضل قراءة المنشور، في ضوء السياق، كتعليق يشير إلى التناقض الواضح بين ردود أفعال المسلمين تجاه الأحداث في فرنسا والصين. وهذا التعبير عن الرأي يتمتع بالحماية بموجب معايير المجتمع، ولا يرقى إلى مستوى الخطاب الذي يحض على الكراهية بالقدر الذي يُبرر إزالته.

8.2 الامتثال لقيم فيسبوك

لا يمتثل قرار فيسبوك بإزالة المحتوى لقيم الشركة. على الرغم من أهمية قيمة "السلامة" لدى فيسبوك، لا سيّما في ميانمار في ظل سياق التمييز والعنف ضد المسلمين، لم يُشكّل هذا المحتوى خطرًا على قيمة "السلامة" على نحو يُبرر تفضيلها على قيمة "حرية الرأي".

8.3 الامتثال لمعايير حقوق الإنسان

تمتثل استعادة المنشور إلى المعايير الدولية لحقوق الإنسان.

وفقًا للمادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية، يتمتع الأشخاص بالحق في التماس مختلف ضروب المعلومات وتلقيها بما في ذلك المعلومات المثيرة للجدل والمسيئة للغاية (التعليق العام رقم 34). أشار بعض أعضاء المجلس إلى تقرير مقرر الأمم المتحدة الخاص المعني بتعزيز وحماية الحق في حرية التعبير بشأن الخطاب الذي يحض على الكراهية على الإنترنت الصادر عام 2019 والذي يؤكد أن القانون الدولي لحقوق الإنسان "يحمي الحق في الإساءة والسخرية" (الفقرة 17). أعرب بعض أعضاء المجلس عن مخاوفهم من أن التعليق على وضع مسلمي الإيغور قد يتم قمعه أو التقليل من التقارير التي تتناوله في البلدان ذات العلاقات الوثيقة مع الصين.

في الوقت ذاته، يدرك المجلس أن الحق في حرية التعبير ليس مُطلقًا ويمكن أن يخضع لقيود بموجب القانون الدولي لحقوق الإنسان.

أولاً، قام المجلس بتقييم مدى خضوع المحتوى لقيود إلزامية بموجب القانون الدولي لحقوق الإنسان. ووجد المجلس أن المحتوى لم يكن ينطوي على دعوة للكراهية الدينية التي تشكل تحريضًا على التمييز أو العداوة أو العنف، وهو ما يتعين على الدول حظره بموجب المادة 20 من العهد الدولي الخاص بالحقوق المدنية والسياسية، الفقرة 2. نظر المجلس في العوامل الواردة في خطة عمل الرباط التي أقرتها الأمم المتحدة، بما في ذلك السياق، ومحتوى المنشور، واحتمال وقوع الضرر. وعلى الرغم من احتواء المنشور على نبرة تحقير، لم يعتبر المجلس أنه يدعو إلى الكراهية، أو يحرض عمدًا على أي شكل من أشكال الأذى الوشيك.

ناقش المجلس أيضًا إمكانية حظر هذا المحتوى بموجب المادة 19، الفقرة 3 من العهد الدولي الخاص بالحقوق المدنية والسياسية. يقتضي هذا الحُكم من أحكام القانون الدولي لحقوق الإنسان أن تكون القيود المفروضة على حرية التعبير محددة وسهلة الفهم (شرط الشرعية)، وأن يتمثل الهدف منها في تحقيق أحد الأهداف العديدة المذكورة (شرط الهدف المشروع)، وأن تكون ضرورية ومصممة بشكل دقيق لتلائم الهدف المحدد. (شرط الضرورة والتناسب).

يدرك المجلس أن فيسبوك كانت تسعى لتحقيق هدف مشروع من خلال التقييد ويتمثل في: حماية حقوق الآخرين في الحياة والأمان الشخصي وعدم التعرض لإصابة جسدية أو عقلية، والحماية من التمييز. ويقر المجلس بأن الخطاب الذي يحض على الكراهية عبر الإنترنت في ميانمار قد ارتبط بأضرار جسيمة على أرض الواقع، بما في ذلك اتهامات بارتكاب جرائم محتملة ضد الإنسانية والإبادة الجماعية. ومن هذا المنطلق، أقر المجلس بأهمية حماية حقوق الأشخاص الذين قد يخضعون للتمييز والعنف، والذين قد يتعرضون لمخاطر الأعمال الوحشية.

ومع هذا، فقد خلُص المجلس إلى أنه على الرغم من اعتبار البعض أن المنشور قد يكون مُسيئًا ومُهينًا للمسلمين، لا يعتبر المجلس أن إزالته ضرورية لحماية حقوق الآخرين.

يدرك المجلس أن الإشراف على الخطاب الذي يحض على الكراهية على الإنترنت قضية معقدة وتزيد بعض الخصائص اللغوية والثقافية مثل السخرية من صعوبتها. في هذه الحالة، لم تكن هناك مؤشرات تدل على أن المنشور يتضمن تهديدات ضد أشخاص محددين.

ويقر المجلس بأنه يصعب على فيسبوك تقييم النية الكامنة وراء نشر كل منشور عند الإشراف على عناصر المحتوى بأعداد كبيرة وفي الوقت الفعلي. ولما لم يكن المجلس قد حسم قراره بعد، فقد أخذ في اعتباره ادعاء المستخدم في طيات الطعن الذي تقدم به بأنه يعارض جميع أشكال التطرف الديني. ولأن المنشور في مجموعة تدعي أنها تتناول المناقشات الفكرية والفلسفية، وأنه يلفت الانتباه إلى التمييز ضد مسلمي الإيغور في الصين، فإن ذلك يدعم ادعاء المستخدم. في الوقت ذاته، وجد بعض أعضاء المجلس أن إشارات المستخدم إلى الطفل اللاجئ الذي لقى حتفه هي إشارات لا تراعي المشاعر.

يؤكد المجلس على أن استعادة منشور معين لا تعني ضمنيًا الموافقة على محتواه. حتى في الظروف التي تكون فيها مناقشة الدين أو الهوية قضية حساسة وقد تتسبب في حدوث إساءة، تظل المناقشة المفتوحة مهمة. ومن غير المحتمل أن تؤدي إزالة هذا المحتوى إلى تقليل التوتر أو حماية الأشخاص من التمييز. وهناك العديد من الطرق الأكثر فعّالية للتشجيع على التفاهم بين المجموعات المختلفة.

يؤكد المجلس أيضًا أن حساسية فيسبوك بشأن حدوث خطاب يحض على الكراهية ضد المسلمين في ميانمار هو أمر مفهوم، وذلك نظرًا لتاريخ العنف والتمييز ضد المسلمين في هذا البلد، وسياق الخطر المتزايد الذي يكتنف الانتخابات، ومحدودية المعلومات المتوفرة في ذلك الوقت. في هذه الظروف، أظهر حذر فيسبوك تقديرًا عامًا لمسؤوليات الشركة فيما يتعلق بحقوق الإنسان. ومع ذلك، وبالنسبة لعنصر المحتوى هذا تحديدًا، فقد خلُص المجلس إلى أن إزالة فيسبوك لهذا المحتوى لم تكن على صواب.

9. قرار مجلس الإشراف

9.1 القرار بشأن المحتوى

ألغى مجلس الإشراف قرار فيسبوك بإزالة المحتوى، وطلب استعادة المنشور.

يدرك المجلس أن الصور ستعرض مجددًا شاشة تحذيرية بموجب المعيار المعني بمكافحة المحتوى العنيف والصادم من معايير المجتمع.

*ملاحظة إجرائية:

يتم إعداد قرارات مجلس الإشراف من قِبل لجان مكونة من خمسة أعضاء ويجب أن يوافق عليها أغلبية المجلس. ولا يلزم بالضرورة أن تُعبّر قرارات المجلس عن وجهات النظر الشخصية لجميع الأعضاء.

بالنسبة إلى القرار المتخذ بشأن هذه الحالة، تم إجراء بحث مستقل نيابة عن المجلس. وقد توافرت الخبرة اللازمة في السياق الاجتماعي والسياسي والثقافي عن طريق معهد أبحاث مستقل يقع مقره في جامعة جوتنبرج ويعتمد على فريق مكون من أكثر من 50 عالم اجتماع من ست قارات، فضلاً عن أكثر من 3200 خبير محلي من جميع أنحاء العالم. وقد تم تقديم الخبرة اللغوية من شركة Lionbridge Technologies LLC، التي يتقن المتخصصون بها أكثر من 350 لغة ويعملون من 5000 مدينة حول العالم.

العودة إلى قرارات الحالة والآراء الاستشارية المتعلقة بالسياسة