أيد

فيديو صادم حول السودان

أيّد مجلس الإشراف قرار Meta باستعادة منشور على فيسبوك يصوّر حالة عنف ضد أحد المدنيين في السودان.

نوع القرار

معيار

السياسات والمواضيع

عنوان
سلامة، مناسبات إخبارية
معيار المجتمع
محتوى عنيف وصادم

المناطق/البلدان

موقع
السودان

منصة

منصة
Facebook

الملفات المرفقة

Sudan graphic video public comments

ملخص الحالة

أيّد مجلس الإشراف قرار Meta باستعادة منشور على فيسبوك يصوّر حالة عنف ضد أحد المدنيين في السودان. وقد عزّز المنشور من الوعي بانتهاكات حقوق الإنسان ومثّل قيمة كبيرة على صعيد المصلحة العامة. وقد أوصى المجلس بأن تضيف Meta إلى معيار مجتمعها بشأن المحتوى العنيف والصادم استثناءً خاصًا لحالات تعزيز الوعي بانتهاكات حقوق الإنسان أو توثيقها.

حول هذه الحالة

في 21 ديسمبر2021، أحالت Meta حالة إلى المجلس تتعلق بفيديو صادم تبيّن أنه يصور أحد المدنيين من ضحايا العنف في السودان. وقد نُشر المحتوى بتاريخ 25 أكتوبر 2021 في صفحة الملف الشخصي للمستخدم على فيسبوك في أعقاب الانقلاب العسكري الذي وقع في السودان.

يعرض الفيديو شخصًا مستلقيًا بجوار سيارة ومصابًا بجرح كبير في الرأس مع انفصال واضح لإحدى العينين. ويمكن سماع أصوات باللغة العربية في الخلفية تفيد بوجود شخص تعرض للضرب وتُرك في الشارع. وقد دعا شرح توضيحي، باللغة العربية أيضًا، الأشخاص إلى التكاتف معًا وعدم الثقة في الجيش، مع علامات هاشتاج تشير إلى توثيق الانتهاكات العسكرية والعصيان المدني.

بعد تحديد أنظمة Meta التلقائية للمنشور وتولي مشرف بشري مراجعته، تمت إزالة المنشور لانتهاك معيار مجتمع فيسبوك بشأن المحتوى العنيف والصادم. ومع هذا، فقد طبقت Meta، بعد أن تقدم المستخدم بطعن، استثناء الأهمية الإخبارية لتستثني بموجبه المنشور من الإزالة بتاريخ 29 أكتوبر 2021. ونتيجة لمشكلة داخلية في التواصل، لم تقم Meta باستعادة المحتوى إلا بعد خمسة أسابيع تقريبًا. عندما أعادت Meta المنشور، وضعت شاشة تحذيرية على الفيديو.

أهم النتائج

يتفق المجلس مع قرار Meta باستعادة هذا المحتوى إلى فيسبوك مع إضافة شاشة تحذيرية. مع هذا، فإن سياسة Meta بشأن المحتوى العنيف والصادم غير واضحة فيما يتعلق بكيفية مشاركة المستخدمين للمحتوى الصادم لتعزيز الوعي بالانتهاكات أو توثيقها.

لا تتفق مبادئ معيار المجتمع، والذي يحدد أغراض السياسة، مع قواعد السياسة. على الرغم من أن مبادئ السياسة تنص على سماح Meta للمستخدمين بنشر المحتوى الصادم "لمساعدة الأشخاص على تعزيز الوعي" بانتهاكات حقوق الإنسان، فإن السياسة ذاتها تحظر جميع مقاطع الفيديو (سواء تمت مشاركتها لتعزيز الوعي أم لا) التي تحتوي على "أشخاص أو جثث في سياقات غير طبية إذا كانت تصوّر حالات بتر."

خلُص المجلس أيضًا إلى أنه على الرغم من استخدام استثناء الأهمية الإخبارية في هذه الحالة، فإنه لم يكن كافيًا للسماح بهذا النوع من المحتوى على فيسبوك على نطاق واسع. أخبرت Meta المجلس أنها "وثقت 17 حالة لاستثناء الأهمية الإخبارية فيما يتعلق بسياسة المحتوى العنيف والصادم على مدار آخر 12 شهرًا (12 شهرًا السابقة لتاريخ 8 مارس 2022). ويمثل المحتوى في هذه الحالة أحد الاستثناءات السبعة عشر (17) هذه." وعلى سبيل المقارنة، أزالت Meta نحو 90.7 مليون عنصر محتوى بموجب معيار المجتمع هذا في الأرباع الثلاثة الأولى من عام 2021.

يرى المجلس أنه من غير المحتمل، على مدار عام كامل، ألا يستثنى سوى 17 عنصر محتوى على صلة بهذه السياسة ليتم السماح ببقائها على المنصة لأهميتها الإخبارية وارتباطها بالمصلحة العامة. ولضمان السماح بهذا المحتوى على فيسبوك، يوصي المجلس Meta بتعديل معيار المجتمع بشأن المحتوى العنيف والصادم ليتم السماح بمقاطع الفيديو التي يظهر بها أشخاص أو جثث إذا تمت مشاركتها لتعزيز الوعي أو توثيق الانتهاكات.

يجب أن تكون Meta مستعدة للاستجابة بشكل سريع ومنهجي للمواقف التي تنطوي على صراعات وأزمات حول العالم. وقد تضمن قرار المجلس بشأن "تعليق حسابات الرئيس الأسبق ترامب" توصية لشركة Meta تنص على "وضع سياسة علنية تحكم تعامل فيسبوك مع الأزمات." في حين يرحب المجلس بتطوير هذا البروتوكول، والذي تقول Meta أنها تبنته، يجب على الشركة تنفيذ البروتوكول بوتيرة أسرع وتوفير أكبر قدر ممكن من التفاصيل عن آلية عمله.

قرار مجلس الإشراف

أيد مجلس الإشراف قرار Meta باستعادة المحتوى مع وضع شاشة تحذيرية تمنع القاصرين من مشاهدة المحتوى.

وفي صورة رأي استشاري بشأن السياسة، يوصي المجلس شركة Meta بما يلي:

  • تعديل معيار المجتمع بشأن المحتوى العنيف والصادم للسماح بمقاطع الفيديو التي يظهر بها أشخاص أو جثث عند مشاركتها لأغراض تعزيز الوعي بانتهاكات حقوق الإنسان أو توثيقها. ينبغي السماح بهذا المحتوى مع تضمين شاشة تحذيرية ليدرك الأشخاص أن المحتوى قد يكون مزعجًا.
  • إجراء عملية تطوير للسياسة يتم بموجبها تطوير المعايير التي تحدد مقاطع الفيديو التي يظهر بها أشخاص أو جثث عند مشاركتها لأغراض تعزيز الوعي بانتهاكات حقوق الإنسان أو توثيقها.
  • احتواء وصف استثناء الأهمية الإخبارية على شرح صريح لجميع الإجراءات التي قد تتخذها الشركة (على سبيل المثال، استعادة المحتوى مع شاشة تحذيرية) استنادًا إلى هذه السياسة.
  • إخطار المستخدمين عند اتخاذ إجراء ضد المحتوى الخاص بهم استنادًا إلى استثناء الأهمية الإخبارية بما في ذلك استعادة المحتوى أو تطبيق شاشة تحذيرية. وقد يتضمن الإخطار المرسل إلى المستخدم رابطًا لشرح استثناء الأهمية الإخبارية في مركز الشفافية.

*توفر ملخصات الحالة نظرة عامة على الحالة ولا تُشكّل سابقة قانونية.

القرار الكامل للمجلس بشأن الحالة

1. ملخص القرار

أيد مجلس الإشراف قرار Meta باستعادة المحتوى إلى فيسبوك وهو عبارة عن منشور يتضمن مقطع فيديو، مع شرح توضيحي، ويصوّر أعمال عنف ضد أحد المدنيين في السودان. وقد تمت استعادة المنشور بموجب استثناء الأهمية الإخبارية مع عرض شاشة تحذيرية تدل على حساسية المحتوى للحيلولة دون وصول القاصرين إليه بوجه عام، ومطالبة جميع المستخدمين الآخرين بالنقر لمشاهدة المحتوى. وقد وجد المجلس أن هذا المحتوى، الذي كان يسعى لتعزيز الوعي بانتهاكات حقوق الإنسان أو توثيقها، يحظى بقيمة كبيرة على صعيد المصلحة العامة. وعلى الرغم من أن إزالة المحتوى في بادئ الأمر كانت تتفق مع القواعد الواردة في معيار المجتمع بشأن المحتوى العنيف والصادم، فإن قرار Meta باستعادة المحتوى مع شاشة تدل على حساسيته تتفق مع سياساتها وقيمها ومسؤولياتها تجاه حقوق الإنسان.

يرى المجلس، على الرغم من ذلك، أن استخدام Meta لاستثناء الأهمية الإخبارية لا يعتبر وسيلة فعّالة لإبقاء المحتوى أو إعادته على نطاق واسع. ولذلك يوصي المجلس بأن تضيف Meta إلى معيار مجتمعها بشأن المحتوى العنيف والصادم استثناءً خاصًا لحالات تعزيز الوعي بالانتهاكات أو توثيقها. ويحث المجلس أيضًا Meta على إعطاء أولوية لتنفيذ توصيته السابقة بشأن استحداث سياسة تتناول جمع وحفظ ومشاركة المحتوى الذي قد يمثّل دليلاً على انتهاكات القانون الدولي.

2. وصف الحالة ومعلومات أساسية عنها

في 21 ديسمبر2021، أحالت Meta حالة إلى المجلس تتعلق بفيديو صادم تبيّن أنه يصور أحد المدنيين من ضحايا العنف في السودان. وقد نُشر المحتوى على صفحة الملف الشخصي للمستخدم على فيسبوك بتاريخ 26 أكتوبر 2021، في أعقاب الانقلاب العسكري الذي حدث في البلاد بتاريخ 25 أكتوبر 2021، وبدء الاحتجاجات ضد الاستيلاء العسكري على الحكومة.

يعرض الفيديو شخصًا مستلقيًا بجوار إحدى السيارات ومصابًا بجرح كبير في الرأس مع انفصال واضح لإحدى العينين. ويمكن سماع أصوات باللغة العربية في الخلفية تفيد بوجود شخص تعرض للضرب وتُرك في الشارع. وقد تضمن المنشور شرحًا توضيحيًا، باللغة العربية أيضًا، يدعو الأشخاص إلى التكاتف معًا وعدم الثقة في الجيش، مع علامات هاشتاج تشير إلى توثيق الانتهاكات العسكرية والعصيان المدني.

أوضحت Meta أن أنظمتها التكنولوجية قد تعرفت على المحتوى وحددت أنه يشكل انتهاكًا محتملاً لمعيار مجتمعها بشأن المحتوى العنيف والصادم في نفس يوم نشره وذلك بتاريخ 26 أكتوبر 2021. بعد إجراء مراجعة بشرية، قررت Meta أن المنشور ينتهك سياسة فيسبوك بشأن المحتوى العنيف والصادم وأزالته. في أعقاب ذلك، أبدى منشئ المحتوى رفضه للقرار. في 28 أكتوبر 2021، تم تصعيد المحتوى إلى خبراء في السياسة والموضوع المنظور لإجراء مراجعة إضافية. وبعد إجراء المراجعة، طبقت Meta استثناء الأهمية الإخبارية لإعفاء المنشور من الإزالة بموجب معيار المجتمع بشأن المحتوى العنيف والصادم في 29 أكتوبر 2021. ومع هذا، ونتيجة لمشكلة داخلية في التواصل، لم تقم Meta فعليًا باستعادة المحتوى إلا بعد خمسة أسابيع تقريبًا وتحديدًا في 2 ديسمبر 2021. وعندما أعادت الشركة المحتوى، وضعت أيضًا شاشة تحذيرية على الفيديو تشير إلى حساسية المحتوى وتطالب المستخدمين بالنقر عليه ليتمكنوا من عرضه. وتحظر الشاشة التحذيرية على المستخدمين الذين تقل أعمارهم عن 18 عامًا مشاهدة الفيديو.

تم عرض المنشور أقل من 1000 مرة ولم يقم أي مستخدم بالإبلاغ عن المحتوى.

ترتبط الحقائق الأساسية التالية بقرار المجلس. بعد استيلاء الجيش على الحكومة المدنية في السودان في شهر أكتوبر من عام 2021 وبدء الاحتجاجات المدنية، أطلقت قوات الأمن في البلاد الذخيرة الحية، واستخدمت الغاز المسيل للدموع، واعتقلت واحتجزت المتظاهرين بشكل عشوائي، وفقًا للمفوض السامي للأمم المتحدة لشؤون اللاجئين المعني بحقوق الإنسان. وقد استهدفت قوات الأمن أيضًا الصحفيين والنشطاء، وفتشت منازلهم ومكاتبهم. وقد تعرض الصحفيون للهجوم والاعتقال والاحتجاز.

وفقًا للخبراء الذين استشارهم المجلس، مع استيلاء الجيش على وسائل الإعلام الحكومية وقمع الصُحف والمذيعين السودانيين، أصبحت وسائل التواصل الاجتماعي مصدرًا مهمًا للمعلومات ومكانًا لتوثيق أعمال العنف التي ارتكبها الجيش. وقد قطع الجيش خدمة الإنترنت في وقت متزامن مع اعتقال القيادات المدنية في 25 أكتوبر 2021، وتعطل الوصول المستمر إلى الإنترنت منذ ذلك الحين بشكل منتظم في جميع أنحاء البلاد.

3. سُلطة ونطاق مجلس الإشراف

يتمتع المجلس بسلطة مراجعة القرارات التي تقدمها Meta للمراجعة (المادة 2، القسم 1 من اتفاقية المجلس؛ المادة 2، القسم 2.1.1 من اللائحة الداخلية). يجوز للمجلس تأييد قرار شركة Meta أو إلغائه (المادة 3، القسم 5 من اتفاقية المجلس)، ويكون قراره بهذا الشأن ملزمًا للشركة (المادة 4 من اتفاقية المجلس). يجب على شركة Meta أيضًا تقييم جدوى تطبيق قرارها على أي محتوى مماثل له سياق موازٍ (المادة 4 من اتفاقية المجلس). وقد تتضمن قرارات المجلس بيانات استشارية بشأن السياسية تضم توصيات غير ملزمة يجب على شركة Meta الرد عليها (اتفاقية المجلس، المادة 3، القسم 4؛ المادة 4).

4. مصادر السُلطة

أخذ مجلس الإشراف مصادر السُلطة التالية في الاعتبار:

1.قرارات مجلس الإشراف:

في قراراته السابقة، نظر المجلس في سياسات شركة Meta وعملياتها وقدم توصيات بشأنها. وقد تضمنت قائمة الأكثر ملاءمة ما يلي:

  • القرار الصادر بشأن الحالة ‎2021-010-FB-UA ("الاحتجاجات في كولومبيا"): في هذه الحالة، لاحظ المجلس أن Meta لا توفر للجمهور معاييرها لتصعيد المحتوى للمراجعة للوقوف على إمكانية تطبيق استثناء الأهمية الإخبارية عليه (وهي الطريقة الوحيدة لتطبيق المعيار) وذكر أنه "في بيئة تكون فيها منافذ التعبير السياسي محدودة، توفر وسائل التواصل الاجتماعي منصة لجميع الأشخاص، بمن فيهم الصحفيون، لتبادل المعلومات حول الاحتجاجات". أوصى المجلس بأن تتولى Meta "تطوير ونشر معايير تصعيد واضحة لمراجعي المحتوى لإجراء مراجعة إضافية للمحتوى المتعلق بالمصلحة العامة... وينبغي أن تغطي هذه المعايير المحتوى الذي يصور الاحتجاجات الكبيرة بشأن القضايا السياسية، لا سيّما في السياقات التي تُتهم فيها الدول بانتهاك حقوق الإنسان وحيث يكون الاحتفاظ بسجل عام للأحداث على قدر كبير من الأهمية."
  • القرار الصادر بشأن الحالة ‎2021-001-FB-FBR ("تعليق حسابات الرئيس الأسبق ترامب"): في هذه الحالة، أوصى المجلس شركة Meta "بوضع سياسة علنية تحكم تعامل فيسبوك مع الأزمات أو المواقف المستجدة التي لا تحول فيها عملياتها المعتادة دون وقوع ضرر وشيك أو تتجنب وقوعه." في يناير 2022، عقدت Meta منتدىً للسياسة تناول "بروتوكول سياسة الأزمات" والذي تم وضعه استجابة لتوصية المجلس. مع هذا، فقد أكدت Meta في أحد ردودها على أسئلة المجلس أن هذا البروتوكول لم يكن موجودًا عندما حدث الانقلاب في السودان وما أعقبه من قرارات إزالة المحتوى وإعادته في هذه الحالة.

2.سياسات المحتوى لدى Meta:

معايير مجتمع فيسبوك:

بموجب مبادئ سياسة المحتوى العنيف والصادم تزيل Meta أي محتوى "يشيد بالعنف أو يحتفي بمعاناة الآخرين" وتسمح بالمحتوى الصادم "لمساعدة الأشخاص على تعزيز الوعي". تحظر قواعد السياسة نشر "مقاطع فيديو لأشخاص أو جثث في سياقات غير طبية إذا كانت تصوّر حالات البتر". وبحسب استثناء الأهمية الإخبارية، تسمح Meta بالمحتوى المخالف على منصاتها إذا كانت له أهمية إخبارية و"إذا كان إبقاؤه معروضًا على المنصة يخدم المصلحة العامة".

3. قيم شركة Meta:

تم توضيح قيم شركة Meta في مقدمة معايير مجتمع فيسبوك. تضم القيم ذات الصلة بهذه الحالة قيم "حرية الرأي" و"السلامة" و"الخصوصية" و"الكرامة". وقد جرى وصف قيمة "حرية الرأي" بأنها "ذات أهمية قصوى":

يتمثل هدف معايير مجتمعنا دائمًا في توفير مكان لحرية الرأي يستطيع الأشخاص من خلاله إبداء وجهات نظرهم. [ونحن نريد] أن يتمتع الأشخاص بالقدرة على التحدث بحرية عن القضايا التي تهمهم، حتى في حالة عدم اتفاق البعض أو اعتراضهم.

تُقيد شركة Meta "حرية الرأي" لخدمة أربع قيم أخرى، ترتبط ثلاثة منها بهذه الحالة:

"السلامة": إن المحتوى الذي يحمل تهديدًا للأشخاص قد يتسبب في إخافة الآخرين أو إقصائهم أو إسكاتهم ونحن لا نسمح بذلك على فيسبوك.

"الخصوصية": نحن ملتزمون بحماية الخصوصية والمعلومات الشخصية. وذلك لأن الخصوصية تمنح الأشخاص حرية التعبير عن ذواتهم الحقيقية، واختيار طريقة وتوقيت المشاركة على فيسبوك والتواصل بسهولة أكبر.

"الكرامة": نحن نؤمن بأن الأشخاص متساوون في الكرامة والحقوق. ونتوقع من الجميع احترام كرامة الآخرين وعدم الإساءة إليهم أو الحط من قدر الآخرين.

4: المعايير الدولية لحقوق الإنسان:

تُرسي مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان (UNGP)، التي أقرها مجلس حقوق الإنسان التابع للأمم المتحدة عام 2011، إطار عمل تطوعي لمسؤوليات الأنشطة التجارية الخاصة فيما يتعلق بحقوق الإنسان. في عام 2021، أعلنت شركة Meta عن سياسة حقوق الإنسان الخاصة بالشركة، والتي أعادت التأكيد من خلالها على الالتزام باحترام حقوق الإنسان على نحو يتفق مع مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان. وقد استند تحليل المجلس لمسؤوليات شركة Meta تجاه حقوق الإنسان في هذه الحالة إلى معايير حقوق الإنسان التالية:

  • الحق في حرية التعبير، بما في ذلك القدرة على التماس المعلومات وتلقيها: المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية (ICCPRالتعليق العام رقم 34، اللجنة المعنية بحقوق الإنسان، 2011، تقارير مقرر الأمم المتحدة الخاص المعني بحرية الرأي والتعبير: A/HRC/38/35 ‏(2018) وA/73/348 ‏(2018).
  • مصلحة الطفل الفضلى: المادتان 13 و17، اتفاقية حقوق الطفل (CRC). التعليق العام رقم 25، اللجنة المعنية بحقوق الطفل، 2021، بشأن حقوق الأطفال فيما يتعلق بالبيئة الرقمية.
  • الحق في الخصوصية: المادة 17، العهد الدولي الخاص بالحقوق المدنية والسياسية.
  • الوصول إلى سبل انتصاف فعّال: المادة 2، العهد الدولي الخاص بالحقوق المدنية والسياسية؛ التعليق العام رقم 31، اللجنة المعنية بحقوق الإنسان، (2004)؛ مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان، المبادئ 22، 29، 31.

5. المعلومات المقدَّمة من المستخدمين

بعد إحالة شركة Meta الحالة وقبول المجلس لها، تم إرسال رسالة إلى المستخدم لإخطاره بمراجعة المجلس ومنحه فرصة لتقديم بيان إلى المجلس. ولم يقدم المستخدم بيانًا.

6. المعلومات المقدَّمة من Meta

تذكر Meta في إحالتها أن اتخاذ قرار بشأن هذا المحتوى كان أمرًا صعبًا لأنه يبرز التوتر القائم بين قيمة المصلحة العامة المتمثلة في توثيق انتهاكات حقوق الإنسان وخطر الضرر المرتبط بمشاركة هذا المحتوى الصادم. كما أبرزت Meta أهمية السماح للمستخدمين بتوثيق انتهاكات حقوق الإنسان أثناء أي انقلاب وعند قطع اتصال الإنترنت عن البلاد.

أبلغ Meta المجلس أنها قامت فور وقوع الانقلاب العسكري في السودان بإنشاء فريق متعدد الوظائف للاستجابة للأزمات لرصد الوضع والإبلاغ عن أي اتجاهات ومخاطر ناشئة. وفقًا لشركة Meta، لاحظ هذا الفريق "ارتفاعًا مفاجئًا في عدد بلاغات المحتوى الذي يصور العنف الصادم والعنف والتحريض في الأوقات التي تكون فيها الاحتجاجات أكثر نشاطًا. وقد تم توجيه [الفريق] إلى تصعيد طلبات السماح بنشر حالات العنف الصادم التي تنتهك في العادة سياسة المحتوى الصادم والعنيف، بما في ذلك المحتوى الذي يصور انتهاكات حقوق الإنسان المدعومة من الدولة".

أشارت Meta إلى أن هذا الفيديو قد تم التقاطه في سياق الاحتجاجات واسعة النطاق والمخاوف الحقيقية بشأن حرية الصحافة في السودان. أشارت Meta أيضًا إلى أن هذا النوع من المحتوى من شأنه "تحذير المستخدمين في المنطقة من أي تهديد يؤثر في سلامتهم ويستحوذ على أهمية خاصة أثناء انقطاع الإنترنت حيث يكون وصول الصحفيين إلى الموقع محدودًا."

ذكرت Meta أيضًا أن قرار استعادة المحتوى كان يتماشى مع قيمها، لا سيّما قيمة "حرية الرأي" التي تحظى بأهمية كبيرة. واستشهد Meta بقرارات سابقة للمجلس تفيد بأن الخطاب السياسي أساسي لقيمة "حرية الرأي". القرارات الصادرة بشأن الحالات ‎2021-010-FB-UA ("الاحتجاجات في كولومبيا"). ‎2021-003-FB-UA ("مخاوف البنجابيين تجاه منظمة راشتريا سوايامسيفاك سانغ (RSS) في الهند"). ‎2021-007-FB-UA (البرنامج التلقائي لميانمار)، و‎2021-009-FB-UA ("مشاركة منشور الجزيرة").

أخبرت Meta المجلس أنها رأت أن قرارها الأولي بإزالة المحتوى لم يكن يتفق مع المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية، لا سيّما مع مبدأ الضرورة. لذلك، فقد قامت باستعادة المحتوى تطبيقًا لاستثناء الأهمية الإخبارية. للحد من أي مخاطر محتملة لوقوع ضرر نتيجة السماح ببقاء المحتوى الصادم على المنصة بعد إعادته، قيدت Meta الوصول إليه لتقصره على الأشخاص الذين تزيد أعمارهم عن 18 عامًا وطبقت شاشة تحذيرية. أشارت Meta أيضًا في حيثيات الحالة أن قرار إعادة المحتوى كان يتفق مع تقرير مقرر الأمم المتحدة الخاص المعني بتعزيز وحماية الحق في حرية الرأي والتعبير، لا سيّما "الحق في التماس المعلومات بشأن انتهاكات حقوق الإنسان."

ذكرت Meta أيضًا أنه نظرًا لقيامها بتطبيق شاشة تحذيرية لا تسمح للمستخدمين ممن تقل أعمارهم عن 18 عامًا بمشاهدة المحتوى، فإنها أخذت أيضًا بعين الاعتبار تأثير القرار على حقوق الطفل. أخبرت Meta المجلس عند اتخاذها قرارها بأنها أخذت في الاعتبار المادة 13 من اتفاقية حقوق الطفل والتعليق العام رقم 25 بشأن حقوق الطفل فيما يتعلق بالبيئة الرقمية، في حماية حق الطفل في حرية التعبير، بما في ذلك "الحق في التماس جميع أنواع المعلومات وتلقيها ونقلها، بغض النظر عن أي حدود." أوضحت Meta في حيثيات الحالة أن قرارها بتقييد ظهور المحتوى وقصره على البالغين كان يهدف الغرض المشروع المتمثل في حماية سلامة القاصرين وكان متناسبًا مع هذا الغرض.

طرح المجلس 21 سؤالاً على شركة Meta. أجابت شركة Meta عن 17 سؤالاً بشكل كامل و4 أسئلة بشكل جزئي. كانت الإجابات الجزئية عن أسئلة تتعلق بقياس تأثير نظام Meta التلقائي في المحتوى المنشور على المنصة وسبب عدم احتواء معيار المجتمع بشأن المحتوى العنيف والصادم على استثناء لتعزيز الوعي.

7. التعليقات العامة

تلقى المجلس خمس تعليقات عامة بشأن هذه الحالة. تعليقان من أوروبا وتعليق من أفريقيا جنوب الصحراء، وتعليقان من الولايات المتحدة وكندا.

تناولت المعلومات المقدَّمة الموضوعات التالية: الحاجة إلى إقرار نهج أكثر حساسية تجاه السياق من شأنه أن يضع حدًا أعلى لإزالة المحتوى في المناطق المعرضة للنزاعات المسلحة، بحيث تتم إزالة قدر أقل من عناصر المحتوى؛ والحاجة إلى الاحتفاظ بالمواد من أجل التحقيقات المستقبلية المحتملة أو محاسبة منتهكي حقوق الإنسان؛ واحتمال تطبيق استثناء الأهمية الإخبارية بطريقة مخصصة يمكن الطعن عليها وضرورة إعادة النظر في هذه الممارسة.

في مارس 2022، كجزء من التفاعل المستمر للمساهمين، تحدث المجلس مع نحو 50 من ممثلي منظمات التأييد والأفراد العاملين على إعداد تقارير عن انتهاكات حقوق الإنسان وتوثيقها، والأكاديميين الباحثين في الأخلاقيات وحقوق الإنسان والتوثيق والمساهمين المهتمين بالتفاعل مع المجلس حول القضايا الناشئة عن معيار المجتمع بشأن المحتوى العنيف والصادم وإنفاذه في سياقات الأزمات والاحتجاجات. وتنعقد هذه التفاعلات المستمرة بموجب قاعدة تشاتام هاوس لضمان إجراء مناقشات صريحة وحماية المشاركين. تطرقت المناقشة إلى عدد من الموضوعات بما في ذلك الدور الحيوي لوسائل التواصل الاجتماعي داخل البلدان التي تسيطر عليها أنظمة قمعية لتوثيق انتهاكات حقوق الإنسان وجذب انتباه وسائل الإعلام الدولية والجمهور إلى العنف الذي تمارسه الدولة؛ والمخاوف المشتركة حول كون المعيار العالمي بشأن المحتوى العنيف والصادم يركز في الواقع على الولايات المتحدة؛ و قد لوحظ أثناء المناقشة أن استخدام الشاشات التحذيرية مفيد في معالجة المشكلة الحقيقية المتمثلة في التعرض لصدمة لدى مشاهدة المحتوى، على الرغم من أن بعض المنظمات ذكرت أن الشاشات التحذيرية قد تحد من وصول محتواها.

لقراءة التعليقات العامة المقدمة في هذه الحالة، يرجى النقر هنا.

8. تحليل مجلس الإشراف

نظر المجلس في مسألة ما إذا كان ينبغي إبقاء هذا المحتوى على المنصة من خلال ثلاث رؤى: سياسات المحتوى لدى شركة Meta، وقيَمها، ومسؤولياتها تجاه حقوق الإنسان.

8.1. الامتثال لسياسات المحتوى لدى شركة Meta

1.قواعد المحتوى

يتفق المجلس مع قرار Meta باستعادة هذا المحتوى إلى المنصة مع تضمين شاشة تحذيرية وتقييد ظهوره حسب العمر، لكنه يشير إلى أن سياسات المحتوى لدى Meta تفتقد إلى الوضوح الكافي ولا تمثل وسيلة فعّالة لتنفيذ هذه الاستجابة تجاه المحتوى المشابه على نطاق واسع.

كان قرار Meta الأولي بإزالة المحتوى يتفق مع القواعد الواردة في معيار مجتمعها بشأن المحتوى العنيف والصادم - حيث انتهك المحتوى سياسة الشركة من خلال تصوير حالة بتر أو فقد لأحد الأعضاء في سياق غير طبي (شخص مصاب بجرح كبير في الرأس مع انفصال واضح لإحدى العينين). ومع هذا، تنص مبادئ السياسة لمعيار المجتمع بشأن المحتوى العنيف والصادم على أن "[Meta] تسمح بالمحتوى الصادم (مع بعض القيود) لمساعدة الأشخاص على تعزيز الوعي بالقضايا. وتعلم [Meta] أن الأشخاص يقدّرون إمكانية مناقشة القضايا المهمة مثل انتهاكات حقوق الإنسان أو الأعمال الإرهابية." وعلى الرغم من هذه الإشارة في مبادئ السياسة، فإن قواعد معيار المجتمع ذاتها لا تتضمن استثناء "تعزيز الوعي". ولا تتضمن معايير Meta الداخلية لمراجعيها أي استثناء للمحتوى الذي يسعى إلى تعزيز الوعي بانتهاكات حقوق الإنسان أو توثيقها.

في ظل عدم وجود استثناء محدد ضمن معيار المجتمع، يتفق المجلس مع قرار Meta باستعادة المحتوى من خلال استثناء الأهمية الإخبارية. تذكر Meta أنها تسمح ببقاء المحتوى المخالف على المنصة بموجب استثناء الأهمية الإخبارية إذا قررت أن الأهمية الإخبارية وإذا كان "إبقاء المحتوى معروضًا يخدم المصلحة العامة [و] بعد إجراء اختبار موازنة للمقارنة بين القيمة التي يضيفها المحتوى للمصلحة العامة ومخاطر وقوع ضرر."

2.إجراء الإنفاذ

يشير المجلس إلى أنه على الرغم من اتخاذ شركة Meta لقرار تطبيق استثناء الأهمية الإخبارية واستعادة المنشور مع تضمين شاشة تحذيرية بتاريخ 29 أكتوبر 2021، لم تتم استعادة المنشور فعليًا إلى المنصة إلا بعد خمسة أسابيع قريبًا، وذلك بتاريخ 2 ديسمبر 2021. ذكرت شركة Meta أن التواصل حول القرار النهائي الصادر بشأن المحتوى قد تم خارج أدوات إدارة التصعيد المعتادة، "مما أدى إلى تأخر اتخاذ الإجراء المناسب بشأن المحتوى." يرى المجلس أن هذا التفسير والتأخير مقلق للغاية ويؤكد على أهمية قيام Meta باتخاذ الإجراءات في الوقت المناسب فيما يتعلق بهذا النوع من القرارات، في سياق وقوع أزمة عامة وعندما تكون حرية الصحافة مقيدة بشدة. عندما أزالت Meta هذا المحتوى في بادئ الأمر، طبقت تقييدًا للميزات لمدة 30 يومًا لمنع المستخدم من إنشاء محتوى جديد، في وقت تعرّض خلاله المحتجون في الشوارع والصحفيون الذين ينقلون أخبار الانقلاب والقمع العسكري للعنف والقمع الشديدين.

8.2. الامتثال لقيم شركة Meta

خلُص المجلس إلى أن إبقاء هذا المحتوى على المنصة مع تضمين شاشة تحذيرية يتفق مع قيم Meta المتمثلة في "حرية الرأي" و"السلامة."

يدرك المجلس أهمية "الكرامة" و"الخصوصية" في سياق حماية ضحايا انتهاكات حقوق الإنسان. ويؤثر المحتوى في كرامة وخصوصية الشخص المصاب الظاهر في الفيديو وعائلته؛ حيث يمكن تحديد هوية الشخص الذي تم تصويره وربما لم يكن يرغب هو وعائلته وأحبابه في بث مثل هذه اللقطات له.

أشار المجلس أيضًا إلى سيادة قيمة "السلامة" في هذا السياق، والتي تهدف إلى حماية المستخدمين من المحتوى الذي يشكّل "خطر حدوث ضرر على الأمن الجسدي للأشخاص." من ناحية، سعى المستخدم إلى تعزيز الوعي بالانقلاب الدائر، مما قد يسهم في تحسين سلامة الأشخاص في هذه المنطقة. ومن ناحية أخرى، قد يشكّل المحتوى مخاطر للشخص الظاهر في الفيديو و/أو عائلته.

خلُص المجلس إلى أنه في السياقات التي يتم فيها تقليص الساحة المدنية وحرية الإعلام من قبل الدولة، تصبح قيمة "حرية الرأي" أكثر أهمية. هنا، تعمل قيمة "حرية الرأي" أيضًا على تحسين قيمة "السلامة" من خلال ضمان وصول الأشخاص إلى المعلومات وكشف العنف الذي تمارسه الدولة.

8.3. الامتثال لمسؤوليات شركة Meta تجاه حقوق الإنسان

يرى المجلس أن إبقاء هذا المحتوى على المنصة مع تضمين شاشة تحذيرية يتفق مع مسؤوليات Meta تجاه حقوق الإنسان. مع هذا، فقد خلُص المجلس إلى ضرورة تعديل سياسات Meta لتحترم بشكل أفضل الحق في حرية التعبير للمستخدمين الذين يسعون إلى تعزيز الوعي بالانتهاكات أو توثيقها.

حرية التعبير (المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية)

توفر المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية حماية واسعة لحرية التعبير، بما في ذلك الحق في التماس المعلومات وتلقيها. ومع هذا، قد يتم تقييد هذا الحق بموجب بعض الشروط المحددة، والتي تعرف باسم الاختبار الثلاثي الذي يتألف من الشرعية (الوضوح) والهدف المشروع والضرورة والتناسب. على الرغم من أن العهد الدولي الخاص بالحقوق المدنية والسياسية لا يفرض التزامات على شركة Meta كما هو الحال مع الدول، فقد التزمت شركة Meta باحترام حقوق الإنسان كما هو منصوص عليها في مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان. ويشمل هذا الالتزام حقوق الإنسان المعترف بها دوليًا كما حددها العهد الدولي الخاص بالحقوق المدنية والسياسية، إلى جانب اتفاقيات أخرى.

1. الشرعية (وضوح القواعد وسهولة الوصول إليها)

ينبغي أن تكون أي قيود تُفرض على حرية التعبير متاحة وواضحة بما يكفي لتوفير إرشادات حول الأمور المسموح بها وغير المسموح بها. خلُص المجلس إلى أن سياسة المحتوى العنيف والصادم لا توضح كيف تسمح Meta للمستخدمين بمشاركة المحتوى الصادم لتعزيز الوعي بالانتهاكات أو توثيقها. لا تتفق مبادئ معيار المجتمع، والذي يحدد أغراض السياسة، مع قواعد السياسة. تنص مبادئ السياسة على سماح Meta للمستخدمين بنشر المحتوى الصادم "لمساعدة الأشخاص على تعزيز الوعي" بانتهاكات حقوق الإنسان، لكن السياسة تحظر جميع مقاطع الفيديو (سواء تمت مشاركتها لتعزيز الوعي أم لا) التي تحتوي على "أشخاص أو جثث في سياقات غير طبية إذا كانت تصوّر حالات بتر." على الرغم من استناد Meta بشكل صحيح إلى استثناء الأهمية الإخبارية الأوسع لاستعادة هذا المحتوى، فإن معيار المجتمع بشأن المحتوى العنيف والصادم لا يوضح ما إذا كان سيتم السماح بهذا النوع من المحتوى على المنصة أم لا.

خلُص المجلس أيضًا إلى أن استثناء الأهمية الإخبارية لا يوضح متى سيستفيد المحتوى الذي يوثق انتهاكات حقوق الإنسان أو الفظائع المرتكبة من هذا الاستثناء. على الرغم من اتفاقنا مع شركة Meta على أن تحديد الأهمية الإخبارية يمكن أن تكون مهمة "ذاتية بدرجة كبيرة"، فإن القاعدة المعنية لم تتضمن حتى تعريفًا للمصطلح. تنص السياسة على قيام الشركة بتعيين "قيمة خاصة للمحتوى الذي ينطوي على تهديدات وشيكة للصحة أو السلامة العامة أو يعبر عن وجهات نظر تتم مناقشتها حاليًا كجزء من عملية سياسية." يجب أن تستند ممارسة السلطة التقديرية إلى أمثلة رمزية ومبادئ واضحة عند تطبيق هذا الاستثناء. وبغيابها، سيتسم استخدام هذا الاستثناء بعدم الاتساق والعشوائية. علاوة على ذلك، لا يشير استثناء الأهمية الإخبارية إلى استخدام الشاشات التحذيرية (أو الخلالية) مع المحتوى الآخر الذي ينتهك سياسات Meta.

أخيرًا، أوصى المجلس في حالة سابقة (الاحتجاجات في كولومبيا) بأن تتولى Meta "تطوير ونشر معايير تصعيد واضحة لمراجعي المحتوى لإجراء مراجعة إضافية للمحتوى المتعلق بالمصلحة العامة." ردت Meta وقالت إنها نشرت بالفعل معايير التصعيد من خلال مقالة مركز الشفافية بشأن الأهمية الإخبارية. مع هذا، فإن هذه المقالة تركز على العوامل التي تراعيها Meta عند تطبيق استثناء الأهمية الإخبارية، وليس المعايير المقدمة إلى المشرفين والتي توضح متى يتم تصعيد المحتوى (أي إرساله لمراجعة إضافية). إذا كان المقصود من استثناء الأهمية الإخبارية أن يكون جزءًا من نظام الشركة للإشراف على المحتوى على نطاق واسع، يجب أن تسهل عمليات التصعيد والاستخدام هذا الهدف. يرى المجلس أن غياب الوضوح فيما يتعلق بحالات وكيفية تطبيق استثناء الأهمية الإخبارية سيؤدي على الأرجح إلى تطبيق هذه السياسة بشكل عشوائي.

2. الهدف المشروع

يجب أن تستند أي قيود تفرض على حرية التعبير إلى هدف مشروع، وهو ما يتضمن حماية حقوق الآخرين، مثل الحق في الخصوصية للشخص الذي تم تصويره (التعليق العام رقم 34، الفقرة 28) والحق في السلامة الجسدية. تشير Meta أيضًا في مبادئ السياسة إلى أن "المحتوى الذي يشيد بالعنف أو يحتفي بمعاناة الآخرين أو تَعرضهم للمذلة...من شأنه خلق بيئة لا تشجع على المشاركة." يتفق المجلس على أن سياسة المحتوى العنيف والصادم تسعى إلى تحقيق عدة أهداف مشروعة.

3. الضرورة والتناسب

يجب أن تكون تقييدات حرية التعبير "مناسبة لتحقيق وظيفتها الحمائية، ويجب أن تكون أقل الوسائل تدخلاً مقارنة بغيرها من الوسائل التي يمكن أن تحقق النتيجة المنشودة؛ [و] يجب أن تكون متناسبة مع المصالح التي ستحميها" (التعليق العام رقم 34، الفقرة 34).

في هذا الحالة، خلُص المجلس إلى أن وضع تسمية تحذيرية على المحتوى كانت بمثابة تقييد ضروري ومتناسب لحرية التعبير. ولا تشكّل الشاشة التحذيرية عبئًا لا داعي له على الأشخاص الذين يرغبون في مشاهدة المحتوى أثناء إبلاغ الآخرين بطبيعة المحتوى والسماح لهم بتحديد ما إذا كانوا يريدون رؤيته أم لا. وتوفر الشاشة التحذيرية أيضًا الحماية الكافية لكرامة الشخص الذي تم تصويره وعائلته.

يشير المجلس أيضًا، كما نوقش في القسم 8.1، أن استعادة Meta لهذا المنشور كانت متأخرة لما يقرب من خمسة أسابيع. كان لهذا التأخير تأثيرًا غير متناسب على حرية التعبير في سياق العنف الدائر وتقييد الساحة الإعلامية في السودان. يحد مثل هذا التأخير لهذه المدة من فوائد هذا الخطاب، والتي تتمثل في تحذير المدنيين وتعزيز الوعي.

خلُص المجلس أيضًا إلى أنه نظرًا لانخفاض وتيرة استخدام استثناء الأهمية الإخبارية، فإنه لا يشكل آلية فعّالة يمكن من خلالها السماح بالمحتوى الذي يوثق الانتهاكات أو يهدف إلى تعزيز الوعي على المنصة على نطاق واسع. أخبرت Meta المجلس أنها "وثقت 17 حالة لاستثناء الأهمية الإخبارية فيما يتعلق بسياسة المحتوى العنيف والصادم على مدار آخر 12 شهرًا (12 شهرًا السابقة لتاريخ 8 مارس 2022). ويمثل المحتوى في هذه الحالة أحد الاستثناءات السبعة عشر (17) هذه." وعلى سبيل المقارنة، أزالت Meta نحو 90.7 مليون عنصر محتوى بموجب معيار المجتمع هذا في الأرباع الثلاثة الأولى من عام 2021. يرى المجلس أنه من غير المحتمل ألا يستثنى سوى 17 عنصر محتوى على صلة بهذه السياسة بوجه عام وعلى مدار عام كامل ليتم السماح ببقائها على المنصة لأهميتها الإخبارية وارتباطها بالمصلحة العامة. لا يوفر استثناء الأهمية الإخبارية آلية كافية للاحتفاظ بالمحتوى ذو الطبيعة المشابهة على المنصة. لتجنب حجب أشكال التعبير التي تتمتع بالحماية، ينبغي على Meta تعديل سياسة المحتوى العنيف والصادم ذاتها لتسمح ببقاء هذا المحتوى على المنصة.

في سياق الحرب وعدم الاستقرار السياسي، سيسجل المستخدمون المزيد من المحتوى الصادم والعنيف ويشاركونه على المنصة بغرض تعزيز الوعي بالانتهاكات أو توثيقها. هذا المحتوى مهم لتعزيز المساءلة. أشار المجلس في حالة "تعليق حسابات الرئيس الأسبق ترامب" أن Meta تتحمل مسؤولية "جمع المعلومات والاحتفاظ بها ومشاركتها، متى كان ذلك مناسبًا، للمساعدة في التحقيقات وعمليات التقاضي المحتملة بشأن للانتهاكات الجسيمة للقانون الجنائي الدولي والقانون الدولي لحقوق الإنسان والقانون الإنساني من قبل السلطات المختصة وآليات المساءلة." أوصى المجلس أيضًا بأن توضح Meta وتذكر في بروتوكولات حقوق الإنسان الخاصة بالشركة كيفية توفير المحتوى الذي كان متاحًا للعامة في السابق للباحثين مع الاستمرار في احترام المعايير الدولية وقوانين حماية البيانات. واستجابة لذلك، تعهدت Meta بتقديم معلومات إلى المجلس بشأن الجهود المستمرة للتعامل مع هذه القضية. منذ نشر المجلس لهذه التوصية في 5 مايو 2021، لم تقدم Meta أي تقارير عن مستوى التقدم المحرز بشأن هذه القضية. يرى المجلس وجود تأخير لهذه المدة وعدم إحراز تقدم بشأنها، في ظل الدور الذي تلعبه المنصة في حالات النزاعات العنيفة (على سبيل المثال: الحرب الدائرة الآن في أوكرانيا حيث يوثق المستخدمون الانتهاكات من خلال وسائل التواصل الاجتماعي) والاضطرابات السياسية حول العالم.

أخيرًا، يشير المجلس إلى توصيته في حالة "تعليق حسابات الرئيس الأسبق ترامب" التي أوصى فيها شركة Meta "بوضع ونشر سياسة تحكم تعامل فيسبوك مع الأزمات أو المواقف المستجدة التي لا تحول فيها عملياتها المعتادة دون وقوع ضرر وشيك أو تتجنب وقوعه." أشارت Meta في تحديث الربع الرابع من عام 2021 بشأن مجلس الإشراف إلى أن الشركة أعدت مقترحًا لبروتوكول أزمات جديد استجابة لتوصية المجلس وتم إقراره. أشارت Meta أيضًا إلى أنها ستوفر قريبًا معلومات عن هذا البروتوكول في مركز الشفافية. أخبرت Meta المجلس بأن هذا البروتوكول لم يكن موجودًا عند حدوث الانقلاب في السودان، كما لم يكن قيد الاستخدام عند مراجعة هذه الحالة. تخطط الشركة لإطلاق البروتوكول في وقت لاحق خلال عام 2022. ينبغي أن يوجه البروتوكول المصمم جيدًا شركة Meta أثناء تطوير وتنفيذ أوجه الاستجابة الضرورية والمتناسبة في حالات الأزمات. ينبغي على Meta التحرك بوتيرة أسرع لتنفيذ هذا البروتوكول وتوفير أكبر قدر ممكن من التفاصيل بشأن كيفية عمله وتفاعله مع عمليات Meta الحالية. تلعب منصات Meta دورًا مهمًا للغاية في حالات النزاعات والأزمات حول العالم ويجب على الشركة أن تكون مستعدة للاستجابة بشكل سريع ونظامي لمنع وقوع أي أخطاء.

9. قرار مجلس الإشراف

أيد مجلس الإشراف قرار Meta بترك المحتوى مع تضمين شاشة تحذيرية تقيد وصول المحتوى وتقصره على من تجاوزت أعمارهم 18 عامًا.

10. البيان الاستشاري بشأن السياسة

سياسة المحتوى

1. ينبغي على Meta تعديل معيار المجتمع بشأن المحتوى العنيف والصادم للسماح بمقاطع الفيديو التي يظهر بها أشخاص أو جثث عند مشاركتها لأغراض تعزيز الوعي بانتهاكات حقوق الإنسان أو توثيقها. ينبغي السماح بهذا المحتوى مع تضمين شاشة تحذيرية ليدرك الأشخاص أن المحتوى قد يكون مزعجًا. سيعتبر المجلس أن هذه التوصية قد دخلت حيز التنفيذ عندما تدخل Meta تحديثات على معيار المجتمع.

2. ينبغي على Meta إجراء عملية تطوير للسياسة يتم بموجبها تطوير المعايير التي تحدد مقاطع الفيديو التي يظهر بها أشخاص أو جثث عند مشاركتها لأغراض تعزيز الوعي بانتهاكات حقوق الإنسان أو توثيقها. سيعتبر المجلس هذه التوصية قد دخلت حيز التنفيذ عندما تنشر Meta نتائج عملية تطوير السياسة، بما في ذلك المعلومات المتعلقة بالعملية ومعايير اكتشاف هذا المحتوى على نطاق واسع.

3. ينبغي على Meta أن توضح في وصف استثناء الأهمية الإخبارية بشكل صريح جميع الإجراءات التي قد تتخذها الشركة (على سبيل المثال، استعادة المحتوى مع شاشة تحذيرية) استنادًا إلى هذه السياسة. سيعتبر المجلس أن هذه التوصية قد دخلت حيز التنفيذ عندما تدخل Meta تحديثات على السياسة.

الإنفاذ

4. لضمان فهم المستخدمين للقاعدة، ينبغي على Meta إخطار المستخدمين عند اتخاذ إجراء ضد المحتوى الخاص بهم استنادًا إلى استثناء الأهمية الإخبارية بما في ذلك استعادة المحتوى أو تطبيق شاشة تحذيرية. وقد يتضمن الإخطار المرسل إلى المستخدم رابطًا لشرح استثناء الأهمية الإخبارية في مركز الشفافية. سيعتبر المجلس أن هذه التوصية قد دخلت حيز التنفيذ عندما ترسل Meta هذا الإشعار المحدث إلى المستخدمين في كل الأسواق وتوضح أن المستخدمين يتلقون هذا الإشعار من خلال بيانات الإنفاذ.

*ملاحظة إجرائية:

يتم إعداد قرارات مجلس الإشراف من قِبل لجان مكونة من خمسة أعضاء ويتم اعتمادها من أغلبية أعضاء المجلس. ولا يلزم بالضرورة أن تُعبّر قرارات المجلس عن وجهات النظر الشخصية لجميع الأعضاء.

بالنسبة إلى القرار المتخذ بشأن هذه الحالة، تم إجراء بحث مستقل نيابة عن المجلس. معهد أبحاث مستقل يقع مقره في جامعة جوتنبرج ويعتمد على فريق مكون من أكثر من 50 عالم اجتماع من ست قارات، فضلاً عن أكثر من 3200 خبير محلي من جميع أنحاء العالم. وقد تلقى المجلس أيضًا مساعدة من شركة Duco Advisors، وهي شركة تركز على نقطة التقاء الجغرافيا السياسية والثقة والأمان والتكنولوجيا.

العودة إلى قرارات الحالة والآراء الاستشارية المتعلقة بالسياسة