أيد

اتهام مرشح سياسي باكستاني بالتجديف

أيَّد المجلس قرار Meta بإزالة منشور يحتوي على اتهام بالتجديف ضد مرشح سياسي، نظرًا لاحتمال حدوث ضرر وشيك في الفترة التي تسبق الانتخابات الباكستانية لعام 2024 مباشرة.

نوع القرار

معيار

السياسات والمواضيع

عنوان
انتخابات، دين
معيار المجتمع
تنسيق أنشطة ضارة وترويج ارتكاب جرائم، تنسيق أنشطة ضارة وترويج ارتكاب جرائم

المناطق/البلدان

موقع
باكستان

منصة

منصة
Instagram

لقراءة هذا القرار باللغة الأردية، انقر هنا.

مکمل فیصلہ اردو میں پڑھنے کے لیے، یہاں پر کلک کریں

ملخص

لقد أيَّد المجلس قرار Meta بإزالة منشور يتضمن اتهامًا بالتجديف ضد مرشح سياسي. وفي الفترة التي سبقت الانتخابات الباكستانية عام 2024 مباشرةً، كان هناك احتمال لحدوث ضرر وشيك. ومع ذلك، تبيَّن للمجلس أنه ليس واضحًا أن القاعدة ذات الصلة بموجب سياسة تنسيق أنشطة ضارة وترويج ارتكاب الجرائم، والتي تمنع المستخدمين من كشف انتماء شخص في "مجموعة معرضة لخطر كشف الانتماء"، تمتد لتصل إلى الشخصيات العامة المتهمة بالتجديف في باكستان أو في أي مكان آخر. ومن المثير للاهتمام أن هذا الإطار لا يمكن ترجمته بسهولة إلى ثقافات ولغات مختلفة؛ مما يخلق حالة ارتباك عند المستخدمين الذين يحاولون فهم القواعد. وينبغي على Meta تحديث سياستها لتوضيح أنه يتعين على المستخدمين عدم نشر اتهامات بالتجديف ضد أفراد يمكن تحديدهم في الأماكن التي يعتبر فيها التجديف جريمة و/أو حيث توجد مخاطر كبيرة على سلامة المتهمين.

حول الحالة

في يناير 2024، نشر أحد المستخدمين على Instagram مقطع فيديو مدته ست ثوانٍ لمرشح في انتخابات فبراير 2024 الباكستانية وهو يلقي خطابًا. وفي المقطع، يشيد المرشح برئيس الوزراء الأسبق نواز شريف، قائلا "يأتي نواز شريف بعد الله مباشرةً". وكان الفيديو يتضمن نصًا ينتقد فيه المستخدم هذا الثناء لأنه "تجاوز كل حدود الكفر"، زاعمًا أنه كافر وفقًا لتعاليم الإسلام.

قام ثلاثة من مستخدمي Instagram بالإبلاغ عن المحتوى بعد نشره بيوم واحد، ووجد أحد المراجعين البشريين أنه لا ينتهك معايير مجتمع Meta. ولم يقدم أي من المستخدمين الثلاثة طعنًا على هذا القرار. وأبلغ العديد من المستخدمين الآخرين عن المنشور خلال الأيام التالية، إلا أن Meta أكدت أن المحتوى لم ينتهك قواعدها، وذلك بعد المراجعة البشرية والإغلاق التلقائي لبعض البلاغات.

في فبراير 2024، حدد نظام Meta لعمليات المراجعة المبكرة عالية المخاطر (HERO) المحتوى ليخضع لمزيد من المراجعة استنادًا إلى مؤشرات على أنه من المحتمل جدًا أن ينتشر بسرعة. وتم تصعيد المحتوى إلى خبراء السياسة في Meta، والذين بدورهم قاموا بإزالته لانتهاكه قاعدة سياسة تنسيق أنشطة ضارة وترويج ارتكاب الجرائم استنادًا إلى "كشف الانتماء". وتُعرِّف Meta "كشف الانتماء" على أنه "كشف هوية أو أماكن أي شخص يزعم أنه عضو في مجموعة معرضة لخطر كشف الانتماء". ووفقًا لتوجيهات Meta الداخلية للمراجعين، تضم المجموعة المعرضة لخطر كشف الانتماء أشخاصًا متهمين بالتجديف في باكستان. وعندما تم الإبلاغ عن الفيديو بواسطة نظام عمليات المراجعة المبكرة عالية الخطورة (HERO) وإزالته، كان قد تمت مشاهدته 48 ألف مرة ومشاركته أكثر من 14 ألف مرة. وفي مارس 2024، أحالت Meta الحالة إلى مجلس الإشراف.

تعتبر الجرائم المتعلقة بالدين مخالفة للقانون في باكستان، وتنص قواعد وسائل التواصل الاجتماعي في البلاد على إزالة محتوى "التجديف" على الإنترنت.

أهم النتائج

تبيَّن للمجلس أنه نظرًا للمخاطر المقترنة باتهامات التجديف في باكستان، فإن إزالة المحتوى كانت تتماشى مع مبادئ سياسة تنسيق أنشطة ضارة وترويج ارتكاب الجرائم من أجل منع "الضرر على أرض الواقع".

ليس من البديهي بالنسبة للمستخدمين أن المخاطر التي تواجه أقليات دينية أو عقائدية معينة تتعلق بـ "كشف الانتماء"، كما هو شائع (بعبارة أخرى، المخاطر الناتجة عن الكشف عن حالة خاصة علنًا). إن استخدام مصطلح "كشف الانتماء" في هذا السياق هو أمر مُحير، سواء باللغة الإنجليزية أو حتى الأردية. ليس من الواضح ما إذا كان الأشخاص المتهمون بالتجديف يعتبرون أنفسهم أعضاء في "مجموعة" معرضة لخطر "كشف الانتماء"، أو أن السياسيين قد يندرجون ضمن "مجموعة معرضة لخطر كشف الانتماء" بسبب الخُطب التي يلقونها علنًا، وخاصة أثناء الانتخابات. باختصار، السياسة ببساطة لا توضح للمستخدمين ما إذا كان الفيديو مخالفًا.

علاوة على ذلك، لا تحدد السياسة السياقات التي تغطيها فيما يتعلق بكشف الانتماء والمجموعات التي تعتبر معرضة للخطر. كما أنها لا تنص صراحةً على أن هؤلاء المتهمين بالتجديف يتمتعون بالحماية في الأماكن التي تشكل فيها هذه الاتهامات خطرًا وشيكًا بالأذى. وأوضحت Meta أنه على الرغم من أن لديها قائمة داخلية بالمجموعات المعرضة لخطر كشف الانتماء، إلا أنها لا تطرح هذه القائمة علنًا حتى لا يتمكن المحتالون من الالتفاف على القواعد. ويعترض المجلس على أن هذا السبب يبرر عدم وضوح السياسة بشكل عام. إن التحديد الواضح لسياقات كشف الانتماء والمجموعات المعرضة للخطر من شأنه أن يُبلغ الأهداف المحتملة لادعاءات التجديف بتعارُض مثل هذه الادعاءات بشكل صريح مع قواعد Meta وأنه ستتم إزالتها. وهو بدوره ما قد يعزز الإبلاغ بواسطة المستخدمين المتهمين بالتجديف في السياقات التي يشكل فيها التجديف مخاطر قانونية ومخاطر تتعلق بالسلامة، بما في ذلك باكستان. وقد تؤدي الخصوصية الأكبر في القاعدة العامة أيضًا إلى إنفاذ أكثر دقة من قِبل المراجعين البشريين.

يشعر المجلس أيضًا بالقلق من أن العديد من المراجعين تبيَّنوا أن المحتوى لا ينتهك القانون على الرغم من أن المستخدمين أبلغوا عنه مرارًا وتكرارًا، كما أن الإرشادات الداخلية لشركة Meta، على الرغم من أنها أكثر وضوحًا، تتضمن صراحةً الأشخاص المتهمين بالتجديف في باكستان في المجموعات المعرضة لخطر كشف الانتماء. وفقط عندما حدد نظام Meta لعمليات المراجعة المبكرة عالية الخطورة المحتوى، بعد انتشاره على نطاق واسع على ما يبدو، تم تصعيده إلى خبراء السياسة الداخليين وتم تحديد أنه ينتهك القواعد. وعلى هذا النحو، ينبغي لمراجعي Meta على نطاق واسع الحصول على المزيد من التدريب المخصص، خاصة في سياقات مثل باكستان.

قرار مجلس الإشراف

أيَّد مجلس الإشراف القرار الذي اتخذته شركة Meta بإزالة المحتوى.

يوصي المجلس Meta بما يلي:

  • تحديث سياسة تنسيق أنشطة ضارة وترويج ارتكاب الجرائم لتوضيح أنه يتعين على المستخدمين عدم نشر اتهامات بالتجديف ضد أفراد يمكن تحديدهم في الأماكن التي يعتبر فيها التجديف جريمة و/أو توجد مخاطر كبيرة على سلامة الأشخاص المتهمين بالتجديف.
  • تدريب المراجعين على نطاق واسع ممن يغطون المواقع التي تشكل فيها اتهامات التجديف خطرًا وشيكًا لإلحاق الأذى بالشخص المتهم، وتزويدهم بإرشادات إنفاذ أكثر تحديدًا لتحديد الفروق الدقيقة والسياق بشكل فعال ومراعاتها، في المنشورات التي تحتوي على مثل هذه الادعاءات.

*توفر ملخصات الحالة نظرة عامة على الحالات ولا تُشكّل سابقة قانونية.

القرار الكامل للمجلس بشأن الحالة

1. وصف الحالة ومعلومات أساسية عنها

في نهاية شهر يناير 2024، نشر أحد المستخدمين على Instagram مقطع فيديو مدته ست ثوانٍ لمرشح في انتخابات فبراير 2024 الباكستانية وهو يلقي خطابًا باللغة الأردية. وفي المقطع، يشيد المرشح برئيس الوزراء الأسبق نواز شريف، قائلا "يأتي نواز شريف بعد الله مباشرةً". ويتضمن الفيديو نصًا ينتقد فيه المستخدم هذا الثناء لأنه "تجاوز كل حدود الكفر"، حيث تعني كلمة "كفر" عدم الإيمان بالله وفقًا لتعاليم الإسلام.

قام ثلاثة من مستخدمي Instagram بالإبلاغ عن المحتوى بعد نشره بيوم واحد، ووجد أحد المراجعين البشريين أنه لا ينتهك معايير مجتمع Meta. ولم يقدم المستخدمون الذي أبلغوا عن المحتوى أي طعون. وبعد يوم واحد، أبلغ مستخدمان آخران عن المحتوى. وقرر المراجعون أن المحتوى غير مخالف في جميع الحالات. وبعد ثلاثة أيام من نشره، أبلغ مستخدم آخر عن المحتوى. واتخذ المراجعون إجراءً بشأن البلاغات ووجدوا أنها لا تنتهك قواعد Meta. وأبلغ عن المحتوى بعد ذلك مستخدمون آخرون تسع مرات أخرى في الأيام التالية، لكن Meta أغلقت هذه البلاغات تلقائيًا استنادًا إلى القرارات السابقة. وتمت مراجعة جميع بلاغات المستخدم في نفس يوم الإبلاغ.

في أوائل فبراير، وبعد خمس أيام من نشر المحتوى، حدد نظام Meta لعمليات المراجعة المبكرة عالية المخاطر (HERO) المحتوى ليخضع لمزيد من المراجعة استنادًا إلى الإشارات التي تشير إلى أنه من المحتمل جدًا أن ينتشر بسرعة. وقام نظام عمليات المراجعة المبكرة عالية الخطورة بتصعيد المحتوى إلى خبراء السياسة في Meta. وقاموا بإزالته لانتهاكه معيار المجتمع بشأن تنسيق أنشطة ضارة وترويج ارتكاب الجرائم فيما يتعلق بـ "كشف الانتماء: الكشف عن الانتماء أو المواقع التابعة لأي شخص يزعم أنه عضو في مجموعة معرضة لخطر كشف الانتماء". ووفقًا لإرشادات Meta الداخلية للمراجعين، تضم المجموعة المعرضة لخطر كشف الانتماء أشخاصًا متهمين بالتجديف في باكستان. وفي الوقت الذي تمت فيه إزالة مقطع الفيديو، كان قد تمت مشاهدته حوالي 48 ألف مرة وتمت مشاركته أكثر من 14 ألف مرة. وفي أواخر مارس 2024، أحالت Meta الحالة إلى مجلس الإشراف.

أخذ المجلس في حسبانه السياق التالي عند التوصل إلى قراره.

تم نشر مقطع الفيديو في الفترة التي سبقت الانتخابات الباكستانية في فبراير 2024، والتي تم فيها انتخاب شهباز شريف، شقيق رئيس الوزراء السابق نواز شريف، رئيسًا للوزراء لولاية أخرى. وينتمي المرشح السياسي الذي يمتدح نواز شريف في الفيديو إلى نفس الحزب السياسي الذي ينتمي إليه الأخوان.

استنادًا إلى البحث الذي أجراه المجلس، كان هناك العديد من المنشورات عبر الإنترنت التي تحتوي على مقطع فيديو يردد ادعاءات التجديف. وفي الوقت نفسه، هناك منشورات أخرى تشارك مقطع الفيديو الذي تبلغ مدته ست ثوانٍ، ولكنها تتعارض مع اتهامات "الكفر"، وتزعم أن المقطع المعدَّل يُخرج خطاب المرشح بالكامل عن سياقه. وتمت مشاركة منشور آخر عرض 60 ثانية من نفس الخطاب، كان قد تم تسجيله بواسطة كاميرا أخرى، أكثر من ألف مرة وتمت مشاهدته حوالي 100 ألف مرة. ويقدم هذا الفيديو الأطول سياقًا أكثر اكتمالاً لإشارة المرشح الانتخابي إلى الله، والذي ادعى النص الظاهر على مقطع الفيديو في هذه الحالة أنها تجديفًا.

تُجرم باكستان الجرائم المتعلقة بالدين بموجب المواد من 295 إلى 298 من قانون العقوبات الباكستاني، بما في ذلك تدنيس القرآن، والتعليقات المهينة للنبي محمد، والنية المتعمدة والخبيثة لاستفزاز "المشاعر الدينية". وتنص قواعد وسائل التواصل الاجتماعي الباكستانية (2021) على إزالة المحتوى عبر الإنترنت إذا كان "تجديفًا"، وفقًا لقانون العقوبات. وقد أدى ذلك إلى إدانة أشخاص، غالبًا من الأقليات الدينية ومنتقدي الإسلام، بتهمة التجديف بسبب منشوراتهم عبر الإنترنت والحكم عليهم بالإعدام. ووفقًا لمقرر الأمم المتحدة الخاص المعني بحرية الدين أو المعتقد، فإن الأقليات الدينية غالبًا ما تكون هدفًا لقوانين التجديف ويتم تصنيفها على نطاق واسع على أنها "مجدِّفة" أو "مرتدة" ( A/HRC/55/47، الفقرة 14). وفي باكستان، يُعد المسلمون الأحمدية والمسيحيون من بين تلك الأهداف ( A/HRC/40/58، الفقرة 37). وأشار مقرر الأمم المتحدة إلى أنه حتى أولئك الذين ينتمون إلى الطوائف الدينية الكبرى، بما في ذلك داخل الإسلام، والذين يعارضون بشدة الإساءة إلى دينهم من خلال قوانين التجديف، يواجهون أيضًا "خطرًا متزايدًا لاتهامهم بـ "الخيانة"
أو "التجديف" وفرض عقوبات بسبيل الانتقام". "( A/HRC/28/66، الفقرة 7، راجع أيضًا التعليق العام PC-29617). كما تُستخدم تهم التجديف لترهيب المعارضين السياسيين.

لقد أدت اتهامات التجديف إلى عمليات إعدام جماعية في باكستان، والتي حدثت في البلاد لعقود، على الرغم من أنها لا ترتبط دائمًا بوسائل التواصل الاجتماعي. وتشمل الحوادث الأخيرة ما يلي:

  • في 2021، هاجم حشد مصنعًا للأدوات الرياضية وقاموا بضرب رجل سريلانكي وإحراقه حتى الموت بعد اتهامه بتدنيس ملصقات تحمل اسم النبي محمد. وأظهرت لقطات فيديو تم تداولها على وسائل التواصل الاجتماعي للحشد يسحب جثة الرجل المصاب بجروح خطيرة قبل أن يحترق حتى الموت وسط هتاف مئات المتفرجين.
  • في فبراير 2023، اختطف حشد رجلاً مسلمًا من الحجز التابع للشرطة وضربوه حتى الموت بعد أن زعموا أنه دنس صفحات من القرآن الكريم. وانتشرت لقطات فيديو للحادث على مواقع التواصل الاجتماعي تظهر أشخاصا يجرُّون الرجل من ساقيه ويضربونه بقضبان وعصي معدنية.
  • في أغسطس 2023، هاجم حشود الكنائس المسيحية وأحرقوها وألحقوا أضرارًا بالمنازل المجاورة والأدوات التي تحتويها، وذلك بعد أن مزق اثنان من أبناء الرعية صفحات من القرآن الكريم وكتبوا عليها ملاحظات مهينة. واضطر بعض أبناء الرعية إلى الفرار من منازلهم هربًا منهم.
  • في فبراير 2024، أنقذت الشرطة امرأة من هجوم محتمل من قِبل حشد بعد أن ظنوا بالخطأ أن الطباعة على فستانها هي نص لآيات قرآنية. وتجمَّع الحشد حول المطعم الذي كانت المرأة تأكل فيه. وأصدرت اعتذارا عامًا في وقت لاحق.
  • في مايو 2024، رجل مسيحي مُسن يُدعى نذير مسيح تعرَّض لهجوم على يد حشد بزعم تدنيس القرآن. وأصيب الرجل بعدة إصابات في الرأس وتم نقله إلى المستشفى حيث لفظ أنفاسه الأخيرة. وفي أوائل يونيو، حشد من 2500 شخص نظم مسيرة للتعبير عن دعمه لجريمة القتل.
  • في يونيو 2024، بينما كان المجلس ينظر في هذه القضية، قُتل سائح محلي وأُحرقت جثته بعد اتهامه بتدنيس القرآن الكريم. وكانت الشرطة قد ألقت القبض على الرجل، لكن مئات الأشخاص تجمهروا حول مركز الشرطة حيث كان محتجزًا وطالبوا بتسليمه. ثم هاجم الحشد مبنى مركز الشرطة وسحبوا الرجل إلى الخارج. وأحرق الحشد الجثة بعد ضرب الرجل حتى الموت. وحتى أواخر يونيو، ألقت الشرطة القبض على 23 شخصًا متورطًا في الهجوم.

لقد كان السياسيون أيضًا هدفًا للعنف المرتبط بالتجديف. ومن أشهر الحوادث هي تلك التي تورط فيها حاكم البنجاب السابق سلمان تيسير، والذي قُتل على يد حارسه الشخصي في عام 2011. وكان تيسير قد دعا إلى إلغاء قوانين التجديف الباكستانية. وصدر حكم بالإعدام على الحارس الشخصي، وخرجت الحشود إلى الشوارع للاحتجاج. وبعد إعدامه، أقام المتظاهرون ضريحًا حول قبره. ووقع حادث آخر في عام 2011 تورط فيه جناة مجهولون قتلوا الوزير الاتحادي لشؤون الأقليات شهباز بهاتي. وانتقد بهاتي قوانين التجديف الباكستانية، تمامًا كما فعل شهباز بهاتي.

بالإضافة إلى الإجراءات الخاصة للأمم المتحدة، أدانت منظمات حقوق الإنسان والحرية الدينية وكذلك الحكومات الأخرى أعمال العنف الجماعية المرتبطة بالتجديف في باكستان والناجمة عن اتهامات التجديف. وأكد الخبراء الذين استشارهم المجلس أن تقديم بلاغ للشرطة ضد شخص متهم بتهمة التجديف يمكن أن يؤدي إلى اعتقاله لحمايته من الحشود. ومع ذلك، كما أظهر حادث يونيو 2024، فإن احتجاز الشرطة قد لا يكون كافيًا لحماية المتهمين بالتجديف من عنف الحشود.

على الرغم من ذلك، لا تزال محاكمات التجديف مستمرة في باكستان، وشكَّلت منشورات وسائل التواصل الاجتماعي أساس الإدانة. فعلى سبيل المثال، يواجه أحد الأساتذة عقوبة الإعدام، وكان قد سُجن لأكثر من 10 سنوات بسبب منشور على فيسبوك يرجع إلى 2013 يزعم أنه كافر. وقُتل محاميه عام 2014 لدفاعه عنه. وفي 2020، رفعت الشرطة قضية تجديف ضد أحد المدافعين عن حقوق الإنسان بسبب منشور على وسائل التواصل الاجتماعي. وفي مارس 2024، أُدين طالب يبلغ من العمر 22 عامًا بتهمة التجديف وحُكم عليه بالإعدام بتهمة إرسال صور مهينة للنبي محمد وزوجاته عبر تطبيق واتساب. لدى الحكومة الباكستانية تاريخ طويل في مراقبة المحتوى عبر الإنترنت بحثًا عن التجديف، وأصدرت أوامر لشركات التواصل الاجتماعي بتقييد الوصول إلى المنشورات التي تعتبرها تجديفًا. كما عقدت اجتماعًا مع Meta بشأن المنشورات التي تعتبرها تجديفًا.

ذكرت Meta في تقريرها للشفافية للفترة من يوليو 2023 إلى ديسمبر 2023 أنها قيَّدت الوصول في باكستان إلى أكثر من 2500 منشور أبلغت عنها هيئة الاتصالات الباكستانية بزعم انتهاكها للقوانين المحلية، بما في ذلك المنشورات التي تتضمن التجديف و"المشاعر المعادية للدين". وتغطي هذه التقارير فقط المحتوى الذي تزيله Meta بطلب حكومي، والذي لا ينتهك سياسات محتوى Meta (أي أنه لن يتم تضمين المشاركات التي تم وضع علامة عليها من قبل الحكومة والتي تزيلها الشركة لانتهاكها قاعدة Meta بشأن "كشف الانتماء" في هذه البيانات). واستنادًا إلى المعلومات التي قدمتها Meta بشأن هذه الحالة، يبدو أنه لا يوجد ما يشير إلى أن الحكومة طلبت مراجعة هذا المحتوى أو إزالته. وباعتبارها عضوًا في مبادرة الشبكة العالمية، تعهدت Meta باحترام حرية التعبير عندما تواجه قيودًا حكومية واسعة النطاق على المحتوى.

2. المعلومات المقدَّمة من المستخدمين

لم يقدم المستخدم بيانًا لهذه الحالة.

3. سياسات المحتوى والمعلومات المقدمة من Meta

1. سياسات المحتوى لدى شركة Meta

تنسيق أنشطة ضارة وترويج ارتكاب الجرائم

تهدف سياسة تنسيق أنشطة ضارة وترويج ارتكاب الجرائم إلى "منع وإعاقة حدوث السلوكيات الضارة والمقلَّدة على أرض الواقع" من خلال حظر كل ما ينطوي على "تسهيل أو تنظيم أو ترويج أو الإقرار ببعض الأنشطة الإجرامية أو الضارة التي تستهدف الأشخاص أو الأنشطة التجارية أو الممتلكات أو الحيوانات". وهناك خطان للسياسة في معايير المجتمع يتناولان "كشف الانتماء"، الأول يُطبَّق على نطاق واسع، والثاني يتطلب "سياقًا إضافيًا للإنفاذ" (مما يعني أنه لا يتم إنفاذ خط السياسة هذا إلا بعد التصعيد). وينطبق خط السياسة الأول على هذه الحالة. ويحظُر على وجه التحديد "كشف الانتماء: كشف هوية أو أماكن أي شخص يزعم أنه عضو في مجموعة معرضة لخطر كشف الانتماء". ولا يوضح هذا الخط أي من المجموعات تعتبر "مجموعات معرضة لخطر كشف الانتماء". أما خط السياسة الثاني، والذي لا يتم إنفاذه إلا عند التصعيد، فهو يحظر أيضًا "كشف الانتماء: كشف هوية الشخص وتعريضه لخطر الأذى" لقائمة محددة من الفئات الضعيفة، بما في ذلك أعضاء مجتمع الميم (LGBTQIA+‎) والنساء غير المحجبات والناشطين وسجناء الحرب. فالأشخاص المتهمون بالتجديف ليسوا من بين المجموعات المذكورة.

استنادًا إلى الإرشادات الداخلية التي قدمتها Meta للمراجعين، تشمل "المجموعات المعرضة لخطر كشف الانتماء" ضمن خط السياسة الأول الأشخاص المتهمين بالتجديف في باكستان، وكذلك مواقع محددة أخرى. وعلاوة على ذلك، يجب أن يكون "كشف الانتماء" طوعيًا؛ فلا يستطيع الشخص أن يكشف عن نفسه (على سبيل المثال، من خلال الإعلان عن نفسه كعضو في مجموعة معرضة لخطر كشف الانتماء). ولانتهاك السياسة بموجب الإرشادات الداخلي لشركة Meta، ليس من المهم ما إذا كان ادعاء التجديف مثبتًا أو كان المحتوى يقدم صورة خاطئة عنه. مجرد الادعاء يكفي لوضع الشخص المتهم ضمن المجموعة "المعرضة للخطر"، ويؤدي إلى إزالة المحتوى.

استثناء روح السياسة

يجوز لشركة Meta تطبيق استثناء "روح السياسة" على المحتوى عندما تسعى مبادئ السياسة (النص الذي يمثل مقدمة لكل معيار مجتمع) وقيم Meta إلى تحقيق نتيجة تختلف عن تلك التي ستتحقق عند التطبيق الصارم للقواعد (المحددة في قسم "يجب عدم نشر" وفي قائمة المحتوى المحظور). في قرارات سابقة، أوصى المجلس بأن تقدم شركة Meta توضيحًا عامًا لهذا الاستثناء للسياسة (المستحضرات الدوائية في سريلانكا، التوصية رقم 1، العنف الطائفي في ولاية أوديشا الهندية). وقد قبلت Meta التوصيات ذات الصلة ودخلت حيز التنفيذ بالكامل أو أنها قيد التنفيذ، وفقًا لآخر تقييم أجراه المجلس.

2. المعلومات المقدَّمة من Meta

أوضحت Meta أن الأشخاص المتهمين بالتجديف في باكستان تمت إضافتهم إلى قائمتها الداخلية لـ "المجموعات المعرضة لخطر كشف الانتماء" بموجب سياسة تنسيق أنشطة ضارة وترويج ارتكاب الجرائم في أواخر عام 2017، وذلك في أعقاب أعمال العنف المرتبطة بادعاءات التجديف في البلاد. وكجزء من جهودها الرامية إلى نزاهة الانتخابات في انتخابات باكستان 2024، منحت شركة Meta الأولوية لمراقبة المحتوى الذي يتضمن اتهامات بالتجديف نظرًا لارتفاع خطر حدوث ضرر على أرض الواقع، بما في ذلك العنف خارج نطاق القضاء، الناتج عن مثل هذه الادعاءات. وتدّعي Meta أن جهود النزاهة هذه أدَّت إلى تحديد المحتوى في هذه الحالة.

في إحالة الحالة الخاصة بها، أشارت Meta إلى التوتر بين الرأي والسلامة في هذا النوع من المحتوى خلال فترة الانتخابات. كما أشارت إلى قيمة المصلحة العامة في انتقاد المرشحين السياسيين مع الاعتراف بالمخاطر المختلفة التي تهدد السلامة والتي تشكلها اتهامات التجديف في باكستان، مثل العنف والموت ضد السياسيين.

وجدت Meta أن النص الموجود في مقطع الفيديو، والذي ذكر أن المرشح الانتخابي "تجاوز كل حدود الكفر"، يشكل ادعاءً بالتجديف. وبالنسبة إلى Meta، فإن مثل هذه اللغة إما أنها توحي بأن المرشح السياسي قد وقع في "الشرك"، أو بعبارة أخرى، الإيمان بأكثر من إله أو اعتبار أي شيء أو أي شخص مساويًا لله، أو أنها تتهم المرشح السياسي بانتهاك قوانين التجديف الباكستانية. في كلتا الحالتين، قررت Meta أن خطر الضرر على أرض الواقع يفوق القيمة التعبيرية المحتملة للفيديو. وأوضحت الشركة أنه لو لم يتضمن الفيديو النص الموجود، لما تمت إزالته من المنصة.

قدَّمت Meta أيضًا شرحًا لنظام عمليات المراجعة المبكرة عالية الخطورة الذي تستخدمه للكشف عن المحتوى عالي الخطورة (بالإضافة إلى بلاغات المستخدم): يعتمد الخطر المرتفع لمحتوى معين على احتمالية انتشاره. وتستخدم Meta إشارات مختلفة للتنبؤ بما إذا كان المحتوى سينتشر على نطاق واسع. وتتضمن هذه الإشارات ظهور جزء من المحتوى على شاشة المستخدم، ولو حتى جزئيًا، ولغة المنشور وأهم بلد تتم مشاركته فيه عند اكتشافه. إن نظام عمليات المراجعة المبكرة عالية الخطورة غير مرتبط بمعايير مجتمع معينة. وعلاوة على ذلك، لا تحتوي Meta على تعريف ثابت أو محدد لـ "التفاعلية العالية". وبدلاً من ذلك، فإن معدل الانتشار المرتفع يعتمد على عوامل تختلف من سوق إلى آخر. ونتيجة لذلك، تختلف الطريقة التي تُقيِّم بها Meta الإشارات عالية الانتشار خلال الأحداث عالية الخطورة، والتي قد تشمل فترات الانتخابات. ويجوز لفرق Meta الداخلية الاستفادة من عدد المشاهدات خلال فترات الانتخابات للاستجابة لمخاطر محددة. وعلى هذا النحو، يحدد نظام عمليات المراجعة المبكرة عالية الخطورة المحتوى بموجب أي سياسة بصرف النظر عن احتمال انتهاك السياسة.

طرح المجلس أسئلة على Meta بشأن قاعدة "المجموعات المعرضة لخطر كشف الانتماء" في سياسة تنسيق أنشطة ضارة وترويج ارتكاب الجرائم وإنفاذها، وجهود الشركة في نزاهة الانتخابات في باكستان، وطلبات الحكومة لإزالة المحتوى بموجب قوانين التجديف الباكستانية ومعايير مجتمع Meta. وقدَّمت Meta إجابات على جميع الأسئلة.

4. التعليقات العامة

تلقى مجلس الإشراف ثلاثة تعليقات عامة استوفت شروط إرسال التعليقات. وتم تقديم تعليقين من أوروبا وتعليق واحد من وسط وجنوب آسيا. وللاطلاع على التعليقات العامة المقدمة التي وافق أصحابها على نشرها، انقر هنا.

تناولت التعليقات المقدمة الموضوعات التالية: الإشراف على محتوى Meta للمنشورات التي تحتوي على ادعاءات التجديف، وتأثير هذه الادعاءات على حقوق الإنسان والملاحقات القضائية ذات الصلة في باكستان، والدور الذي تلعبه اتهامات التجديف ضد الشخصيات العامة في باكستان ودول أخرى.

5. تحليل مجلس الإشراف

تسلط هذه الحالة الضوء على التوتر بين قيم Meta المتمثلة في حماية الرأي، بما في ذلك النقد السياسي أثناء الانتخابات، وضمان سلامة الأشخاص المتهمين بالتجديف، وذلك نظرًا للتهديدات التي تهدد الحياة والحرية والتي يمكن أن تحملها مثل هذه الاتهامات في باكستان.

قام المجلس بتحليل قرار Meta في هذه الحالة في ضوء سياسات المحتوى التي تتبعها الشركة، وقيمها، ومسؤولياتها تجاه حقوق الإنسان. كما أجرى تقييمًا للآثار التي تمثلها هذه الحالة فيما يتعلق بنهج Meta الأوسع في إدارة المحتوى.

5.1 الامتثال لسياسات المحتوى لدى شركة Meta

1. قواعد المحتوى

تبيَّن للمجلس أنه لم يتم انتهاك القاعدة الواردة في سياسة Meta التي تحظر الكشف عن هوية أي شخص يزعم أنه عضو في "مجموعة معرضة لخطر كشف الانتماء"، وذلك لأنه من غير الواضح أن يمتد هذا ليصل إلى الشخصيات العامة المتهمة بالتجديف في باكستان أو في أي مكان آخر.

في باكستان، في حين يمكن اعتبار أقليات دينية أو عقائدية معينة "مجموعات معرضة لخطر" الأذى، ليس من البديهي أن ترتبط هذه المخاطر بـ "كشف الانتماء"، كما هو شائع (أي المخاطر الناتجة عن الكشف عن حالة خاصة علنًا). وبالمثل، فإن الأشخاص المتهمين بالتجديف لا يعتبرون أنفسهم بالضرورة أعضاء في "مجموعة" (مقارنةً بالأفراد الذين يشتركون في سمات تتمتع بحقوق حماية، والتي قد تشمل الأقليات الدينية). وعلاوة على ذلك، ليس من البديهي أن يندرج الساسة ضمن "مجموعة معرضة لخطر كشف الانتماء" بسبب المعلومات التي يتم الكشف عنها في الخطب العامة، وخاصةً في سياق الانتخابات. وفي الواقع، تُميِّز أجزاء أخرى من قواعد Meta في هذا المجال "الشخصيات السياسية"، ولا توفر لها الحماية لأشكال معينة من "كشف الانتماء".

تبيَّن للمجلس أنه حتى إذا كانت الإرشادات الداخلية الموجهة للمراجعين تحتوي على إرشادات إنفاذ أكثر تحديدًا تدرج "مجموعات كشف الانتماء" (أو بشكل أكثر دقة، السياقات) التي تغطيها السياسة، فإن سياسة المواجهة العامة لا تحتوي على العناصر الأساسية التي من شأنها أن تحظر بشكل واضح المحتوى في هذه الحالة.

مع ذلك، تبيَّن للمجلس، أثناء ممارسته لدوره في مجال الفصل والرقابة، أن قراءة الحظر الذي تفرضه سياسة تنسيق أنشطة ضارة وترويج ارتكاب الجرائم في ضوء مبادئ السياسة يستدعي إزالة المحتوى، وهو استنتاج مدعوم من تحليل حقوق الإنسان أدناه. ووفقًا لمبادئ السياسة، يهدف معيار المجتمع بشأن تنسيق أنشطة ضارة وترويج ارتكاب الجرائم إلى "منع وإعاقة حدوث الأذى على أرض الواقع"، بما في ذلك منع الأشخاص من "تسهيل أو تنظيم أو ترويج أو الإقرار ببعض الأنشطة الإجرامية أو الضارة التي تستهدف الأشخاص". وتسمح Meta بمناقشة الشرعية أو رفع مستوى الوعي بالنشاط الإجرامي أو الضار طالما أن المنشور لا يدعو إلى الضرر أو ينسقه. في هذه الحالة، تبيَّن للمجلس أن إزالة المحتوى تخدم مبادئ السياسة لمنع الضرر خارج الإنترنت نظرًا للمخاطر القانونية ومخاطر السلامة التي يمكن أن تحملها اتهامات التجديف في باكستان. ولا يمكن تفسير مشاركة المستخدم على أنها تهدف إلى رفع مستوى الوعي أو مناقشة شرعية التجديف في باكستان. إنما العكس: بل تتهم شخصًا ما بالتورط في التجديف في مكان يمكن أن يواجه فيه الملاحقة القضائية و/أو مخاطر تتعلق بالسلامة. وجاء الاتهام ضد المرشح السياسي في الفترة التي سبقت انتخابات فبراير 2024 مباشرة، وذلك عندما كان المرشح سيشارك بكل قوته في الحملة الانتخابية. وكان احتمال حدوث ضرر وشيك، مثل عنف الحراسة الأهلية والملاحقة الجنائية، قائمًا. ويرقى هذا إلى مستوى "تسهيل" نشاط إجرامي أو ضار محظور بموجب سياسة تنسيق أنشطة ضارة وترويج ارتكاب الجرائم.

وترى أقلية في المجلس أنه يجب إزالة المحتوى على أساس روح السياسة. كما ترى هذه الأقلية أنه يجب استخدام استثناء السياسة هذا فقط على أساس استثنائي للغاية، خاصة لإزالة المحتوى. ومع ذلك، هناك مواقف، مثل تلك الموجودة في هذه الحالة، حيث يكون من الضروري معالجة المواقف التي تزيد فيها مخاطر الضرر والتي لا يتم حظرها صراحةً في قواعد "يجب عدم نشر" المحددة في Meta. هذه هي الحالة القائمة هنا، وذلك لأن معيار المجتمع لتنسيق أنشطة ضارة وترويج ارتكاب الجرائم لا ينص صراحةً على حظر اتهامات التجديف في باكستان. ومع ذلك، فإن الإزالة تتوافق مع روح السياسة بشكل عام وأهدافها المتمثلة في تقليل الضرر. وترى الأقلية أنه عندما تقوم Meta بإزالة المحتوى استناداً إلى "روح السياسة"، فلابد من توثيق ذلك حتى يمكن تتبع استخدامه، ومن ثم تشكيل أساس لتحديد الثغرات السياسية التي ينبغي معالجتها.

5.2 الامتثال لمسؤوليات شركة Meta تجاه حقوق الإنسان

تبيَّن للمجلس أن إزالة المحتوى من المنصة كان يتوافق مع مسؤوليات Meta تجاه حقوق الإنسان، وذلك على الرغم من أنه يجب على Meta معالجة المخاوف بشأن وضوح قواعدها في هذا المجال وسرعة إنفاذها.

حرية التعبير (المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية)

تتضمن المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية حرية "التماس مختلف ضروب المعلومات والأفكار"، وتوفر حماية واسعة النطاق للتعبير، بما في ذلك "الخطاب السياسي" والتعليق على "الشؤون العامة". ويشمل ذلك الأفكار والآراء التي قد تكون مثيرة للجدل أو مسيئة للغاية، ( التعليق العام رقم 34، الفقرة 11). وتكون قيمة التعبير مرتفعة بشكل خاص عند مناقشة المسائل العامة، وتعتبر حرية التعبير "شرطًا أساسيًا" للممارسة الفعالة لحق الفرد في التصويت أثناء الانتخابات ( التعليق العام 25، الفقرة 12). كما أن جميع الشخصيات العامة، بما في ذلك أولئك الذين يمارسون أعلى سلطة سياسية مثل رؤساء الدول والحكومات، يخضعون بشكل مشروع للنقد والمعارضة السياسية (التعليق العام رقم 34، الفقرة 38).

تتعارض قوانين التجديف مع المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية (التعليق العام رقم 34، الفقرة 48). ووفقاً للمفوضية السامية لحقوق الإنسان التابعة للأمم المتحدة، فإن الحق في حرية الدين أو المعتقد لا يشمل الحق في التمتع بدين أو معتقد خالٍ من النقد أو السخرية. وعلى هذا الأساس، ينبغي إلغاء قوانين التجديف (راجع التعليق العام رقم 34، الفقرة 48 وA/HRC/31/18، الفقرتان 59 و60)، خطة عمل الرباط، التقرير A/HRC/22/17/Add.4، الفقرة 19.) في الواقع، غالبًا ما تعمل قوانين التجديف على تأجيج التعصب الديني واضطهاد الأقليات الدينية والمعارضة. وبدلاً من تجريم التجديف والتعبير الذي يعكس التعصب الديني، اتفق المجتمع الدولي في عام 2011 على قرار مجلس حقوق الإنسان التابع للأمم المتحدة رقم 16/18، والذي وضع مجموعة أدوات مفيدة من التدابير التي أثبتت جدواها على مر الزمن لمكافحة التعصب الديني واللجوء فقط إلى حظر التعبير في حالات خطر العنف الوشيك.

عند فرض الدولة لقيود على حرية التعبير، يجب أن تفي تلك القيود بمتطلبات الشرعية والهدف المشروع والضرورة والتناسب (المادة 19، الفقرة 3، العهد الدولي الخاص بالحقوق المدنية والسياسية، التعليق العام رقم 34، الفقرة 22 و34). وتتم الإشارة إلى هذه المتطلبات غالبًا باسم "الاختبار الثلاثي". ويستخدم المجلس إطار العمل هذا لتفسير مسؤوليات Meta تجاه حقوق الإنسان تماشيًا مع مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان، والتي التزمت بها شركة Meta نفسها في سياسة حقوق الإنسان الخاصة بها. ويقوم المجلس بذلك فيما يتعلق بالقرارات الفردية بشأن المحتوى الخاضع للمراجعة، وما يخبرنا به ذلك عن نهج Meta الأوسع تجاه إدارة المحتوى. وكما ذكر مقرر الأمم المتحدة الخاص المعني بحرية التعبير على الرغم من أنه "لا تتحمل الشركات التزامات الحكومات، لكن تأثيرها يتطلب منها تقييم نفس النوع من الأسئلة المتعلقة بحماية حقوق مستخدميها في حرية التعبير،" (A/74/486، الفقرة 41).

1. الشرعية (وضوح القواعد وسهولة الوصول إليها)

يتطلب مبدأ الشرعية أن تكون القواعد التي تقيِّد حرية التعبير واضحة ويسهُل الوصول إليها، وأن تصاغ بدقة كافية لتمكين الأشخاص من ضبط سلوكهم تبعًا لها (التعليق العام رقم 34، الفقرة 25). وعلاوة على ذلك، فإن هذه القواعد "لا يجوز أن تمنح الأشخاص المسؤولين عن تنفيذها سلطة تقديرية مطلقة في تقييد حرية التعبير" ويجب أن "تنص على توجيهات كافية للمكلفين بتنفيذها لتمكينهم من التحقق على النحو المناسب من أنواع التعبير التي تخضع للتقييد وتلك التي لا تخضع لهذا التقييد،" ( المرجع نفسه ). وذكر مقرر الأمم المتحدة الخاص المعني بحرية التعبير أنه عند تطبيق ذلك على قيام الجهات الفاعلة الخاصة بحوكمة الخطاب على الإنترنت، يجب أن تكون القواعد واضحة ومحددة (A/HRC/38/35، الفقرة 46). إذ ينبغي أن يتمكن الأشخاص الذين يستخدمون منصات Meta من الوصول إلى هذه القواعد وفهمها كما ينبغي أن تتوافر لمراجعي المحتوى توجيهات واضحة فيما يتعلق بإنفاذها.

تبيَّن للمجلس أن سياسة تنسيق أنشطة ضارة وترويج ارتكاب الجرائم التي تحظر تحديد هوية عضو في مجموعة معرضة لخطر كشف الانتماء ليست واضحة للمستخدمين. وأولاً، يرى المجلس أن استخدام مصطلح "كشف الانتماء" يعد أمرًا محيرًا، سواء باللغة الإنجليزية أو باللغات الأخرى التي تُترجم إليها القاعدة، بما في ذلك اللغة الأردية. وعلى الرغم من أن "كشف الانتماء" يشير عمومًا إلى الكشف دون موافقة عن الحالة الخاصة لشخص آخر، ويُستخدَم بشكل شائع في سياق الكشف دون موافقة عن التوجه الجنسي للشخص أو هويته الجنسية، إلا أن هذا المصطلح أقل شيوعًا في سياقات أخرى، مثل العقيدة الدينية أو المعتقد الديني. ولا يعتبر الأشخاص المتهمون بالتجديف أنفسهم عادةً معرضين لخطر "كشف الانتماء". وبالإضافة إلى ذلك، فإن ترجمة عبارة "مجموعة معرضة لخطر كشف الانتماء" إلى لغات أخرى تمثل إشكالية. فعلى سبيل المثال، الترجمة الأردية للنسخة العامة من سياسة كشف الانتماء غير واضحة بشكل خاص. ولن يفهم المتحدث باللغة الأردية في باكستان أن عبارة "شناخت ظاہر کرنا" تعني "خطر كشف الانتماء". كما أن الترجمة لا تحدد المقصود بعبارة "خطر كشف الانتماء". ويشعر المجلس بالقلق من صعوبة ترجمة الإطار الحالي في سياقات ثقافية مختلفة؛ وهو ما يخلق حالة من الارتباك المحتمل عند المستخدمين الذين يسعون إلى فهم القواعد. ويتفاقم الافتقار إلى الشفافية بسبب حقيقة أن إرشادات مجتمع Instagram لا تحتوي على رابط واضح لسياسة Meta بشأن تنسيق أنشطة ضارة وترويج ارتكاب الجرائم؛ وهو ما يجعل من الصعب على المستخدم معرفة القواعد التي تنطبق على المحتوى الذي يتهم شخصًا ما بالتجديف.

ثانيًا، لا تحدد سياسة (التعامل مع العامة) السياقات التي يغطيها خط السياسة هذا والمجموعات التي تعتبر معرضة للخطر. كما أنه لا ينص صراحةً على أن هؤلاء المتهمين بالتجديف يتمتعون بالحماية في الأماكن التي تشكل فيها هذه الاتهامات خطرًا وشيكًا بالأذى. وهو ما يمثل مشكلة خاصة بالنسبة لأفراد الأقليات الدينية الذين غالبًا ما يكونوا هدفًا لادعاءات التجديف، لا سيما حيث قد يحتفظ الأفراد لأسباب تتعلق بالسلامة بعقيدتهم أو معتقداتهم سرًا، ويكونون عرضة "لكشف الانتماء". ومن المهم بالنسبة لهذه المجتمعات أن تمنحهم القواعد الثقة في أنه يتم حظر المحتوى الذي يعرض سلامتهم للخطر بشكل مباشر. وفي حين وضوح الإرشادات الداخلية للمراجعين بشكل أكبر، فإن الفشل المتكرر للمراجعين في هذه الحالة في تحديد ما إذا كان منشور المستخدم ينتهك هذا التوجيه بشكل صحيح يشير إلى أنه لا يزال غير كافٍ.

أوضحت Meta أنها لا تطرح قائمة المجموعات المعرضة لخطر كشف الانتماء علنًا، والتي تغطيها السياسة، حتى لا يتمكن المحتالون من الالتفاف على القواعد. ويعترض المجلس على أن هذا الرأي يُبرر افتقار السياسة إلى الوضوح. إن التحديد الواضح لسياقات كشف الانتماء والمجموعات المعرضة للخطر، والتي تغطيها هذه السياسة؛ من شأنه أن يُبلغ الأهداف المحتملة لادعاءات التجديف بتعارُض مثل هذه الادعاءات صراحةً مع قواعد Meta، وأنه ستتم إزالتها. وفي الواقع، تقوم Meta بذلك بالفعل في خط السياسة الآخر ضد "كشف الانتماء" الذي يتطلب سياقًا إضافيًا لإنفاذه. ويُدرِج هذا الخط السياسي، الذي لم يشكل أهمية في هذه الحالة، مجموعات مختلفة معرضة لخطر كشف الانتماء (على سبيل المثال، أعضاء مجتمع الميم LGBTQIA+‎ والنساء غير المحجبات والمنشقين وأسرى الحرب)، والتي تقع ضمن نطاق خط السياسة هذا. وبالتالي، لن يخرج تطبيق نفس النهج المتعلق بادعاءات التجديف عن نهج Meta الحالي بشأن الوضوح لمستخدميه فيما يتعلق بخطوط سياسية أخرى مماثلة حيث تبدو المخاطر والفاضلات متشابهة. وقد يؤدي بدوره توفير هذا الوضوح في تعزيز الإبلاغ بواسطة المستخدمين المتهمين بالتجديف في سياقات يشكل فيها هذا مخاطر قانونية ومخاطر تتعلق بالسلامة، بما في ذلك باكستان. وقد تؤدي أيضًا الخصوصية الأكبر في قواعد التعامل مع العامة إلى إنفاذ أكثر دقة من قِبل المراجعين البشريين.

يحُث المجلس شركة Meta بشدة على أن تحدد في قواعدها المتعلقة بالتعامل مع العامة أن اتهامات التجديف والردة ضد الأفراد محظورة في مواقع معينة حيث تشكل مخاطر قانونية ومخاطر تتعلق بالسلامة. ولن يكون هذا أكثر وضوحًا في قاعدة مستقلة منفصلة عن مفهوم "كشف الانتماء" فحسب، بل سيكون أيضًا متوافقًا مع نهج Meta عند إدراج المجموعات المعرضة للخطر في أجزاء أخرى من سياسة تنسيق أنشطة ضارة وترويج ارتكاب الجرائم. ولا ينظر المجلس في كل التفاصيل التي سيتم عرضها في لغة التعامل مع العامة لمعايير المجتمع بشأن تنسيق أنشطة ضارة وترويج ارتكاب الجرائم. ولكن بحد أدنى، فإن العناصر ذات الصلة بالمحتوى المحظور، مثل أنواع المجموعات التي تتمتع بحماية، وأنواع المواقع التي تنطبق عليها القاعدة، وأنواع التعبير التي تندرج ضمن الحظر، من شأنها تقديم المزيد من الوضوح للمستخدمين. وهذا من شأنه معالجة مخاوف Meta بشأن محاولة المحتالين التهرب من القواعد مع توعية الأهداف المحتملة لاتهام التجديف بأن هذا النوع من المحتوى محظور.

2. الهدف المشروع

ينبغي أيضًا أن تستند أي قيود مفروضة على حرية التعبير إلى واحد أو أكثر من الأهداف المشروعة الواردة في العهد الدولي الخاص بالحقوق المدنية والسياسية، والتي من بينها حماية حقوق الآخرين (المادة 19، الفقرة 3، العهد الدولي الخاص بالحقوق المدنية والسياسية). ويشمل ذلك الحق في الحياة والحرية والأمان للأشخاص (المادتان 6 و9 من العهد الدولي الخاص بالحقوق المدنية والسياسية). ويدرك المجلس أيضًا أن حماية الأشخاص من الجريمة لا تعتبر هدفًا مشروعًا بموجب المعايير الدولية لحقوق الإنسان. وقد أقر المجلس سابقًا أن سياسة Meta بشأن تنسيق أنشطة ضارة وترويج ارتكاب الجرائم تسعى إلى تحقيق الهدف المشروع المتمثل في حماية حقوق الآخرين في سياق الانتخابات، مثل الحق في التصويت ( قواعد التصويت لهيئة الانتخابية الأسترالية). وتبيَّن للمجلس أن هدف السياسة المتمثل في "منع الضرر على أرض الواقع والحد منه" يتوافق مع الهدف المشروع المتمثل في حماية حقوق الأشخاص في حياة وحرية وأمان الأشخاص.

3. الضرورة والتناسب

بموجب المادة 19(3) من العهد الدولي الخاص بالحقوق المدنية والسياسية، فإن الضرورة والتناسب يتطلبان أن تكون القيود المفروضة على حرية التعبير "مناسبة لتحقيق وظيفة الحماية المنوطة بها، ويجب أن تكون أقل الوسائل تدخلاً مقارنة بغيرها من الوسائل التي يمكن أن تحقق النتيجة المنشودة؛ ويجب أن تكون متناسبة مع المصلحة التي ستحميها" (التعليق العام رقم 34، الفقرة 34).

تبيَّن للمجلس أن إزالة المحتوى في هذه الحالة يتوافق مع مبدأ الضرورة والتناسب، كما تبيَّن له أن العوامل الستة لتقييم التحريض على العنف والتمييز في خطة عمل الرباط مفيدة لتقييم احتمال الضرر الناتج عن هذا المنشور. وتتمثل هذه العوامل في محتوى التعبير وشكله، ونية المتحدث، وهوية المتحدث، ومدى وصوله، واحتمال الضرر وشيك الحدوث.

فيما يتعلق بمحتوى وشكل التعبير ونية المتحدث، كما هو موضح أعلاه، فإن المحتوى الموجود في المنشور ينقل بوضوح الرغبة في اتهام المرشح السياسي بالتجديف، والقيام بذلك دون الإشارة إلى نية رفع مستوى الوعي أو مناقشة شرعية مثل هذا الخطاب.

فيما يتعلق بهوية المتحدث ومدى وصول محتواه، يرى المجلس أن المستخدم ليس شخصية عامة لها تأثير على الآخرين، ولديه عدد قليل نسبيًا من المتابعين. ومع ذلك، تم تعيين إعدادات خصوصية الحساب إلى "عام" وقت نشر المحتوى، وتمت مشاركة المحتوى حوالي 14 ألف مرة بواسطة حوالي 9000 مستخدم. وهو ما يدل على أن خطاب الشخصيات غير العامة لا يزال من الممكن نشره على نطاق واسع للغاية على وسائل التواصل الاجتماعي، ومن الصعب التنبؤ بسرعة انتشاره. وقد زاد مدى وصول هذا المنشور من احتمالية ضرره، على الرغم من أن الشخص الذي نشره لا يبدو في موقع سُلطة.

يرى المجلس أن هناك احتمالاً لحدوث ضرر وشيك نظرًا للسياق المحيط بادعاءات التجديف في باكستان، حيث تمثل هذه الاتهامات خطرًا جسيمًا بحدوث ضرر بدني، بل وحتى الموت. ويأتي سياق المحظورات القانونية الوطنية والملاحقات القضائية ذات الصلة والعنف من جانب الحراس المحتملين في القسم 1 أعلاه (راجع أيضًا التعليقين العامين PC-29615 وPC-29617).

بالنظر إلى عوامل الرباط الستة، تبيَّن للمجلس أنه كان من الضروري والمتناسب إزالة المنشور المعني.

علاوة على ذلك، يشعر المجلس بالقلق بشكل خاص من أن العديد من المراجعين الذين يقومون بإنفاذ معايير مجتمع Meta تبين لهم أن المحتوى لا يمثل انتهاكًا. وكان هذا على الرغم من البلاغات المتكررة من المستخدمين وادعاءات Meta بمنح الأولوية للإنفاذ ضد محتوى من هذا النوع في إطار جهودها الرامية إلى نزاهة الانتخابات في باكستان، وذلك نظرًا للمخاطر العالية التي قد تسببها على أرض الواقع. وفقط عندما حدد نظام Meta لعمليات المراجعة المبكرة عالية الخطورة المحتوى بعد أيام، بعد انتشاره على نطاق واسع على ما يبدو، تم تصعيده إلى خبراء السياسة الداخليين وتم تحديد أنه ينتهك معيار المجتمع بشأن تنسيق أنشطة ضارة وترويج ارتكاب الجرائم. لقد أهدر العديد من المراجعين البشريين فرصًا سابقة للإنفاذ الدقيق للمحتوى؛ مما يشير إلى الحاجة إلى تدريب مخصص للمراجعين لفهم كيفية تحديد الانتهاكات في سياقات مثل باكستان. وهو ما يعد مهمًا بشكل خاص في سياقات الانتخابات، حيث قد تتصاعد التوترات ويكون الإنفاذ الدقيق ضروريًا للحماية من القيود غير الضرورية على التعبير ومنع الضرر على أرض الواقع. وفي إطار تقييم ما إذا كانت جهود نزاهة الانتخابات في باكستان ناجحة، يجب على Meta أن تأخذ في اعتبارها سبب فشل العديد من المراجعين في الإنفاذ الدقيق ضد هذا المنشور، وكيفية ضمان جهود أكثر فعالية لنزاهة الانتخابات في البلدان التي تواجه مخاطر مماثلة في المستقبل.

في الوقت الذي يمكن أن تخلق فيه اتهامات التجديف مخاطر كبيرة للسياسيين في البلدان التي يتم فيها تجريم التجديف، من الممكن أن تكون هناك مناقشات مهمة حول التجديف، لا سيما في سياق الانتخابات. ويجب أن تتوخى Meta الحذر لتجنب الإفراط في إنفاذ السياسة ضد المحتوى الذي لا يتهم الأفراد بالتجديف، بل ينخرط في المناقشات السياسية. وستثير هذه الإزالة المفرطة القلق بشكل خاص في السياقات التي يخضع فيها الخطاب السياسي بالفعل لقيود حكومية مفرطة لا تمتثل للقانون الدولي لحقوق الإنسان. ولن يكون كل المحتوى الذي يستخدم مصطلح "كفر" بمثابة اتهام بالتجديف، كما يتضح من مجموعة متنوعة من مقاطع الفيديو المماثلة التي تمت مشاركتها لنفس الأحداث كما في هذه الحالة. لذلك، يُذكِّر المجلس شركة Meta بأن مسؤولياتها في مجال حقوق الإنسان تتطلب منها احترام التعبير السياسي عند مشاركة المحتوى لمواجهة مزاعم التجديف أو المشاركة في مناقشات حول التجديف دون تعريض الأفراد للخطر. ومن المهم أن يؤكد تدريب المشرفين على أهمية حرية التعبير في هذا السياق، وأن يسمح لهم بتصعيد القرارات إلى فِرَق أكثر تخصصًا عندما تكون هناك حاجة إلى مزيد من التحليل السياقي للوصول إلى قرار صحيح.

6. قرار مجلس الإشراف

أيّد مجلس الإشراف القرار الذي اتخذته شركة Meta بإزالة المحتوى.

7. التوصيات

سياسة المحتوى

1. لضمان سلامة المستهدفين بتهم التجديف، يجب على Meta تحديث سياسة تنسيق أنشطة ضارة وترويج ارتكاب الجرائم لتوضيح أنه يتعين على المستخدمين عدم نشر اتهامات بالتجديف ضد أفراد يمكن تحديدهم في الأماكن التي يعتبر فيها التجديف جريمة و/أو توجد مخاطر كبيرة على سلامة الأشخاص المتهمين بالتجديف.

سيعتبر المجلس أن هذه التوصية قد دخلت حيز التنفيذ عندما تقوم Meta بتحديث الصيغة المعلنة من معيار مجتمعها بشأن تنسيق أنشطة ضارة وترويج ارتكاب الجرائم بحيث تعكس هذا التغيير.

الإنفاذ

2. لضمان الإنفاذ المناسب لخط سياسة تنسيق أنشطة ضارة وترويج ارتكاب الجرائم ضد اتهامات التجديف في المواقع التي تشكل فيها هذه الاتهامات خطرًا وشيكًا لإلحاق الأذى بالشخص المتهم، يجب على Meta تدريب المراجعين على نطاق واسع ممن يغطون هذه المواقع وتزويدهم بتوجيهات إنفاذ أكثر تحديدًا لتحديد ومراعاة الفروق الدقيقة والسياق بشكل فعال في المنشورات التي تحتوي على ادعاءات التجديف.

سيعتبر المجلس أن هذه التوصية قد دخلت حيز التنفيذ عندما توفر Meta مستندات داخلية محدثة توضح تنفيذ تدريب للمراجعين على نطاق واسع لاكتشاف هذا النوع من المحتوى بشكل أفضل.

*ملاحظة إجرائية:

  • يتم اتخاذ قرارات مجلس الإشراف من قبل لجان مكونة من خمسة أعضاء ويتم الموافقة عليها بأغلبية أصوات المجلس بالكامل. ولا يلزم بالضرورة أن تُعبّر قرارات المجلس عن وجهات النظر لجميع الأعضاء.
  • بموجب اتفاقيته، يجوز لمجلس الإشراف مراجعة الطعون المقدمة من المستخدمين الذين قامت Meta بإزالة محتواهم، والطعون المقدمة من المستخدمين الذين أبلغوا عن محتوى قامت Meta بتركه، والقرارات التي أحالتها Meta إليه (المادة 2، القسم 1 من الاتفاقية). وللمجلس سلطة مُلزمة تخوله من تأييد أو إلغاء القرارات التي تتخذها Meta بشأن المحتوى (المادة 3، القسم 5، المادة 4 من الاتفاقية). ويجوز للمجلس إصدار توصيات غير ملزمة يجب على شركة Meta الرد عليها (المادة 3، القسم 4، المادة 4 من اتفاقية المجلس). وعندما تلتزم Meta بتنفيذ التوصيات، يراقب المجلس هذا التنفيذ.
  • بالنسبة إلى القرار المتخذ بشأن هذه الحالة، تم إجراء بحث مستقل نيابةً عن المجلس. وقد تلقى المجلس مساعدة من شركة Duco Advisors، وهي شركة تركز على نقطة التقاء الجغرافيا السياسية والثقة والأمان والتكنولوجيا. وقد تم تقديم أبحاث أيضًا بواسطة مجموعة Memetica، وهي مجموعة متخصصة في التحقيقات الرقمية تقدم خدمات استشارية بشأن المخاطر وخدمات استخباراتية بشأن التهديدات للتخفيف من حدة الأضرار على الإنترنت. تم توفير الخبرة اللغوية بواسطة شركة Lionbridge Technologies LLC، التي يتقن المتخصصون بها أكثر من 350 لغة ويعملون من 5000 مدينة في جميع أنحاء العالم.

العودة إلى قرارات الحالة والآراء الاستشارية المتعلقة بالسياسة