قرار قضية متعددة
تصريح وزير الداخلية الكيني
تم النشر بتاريخ 9 كانُون الْأَوَّل 2025
طعن مستخدمان بشكل منفصل على قرارات Meta بإزالة منشورين ينقلان خطاب وزير الداخلية الكيني كيبتشومبا موركومين بشأن المتظاهرين. وبعد أن لفت المجلس انتباه Meta إلى الطعنين، تراجعت الشركة عن قراراتها الأصلية واستعادت المنشورين.
2 تم تضمين من الحالات في هذه الحزمة
FB-H5X3TL3A
حالة بشأن عنف وتحريض على فيسبوك
FB-KW8A63JE
حالة بشأن عنف وتحريض على فيسبوك
تدرس القرارات الموجزة الحالات التي تراجعت فيها Meta عن قرارها الأصلي بشأن محتوى معين بعد أن لفت المجلس انتباه الشركة إليه، وتتضمن معلومات حول الأخطاء التي أقرت بها Meta. وتوافق عليها لجنة من أعضاء المجلس، وليس المجلس بكامله، ولا تتضمن تعليقات عامة ولا تُشكّل سابقة قانونية لدى المجلس. وتُحدث القرارات الموجزة تغييرات مباشرة في قرارات Meta، مما يوفر الشفافية بشأن هذه التصحيحات، مع تحديد الجوانب التي يمكن أن تحسّن Meta فيها عمليات الإنفاذ.
الملخص
طعن مستخدمان بشكل منفصل على قرارات Meta بإزالة منشورين ينقلان خطاب وزير الداخلية الكيني كيبتشومبا موركومين بشأن المتظاهرين. وبعد أن لفت المجلس انتباه Meta إلى الطعنين، تراجعت الشركة عن قراراتها الأصلية واستعادت المنشورين.
حول الحالات
في الحالة الأولى، شارك أحد مستخدمي فيسبوك، الذي تشير سيرته الذاتية إلى أنه يدير "صفحة أخبار سياسية"، مقطع فيديو يظهر فيه وزير الداخلية والإدارة الوطنية في كينيا، كيبتشومبا موركومين، في مؤتمر صحفي. ويقول موركومين في الفيديو: "نحن نقول للشرطة، أي شخص يقترب من قسم شرطة، أطلقوا النار عليه". ويتضمن الفيديو شرحًا توضيحيًا باللغة السواحيلية يفيد بأن موركومين "قوبل بصياح استهجان" بعد إدلائه بهذا التصريح في الفيديو. وفي الحالة الثانية، نشر مستخدم آخر على فيسبوك منشورًا باللغة السواحيلية يقتبس كلام موركومين الذي يدعو فيه إلى إطلاق النار على المتظاهرين الذين يقتربون من أقسام الشرطة.
وتم نشر كلا المنشورين في يونيو 2025، عقب خطاب موركومين. وقد أثار ذلك انتقادات شديدة من الكينيين والمدافعين عن حقوق الإنسان لانتهاكه الضمانات الدستورية. وقد أدلى موركومين بتصريحه وسط حملة قمع حكومية أوسع نطاقًا على الاحتجاجات التي عمت البلاد، والتي أسفرت عن اشتباكات عنيفة وسقوط ضحايا ومخاوف واسعة النطاق بشأن حقوق الإنسان. وكانت هذه الاحتجاجات قد بدأت في يونيو 2024 ردًا على مشروع قانون مالي مثير للجدل اقترح زيادات ضريبية كبيرة. وتجدد الحراك في يونيو 2025 عقب وفاة المدون والمعلم ألبيرت أوجوانج أثناء احتجازه لدى الشرطة.
وأوضح المستخدم الذي تقدم بطعن في الحالة الأولى أمام المجلس أنه يمثل منفذًا إخباريًا، وأن تسليط الضوء على تصريح موركومين لم يكن تحريضًا. كما ادعى أن الإزالة تُعد "تقييدًا لحرية الإعلام". وقال المستخدم الذي تقدم بطعن في الحالة الثانية إن منشوره كان "مجرد بيان" أدلى به موركومين "خلال المؤتمر الصحفي بعد احتجاجات جيل Z في كينيا" عند توجيه حديثه للشرطة، وأن هذا البيان "التقطه مستخدمو فيسبوك والمؤسسات الإعلامية".
بموجب سياسة العنف والتحريض الخاصة بها، تزيل Meta "التهديدات بالعنف التي قد تُفضي إلى الموت (أو الأشكال الأخرى من شديد الخطورة)". ومع ذلك، تسمح السياسة صراحةً بالتهديدات "عند مشاركتها في سياق تعزيز الوعي أو الإدانة".
وبعد أن لفت المجلس انتباه Meta إلى هاتين الحالتين، قررت الشركة أن المنشورين لم ينتهكا سياستها بشأن العنف والتحريض، وأن إزالتهما كانت إجراءً خاطئًا. وأوضحت الشركة أن المنشور في الحالة الأولى كان "تقريرًا عن صياح الاستهجان [ضد موركومين]" وخلصت إلى أنه لا ينتهك السياسة. وفي الحالة الثانية، أشارت Meta إلى أنه "على الرغم من عدم ذِكر المنشور للسياق المحيط صراحةً، فقد تمت مشاركته في وقت كانت فيه المنافذ الإخبارية تنقل تعليقات موركومين". بالإضافة إلى ذلك، أبرزت Meta أن المنشور "لا يحتوي على مؤشرات أخرى لخطاب عنيف". ويشير الأمر في مجمله إلى أن المحتوى قد تمت مشاركته لتعزيز الوعي –وهو مثال على صحافة المواطن– وهو أمر مسموح به بموجب سياستها. وعلى إثر ذلك أعادت الشركة المنشورين إلى فيسبوك.
سُلطة المجلس ونطاق عمله
يتمتع المجلس بسلطة مراجعة قرار Meta بعد تلقي طعن من المستخدم الذي تعرض المحتوى الخاص به إلى الإزالة (المادة 2، القسم 1 من اتفاقية المجلس؛ والمادة 3، القسم 1 من اللائحة الداخلية).
عندما تُقر Meta بأنها ارتكبت خطأً وتُلغي قرارها الصادر بشأن حالة قيد النظر نتيجة مراجعة المجلس، يجوز للمجلس اختيار هذه الحالة لإصدار قرار موجز (المادة 2، القسم 2.1.3 من اللائحة الداخلية). ويراجع المجلس القرار الأصلي لزيادة فهم عمليات الإشراف على المحتوى والحد من الأخطاء وتعزيز معدلات الإنصاف لمستخدمي فيسبوك وInstagram وThreads.
أهمية الحالات
يشكّل المنشوران أمثلة على الإفراط في إنفاذ سياسة العنف والتحريض لدى Meta، مما ينتهك حرية المستخدمين في التعبير في بلد يواجه احتجاجات تتسم باشتباكات عنيفة وسقوط ضحايا ومخاوف جدّية تتعلق بحقوق الإنسان. ولاحظ المجلس أنه بعد لفت انتباه Meta إلى هاتين الحالتين، قيّمت الشركة كلتيهما في ضوء السياق في كينيا، مع تأكيد Meta على أن المنشور الثاني "تمت مشاركته في وقت كانت فيه المنافذ الإخبارية تنقل تصريح موركومين". ويتوافق هذا النهج المراجَع مع توجيهات المجلس لشركة Meta حول كيفية التعامل مع إنفاذ السياسات ضد المحتوى على منصاتها، رغم أن المشرفين الذين راجعوا المنشورين في البداية لم يتبعوه. وفي حالة دعوة لاحتجاجات النساء في كوبا، أكد المجلس أهمية ضمان اعتماد هذا النهج السياقي لمراجعة المحتوى على نطاق واسع "لكي تحد Meta من النتائج الإيجابية الخاطئة (الإزالة الخاطئة لمحتوى لا ينتهك سياساتها)".
وقد أصدر المجلس توصية بشأن سياسة العنف والتحريض لدى Meta وإنفاذها، وهي ذات صلة بهذه الحالة: "ينبغي لشركة Meta أن تضيف إلى الصيغة الموجهة للجمهور من معيار مجتمعها بشأن العنف والتحريض ما يفيد بأن الشركة تفسر السياسة بما يسمح بالمحتوى الذي يتضمن عبارات تحتوي على "إشارات محايدة إلى نتيجة محتملة لإجراء ما أو تحذير استشاري"، والمحتوى الذي "يدين التهديدات بارتكاب أعمال عنف أو يعزز الوعي بها" ( القصيدة الروسية، التوصية رقم 1). تم إثبات التنفيذ الجزئي للتوصية من خلال المعلومات المنشورة. وقد قامت Meta بتحديث سياستها بشأن العنف والتحريض (راجع تقرير Meta للربع الرابع من عام 2023) لتشمل ما يلي: "نحن لا نحظر التهديدات عند مشاركتها في سياق تعزيز الوعي أو الإدانة، وعند توجيه تهديدات أقل خطورة في سياق الرياضات التي تتطلب احتكاكًا جسديًا، أو عند توجيه التهديدات إلى مرتكبي أعمال عنف معينين، مثل الجماعات الإرهابية". ومع ذلك، أشارت Meta في تقريرها للربع الثالث من عام 2023 إلى أن الشركة قررت عدم إضافة صيغة محددة بشأن "الإشارات المحايدة إلى نتيجة محتملة لإجراء ما أو تحذير استشاري، حيث لا يقوم الناشر بتوجيه تهديد عنيف" لأن هذا "مشمول بشكل عام في مبادئ السياسة وتعريف التهديد وتأطيره."
بالإضافة إلى ذلك، أصدر المجلس توصيات لزيادة الفهم، والشفافية العامة، حول دقة إنفاذ Meta ونهجها في قياس ذلك:
- "من أجل إثراء التقييمات والتوصيات المستقبلية لسياسة العنف والتحريض وتمكين المجلس من إجراء تحليله الخاص للضرورة والتناسب بشأن المفاضلات في تطوير السياسات"، أوصى المجلس Meta "بتزويد المجلس بالبيانات التي تستخدمها لتقييم دقة إنفاذ سياساتها. ويجب أن تكون هذه المعلومات شاملة بما يكفي للسماح للمجلس بالتحقق من صحة حجج Meta بأن نوع أخطاء الإنفاذ في هذه الحالات ليس نتيجة لأي مشاكل منهجية في عمليات الإنفاذ لدى Meta" (التوصية رقم 1 في حالة المنشورات الأمريكية التي تناقش موضوع الإجهاض).
- "ينبغي لشركة Meta تحسين تقارير الشفافية الخاصة بها لزيادة المعلومات العامة حول معدلات الخطأ من خلال توفير إمكانية عرض هذه المعلومات حسب البلد واللغة لكل معيار من معايير المجتمع". وأكد المجلس أن "تقارير الشفافية الأكثر تفصيلاً ستساعد الجمهور على تحديد المجالات التي تكون فيها الأخطاء أكثر شيوعًا، بما في ذلك الآثار المحددة المحتملة على الأقليات، وتنبيه [Meta] لتصحيحها" (التوصية رقم 3 في حالة مخاوف البنجابيين تجاه منظمة راشتريا سوايامسيفاك سانغ (RSS) في الهند).
واستجابةً لكلتا التوصيتين، شاركت Meta "ملخصًا سريًا لبيانات الإنفاذ... بما في ذلك نظرة عامة على بيانات دقة الإنفاذ" لسياسات العنف والتحريض والمنظمات الخطرة والأفراد الخطرين (تقرير النصف الأول من عام 2025 لشركة Meta بشأن مجلس الإشراف). واعتبر المجلس أن كلتا التوصيتين قد تم تجاهلهما أو إعادة صياغتهما، نظرًا لأن ردود Meta لم تعالج الهدف الأساسي من التوصيات. بالنسبة إلى التوصية الأولى، يرجع ذلك إلى أن المجلس طلب من Meta البيانات التي تستخدمها الشركة لتقييم دقة إنفاذ السياسات، لكن Meta شاركت فقط نتائج التقييم، وليس البيانات المستخدمة لتقييم دقة إنفاذ السياسات. واعتُبر هدف التوصية الثانية غير متحقق لأنه طلب من Meta جعل بيانات الإنفاذ هذه عامة، وكذلك طلب تقسيم الشركة للبيانات حسب البلد واللغة.
وفي حين أن قصور إنفاذ معيار المجتمع بشأن العنف والتحريض الخاص بالشركة يمكن أن يؤدي إلى استغلال منصات Meta لنشر التهديدات، كما أبرز المجلس في قرار رئيس الوزراء الكمبودي، فإن الإفراط في إنفاذ نفس السياسة يقوض قدرة المستخدمين على نشر ومشاركة التقارير الإخبارية والمعلومات حول الأحداث التي تهم الرأي العام أو تثير قلقه. لذلك ينبغي لشركة Meta وضع الأولوية على تقليل هذه الأخطاء إلى أدنى حد. ويمكن أن يؤدي التنفيذ الكامل للتوصيات المذكورة أعلاه إلى تقليل عدد عمليات الإزالة غير الصحيحة بموجب سياسة العنف والتحريض الخاصة بالشركة. أولاً، سيمنع ذلك - ويصحح - عمليات الإزالة الخاطئة من خلال زيادة وعي كل من المستخدمين ومراجعي المحتوى بشأن استثناءات السياسة. وثانيًا، سيسمح للشركة بتحسين نهجها في قياس ومقارنة بيانات الدقة عبر اللغات و/أو المناطق، لتخصيص الموارد بشكل أفضل لتحسين معدلات الدقة عند الحاجة. وأخيرًا، فإن نشر تقارير عامة عن دقة المراجعات التي تتم بموجب سياسة العنف والتحريض من شأنه أن يزيد الشفافية ويشجع على التفاعل مع Meta، مما قد يؤدي إلى مزيد من التحسينات.
القرار
يلغي المجلس قرارات Meta الأصلية بإزالة عنصري المحتوى. ويقر المجلس بتصحيحات Meta لأخطائها الأولية بمجرد أن لفت المجلس انتباه Meta إلى الحالة.
العودة إلى قرارات الحالة والآراء الاستشارية المتعلقة بالسياسة