قرار قضية متعددة

تعليقات تدعو إلى التطهير العرقي

تقدم مستخدم بطعن على قرارات Meta بالإبقاء على ثلاثة تعليقات على فيسبوك دعت إلى التطهير العرقي للألبان في كوسوفو.

3 تم تضمين من الحالات في هذه الحزمة

أسقط

FB-U3X0XVOY

حالة بشأن عنف وتحريض على فيسبوك

منصة
Facebook
عنوان
تمييز,عِرق وسلالة,حرب وصراع
معيار
العنف والتحريض
موقع
ألبانيا,صربيا,تركيا
Date
تم النشر بتاريخ تم النشر بتاريخ 9 كانُون الْأَوَّل 2025
أسقط

FB-C7C98IEV

حالة بشأن عنف وتحريض على فيسبوك

منصة
Facebook
عنوان
تمييز,عِرق وسلالة,حرب وصراع
معيار
العنف والتحريض
موقع
ألبانيا,صربيا,تركيا
Date
تم النشر بتاريخ تم النشر بتاريخ 9 كانُون الْأَوَّل 2025
أسقط

FB-DC3DA56G

حالة بشأن عنف وتحريض على فيسبوك

منصة
Facebook
عنوان
تمييز,عِرق وسلالة,حرب وصراع
معيار
العنف والتحريض
موقع
ألبانيا,صربيا,تركيا
Date
تم النشر بتاريخ تم النشر بتاريخ 9 كانُون الْأَوَّل 2025

تدرس القرارات الموجزة الحالات التي تراجعت فيها Meta عن قرارها الأصلي بشأن محتوى معين بعد أن لفت المجلس انتباه الشركة إليه، وتتضمن معلومات حول الأخطاء التي أقرت بها Meta. وتوافق عليها لجنة من أعضاء المجلس، وليس المجلس بكامله، ولا تتضمن تعليقات عامة ولا تُشكّل سابقة قانونية لدى المجلس. وتُحدث القرارات الموجزة تغييرات مباشرة في قرارات Meta، مما يوفر الشفافية بشأن هذه التصحيحات، مع تحديد الجوانب التي يمكن أن تحسّن Meta فيها عمليات الإنفاذ.

الملخص

تقدم مستخدم بطعن على قرارات Meta بالإبقاء على ثلاثة تعليقات على فيسبوك دعت إلى التطهير العرقي للألبان في كوسوفو. وبعد أن لفت المجلس انتباه Meta إلى الطعون، تراجعت الشركة عن قراراتها الأصلية وأزالت التعليقات الثلاثة جميعها.

حول الحالات

تضم هذه الحالة ثلاثة من عناصر المحتوى. في يونيو 2025، نشر مستخدم على فيسبوك صورة لعملية تشييد مكتبة كوسوفو الوطنية في بريشتينا، عاصمة البلاد. وعلّق عدة مستخدمين على المنشور. تضمّن التعليق الأول، الذي قدَّمه المستخدم المُبلِغ إلى المجلس، إشارة إلى هذا المستخدم، وتحدث عن "تطهير عرقي جيد، على غرار ما بدأه ميلوشيفيتش" والذي سيمثل نهاية "الدولة المزيفة" وخرافة "توركوشيبتار [المُشار إليها فيما يلي باسم "ت************"]" حول "ألبانيا التركية الكبرى". يُذكر أن سلوبودان ميلوشيفيتش كان رئيسًا سابقًا لصربيا، وشغل لاحقًا منصب رئيس جمهورية يوغوسلافيا السابقة، التي كانت كوسوفو جزءًا منها.

ونشر المستخدم المُبلِغ تعليقًا ردًا على ذلك، أشار فيه إلى أن المستخدم الناشر يبدو وكأنه يحتفي بالتطهير العرقي والإبادة الجماعية ويمجد جرائم الحرب. وأكد المستخدم المُبلِغ أن ميلوشيفيتش كان مسؤولاً عن عمليات قتل واعتداء جنسي وتهجير طالت الكثيرين.

وتتمثل الحالة الثانية في تعليق من المستخدم الناشر ردًا على المستخدم المُبلِغ. وقد أشار المستخدم الناشر إلى المستخدم المُبلِغ مرة أخرى، زاعمًا "أنك تلعب دور الضحية" وأن "ميلوشيفيتش كان متساهلاً للغاية". وتابع قائلاً: "يجب أن ننفذ تطهيرًا عرقيًا كاملاً كما فعلتم مع الشعب الصربي منذ الحرب العالمية الثانية". وأضاف أيضًا: "هذه هي الطريقة الوحيدة" لأنكم "لستم شعبًا متحضرًا".

ومرة أخرى، نشر المستخدم المُبلِغ تعليقًا ردًا على ذلك، متهمًا المستخدم الناشر بالدعوة إلى الإبادة الجماعية والجهل بالتاريخ.

وتتعلق الحالة الثالثة بتعليق آخر من المستخدم الناشر ردًا على المستخدم المُبلِغ. وجاء في نص التعليق: "سنستعيد كوسوفو الصربية وميتوهيا عاجلاً أم آجلاً" وأن "الناتو [منظمة حلف شمال الأطلسي] لن تحميكم إلى الأبد". وميتوهيا، التي تُكتب أيضًا ميتوهيجا، هي المنطقة الجنوبية الغربية من كوسوفو. وأضاف التعليق: "أنتم عار على الحضارة" وأنهم "يعرفون جيدًا حقيقة الـ ت************".

وقد تقدم المستخدم المُبلِغ بطعن أمام المجلس ثلاث مرات منفصلة - مرة لكل تعليق كتبه المستخدم الناشر - ضد قرارات Meta الأصلية بالإبقاء على التعليقات الثلاثة. وفي تصريحاته للمجلس، أوضح المستخدم أن التعليق الأول يستخدم "لغة تحريضية وازدرائية تستهدف مجموعات عرقية محددة" بمصطلحات "تروج لسردية التفوق العرقي". كما لفت الانتباه إلى حقيقة أن محتوى كهذا "يمكن أن يسهم في تصعيد التوترات العرقية والوطنية، لا سيما في المناطق التي تشهد تاريخًا من الصراع". وفيما يتعلق بالتعليق الثاني من المستخدم الناشر، ذكر المستخدم المُبلِغ أن الدعوة إلى "تطهير عرقي كامل"، مع الإشارة إلى صراعات سابقة، "تُحرض على العدائية والعنف ضد مجموعة مستهدفة". وأضاف المستخدم أن "ترك مثل هذه العبارات دون تدخل قد يؤدي إلى ضرر على أرض الواقع". وأخيرًا، وفيما يتعلق بالتعليق الثالث من المستخدم الناشر، أكد المستخدم المُبلِغ أن ت************ تُعد "إهانة عرقية ازدرائية ومشحونة تاريخيًا تُستخدم لإهانة الألبان وتجريدهم من إنسانيتهم. وهي تُصنّف على نطاق واسع كخطاب يحض على الكراهية في سياق التوترات العرقية في البلقان".

وقد أبقت Meta في البداية على عناصر المحتوى الثلاثة. ومع ذلك، وبموجب معيار مجتمع Meta بشأن العنف والتحريض، تقوم الشركة بإزالة "اللغة التي تحرِّض على العنف أو تمهِّد الطريق لحدوثه والتهديدات الجدّية للسلامة العامة أو الشخصية. ويتضمن ذلك الخطاب الذي ينطوي على عنف ويستهدف شخصًا أو مجموعة أشخاص على أساس سمة (سمات) تتمتع بحقوق حماية أو حالة الهجرة". وتقوم الشركة بإزالة "التهديدات بالعنف التي قد تُفضي إلى الموت (أو الأشكال الأخرى من العنف شديد الخطورة)". وتُعرَّف التهديدات بالعنف بأنها "عبارات أو عناصر بصرية تمثل نوايا أو تطلعات أو دعوة للعنف ضد أحد الأهداف، ويمكن التعبير عن التهديدات بأنواع مختلفة من العبارات مثل عبارات إبداء النية والدعوات لاتخاذ إجراء والتأييد وعبارات الأمل والعبارات التحريضية والمشروطة". علاوة على ذلك، وبموجب معيار المجتمع بشأن السلوك الذي يحض على الكراهية، تقوم الشركة بإزالة "المحتوى الذي يصف الأشخاص أو يستهدفهم بشكل سلبي باستخدام الإهانات". وتُعرِّف السياسة الإهانات بأنها "كلمات تخلق بطبيعتها جوًا من الإقصاء والترهيب ضد الأشخاص على أساس سمة تتمتع بحقوق حماية، حيث ترتبط هذه الكلمات غالبًا بالقمع والعنف والتمييز التاريخي".

وبعد أن لفت المجلس انتباه Meta إلى هذه الحالات، قررت الشركة أنه ما كان ينبغي الإبقاء على أي من عناصر المحتوى الثلاثة على المنصة. وأوضحت Meta أن عنصر المحتوى الأول "يدعو إلى استئناف التطهير العرقي الذي بدأه سلوبودان ميلوشيفيتش"، وهو ما "أفصح عنه نفس المستخدم صراحةً في جزء لاحق من المحادثة". ولذلك، خلُصت Meta إلى أن هذا التعليق يرقى إلى مستوى تهديد بارتكاب عنف شديد الخطورة ضد الألبان. كما اعتبرت Meta أن الحالة الثانية انتهكت سياسة العنف والتحريض، مؤكدة أنه "في هذه الحالة، يدعو المستخدم إلى التطهير العرقي، وهو ما يُصنَّف كتهديد بارتكاب عنف شديد الخطورة يستهدف الألبان". وأخيرًا، خلُصت الشركة إلى أن التعليق الثالث كان مخالفًا أيضًا، لأنه أشار إلى "حادثة عنف تاريخية ضد الألبان في كوسوفو" والتي، في ضوء "تهديد سابق بالعنف من قِبل نفس المستخدم"، تشكل أيضًا "تهديدًا بارتكاب عنف شديد الخطورة ضد الألبان". وبناءً على ذلك، أزالت الشركة عناصر المحتوى الثلاثة من فيسبوك.

سُلطة المجلس ونطاق عمله

يتمتع المجلس بسلطة مراجعة قرار Meta بعد تلقي طعن من المستخدم الذي أبلغ عن محتوى تم الإبقاء عليه (المادة 2، القسم 1 من اتفاقية المجلس؛ والمادة 3، القسم 1 من اللائحة الداخلية).

عندما تُقر Meta بأنها ارتكبت خطأً وتتراجع عن قرارها بشأن حالة قيد النظر للمراجعة من قِبل المجلس، يجوز للمجلس اختيار هذه الحالة لإصدار قرار موجز (المادة 2، القسم 2.1.3 من اللائحة الداخلية). ويراجع المجلس القرار الأصلي لزيادة فهم عمليات الإشراف على المحتوى والحد من الأخطاء وتعزيز معدلات الإنصاف لمستخدمي فيسبوك وInstagram وThreads.

أهمية الحالات

تُقدم عناصر المحتوى الثلاثة في هذه المجموعة أمثلة على التقصير في إنفاذ معيار مجتمع Meta بشأن العنف والتحريض على نطاق واسع. ففي ثلاث مناسبات منفصلة، أخفقت أنظمة الإشراف على المحتوى بالشركة مبدئيًا في تحديد وإزالة تهديدات واضحة بارتكاب عنف شديد الخطورة يستهدف مجموعة محددة من الأشخاص على أساس سمات تتمتع بحقوق حماية، وهم الألبان في هذه الحالات. ومع ذلك، وبعد أن ميّز المجلس المحتوى، راجعته Meta مرة أخرى، ووضعت فِرقها المتخصصة في اعتبارها السياق الكامل للمحادثة الأطول لإثبات أن التعليقات الفردية كانت مخالفة.

وقد أثار المجلس مرارًا مخاوف بشأن التقصير في إنفاذ السياسات المتعلقة بتهديدات القتل بشكل عام، وبشكل أكثر تحديدًا، المحتوى الذي يستهدف مجموعات تعرّضت ولا تزال تتعرّض للتمييز تاريخيًا (انظر، على سبيل المثال، عبارات تستهدف السكان الأصليين لأستراليا ومنشور باللغة البولندية يستهدف الأشخاص المتحولين جنسيًا). ويشير المجلس إلى تاريخ الصراع في كوسوفو والتصعيد الأخير للتوترات عقب الأحداث التي شهدتها المنطقة في مايو وسبتمبر 2023، وفبراير ونوفمبر 2024، بالإضافة إلى تشديد المستخدم المُبلِغ على احتمالية أن تؤدي تعليقات مثل تلك الموجودة في هذه المجموعة إلى عنف على أرض الواقع. وفي قرار كارتون كنين، عند مراجعة فيديو على فيسبوك صوّر الصرب كفئران، توصّل المجلس إلى استنتاج مفاده أن المحتوى الذي يستهدف مجموعة عرقية يُعد ازدرائيًا وبغيضًا إذا كان "يحتفي بأفعال سابقة تنم عن معاملة تمييزية"، "لا سيما في منطقة شهدت تاريخًا حديثًا من الصراع العرقي".

وفي القرار ذاته، أوصى المجلس بأن توضح Meta "الإرشادات المقدمة للمراجعين، مع توضيح أنه حتى الإشارات الضمنية للمجموعات التي تتمتع بالحماية محظورة بموجب السياسة، عندما يسهل بشكل معقول فهم تلك الإشارات" (كارتون كنين، التوصية رقم 1). ورغم صدور التوصية فيما يتعلق بسياسة Meta بشأن الخطاب الذي يحض على الكراهية (أصبحت الآن السلوك الذي يحض على الكراهية)، يرى المجلس أنها ذات صلة في هذه الحالة، حيث لم يُشر المستخدم الناشر صراحةً إلى الألبان في أي من التعليقات الثلاثة. وردًا على تلك التوصية، أفادت Meta بأن الشركة "أضافت صياغة جديدة إلى مقدمة معايير مجتمعها في مركز الشفافية توضح نهجها تجاه المحتوى الذي يستخدم لغة غامضة أو ضمنية ويتطلب سياقًا إضافيًا لتحديده كمحتوى مخالف. ويوضح التحديث أنه في الحالات التي يتيح فيها السياق الإضافي لشركة [Meta] تفسير أن المحتوى ينتهك معايير مجتمعها بشكل معقول، يجوز لشركة [Meta] إزالة المحتوى المذكور" (تحديث الربع الرابع لعام 2022 من Meta بشأن مجلس الإشراف). وقد اعتبر المجلس أن التوصية نُفذت جزئيًا لأن تحديث السياسة لم يُعتمد بموجب سياسة الخطاب الذي يحض على الكراهية ولأنه افتقر إلى صياغة تتناول الإشارات الضمنية للمجموعات التي تتمتع بالحماية.

كما لاحظ المجلس أنه بعد أن لفت انتباه Meta لهذه المجموعة، قيّمت الشركة التعليقات الثلاثة في هذه الحالة، جنبًا إلى جنب مع التعليقات التي كتبها المستخدم المُبلِغ، كجزء من سلسلة محادثات أطول. وكان هذا وثيق الصلة بإثبات أن التعليقات الثلاثة كانت تدعو إلى التطهير العرقي و"العودة إلى 'كوسوفو صربية'" - وهي إشارة إلى حادثة عنف تاريخية ضد الألبان في كوسوفو، وبالتالي تُعد تهديدًا بارتكاب عنف شديد الخطورة ضدهم. وبينما يتماشى هذا النهج مع توجيهات المجلس لشركة Meta بشأن كيفية التعامل مع إنفاذ السياسات على منصاتها، إلا أن المراجعين العاملين على نطاق واسع لم يتبعوه. ففي حالة قصيدة عن الاحتجاج السياسي في الأرجنتين، أبرز المجلس أهمية تزويد مراجعي المحتوى العاملين على نطاق واسع بالسياق الكامل للمنشور، كوسيلة لتحسين دقة الإنفاذ. ورغم أن تلك الحالة ركزت على إنفاذ السياسة على العناصر الدوّارة (منشور يتضمن صورًا متعددة)، إلا أن الأمر ذاته ينطبق على سلاسل المحادثات، كما توضح هذه الحالات.

بالإضافة إلى ذلك، أصدر المجلس توصيات لزيادة الفهم والشفافية العامة حول دقة إنفاذ Meta ونهج قياسها:

  • "من أجل إثراء التقييمات والتوصيات المستقبلية لسياسة العنف والتحريض، وتمكين المجلس من إجراء تحليله الخاص للضرورة والتناسب بشأن المفاضلات في تطوير السياسات، يجب على Meta تزويد المجلس بالبيانات التي تستخدمها لتقييم دقة إنفاذ سياستها. ويجب أن تكون هذه المعلومات شاملة بما يكفي للسماح للمجلس بالتحقق من صحة حجج Meta بأن نوع أخطاء الإنفاذ في هذه الحالات ليس ناتجًا عن أي مشاكل منهجية في عمليات الإنفاذ لدى Meta" (منشورات تناقش الإجهاض في الولايات المتحدة، التوصية رقم 1).
  • "ينبغي لشركة Meta تحسين تقارير الشفافية الخاصة بها لزيادة المعلومات العامة حول معدلات الخطأ من خلال توفير إمكانية عرض هذه المعلومات حسب البلد واللغة لكل معيار من معايير المجتمع". وأكد المجلس أن "تقارير الشفافية الأكثر تفصيلاً ستساعد الجمهور على رصد المجالات التي تكون فيها الأخطاء أكثر شيوعًا، بما في ذلك التأثيرات المحددة المحتملة على مجموعات الأقليات، وتنبيه فيسبوك لتصحيحها" (مخاوف البنجابيين تجاه منظمة راشتريا سوايامسيفاك سانغ (RSS) في الهند، التوصية رقم 3).

واستجابةً لكلتا التوصيتين، شاركت Meta "ملخصًا سريًا لبيانات الإنفاذ... بما في ذلك نظرة عامة على بيانات دقة الإنفاذ" لسياسات العنف والتحريض والمنظمات الخطرة والأفراد الخطرين (تقرير النصف الأول من عام 2025 لشركة Meta بشأن مجلس الإشراف). وقد اعتبر المجلس أن التوصيتين قد تم تجاهلهما أو إعادة صياغتهما، لأن ردود Meta لم تتناول الأهداف الجوهرية للتوصيات. بالنسبة إلى التوصية الأولى، يرجع ذلك إلى أن المجلس طلب من Meta البيانات التي تستخدمها الشركة لتقييم دقة إنفاذ السياسة. ومع ذلك، لم تشارك Meta سوى نتائج التقييم نفسه. أما في الحالة الثانية، فيرجع ذلك إلى أنه طلب من Meta إتاحة بيانات الإنفاذ هذه للجمهور، وتصنيفها حسب البلد واللغة. ولذلك، خلُص المجلس إلى أن أهداف أي من التوصيتين لم تتحقق.

وأخيرًا، قدم المجلس أيضًا توصية بخصوص عمليات التدقيق التي تجريها Meta لقائمة الإهانات الخاصة بها، للتأكد من أنها مُحدّثة في جميع المناطق: "عندما تُدقق Meta قوائم الإهانات الخاصة بها، ينبغي لها ضمان إجراء مشاركة خارجية واسعة النطاق مع أصحاب المصلحة المعنيين. ويجب أن يشمل ذلك التشاور مع المجموعات المتأثرة والمجتمع المدني" (انتقاد سياسات الهجرة والمهاجرين في الاتحاد الأوروبي، التوصية رقم 3). وقد أبلغت Meta عن إحراز تقدم في تنفيذ هذه التوصية. وأوضحت الشركة أنها "تتواصل بانتظام مع أصحاب المصلحة، بما في ذلك المجتمع المدني، للحفاظ على قوائم دقيقة للإهانات في مختلف المناطق حول العالم، و[تعمل] على إضفاء الطابع الرسمي على هذه العملية في مرحلة مبكرة من عملية التدقيق السنوية [لديها]" (تقرير النصف الأول لعام 2025 من Meta بشأن مجلس الإشراف). وذكرت Meta أنها "بصدد تشكيل مجموعة عمل لتحديد كيفية إضفاء الطابع الرسمي على أفضل الممارسات والمتطلبات اللازمة لضمان إدراج أصحاب المصلحة في عملية التدقيق القادمة". ووفقًا لشركة Meta، سيتم تقديم تحديثات جديدة في المستقبل.

ويرى المجلس أن التنفيذ الكامل للتوصيات المذكورة أعلاه من شأنه تعزيز قدرة Meta بشكل أكبر على الحد من التقصير في إنفاذ السياسات المتعلقة بالتهديدات التي تستهدف مجموعات من الأشخاص على أساس سمة تتمتع بحقوق حماية. أولاً، سيعزز ذلك قدرة المراجعين على رصد الإشارات الضمنية للمجموعات التي تتمتع بحقوق حماية وإزالة المحتوى الضار. ثانيًا، سيتيح للشركة تحسين نهجها في قياس ومقارنة بيانات الدقة عبر اللغات و/أو المناطق، لتخصيص الموارد بشكل أفضل لتحسين معدلات الدقة عند الحاجة. ثالثًا، سيؤدي نشر تقارير علنية حول دقة المراجعات بموجب سياسة العنف والتحريض إلى زيادة الشفافية وتحقيق تفاعل مع Meta من شأنه أن يؤدي إلى مزيد من التحسينات. وأخيرًا، فإن توحيد أفضل الممارسات والمتطلبات الخاصة بالتواصل مع أصحاب المصلحة لتحديث قائمة الإهانات لديها سيحسن قدرة Meta على الاستجابة بسرعة أكبر للاتجاهات المتطورة في استخدام الكلمات التي يُحتمل أن تسبب ضررًا.

القرار

يُلغي المجلس قرار Meta الأصلي بالإبقاء على عناصر المحتوى الثلاثة. ويُقرّ المجلس بأن Meta قد صحّحت أخطاءها الأولية بمجرد أن لفت المجلس انتباهها إلى الحالات.

العودة إلى قرارات الحالة والآراء الاستشارية المتعلقة بالسياسة