أسقط

تعليق ينص على أنه "لا ينبغي لشعب الروماني أن يوجد"

قدّم أحد المستخدمين طعنًا على قرار Meta بالإبقاء على تعليق في فيسبوك يستهدف شعب الروماني، حيث ورد في التعليق أنه "لا ينبغي له أن يوجد". وبعد أن لفت المجلس انتباه Meta إلى الطعن، تراجعت الشركة عن قرارها الأصلي وأزالت التعليق.

نوع القرار

ملخص

السياسات والمواضيع

عنوان
تمييز، عِرق وسلالة، مجتمعات مهمشة
معيار المجتمع
خطاب يحض على الكراهية

المناطق/البلدان

موقع
بولندا

منصة

منصة
Facebook

تتم في القرارات الموجزة دراسة الحالات التي تراجعت فيها Meta عن قرارها الأصلي بشأن محتوى معين بعد أن لفت المجلس انتباه الشركة إليه، وتتضمن هذه القرارات معلومات عن الأخطاء التي أقرت Meta بوقوعها. وتصدر هذه القرارات بموافقة لجنة من أعضاء المجلس، وليس المجلس بكامله، ولا تتضمن تعليقات عامة، كما أنها لا تشكّل سابقة قانونية لدى المجلس. تُحدث القرارات الموجزة تغييرات مباشرة في قرارات Meta، مما يعزز الشفافية بشأن هذه التصحيحات، ويحدد في الوقت ذاته المواضع التي يمكن أن ترتقي فيها Meta بإجراءات الإنفاذ التي تتخذها.

الملخص

قدّم أحد المستخدمين طعنًا على قرار Meta بالإبقاء على تعليق في فيسبوك يستهدف شعب الروماني، حيث ورد في التعليق أنه "لا ينبغي له أن يوجد". وبعد أن لفت المجلس انتباه Meta إلى الطعن، تراجعت الشركة عن قرارها الأصلي وأزالت التعليق.

حول الحالة

في مارس 2025، علّق أحد مستخدمي فيسبوك على منشور يتناول تاريخ هجرات شعب الروماني (المعروف أيضًا بأسماء أخرى مثل "الروما")، وهو جماعة عرقية ترجع أصولها إلى شمال الهند، وقد هاجرت إلى جميع أنحاء العالم وتستقر في الغالب في أوروبا في العصر الحديث. ورد في التعليق أن شعب الروماني "لا ينبغي له أن يوجد" وأنه لا يعدو كونه "مشكلة للعالم".

قدّم أحد المستخدمين طعنًا إلى المجلس ضد قرار Meta الأصلي بالإبقاء على التعليق. سلّط المستخدم مقدِّم الطعن الضوء على تاريخ الاضطهاد الذي واجهه شعب الروماني في أوروبا والتمييز الذي يعانيه في العصر الحديث، ومن أمثلته "الفصل في التعليم، والتمييز في التوظيف، والتمييز في الإسكان، والتمييز في الرعاية الصحية، والتمييز السياسي والقانوني، والوصم الإعلامي والاجتماعي، وعنف الشرطة، والفقر المدقع، وجرائم الكراهية".

قبل 7 يناير 2025، وهو التاريخ الذي أعلنت فيه Meta عن إجراء تغييرات على معيار المجتمع بشأن الخطاب الذي يحض على الكراهية (يُعرف الآن بمعيار السلوك الذي يحض على الكراهية)، كانت السياسة تحظر "العبارات التي تنكر الوجود، (بما في ذلك، على سبيل المثال لا الحصر: أصحاب "[السمة (السمات) التي تتمتع بحقوق حماية أو شبه المشمولة بالحماية] غير موجودين"، "لا يوجد ما يسمى بأصحاب [السمة (السمات التي تتمتع بحقوق حماية أو شبه المشمولة بالحماية]" أو "يجب ألا يكون أصحاب [السمة (السمات) التي تتمتع بحقوق حماية أو شبه المشمولة بالحماية] موجودين)."

ورغم إزالة هذا الحظر من النص المُعلن من سياسة السلوك الذي يحض على الكراهية، لا تزال الشركة تزيل "دعوات الإقصاء أو العزل إذا كانت موجهة إلى الأشخاص استنادًا إلى سمات تتمتع بحقوق حماية"، كالعِرق والسلالة. ويشمل هذا الحظر "الإقصاء العام" الذي يُعرَّف بأنه "الدعوة إلى الإقصاء أو الفصل العام، مثل عبارة 'ممنوع دخول س!'"، وفي المعلومات التي قدمتها Meta إلى المجلس، أوضحت الشركة أيضًا أن الأمثلة الأخرى المخالفة تتضمن عبارات مثل "لا مزيد من" أو "عالم خالٍ من" أفراد ينتمون إلى فئة لديها سمات تتمتع بحقوق حماية.

وبعد أن لفت المجلس انتباه Meta إلى هذه الحالة، قررت الشركة أن المحتوى انتهك سياسة السلوك الذي يحض على الكراهية، وأن قرارها الأصلي بالإبقاء على التعليق كان خاطئًا. رأت Meta أن المستخدم قد انتهك السياسة لأن عبارة "لا ينبغي لشعب الروماني أن يوجد" تمثل دعوة إلى إقصائهم بشكل عام. بعد ذلك، أزالت الشركة المحتوى من فيسبوك.

سُلطة المجلس ونطاق عمله

يتمتع المجلس بسلطة مراجعة قرار Meta بعد تلقي طعن من المستخدم الذي أبلغ عن محتوى تم الإبقاء عليه (المادة 2، القسم 1 من اتفاقية المجلس؛ المادة 3، القسم 1 من اللائحة الداخلية).

عندما تقرّ Meta بارتكابها خطأ وتتراجع عن قرارها الصادر بشأن حالة ينظر فيها المجلس، يجوز للمجلس أن يختار تلك الحالة لإصدار قرار موجز بشأنها (المادة 2، القسم 2.1.3 من اللائحة الداخلية). يراجع المجلس القرار الأصلي بهدف تعميق فهم عملية الإشراف على المحتوى، والحد من الأخطاء، وتعزيز الإنصاف لمستخدمي فيسبوك وInstagram وThreads.

أهمية الحالة

يُمثل المحتوى في هذه الحالة نموذجًا للخطاب الذي يحض على الكراهية ضد شعب الروماني، حيث لم يكن مبطنًا أو مرمّزًا، بل صرّح بشكل مباشر بأنه "لا ينبغي لهم أن يوجدوا". تُعد هذه الحالة مثالًا آخر على ضَعف إنفاذ السياسات التي تحظر الخطاب الذي يحض على الكراهية بشكل واضح (راجع، على سبيل المثال، حالات تعليق يستهدف الأشخاص الذين يعانون من متلازمة داون، وعبارات تستهدف السكان الأصليين لأستراليا، ومنشور باللغة البولندية يستهدف الأشخاص المتحولين جنسيًا)، وهو ما يبرز أوجه قصور مقلقة في إنفاذ Meta لسياساتها المناهضة للسلوك الذي يحض على الكراهية عبر منصاتها.

يُقر مجلس حقوق الإنسان التابع للأمم المتحدة منذ أمد بعيد بأن شعب الروماني "واجه على مدار أكثر من خمسة قرون تمييزًا ورفضًا وإقصاءً اجتماعيًا وتهميشًا واسع النطاق ومستمرًا في جميع أنحاء العالم، وخاصة في أوروبا، وفي كافة مجالات الحياة". كما أقر المجلس "بوجود ظاهرة معاداة الغجر [علمًا بأن مصطلح "الغجر" يُستخدم للإشارة إلى شعب الروماني ويعتبره البعض مصطلحًا ازدرائيًا] بوصفها شكلاً محددًا من أشكال العنصرية والتعصب، وهو ما يؤدي إلى أعمال عدائية تتراوح بين الإقصاء والعنف ضد مجتمعات الروما". وعلى نحو مماثل، ووفقًا لدراسة شاملة أعدها مقرر الأمم المتحدة الخاص المعني بقضايا الأقليات، يواجه شعب الروماني مخاطر العنف، والتهديدات التي تطال هويته الجماعية، والتحديات التي تعترض ظروفه المعيشية، والعقبات التي تحول دون مشاركته الاجتماعية الفعّالة. وفي الآونة الأخيرة، سلّط كل من قرار صادر عن البرلمان الأوروبي واستبيان شمل 10 دول أوروبية أجرته وكالة الاتحاد الأوروبي للحقوق الأساسية، الضوء على ما يواجهه شعب الروماني من تمييز وعنف، فضلًا عن الصعوبات التي تعترضه في مجالات كالإسكان والتعليم والصحة والتوظيف.

أعرب المجلس مرارًا عن قلقه إزاء ضَعف الإنفاذ تجاه المحتوى الذي يستهدف فئات تعرضت للتمييز على مر التاريخ ولا تزال. وفي قراره بشأن حالة عبارات تستهدف السكان الأصليين لأستراليا، سلّط المجلس الضوء على خطأ Meta المتمثل في عدم إزالة محتوى يدعو إلى إقصاء تلك الفئة. وفي قراره بشأن حالة الجرائم المزعومة في ريا كوبو، أوصى المجلس بأنه "ينبغي على شركة Meta إعادة صياغة قيمة "السلامة" لديها لتعكس أن الخطاب على الإنترنت قد يشكّل خطرًا على الأمن الجسدي للأشخاص والحق في الحياة، فضلاً عن مخاطر التخويف والإقصاء والإسكات" (التوصية رقم 1). وقد ثبت تنفيذ هذه التوصية من خلال المعلومات التي تم نشرها.

أصدر المجلس أيضًا توصيات تهدف إلى تحسين إنفاذ سياسات Meta للحد من الأخطاء. على سبيل المثال، أوصى المجلس Meta بضرورة "أن تشارك [مع الجمهور] نتائج التدقيق الداخلي الذي تجريه لتقييم دقة المراجعة البشرية وأداء الأنظمة التلقائية في إنفاذ سياسة الخطاب الذي يحض على الكراهية [السلوك الذي يحض على الكراهية] […] على نحو يسمح بمقارنة هذه التقييمات عبر مختلف اللغات و/أو المناطق"، (الادعاءات الجنائية استنادًا إلى الجنسية، التوصية رقم 2). في ردها المبدئي المقدم إلى المجلس، أفادت Meta بأنها ستنفذ هذه التوصية جزئيًا. صرحت Meta بأنه على الرغم من أن الشركة "ستواصل مشاركة البيانات المتعلقة بحجم المحتوى المرتبط بالخطاب الذي يحض على الكراهية الذي تتعامل معه آليات الكشف والإنفاذ [لديها] في تقرير إنفاذ معايير المجتمع (CSER)"، ستتم مشاركة البيانات المتعلقة بدقة الإنفاذ على الصعيد العالمي مع المجلس بشكل سري. صدرت هذه التوصية في سبتمبر 2024. لا يزال تنفيذ التوصية جاريًا، ولم تتم بعد مشاركة البيانات ذات الصلة مع المجلس.

يحث المجلس Meta على إدخال تحسينات كبيرة على معدلات الدقة في الكشف عن المحتوى الذي ينتهك بوضوح "معيار المجتمع بشأن السلوك الذي يحض على الكراهية" وإزالته، وذلك عبر مختلف اللغات و/أو المناطق. سبق للمجلس أن أوضح في قراره بشأن حالة منشوران يُظهران عَلَم حقبة الفصل العنصري في جنوب أفريقيا أنه "في عام 2018، استشهدت Meta بإخفاقها في إزالة الخطاب الذي يحض على الكراهية من فيسبوك في حالات الأزمات، كما حدث في ميانمار، كدافع لزيادة الاعتماد على الإنفاذ التلقائي". وفي القرار ذاته، أوضح المجلس أنه "في أنحاء كثيرة من العالم، يقل احتمال استخدام المستخدمين لأدوات الإبلاغ المتاحة في تطبيقات Meta لأسباب متنوعة، مما يجعل بلاغاتهم مؤشرًا لا يمكن التعويل عليه لتحديد الأماكن التي قد تقع فيها أشد الأضرار". وفي هذا القرار أيضًا، خلص المجلس إلى أنه "من الضروري أن تدرس Meta بعناية كيف يمكن أن تترتب على أي تغييرات في الكشف التلقائي للمحتوى المحتمل أن يشكّل انتهاكًا للسياسات، سواء من حيث ضَعف الإنفاذ أو المبالغة فيه، آثار متفاوتة على الصعيد العالمي، ولا سيما في البلدان التي تشهد أزمات حالية أو حديثة أو حروبًا أو جرائم وحشية".

يرى المجلس أن التنفيذ الكامل للتوصية رقم 2 الواردة في قرار "الادعاءات الجنائية استنادًا إلى الجنسية" المشار إليه أعلاه من شأنه أن يعزز قدرة الشركة على الحد من ضَعف إنفاذ السياسات التي تحظر المحتوى الضار الذي يؤثر على الفئات المستضعفة. ومن شأن ذلك أن يسمح لشركة Meta بمقارنة بيانات الدقة عبر مختلف اللغات و/أو المناطق، وتخصيص الموارد اللازمة لتحسين معدلات الدقة حيثما تقتضي الحاجة. وعلاوة على ذلك، من شأن نشر تقارير عامة حول دقة المراجعات التي تتم بموجب سياسة السلوك الذي يحض على الكراهية أن يعزز الشفافية ويشجع على التفاعل مع Meta، مما قد يؤدي إلى إدخال المزيد من التحسينات.

القرار

مجلس الإشراف يلغي قرار Meta الأصلي بالإبقاء على المحتوى. ويُقرّ المجلس بأن Meta قد صحّحت خطأها الأوّلي بمجرد أن لفت المجلس انتباهها إلى الحالة.

العودة إلى قرارات الحالة والآراء الاستشارية المتعلقة بالسياسة