أسقط

كاريكاتير يتناول قمع طالبان للنساء

تقدم مستخدم بطعن على قرار Meta بإزالة منشور على فيسبوك يحتوي على كاريكاتير سياسي يوضح القمع الذي تتعرض له المرأة الأفغانية في ظل حكم طالبان. تسلط هذه الحالة الضوء على أخطاء إنفاذ Meta لسياستها بشأن المنظمات الخطرة والأفراد الخطرين.

نوع القرار

ملخص

السياسات والمواضيع

عنوان
حرية التعبير، صحافة، فنون/كتابة/شعر
معيار المجتمع
أفراد خطرون ومنظمات خطرة

المناطق/البلدان

موقع
أفغانستان، هولندا

منصة

منصة
Facebook

هذا قرار موجز. تتم في القرارات الموجزة دراسة الحالات التي ألغت فيها Meta قرارها الأصلي بشأن أحد عناصر المحتوى بعد أن لفت المجلس انتباه الشركة إليه. تتضمن هذه القرارات معلومات عن الأخطاء التي أقرت بها Meta، وتوضح للعامة التأثير الذي تحدثه أعمال المجلس. وتوافق عليها لجنة من أعضاء المجلس، وليس المجلس بكامله. ولا تنظر اللجنة في التعليقات العامة ولا تُشكّل هذه القرارات سابقة قانونية لدى المجلس. توفر القرارات الموجزة الشفافية بشأن تصحيحات Meta وتسلِّط الضوء على الجوانب التي يمكن أن تحسنها الشركة فيما يتعلق بإنفاذ سياساتها.

ملخص الحالة

تقدم مستخدم بطعن على قرار Meta بإزالة منشور على فيسبوك يحتوي على كاريكاتير سياسي يوضح القمع الذي تتعرض له المرأة الأفغانية في ظل حكم طالبان. تسلِّط هذه الحالة الضوء على أخطاء في إنفاذ Meta لسياستها بشأن المنظمات الخطرة والأفراد الخطرين، وتحديدًا في سياق الخطاب السياسي الذي يتم تقديمه في قالب ساخر. بعد أن لفت المجلس انتباه Meta إلى الطعن، ألغت الشركة قرارها الأصلي وأعادت المنشور.

وصف الحالة ومعلومات أساسية عنها

في أغسطس 2023، نشر أحد مستخدمي فيسبوك، وهو رسام كاريكاتير محترف من هولندا، رسمًا كاريكاتوريًا لثلاث رجال من طالبان يجلسون على كسارة سيارات تحتها مجموعة من النساء المنكوبات. في الخلفية، يوجد عداد مكتوب عليه "عداد القمع" متصل بلوحة تحكم، ويظهر أحد الرجال وهو يضغط على زر يجعل الكسارة تبدأ العمل. كانت الصورة مصحوبة بالشرح التوضيحي التالي: "عامان من حكم طالبان. #أفغانستان #النساء #القمع." تمت إزالة المنشور لانتهاك سياسة المنظمات الخطرة والأفراد الخطرين التي تنتهجها شركة Meta، والتي تحظر التحدث بلسان الجماعات والأشخاص الذين صنفتهم الشركة على أنهم يرتبطون بضرر كبير على أرض الواقع أو التحدث عنهم.

في الطعن الذي تقدم به إلى المجلس، أشار المستخدم إلى أن المحتوى كان عبارة عن كاريكاتير سياسي ساخر بطبيعته، للتعليق على القمع المتواصل والمتفاقم الذي تتعرض له النساء في أفغانستان تحت حكم طالبان. تسمح سياسة Meta بشأن المنظمات الخطرة والأفراد الخطرين بالمحتوى الذي يقدم تقارير إخبارية عن منظمات خطرة أو أفراد خطرين أو عن أنشطتها أو يدينها أو يناقشها بحيادية.

بعد أن لفتَ المجلس انتباه Meta إلى هذه الحالة، قررت الشركة أن المحتوى لا ينتهك سياستها بشأن المنظمات الخطرة والأفراد الخطرين، وأن إزالة المحتوى كانت غير صحيحة. ثم أعادت الشركة المحتوى إلى فيسبوك.

سُلطة المجلس ونطاق عمله

يتمتع المجلس بسلطة مراجعة قرار شركة Meta بعد تلقي طعن من المستخدم الذي تعرض المحتوى الخاص به إلى الإزالة (المادة 2، القسم 1 من اتفاقية المجلس؛ والمادة 3، القسم 1 من اللائحة الداخلية).

عندما تُقر Meta بأنها ارتكبت خطأً وتُلغي قرارها الصادر بشأن حالة قيد النظر نتيجة مراجعة المجلس، يجوز للمجلس اختيار هذه الحالة لإصدار قرار موجز (المادة 2، القسم 2.1.3 من اللائحة الداخلية). ويراجع المجلس القرار الأصلي لزيادة فهم عمليات الإشراف على المحتوى، والحد من الأخطاء وتعزيز معدلات الإنصاف لمستخدمي فيسبوك وInstagram.

أهمية الحالة

تسلط هذه الحالة الضوء على أخطاء إجراءات الإنفاذ لدى Meta، لا سيّما عند اكتشاف وتفسير الصور المرتبطة بالمنظمات والأفراد الخطرين. يحتمل أن يؤدي الإفراط في إنفاذ هذه السياسة، كما حدث في هذه الحالة، إلى إزالة التعبير الفني المرتبط بالخطاب السياسي المشروع.

خلال عام 2022، أوصى المجلس أيضًا أنه "يجب على Meta تقييم دقة المراجعين [البشريين] في تنفيذ استثناء نشر التقارير الإخبارية بموجب سياسة الأفراد الخطرين والمنظمات الخطرة لتحديد المشكلات النظامية التي تتسبب في أخطاء الإنفاذ"، (ذِكر طالبان في التقارير الإخبارية، التوصية رقم 5). علاوة على ذلك، في نفس القرار ( ذِكر طالبان في التقارير الإخبارية، التوصية رقم 6) ذكر المجلس أنه "يجب على Meta إجراء مراجعة أداة تصنيف نظام تجاوز النتائج الإيجابية الخاطئة عالية التأثير [HIPO] للتحقق من قدرتها على إعطاء الأولوية بشكل أكثر فعّالية للأخطاء المحتملة في إنفاذ استثناءات سياستها بشأن المنظمات الخطرة والأفراد الخطرين." وقد أبلغت Meta عن إحراز تقدم بشأن تنفيذ التوصيتين.

أصدر المجلس توصية تنص على "ضرورة أن تضمن Meta وجود إجراءات لتحليل المحتوى الساخر والسياق بشكل صحيح وأن تتوفر لمشرفي المحتوى حوافز كافية لدراسة سياق المحتوى الذي يحتمل أن يكون ساخرًا،" ( ميم زرا الاختيار، التوصية رقم 3). أبلغت Meta عن تنفيذ هذه التوصية جزئيًا.

يؤكد المجلس على أن التنفيذ الكامل لهذه التوصيات من شأنه الحد من أخطاء الإنفاذ بموجب سياسة Meta بشأن المنظمات الخطرة والأفراد الخطرين.

القرار

ألغى المجلس قرار شركة Meta الأصلي بإزالة المحتوى. ويُقر المجلس بأن الشركة قد صحّحت خطأها الأولي بمجرد أن لفت المجلس انتباهها إلى الحالة.

العودة إلى قرارات الحالة والآراء الاستشارية المتعلقة بالسياسة