أسقط

تعليم الفتيات في أفغانستان

تقدم مستخدم بطعن على قرار Meta بإزالة منشور على فيسبوك يناقش أهمية تعليم الفتيات في أفغانستان.

نوع القرار

ملخص

السياسات والمواضيع

عنوان
الطفل/حقوق الطفل، المساواة بين الجنسين، تمييز
معيار المجتمع
أفراد خطرون ومنظمات خطرة

المناطق/البلدان

موقع
أفغانستان

منصة

منصة
Facebook

هذا قرار موجز. تتم في القرارات الموجزة دراسة الحالات التي ألغت فيها Meta قرارها الأصلي بشأن أحد عناصر المحتوى بعد أن لفت المجلس انتباه الشركة إليه. وتتضمن هذه القرارات معلومات حول أخطاء Meta التي تم إقرارها. وتوافق عليها لجنة من أعضاء المجلس، وليس المجلس بكامله. ولا تتضمن معالجة للتعليقات العامة ولا تُشكّل سابقة قانونية لدى المجلس. توفر القرارات الموجزة الشفافية بشأن تصحيحات Meta وتسلّط الضوء على الجوانب التي يمكن أن تحسنها الشركة فيما يتعلق بإنفاذ سياساتها.

ملخص الحالة

تقدم مستخدم بطعن على قرار Meta بإزالة منشور على فيسبوك يناقش أهمية تعليم الفتيات في أفغانستان. وتسلط هذه الحالة الضوء على خطأ في إنفاذ الشركة لسياستها بشأن المنظمات الخطرة والأفراد الخطرين. بعد أن لفت المجلس انتباه Meta إلى الطعن، ألغت الشركة قرارها الأصلي وأعادت المنشور.

وصف الحالة ومعلومات أساسية عنها

في يوليو 2023، نشر أحد مستخدمي فيسبوك في أفغانستان نصًا بلغة الباشتو يصف أهمية تعليم الفتيات في أفغانستان. ودعا المستخدم الأشخاص إلى مواصلة الإعراب عن مخاوفهم موضحًا عواقب عدم نقل هذه المخاوف إلى طالبان. وقد ذكر المستخدم أيضًا أن حرمان الفتيات من التعليم سيشكّل خسارة للأمة.

أزالت Meta المنشور من فيسبوك في الأصل، مُستشهدةً بسياسة المنظمات الخطرة والأفراد الخطرين التي تتبعها، والتي تُزيل بموجبها الشركة المحتوى الذي "يمتدح" أو "يدعم بشكل جوهري" أو "يمثل" الأفراد والمنظمات التي تُصنفها على أنها جهات خطرة، بما في ذلك طالبان. تسمح السياسة بالمحتوى الذي يناقش المنظمات الخطرة أو الأفراد الخطرين بطريقة محايدة أو تهدف إلى إدانة الأفعال المرتكبة.

بعد أن لفت المجلس انتباه Meta إلى هذه الحالة، قررت الشركة أن المحتوى لا ينتهك سياسة المنظمات الخطرة والأفراد الخطرين، وأن إزالة المنشور قد تمت عن طريق الخطأ. وقامت الشركة على إثر ذلك باستعادة المحتوى.

سُلطة المجلس ونطاق عمله

يتمتع المجلس بسلطة مراجعة قرار شركة Meta بعد تلقي طعن من الشخص الذي تعرض المحتوى الخاص به إلى الإزالة (المادة 2، القسم 1 من اتفاقية المجلس؛ المادة 3، القسم 1 من اللائحة الداخلية).

عندما تُقر Meta بأنها ارتكبت خطأً وتُلغي قرارها الصادر بشأن حالة قيد النظر نتيجة مراجعة المجلس، يجوز للمجلس اختيار هذه الحالة لإصدار قرار موجز (المادة 2، القسم 2.1.3 من اللائحة الداخلية). ويراجع المجلس القرار الأصلي لزيادة فهم عمليات الإشراف على المحتوى المتبعة، وتقليل الأخطاء ورفع مستوى الإنصاف لمستخدمي فيسبوك وInstagram.

أهمية الحالة

تسلط هذه الحالة الضوء على الأخطاء التي تكتنف إنفاذ سياسة Meta بشأن المنظمات الخطرة والأفراد الخطرين، والتي قد تؤثر سلبًا في قدرات المستخدمين على مشاركة التعليقات السياسية على منصات Meta. تناولت الحالة التي بين أيدينا على وجه التحديد مناقشة تعليم النساء في أفغانستان بعد تولي طالبان للحكم.

في حالة سابقة، أوصى المجلس Meta "بإضافة معايير وأمثلة توضيحية لسياستها بشأن الأفراد الخطرين والمنظمات الخطرة لزيادة فهم استثناءات المناقشات الحيادية والإدانة والتقارير الإخبارية"، (قرار مشاركة منشور الجزيرة، التوصية رقم 1). وذكرت Meta في تحديثها الربع السنوي للربع الثاني من عام 2023 أنه تم تنفيذ هذه التوصية بالكامل. علاوة على ذلك، أوصى المجلس Meta "بتنفيذ تدقيق داخلي لإجراء تحليل مستمر لعيّنة مُعبرّة إحصائيًا من قرارات إزالة المحتوى التلقائية لتصحيح أخطاء الإنفاذ والتعلم منها"، (قرار أعراض سرطان الثدي والعُري، التوصية رقم 5). أبلغت Meta المجلس أنها تنفّذ هذه التوصية لكنها لم تنشر معلومات لتبرهن على ذلك.

القرار

ألغى المجلس قرار شركة Meta الأصلي بإزالة المحتوى. ويُقر المجلس بأن الشركة قد صحّحت خطأها الأولي بمجرد أن لفت المجلس انتباهها إلى الحالة. يحث المجلس Meta أيضًا على إسراع تنفيذ التوصيات التي لا تزال مفتوحة لتقليل هذه الأخطاء.

العودة إلى قرارات الحالة والآراء الاستشارية المتعلقة بالسياسة