أسقط
نقاش بنغالي بشأن الدين
تم النشر بتاريخ 8 كانُون الْأَوَّل 2023
تقدم مستخدم بطعن على قرار Meta بإزالة منشور على فيسبوك يحتوي على رابط إلى فيديو على YouTube تناول عدم رغبة علماء المسلمين في مناقشة الإلحاد.
هذا قرار موجز. تتم في القرارات الموجزة دراسة الحالات التي ألغت فيها Meta قرارها الأصلي بشأن أحد عناصر المحتوى بعد أن لفت المجلس انتباه الشركة إليه. وتتضمن هذه القرارات معلومات حول أخطاء Meta التي تم إقرارها. وتوافق عليها لجنة من أعضاء المجلس، وليس المجلس بكامله. ولا تتضمن معالجة للتعليقات العامة ولا تُشكّل سابقة قانونية لدى المجلس. توفر القرارات الموجزة الشفافية بشأن تصحيحات Meta وتسلّط الضوء على الجوانب التي يمكن أن تحسنها الشركة فيما يتعلق بإنفاذ سياساتها.
ملخص الحالة
تقدم مستخدم بطعن على قرار Meta بإزالة منشور على فيسبوك يحتوي على رابط إلى فيديو على YouTube تناول عدم رغبة علماء المسلمين في مناقشة الإلحاد. بعد أن لفت المجلس انتباه Meta إلى الطعن، ألغت الشركة قرارها الأصلي وأعادت المنشور.
وصف الحالة ومعلومات أساسية عنها
في مايو 2023، نشر مستخدم يصف نفسه بأنه ملحد وناقد للأديان رابطًا إلى مقطع فيديو من YouTube على فيسبوك. وكانت الصورة المصغرة لمقطع الفيديو تتضمن سؤالاً باللغة البنغالية يقول "لماذا يخشى علماء المسلمين من مناقشة الملحدين من خلال مدونات الفيديو؟" بالإضافة إلى صورة لاثنين من علماء المسلمين. وقد ذكر الشرح التوضيحي للمنشور "شاهد العرض الأول لتحصل على الإجابة!" حصل المحتوى على 4000 مشاهدة تقريبًا.
في الطعن الذي تقدم به إلى المجلس، زعم المستخدم أن الغرض من مشاركة الفيديو كان ترويج "مناظرة أو مناقشة صحية" مع علماء المسلمين، وتحديدًا بشأن موضوعات مثل نظرية التطور ونظرية الانفجار العظيم. يشير المستخدم إلى أن هذا المنشور يلتزم بمعايير مجتمع فيسبوك من خلال "تعزيز المناقشة المفتوحة". علاوة على ذلك، فقد أكد المستخدم على أن النشطاء الملحدين البنجلاديشيين يتعرضون كثيرًا للرقابة والأضرار البدنية.
أزالت Meta المحتوى في بادئ الأمر بموجب سياستها بشأن تنسيق الأنشطة الضارة وترويج ارتكاب الجرائم، والتي تحظر المحتوى الذي "يسهّل أو ينظم أو يروّج أو يقر بارتكاب بعض الأنشطة الإجرامية أو الضارة التي تستهدف الأشخاص أو الأنشطة التجارية أو الممتلكات أو الحيوانات". أقرت Meta بأن هذا المحتوى لا ينتهك هذه السياسة على الرغم من أن الآراء التي يتبناها الملحد قد يُنظر إليها على أنها "استفزازية للعديد من البنجلاديشيين". لم تقدم Meta أي تفسيرات إضافية بشأن سبب إزالة المحتوى من المنصة. على الرغم من أن الهجوم المباشر على الأشخاص استنادًا إلى انتمائهم الديني قد يؤدي إلى إزالة المحتوى لانتهاك سياسة الخطاب الذي يحض على الكراهية، وهي سياسة مختلفة من سياسات Meta، لا يوجد في سياسات الشركة ما يحظر انتقاد مفاهيم الدين أو أيديولوجياته.
بعد أن لفت المجلس انتباه Meta إلى هذه الحالة، قررت الشركة أن المحتوى لا ينتهك سياسة تنسيق الأنشطة الضارة وترويج ارتكاب الجرائم وأن إزالته قد تمت عن طريق الخطأ. ثم أعادت الشركة المحتوى إلى فيسبوك.
سُلطة المجلس ونطاق عمله
يتمتع المجلس بسلطة مراجعة قرار شركة Meta بعد تلقي طعن من الشخص الذي تعرض المحتوى الخاص به إلى الإزالة (المادة 2، القسم 1 من اتفاقية المجلس؛ المادة 3، القسم 1 من اللائحة الداخلية).
عندما تُقر Meta بأنها ارتكبت خطأً وتُلغي قرارها الصادر بشأن حالة قيد النظر نتيجة مراجعة المجلس، يجوز للمجلس اختيار هذه الحالة لإصدار قرار موجز (المادة 2، القسم 2.1.3 من اللائحة الداخلية). ويراجع المجلس القرار الأصلي لزيادة فهم عمليات الإشراف على المحتوى المتبعة، وتقليل الأخطاء ورفع مستوى الإنصاف لمستخدمي فيسبوك وInstagram.
أهمية الحالة
تسلط هذه الحالة الضوء على خطأ في إنفاذ Meta لسياستها بشأن تنسيق الأنشطة الضارة وترويج ارتكاب الجرائم. من شأن أخطاء الإنفاذ هذه أن تفرض قيودًا إضافية على حرية التعبير لأعضاء المجموعات الذين يخضعون بالفعل لرقابة شديدة من قِبل الجهات الفاعلة الحكومية.
تنص سياسة Meta بشأن تنسيق الأنشطة الضارة وترويج ارتكاب الجرائم على أن Meta تسمح للمستخدمين بمناقشة "الأنشطة الضارة" ولكن فقط "طالما أنهم لا يدعون إلى الضرر أو يخططون لأعمال من شأنها الإضرار بالآخرين" وتدو العديد من بنود السياسة حول نية المستخدم. في هذه الحالة، في حين يمكن تفسير منشور المستخدم على أنه استفزازي - نظرًا للعداء الموثق تجاه النشطاء الملحدين البنجلاديشيين - لم يكن المستخدم يدعو إلى الضرر أو يخطط لأعمال من شأنها الإضرار بالآخرين بموجب تعريف Meta لمثل هذه الأنشطة، مما يسلط الضوء على سوء تفسير نية المستخدم. في السابق، أصدر المجلس توصيات للشركة بأن توضح للمستخدمين كيفية التعبير بوضوح عن نيتهم في عدم الانتهاك بشأن الفروق المماثلة في سياسة الشركة بشأن المنظمات الخطرة والأفراد الخطرين. وبشأن هذه السياسة، حث المجلس Meta على "تضمين شرح في معايير المجتمع يبين كيف يمكن للمستخدمين توضيح نواياهم من المنشورات لشركة [Meta] ... وينبغي على فيسبوك أيضًا توفير أمثلة توضيحية لتبيّن الخط الفاصل بين المحتوى المسموح به والمحتوى المحظور"، (قرار عزلة أوجلان، التوصية رقم 6). نفذت Meta هذه التوصية جزئيًا.
علاوة على ذلك، أصدر المجلس توصيات تهدف إلى منع أخطاء الإنفاذ بشكل أوسع نطاقًا. طلب المجلس من Meta أيضًا "تنفيذ تدقيق داخلي لإجراء تحليل مستمر لعيّنة مُعبّرة إحصائيًا من قرارات إزالة المحتوى التلقائية لتصحيح أخطاء الإنفاذ والتعلم منها" (قرار أعراض سرطان الثدي والعُري، التوصية رقم 5). ادعت Meta أنها تقوم بذلك بالفعل، دون نشر معلومات تبرهن على ذلك. بالإضافة إلى ذلك، طلب المجلس من Meta "تحسين تقارير الشفافية الخاصة بها لزيادة المعلومات العامة عن معدلات الأخطاء من خلال توفير إمكانية عرض هذه المعلومات حسب البلد واللغة لكل معيار من معايير المجتمع... إصدار تقارير شفافية أكثر تفصيلًا سيساعد العامة على تحديد المواطن التي يشيع حدوث أخطاء فيها، بما في ذلك التأثيرات المحتملة المحددة بشأن الأقليات، وسيسمح لهم بتنبيه فيسبوك لتصحيحها"، ( قرار مخاوف البنجابيين تجاه منظمة راشتريا سوايامسيفاك سانغ (RSS) في الهند، التوصية رقم 3). لا تزال Meta تقيّم جدوى هذه التوصية.
القرار
ألغى المجلس قرار شركة Meta الأصلي بإزالة المحتوى. ويُقر المجلس بأن الشركة قد صحّحت خطأها الأولي بمجرد أن لفت المجلس انتباهها إلى هذه الحالة. يحث المجلس Meta أيضًا على إسراع تنفيذ التوصيات التي لا تزال مفتوحة لتقليل هذه الأخطاء.
العودة إلى قرارات الحالة والآراء الاستشارية المتعلقة بالسياسة