أسقط

المحكمة العليا بأردية بيضاء ذات قبعات مدببة

تقدَّم مستخدم بطعن على قرار Meta بإزالة منشور على فيسبوك يتضمن صورة معدَّلة للمحكمة العليا الأمريكية، تصوِر ستة من أعضائها التسعة وهم يرتدون زي جماعة "كو كلوكس كلان".

نوع القرار

ملخص

السياسات والمواضيع

عنوان
حرية التعبير، سياسة، فكاهة
معيار المجتمع
أفراد خطرون ومنظمات خطرة

المناطق/البلدان

موقع
الولايات المتحدة

منصة

منصة
Facebook

هذا قرار موجز. تتم في القرارات الموجزة دراسة الحالات التي ألغت فيها Meta قرارها الأصلي بشأن أحد عناصر المحتوى بعد أن لفت المجلس انتباه الشركة إليه. تتضمن هذه القرارات معلومات عن الأخطاء التي أقرت بها Meta، وتوضح للعامة التأثير الذي تحدثه أعمال المجلس. وتوافق عليها لجنة من أعضاء المجلس، وليس المجلس بكامله. ولا تتضمن معالجة للتعليقات العامة ولا تُشكّل سابقة قانونية لدى المجلس. توفر القرارات الموجزة الشفافية بشأن تصحيحات Meta وتسلِّط الضوء على الجوانب التي يمكن أن تحسنها الشركة فيما يتعلق بإنفاذ سياساتها.

ملخص الحالة

تقدَّم مستخدم بطعن على قرار Meta بإزالة منشور على فيسبوك يتضمن صورة معدَّلة للمحكمة العليا الأمريكية، تصوِر ستة من أعضائها التسعة وهم يرتدون زي جماعة "كو كلوكس كلان". بعد أن لفتَ المجلس انتباه Meta إلى الطعن، ألغت الشركة قرارها الأصلي وأعادت المنشور.

وصف الحالة ومعلومات أساسية عنها

في يوليو 2023، نشر مستخدم صورة معدَّلة على فيسبوك تصوِّر ستة قضاة بالمحكمة العليا الأمريكية على أنهم أعضاء في جماعة "كو كلوكس كلان"، في حين يظهر ثلاثة قضاة آخرون في الصورة دون تعديل، وهؤلاء اُعتبروا أكثر ليبرالية. لم يشتمل المنشور على عرض توضيحي وحظي بأقل من 200 مشاهدة.

وقد تمت إزالة المنشور لانتهاكه سياسة المنظمات الخطرة والأفراد الخطرين لدى Meta. تحظر هذه السياسة المحتوى الذي ينطوي على إشادة أو دعم موضوعي أو تمثيل للمنظمات أو الأفراد الخطرين من منظور Meta.

وأكد المستخدم في طعنه الذي تقدَّم به إلى المجلس على أن المنشور كان يهدف إلى النقد السياسي وليس لتأييد جماعة "كو كلوكس كلان". كما ذكرَ المستخدم أن المحتوى يسلِّط الضوء على ما يراه من القضاة الستة على أنه يمثل "مواقف مجحفة وبغيضة وهدَّامة تجاه المرأة، وحقوق المرأة في اختيار الإجهاض، ومجتمعات المثليين من الجنسين، ومتحولو جنسيًا وأحرار الجنس، ورعاية الفئات المستضعفة الأخرى".

بعد أن لفتَ المجلس انتباه Meta إلى هذه الحالة، قررت الشركة أن المحتوى لا ينتهك سياستها بشأن المنظمات الخطرة والأفراد الخطرين، وأن إزالة المحتوى كانت غير صحيحة. ثم أعادت الشركة المحتوى إلى فيسبوك.

سُلطة المجلس ونطاق عمله

يتمتع المجلس بسلطة مراجعة قرار شركة Meta بعد تلقي طعن من الشخص الذي تعرض المحتوى الخاص به إلى الإزالة (المادة 2، القسم 1 من اتفاقية المجلس؛ والمادة 3، القسم 1 من اللائحة الداخلية).

عندما تُقر Meta بأنها ارتكبت خطأً وتُلغي قرارها الصادر بشأن حالة قيد النظر نتيجة مراجعة المجلس، يجوز للمجلس اختيار هذه الحالة لإصدار قرار موجز (المادة 2، القسم 2.1.3 من اللائحة الداخلية). ويراجع المجلس القرار الأصلي لزيادة فهم عمليات الإشراف على المحتوى المتبعة، والحد من الأخطاء وتعزيز معدلات الإنصاف لمستخدمي فيسبوك وInstagram.

أهمية الحالة

تسلِّط هذه الحالة الضوء على خطأ في إنفاذ Meta لسياستها بشأن المنظمات الخطرة والأفراد الخطرين، وعلى وجه التحديد المحتوى الذي تتم مشاركته كنقد سياسي. وقد يؤدي الاستمرار في ارتكاب أخطاء مشابهة إلى تقييد كبير لحرية التعبير المهمة لدى المستخدمين، وينبغي على الشركة أن تعطي أولوية عالية للحد من تلك الأخطاء.

يُعد معيار المجتمع بشأن المنظمات الخطرة والأفراد الخطرين مصدر الكثير من عمليات الإزالة غير الصحيحة وقد جرى التعامل معه في عددٍ من قرارات المجلس السابقة. ففي قرارٍ سابق، طلبَ المجلس من Meta "تضمين شرح في معايير المجتمع للطريقة التي ينبغي على المستخدمين اتباعها لتوضيح نواياهم من المنشورات لفيسبوك". وللغرض نفسه، أوصى المجلس أن تعلن الشركة على الملأ عن قائمتها للمنظمات الخطرة والأفراد الخطرين، وأنه "ينبغي أيضًا على فيسبوك توفير أمثلة توضيحية لإظهار الخط الفاصل بين المحتوى المسموح به والمحتوى المحظور، بما في ذلك فيما يتعلق بتطبيق القاعدة التي توضح استثناءات "الدعم"، (قرار عزلة أوجلان، التوصية رقم 6). التزمت شركة Meta بتنفيذ هذه التوصية جزئيًا. بالإضافة إلى ذلك، فقد حثّ المجلس Meta على "تضمين معلومات أكثر شمولاً عن معدلات الخطأ في إنفاذ القواعد فيما يتعلق "بمدح" و"دعم" الأفراد الخطرين والمنظمات الخطرة"، (قرار عزلة أوجلان، التوصية رقم 12). رفضت Meta تنفيذ هذه التوصية بعد تقييم الجدوى.

يؤكد المجلس على أن التنفيذ الكامل لهذه التوصيات من شأنه الحد من أخطاء الإنفاذ بموجب سياسة Meta بشأن المنظمات الخطرة والأفراد الخطرين.

القرار

ألغى المجلس قرار شركة Meta الأصلي بإزالة المحتوى. ويُقر المجلس بأن Meta قد صحّحت خطأها الأولي بمجرد أن لفت المجلس انتباهها إلى الحالة.

العودة إلى قرارات الحالة والآراء الاستشارية المتعلقة بالسياسة