قرار قضية متعددة
اقتباس جوبلز
تم النشر بتاريخ 18 كانُون الْأَوَّل 2023
في هذا القرار الموجز، ينظر المجلس في أربعة منشورات معًا. تقدَّم أربعة مستخدمون منفصلون بطعون على قرارات Meta بإزالة منشورات تضمنت اقتباسًا منسوبًا إلى جوزيف جوبلز.
4 تم تضمين من الحالات في هذه الحزمة
FB-EZ2SSLB1
حالة بشأن أفراد خطرين ومنظمات خطرة على فيسبوك
FB-GI0MEB85
حالة بشأن أفراد خطرين ومنظمات خطرة على فيسبوك
FB-2X73FNY9
حالة بشأن أفراد خطرين ومنظمات خطرة على فيسبوك
FB-PFP42GAJ
حالة بشأن أفراد خطرين ومنظمات خطرة على فيسبوك
هذا قرار موجز. تتم في القرارات الموجزة دراسة الحالات التي ألغت فيها Meta قرارها الأصلي بشأن أحد عناصر المحتوى بعد أن لفت المجلس انتباه الشركة إليه. وتتضمن هذه القرارات معلومات حول أخطاء Meta التي تم إقرارها وتوضح لعامة الجمهور التأثير الذي تُحدِثُه أعمال المجلس. وتوافق عليها لجنة من أعضاء المجلس، وليس المجلس بكامل هيئته. ولا تتضمن معالجة للتعليقات العامة ولا تُشكّل سابقة قانونية لدى المجلس. توفر القرارات الموجزة الشفافية بشأن تصحيحات Meta وتسلِّط الضوء على الجوانب التي يمكن أن تحسنها الشركة فيما يتعلق بإنفاذ سياساتها.
ملخص الحالة
في هذا القرار الموجز، ينظر المجلس في أربعة منشورات معًا. تقدَّم أربعة مستخدمون منفصلون بطعون على قرارات Meta بإزالة منشورات تضمنت اقتباسًا منسوبًا إلى جوزيف جوبلز، وزير الدعاية النازي. وقد شارك كل منشور الاقتباس لانتقاد انتشار المعلومات الزائفة في الوقت الحاضر. بعد أن لفت المجلس انتباه Meta إلى الطعون، ألغت الشركة قرارتها الأصلية وأعادت كل منشور من المنشورات.
وصف الحالة ومعلومات أساسية عنها
تشتمل المنشورات الأربعة على شكل مختلف من الاقتباس نفسه المنسوب إلى جوزيف جوبلز وهذا نصه: "الكذبة التي تقال مرة واحدة، تظل كذبة، أما الكذبة التي تقال ألف مرة، تصبح حقيقة." أضاف كل مستخدم شرحًا توضيحيًا مع الاقتباس. تحتوي الشروح التوضيحية على آراء المستخدمين حول أوجه تشابه تاريخية متصوَّرة بين ألمانيا النازية والخطاب السياسي في الوقت الحاضر، بالإضافة إلى تهديدات على حرية التعبير أحدثها تطبيع المعلومات الزائفة.
أزالت Meta المنشورات الأربعة من فيسبوك في بداية الأمر، مُستشهدةً بسياستها بشأن المنظمات الخطرة والأفراد الخطرين، والتي تُزيل بموجبها الشركة المحتوى الذي "يمدح" أو "يدعم بشكل موضوعي" أو "يمثل" الأفراد والمنظمات التي تُصنفها على أنها جهات خطرة، بما في ذلك الحزب النازي. تسمح السياسة بالمحتوى الذي يناقش الأمور المتعلقة بالمنظمات الخطرة أو الأفراد الخطرين مناقشة محايدة أو تهدف إلى إدانة الأفعال المرتكبة.
تقدم المستخدمون الأربعة بطعون إلى المجلس على إزالة المحتوى الخاص بهم. وفي تلك الطعون، ذكَر كل واحد منهم أنه لم يدرج الاقتباس لتأييد جوزيف جوبلز أو الحزب النازي وإنما لانتقاد التأثير السلبي للمعلومات الزائفة على أنظمتهم السياسية. كما أنهم سلطوا الضوء على مدى ارتباط الدروس التاريخية بمسألة مخاطر الدعاية.
بعد أن لفت المجلس انتباه Meta إلى هذه الحالات، قررت الشركة أن المحتوى لم ينتهك سياسة Meta بشأن المنظمات الخطرة والأفراد الخطرين، وأن عمليات إزالة المنشورات الأربعة كانت غير صحيحة. ثم أعادت الشركة المحتوى إلى فيسبوك. ذكرت Meta أن المحتوى لم يتضمن أي دعم للحزب النازي، بل اشتمل على أوصاف "لحملة النظام النازي لتطبيع الأكاذيب من أجل إبراز أهمية الأخلاقيات والمعايير المعرفية لحرية التعبير".
سُلطة المجلس ونطاق عمله
يتمتع المجلس بسلطة مراجعة قرارات شركة Meta بعد تلقي طعون من الشخص الذي تمت إزالة المحتوى الخاص به (المادة 2، القسم 1 من اتفاقية المجلس؛ والمادة 3، القسم 1 من اللائحة الداخلية).
عندما تُقر Meta بأنها ارتكبت خطأً وتُلغي قرارها الصادر بشأن حالة قيد النظر نتيجة مراجعة المجلس، يجوز للمجلس اختيار هذه الحالة لإصدار قرار موجز (المادة 2، القسم 2.1.3 من اللائحة الداخلية). ويراجع المجلس القرار الأصلي لزيادة فهم عمليات الإشراف على المحتوى المتبعة، والحد من الأخطاء وتعزيز معدلات الإنصاف لمستخدمي فيسبوك وInstagram.
أهمية الحالة
تسلِّط هذه الحالات الضوء على إخفاق Meta في التمييز بين الإشارات الداعمة للمنظمات التي تصنفها الشركة على أنها جهات خطرة، وهي أمور تحظرها الشركة، وبين الإشارات المحايدة أو الهادفة إلى الإدانة والتي تندرج ضمن الأمور التي تسمح بها الشركة. سبق وأصدر المجلس عدة توصيات حيال سياسة Meta بشأن المنظمات الخطرة والأفراد الخطرين. ويبدو أن الأخطاء المستمرة في تطبيق استثناءات معيار المجتمع هذا تقيِّد بدرجة كبيرة من حرية التعبير المهمة لدى المستخدمين، الأمر الذي يجعل من ذلك مجالاً بالغ الأهمية لمزيدٍ من التحسين من جانب الشركة.
في قرار سابق، أوصى المجلس أنه "يجب على Meta تقييم دقة المراجعين في تنفيذ استثناء نشر التقارير الإخبارية بموجب سياسة الأفراد الخطرين والمنظمات الخطرة لتحديد المشكلات النظامية التي تتسبب في أخطاء الإنفاذ"، (قرار ذِكر طالبان في التقارير الإخبارية، التوصية رقم 5). كما حثّ المجلس Meta على "إجراء مراجعة لأداة تصنيف تجاوز النتائج الإيجابية الخاطئة عالية التأثير للتحقق من قدرتها على إعطاء الأولوية بشكل أكثر فعّالية للأخطاء المحتملة في إنفاذ استثناءات سياستها بشأن الأفراد الخطرين والمنظمات الخطرة"، (قرار ذِكر طالبان في التقارير الإخبارية، التوصية رقم 6). يعطي نظام أداة التصنيف هذا الأولوية لإجراء مراجعة إضافية، وهو نظام تستخدمه Meta للتعرف على الحالات التي اتخذت فيها إجراءات غير صائبة، على سبيل المثال، بإزالة المحتوى عن طريق الخطأ. لا تزال Meta تقيّم جدوى هذه التوصية. كما طلب المجلس من Meta "تحسين قدرتها الاستيعابية المخصصة لمراجعة نظام تجاوز النتائج الإيجابية الخاطئة عالية التأثير على مستوى اللغات لضمان خضوع مزيد من قرارات المحتوى التي قد تشكل أخطاءً في الإنفاذ لمراجعة بشرية إضافية"، (قرار ذِكر طالبان في التقارير الإخبارية، التوصية رقم 7). ذكرت Meta أن هذه التوصية بمثابة عمل تنفذه بالفعل، دون نشر معلومات تثبت ذلك.
بالإضافة إلى ذلك، فقد أوصى المجلس Meta "بتوضيح وإضافة نماذج لتطبيق أهم المصطلحات المستخدمة في سياسة الأفراد الخطرين والمنظمات الخطرة، بما في ذلك معاني مصطلحات "المدح" و"الدعم" و"التمثيل"، وذكر المجلس أن تلك التفسيرات العامة "يجب أن تتوافق جميعها مع التعريفات المستخدمة في معايير التنفيذ الداخلية لدى فيسبوك"، (قرار الاقتباس النازي، التوصية رقم 2). نفذت Meta هذه التوصية.
وكما توضح هذه الحالات، فإن استخدام التشبيه بشخصية خطرة سيئة السمعة لأغراض نقد شخص أو ممارسة حالية هو أحد أشكال الخطاب السياسي الشائعة والمشروعة تمامًا. توضح هذه الحالات الأربعة مدى الحاجة إلى تدابير أكثر فعّالية تتوافق مع توصيات المجلس.
القرار
ألغى المجلس قرارات Meta الأصلية بإزالة المحتوى. ويُقر المجلس بأن Meta قد صحّحت أخطاءها الأولية بمجرد أن لفت المجلس انتباهها إلى هذه الحالات.
العودة إلى قرارات الحالة والآراء الاستشارية المتعلقة بالسياسة