قرار قضية متعددة

مقالة إخبارية عن جماعة Proud Boys

راجع المجلس منشورين على فيسبوك، أزالتهما Meta، وكانا يرتبطان بتقرير إخباري عن إصدار أحكام جنائية بحق أعضاء جماعة Proud Boys. بعد أن لفت المجلس انتباه Meta إلى الطعنين، ألغت الشركة قرارتها الأصلية وأعادت المنشورين.

2 تم تضمين من الحالات في هذه الحزمة

أسقط

FB-2JHTL3QD

حالة بشأن أفراد خطرين ومنظمات خطرة على فيسبوك

منصة
Facebook
عنوان
حرية التعبير,صحافة,مناسبات إخبارية
معيار
أفراد خطرون ومنظمات خطرة
موقع
الولايات المتحدة
Date
تم النشر بتاريخ تم النشر بتاريخ 27 شُباط 2024
أسقط

FB-ZHVJLX60

حالة بشأن أفراد خطرين ومنظمات خطرة على فيسبوك

منصة
Facebook
عنوان
حرية التعبير,صحافة,مناسبات إخبارية
معيار
أفراد خطرون ومنظمات خطرة
موقع
الولايات المتحدة
Date
تم النشر بتاريخ تم النشر بتاريخ 27 شُباط 2024

هذا قرار موجز. تتم في القرارات الموجزة دراسة الحالات التي ألغت فيها Meta قرارها الأصلي بشأن أحد عناصر المحتوى بعد أن لفت المجلس انتباه الشركة إليه. تتضمن هذه القرارات معلومات عن الأخطاء التي أقرت بها Metaوتوضح للعامة التأثير الذي تحدثه أعمال المجلس. وتوافق عليها لجنة من أعضاء المجلس، وليس المجلس بكامله. ولا تنظر اللجنة في التعليقات العامة ولا تُشكّل هذه القرارات سابقة قانونية لدى المجلس. توفر القرارات الموجزة الشفافية بشأن تصحيحات Meta وتسلِّط الضوء على الجوانب التي يمكن أن تحسنها الشركة فيما يتعلق بإنفاذ سياساتها.

ملخص الحالة

راجع المجلس منشورين على فيسبوك، أزالتهما Meta، وكانا يرتبطان بتقرير إخباري عن إصدار أحكام جنائية بحق أعضاء جماعة Proud Boys. بعد أن لفت المجلس انتباه Meta إلى الطعنين، ألغت الشركة قرارتها الأصلية وأعادت المنشورين.

وصف الحالة ومعلومات أساسية عنها

في سبتمبر 2023، نشر اثنين من مستخدمي فيسبوك رابطًا إلى مقالة إخبارية عن إدانة والحكم على أحد أعضاء جماعة Proud Boys التي شاركت في هجوم 6 يناير 2021 على مبنى الكابيتول الأمريكي. تضمنت المقالة صورة لمجموعة من الرجال يرتدي كل منهم قميصًا كُتب عليه "Proud Boys" وشعار الجماعة. لم يقم أي مستخدم منهما بإضافة تعليق أو شرح توضيحي عند مشاركة الرابط.

جماعة Proud Boys هي جماعة يمينية متطرفة تأسست عام 2016 وسرعان ما اشتهرت بالعنف والتطرف، بما في ذلك اضطلاعها بدور ملموس في هجمات 6 يناير 2021 على مبنى الكابيتول الأمريكي، وهي الهجمات التي تمت محاكمة العديد من أعضاء الجماعة بسببها.

أزالت Meta المنشور من فيسبوك في الأصل بموجب سياسة المنظمات الخطرة والأفراد الخطرين، وتحظر الشركة بموجب هذه السياسة التحدث بلسان الأفراد والمنظمات التي تصنفها Meta على أنها خطرة والإدلاء ببعض أشكال الخطاب الذي يتناولها كما تحظر أيضًا الإشارات غير الواضحة إليها. ومع هذا، تنص سياسة الشركة على أنه "يجوز للمستخدمين مشاركة محتوى يتضمن إشارات إلى منظمات خطرة وأفراد خطرين مصنفين لنشر تقارير عنهم أو عن أنشطتهم أو إدانتهم أو مناقشتهم بشكل محايد."

في الطعون المقدمة إلى المجلس، قال المستخدمان أن المحتوى الخاص بهما لم ينتهك معايير مجتمع Meta. ادعى المستخدم في الحالة الأولى أن المقالة الإخبارية أعيد نشرها كي يعلم الأشخاص بخبر إدانة زعيم جماعة Proud Boys وذكر أنه لو كان المحتوى روجع من قبل شخص، وليس برنامجًا تلقائيًا، لكان خلُص إلى أن المحتوى لم ينتهك معايير مجتمع Meta. في الحالة الثانية، ذكر المستخدم أن المنشور كان يهدف إلى إخبار الأشخاص بأن العدالة قد أخذت مجراها فيما يتعلق بعمل إرهابي. وشدد أيضًا على أهمية الإشراف البشري في مثل هذه الحالات، لأن أنظمة Meta التلقائية اتخذت قرارًا غير صحيح، والذي تأثر على الأرجح بالكلمات المستخدمة في المقالة بدلاً من أخذ السياق في الاعتبار.

بعد أن لفت المجلس انتباه Meta إلى هاتين الحالتين، قررت الشركة أن المنشورين لم ينتهكا سياساتها. على الرغم من أن المنشورات تشير إلى جماعة Proud Boys، وهي منظمة مصنّفة، فقد كانت تقدم تقارير عن الجماعة ليس أكثر. خلُصت Meta إلى أن إزالة المنشورات في بادئ الأمر لم تكن صائبة لأن المنشورات تندرج تحت الاستثناء الذي يسمح للأشخاص بالإشارة إلى المنظمات الخطرة والأفراد الخطرين عندما يكون ذلك على سبيل "نشر تقارير عنهم أو إدانتهم أو إجراء مناقشة حيادية تتناولهم". أعادت Meta المنشورين إلى المنصة.

سُلطة المجلس ونطاق عمله

يتمتع المجلس بسلطة مراجعة قرار شركة Meta بعد تلقي طعن من المستخدم الذي تعرض المحتوى الخاص به إلى الإزالة (المادة 2، القسم 1 من اتفاقية المجلس؛ والمادة 3، القسم 1 من اللائحة الداخلية).

عندما تُقر Meta بأنها ارتكبت خطأً وتُلغي قرارها الصادر بشأن حالة قيد النظر نتيجة مراجعة المجلس، يجوز للمجلس اختيار هذه الحالة لإصدار قرار موجز (المادة 2، القسم 2.1.3 من اللائحة الداخلية). ويراجع المجلس القرار الأصلي لزيادة فهم عمليات الإشراف على المحتوى، والحد من الأخطاء وتعزيز معدلات الإنصاف لمستخدمي فيسبوك وInstagram.

أهمية الحالة

توضح هذه الحالات التحديات المرتبطة بإنفاذ استثناءات التقارير الإخبارية، على النحو الوارد في معيار مجتمع Meta بشأن المنظمات الخطرة والأفراد الخطرين. يؤثر هذا النوع من الأخطاء مباشرةً في قدرة المستخدم على مشاركة روابط خارجية من منفذ إخباري، عندما تتعلق بجماعة أو منظمة مصنّفة، على منصات Meta، حتى إذا كانت محايدة ولها أهمية جماهيرية.

في السابق، أصدر المجلس عدة توصيات حيال سياسة Meta بشأن المنظمات الخطرة والأفراد الخطرين وتقديم التقارير الإخبارية. وقد تضمّن ذلك توصية "بإضافة معايير وأمثلة توضيحية لسياسة Meta بشأن المنظمات الخطرة والأفراد الخطرين لتعزيز فهم الاستثناءات، وتحديدًا ما يتعلق بالمناقشات الحيادية والتقارير الصحفية"، وهي توصية قامت Meta بتنفيذها كما يتضح من خلال المعلومات المنشورة ( مشاركة منشور الجزيرة، التوصية رقم 1). حث المجلس Meta على "تقييم دقة المراجعين في تنفيذ استثناء نشر التقارير الإخبارية بموجب سياسة المنظمات الخطرة والأفراد الخطرين لتحديد المشكلات النظامية التي تتسبب في أخطاء الإنفاذ،" (ذِكر طالبان في التقارير الإخبارية، التوصية رقم 5). علاوة على ذلك، أوصى المجلس Meta بضرورة "إجراء مراجعة لأداة تصنيف نظام تجاوز النتائج الإيجابية الخاطئة عالية التأثير [HIPO] للتحقق من قدرتها على إعطاء الأولوية بشكل أكثر فعّالية للأخطاء المحتملة في إنفاذ استثناءات سياسة المنظمات الخطرة والأفراد الخطرين، بما في ذلك محتوى التقارير الإخبارية، حيث تزيد احتمالات إزالة النتائج الإيجابية الخاطئة التي تؤثر في حرية التعبير،" ( ذِكر طالبان في التقارير الإخبارية، التوصية رقم 6). أبلغت Meta عن تنفيذ التوصيتين الأخيرتين دون نشر معلومات أخرى وبالتالي لا يمكن التحقق من هذا التنفيذ.

ولا يزال المجلس يشعر بالقلق من أنه على الرغم من إبلاغ Meta عن تنفيذ جميع هذه التوصيات، فإن هاتين الحالتين تؤكدان على الحاجة إلى اتخاذ تدابير أكثر فعّالية وفقًا لتوصيات المجلس.

يشدد المجلس على أن تبني هذه التوصيات بالكامل، بالإضافة إلى المعلومات المنشورة التي توضح أنه قد تم تنفيذها بنجاح، قد يقلل من عدد عمليات الإزالة غير الصحيحة للتقارير الإخبارية بموجب سياسة Meta بشأن المنظمات الخطرة والأفراد الخطرين.

القرار

ألغى مجلس الإشراف قرارات Meta الأصلية بإزالة عنصري المحتوى هذين. ويُقر المجلس بأن Meta قد صحّحت أخطاءها الأولية بمجرد أن لفت المجلس انتباهها إلى هذه الحالات.

العودة إلى قرارات الحالة والآراء الاستشارية المتعلقة بالسياسة