أسقط

لقطات من المجازر في سوريا

تقدَّم أحد المستخدمين بطعن على قرار "Meta" بإزالة منشور على فيسبوك يتضمن فيديو يحتوي على لقطات صادمة لأعمال عنف في سوريا.

نوع القرار

ملخص

السياسات والمواضيع

عنوان
حرب وصراع، عنف، مناسبات إخبارية
معيار المجتمع
محتوى عنيف وصادم

المناطق/البلدان

موقع
سوريا

منصة

منصة
Facebook

تتم في القرارات الموجزة دراسة الحالات التي ألغت فيها Meta قرارها الأصلي بشأن أحد عناصر المحتوى بعد أن لفت المجلس انتباه الشركة إليه، وتتضمن معلومات عن الأخطاء التي أقرّت Meta بها. وتوافق عليها لجنة من أعضاء المجلس، وليس المجلس بكامله، ولا تتضمن تعليقات عامة ولا تُشكّل سابقة قانونية لدى المجلس. وتؤدي القرارات الموجزة إلى إحداث تغييراتٍ مباشرة في قرارات Meta، مما يوفر الشفافية بشأن هذه التصحيحات، مع تحديد الجوانب التي يمكن أن تقوم Meta فيها بتحسين الإنفاذ.

الملخص

تقدَّم أحد المستخدمين بطعن على قرار "Meta" بإزالة منشور على فيسبوك يتضمن فيديو يحتوي على لقطات صادمة لأعمال عنف في سوريا. وبعد أن لفت المجلس انتباه Meta إلى الطعن، ألغت الشركة قرارها الأصلي وأعادت المنشور ولكن مع وضع شاشة تحذيرية.

حول الحالة

في ديسمبر 2024، نشر أحد المستخدمين فيديو على فيسبوك يعرض مشاهد عنف تشمل عمليات ضرب وطعن، وإشعال نيران في الأفراد، وأشخاصًا مصابين ومتوفين بينهم أطفال. يصف الشرح التوضيحي أعلى الفيديو، والمكتوب باللغة العربية، كيف يعرض المحتوى مشاهد مجازر [شارك فيها] "مجرمو حزب الشيطان في سوريا"، ويدّعي أن الناس لم ولن ينسوا الجرائم التي ارتُكِبَت. ووفقًا لتقارير إخبارية مؤكدة، يبدو أن "حزب الشيطان" عبارة عن إشارة إلى حزب الله.

بموجب معيار مجتمع Meta بشأن المحتوى العنيف والصادم، تقوم Meta بإزالة "المحتوى الصادم بدرجة كبيرة وإضافة تسميات تحذيرية إلى المحتوى الصادم الآخر حتى يدرك الأشخاص أنه قد يكون حساسًا أو مزعجًا قبل النقر عليه". لذلك، لا يُسمح "بمقاطع فيديو لأشخاص، أحياء أو أموات، في سياقات غير طبية" تصوّر "تمزيق الأوصال" أو "أحشاء داخلية مرئية" أو "أشخاصًا محترقين أو متفحمين" أو "عمليات الذبح". وتشير Meta أيضًا إلى أنه بالنسبة إلى "الصور (مقاطع الفيديو والصور الثابتة على حد سواء) التي تُظهر موت شخص بسبب أعمال عنف (بما في ذلك لحظة موته أو ما بعدها) أو شخصًا يمر بحدث يهدد حياته"، تضع الشركة شاشة تحذيرية حتى يعلم الأشخاص أن المحتوى قد يكون مزعجًا. وفي هذه الحالات، تقوم الشركة أيضًا بتقييد إمكانية مشاهدة المحتوى لتقتصر على البالغين بعمر 18 عامًا فأكثر. بالإضافة إلى ذلك، عند توفير سياق إضافي، قد تسمح Meta بعرض المحتوى الصادم "بهدف تسليط الضوء على أفعال أو إدانتها مثل انتهاكات حقوق الإنسان أو الصراع المسلح"، وذلك لإفساح المجال للمناقشة ورفع مستوى الوعي".

بعد أن لفت المجلس انتباه شركة Meta إلى هذه الحالة، قررت الشركة أنه كان لا ينبغي إزالة المحتوى بموجب سياسة المحتوى العنيف والصادم. ثم أعادت الشركة المحتوى إلى فيسبوك، ووضعت شاشة تحذيرية.

سُلطة المجلس ونطاق عمله

يتمتع المجلس بسلطة مراجعة قرار شركة Meta بعد تلقي طعن من المستخدم الذي تعرض المحتوى الخاص به إلى الإزالة (المادة 2، القسم 1 من اتفاقية المجلس؛ والمادة 3، القسم 1 من اللائحة الداخلية).

عندما تُقر Meta بأنها ارتكبت خطأً وتُلغي قرارها الصادر بشأن حالة قيد النظر نتيجة مراجعة المجلس، يجوز للمجلس اختيار هذه الحالة لإصدار قرار موجز (المادة 2، القسم 3.1.2 من اللائحة الداخلية). ويراجع المجلس القرار الأصلي لزيادة فهم عمليات الإشراف على المحتوى والحد من الأخطاء وتعزيز معدلات الإنصاف لمستخدمي فيسبوك وInstagram وThreads.

أهمية الحالة

توضح هذه الحالة المشكلات المستمرة المتعلقة بقدرة Meta في الإشراف على المحتوى الذي يرفع مستوى الوعي ويوثق الانتهاكات الخطيرة لحقوق الإنسان. وعلى الرغم من أن الصيغة الواردة في سياسة Meta بشأن المحتوى العنيف والصادم تُقر بأنه يجوز للمستخدمين مشاركة المحتوى لتسليط الضوء على أفعال مثل "انتهاكات حقوق الإنسان أو الصراع المسلح"، أو إدانتها، تواصل الشركة إزالة المحتوى الذي يهدف إلى تحقيق ذلك تحديدًا من منصاتها.

أصدر المجلس توصيات لتوجيه Meta خلال ممارسات إنفاذ سياستها للمحتوى الصادم أو العنيف الذي تتم مشاركته في سياق الإدانة أو رفع مستوى الوعي بقصد جعل هذه الاستثناءات قابلة للتطبيق على نطاق واسع وليس فقط في ظروف استثنائية. على سبيل المثال، في قرار حالة فيديو صادم حول السودان، أوصت اللجنة بأنه "ينبغي على Meta تعديل معيار المجتمع بشأن المحتوى العنيف والصادم للسماح بنشر مقاطع الفيديو التي يظهر بها أشخاص أو جثث عند مشاركتها لأغراض رفع مستوى الوعي بانتهاكات حقوق الإنسان أو توثيقها. ينبغي السماح بهذا المحتوى مع وضع شاشة تحذيرية ليدرك الأشخاص أن المحتوى قد يكون مزعجًا. (فيديو صادم حول السودان، التوصية رقم 1). تم رفض التوصية بعد تقييم الجدوى. أفادت شركة Meta بأنها عملت على وضع سياسة بشأن هذا الأمر وقررت في النهاية الإبقاء على الوضع القائم والذي يتمثل في "إزالة المحتوى افتراضيًا، ولكن مع السماح بالمحتوى ووضع تسمية تحذيرية عند وجود سياق إضافي" (تحديث Meta ربع السنوي الرابع لعام 2023 بشأن مجلس الإشراف).

بالإضافة إلى ذلك، أوصى المجلس سابقًا بأنه "ينبغي على شركة Meta أن تضيف إلى الصياغة المعلنة لمعيار مجتمعها بشأن المحتوى العنيف والصادم تفاصيل من إرشاداتها الداخلية بشأن كيفية تحديد الشركة ما إذا كانت الصورة "تعرض مشاهد صادمة لموت شخص أو مجموعة أشخاص في حادث أو جريمة قتل". ( القصيدة الروسية، التوصية رقم 2). أظهرت شركة Meta تنفيذ هذه التوصية بشكل جزئي من خلال المعلومات المنشورة، فقامت بتحديث الصياغة في معيار المجتمع بشأن المحتوى العنيف والصادم، من خلال تضمين الصياغة بين قوسين لتوضيح ما تعنيه الشركة بعبارة "الموت بسبب أعمال عنف". وأصبحت الصياغة الآن، "الصور (مقاطع الفيديو والصور الثابتة) التي تصور موت الأشخاص بسبب أعمال عنف (بما في ذلك لحظة موتهم أو ما بعدها)". ولكن التعريف الموسع من شركة Meta لم يشرح بشكل كافٍ آلية الشركة في تحديد ما إذا كانت الصورة "تعرض مشاهد موت بسبب أعمال عنف لشخص أو مجموعة أشخاص في حادث أو جريمة قتل".

بالإضافة إلى ذلك، أوصى المجلس Meta "بتحسين تقارير الشفافية التي تصدرها لزيادة المعلومات المعلنة بشأن معدلات الأخطاء من خلال إتاحة إمكانية الاطلاع على تلك المعلومات حسب البلد واللغة لكل معيار من معايير المجتمع" (مخاوف البنجابيين تجاه منظمة راشتريا سوايامسيفاك سانغ (RSS) في الهند، التوصية رقم 3). وأكَّد المجلس في هذه التوصية أن "إصدار تقارير شفافية أكثر تفصيلاً سيساعد العامة على تحديد المواطن التي يشيع حدوث أخطاء فيها، بما في ذلك التأثيرات المحتملة المحددة بشأن الأقليات". ويجري حاليًا تنفيذ هذه التوصية. وفي آخر تحديث لها بشأن هذه التوصية، أوضحت شركة Meta أن الشركة "بصدد إعداد نظرة عامة على بيانات الإنفاذ لمشاركتها بشكل سري مع المجلس". وسيوضح المستند نقاط البيانات التي توفر مؤشرات على دقة الإنفاذ عبر السياسات المختلفة. ذكرت Meta أن الشركة "تظل ملتزمة بإعداد نظرة عامة تتناول الدعوة الشاملة للمجلس لزيادة الشفافية بشأن دقة الإنفاذ عبر السياسات" (التقرير نصف السنوي للنصف الثاني من عام 2024 من Meta بشأن مجلس الإشراف - الملحق).

شدَّد المجلس على أهمية استمرار Meta في تحسين قدرتها على اكتشاف المحتوى الذي يسعى إلى رفع مستوى الوعي أو إدانة انتهاكات حقوق الإنسان بدقة، والاحتفاظ بهذا المحتوى، ووضع شاشة تحذيرية، على المنصة بموجب سياسة الشركة بشأن المحتوى العنيف والصادم.

القرار

ألغى المجلس قرار شركة Meta الأصلي بإزالة المحتوى. ويُقرّ المجلس بأن Meta قد صحّحت خطأها الأوّلي بمجرد أن لفت المجلس انتباهها إلى الحالة.

العودة إلى قرارات الحالة والآراء الاستشارية المتعلقة بالسياسة