أسقط

فيديو لمنشقين عن القوات المسلحة الثورية الكولومبية (فارك)

قدَّم مستخدم طعنًا على قرار Meta بالإبقاء على فيديو تم نشره على فيسبوك تظهر فيه Estado Mayor Central (هيئة الأركان العامة المركزية "EMC")، وهي جماعة تضم فصائل منشقة عن حركة القوات المسلحة الثورية الكولومبية (فارك).

نوع القرار

ملخص

السياسات والمواضيع

عنوان
حرب وصراع، عنف
معيار المجتمع
أفراد خطرون ومنظمات خطرة

المناطق/البلدان

موقع
كولومبيا

منصة

منصة
Facebook

تتم في القرارات الموجزة دراسة الحالات التي ألغت فيها Meta قرارها الأصلي بشأن أحد عناصر المحتوى بعد أن لفت المجلس انتباه الشركة إليه، وتتضمن معلومات عن الأخطاء التي أقرّت Meta بها. وتوافق عليها لجنة من أعضاء المجلس، وليس المجلس بكامله، ولا تتضمن تعليقات عامة ولا تُشكّل سابقة قانونية لدى المجلس. وتؤدي القرارات الموجزة إلى إحداث تغييراتٍ مباشرة في قرارات Meta، مما يوفر الشفافية بشأن هذه التصحيحات، مع تحديد الجوانب التي يمكن أن تقوم Meta فيها بتحسين الإنفاذ.

الملخص

قدَّم مستخدم طعنًا على قرار Meta بالإبقاء على فيديو تم نشره على فيسبوك تظهر فيه Estado Mayor Central (هيئة الأركان العامة المركزية "EMC")، وهي جماعة تضم فصائل منشقة عن حركة القوات المسلحة الثورية الكولومبية (والتي تُعرَف اختصارًا باسم "فارك"). وبعد أن لفتَ المجلس انتباه Meta إلى الطعن المقدَّم، ألغت الشركة قرارها الأصلي وأزالت المنشور.

حول الحالة

في سبتمبر 2024، نشر مستخدم فيسبوك مقطع فيديو تظهر فيه Estado Mayor Central (هيئة الأركان العامة المركزية "EMC")، وهي جماعة تضم فصائل منشقة عن حركة القوات المسلحة الثورية الكولومبية (فارك)، وهي جماعة من المتمردين حاربت الحكومة الكولومبية منذ عام 1964 حتى عام 2016. يتضمن الفيديو لقطات لتدريب عسكري وعمليات عسكرية فعلية وتراكبًا نصيًا يشير إلى عمليات قتل تُنسب إلى الجماعة. كما تظهر صورة متراكبة تعرض شعار "فارك". بعد إبرامها اتفاق سلام مع الحكومة الكولومبية في عام 2016، تحولت حركة "فارك" إلى حزب سياسي قانوني. وعلى الرغم من ذلك، لا يزال بعض المنشقين عن القيادة السياسية الجديدة لحركة "فارك"، ومن بينهم فصائل تشكل جزءًا من EMC، يشاركون في أعمال عنف، بما يشمل قتال الحكومة الكولومبية.

تزيل Meta، بموجب سياستها بشأن المنظمات الخطرة والأفراد الخطرين، المحتوى الذي يمجد أو يدعم أو يمثل أو يشير بشكل إيجابي إلى المنظمات الخطرة التي "تتبنى مهمات تنطوي على أعمال عنف أو تشارك في أعمال عنف". وتسمح السياسة "بالمناقشة الحيادية"، مثل "البيانات الواقعية والتعليقات والأسئلة والمعلومات الأخرى التي لا تعبر عن حكم إيجابي حول المنظمة الخطِرة المُصنّفة". في مثل تلك الحالات، تشترط الشركة وجود إشارة واضحة إلى النية، وتقوم افتراضيًا بإزالة المحتوى إذا كانت نية المستخدم غامضة أو غير واضحة.

بعد أن لفتَ المجلس انتباه Meta إلى هذه الحالة، تبيَّن للشركة أن الفيديو يبدو أنه دعاية رسمية لفصائل منشقة عن "فارك" رفضت عملية السلام، حيث يُظهر الفيديو شعار الفصائل المستمرة في المشارَكة في الأنشطة المتسمة بالعنف. يُذْكر أن الجماعات المنشقة عن "فارك" مصنَّفة بموجب سياسة Meta بشأن المنظمات الخطرة والأفراد الخطرين. ويشير تصوير المقاتلين وهم يتدربون ويحملون الجرحى إلى أن الجماعة المسلحة أنتجت هذه الصور. كما أن مشاركة مواد دعائية تنتجها الجماعات المصنَّفة خارج سياق مسموح به، مثل "الخطاب الاجتماعي والسياسي"، والذي يشمل مستخدمين يقومون "بالإبلاغ عن المنظمات الخطرة والأفراد الخطرين أو عن أنشطتهم أو إدانتها أو مناقشتها بشكل محايد" يمكن فهمها على أنها وسيلة لدعم الفصائل المنشقة عن "فارك". وعلى ضوء ذلك، أزالت الشركة المحتوى من فيسبوك.

سُلطة المجلس ونطاق عمله

يتمتع المجلس بسلطة مراجعة قرار شركة Meta بعد تلقي طعن من المستخدم الذي أبلغ عن المحتوى الذي تم الإبقاء عليه (المادة 2، القسم 1 من اتفاقية المجلس؛ والمادة 3، القسم 1 من اللائحة الداخلية).

عندما تُقرّ Meta بأنها ارتكبت خطأً وتُلغي قرارها الصادر بشأن حالة قيد النظر نتيجة مراجعة المجلس، يجوز للمجلس اختيار هذه الحالة لإصدار قرار موجز (المادة 2، القسم 3.1.2 من اللائحة الداخلية). ويراجع المجلس القرار الأصلي لزيادة فهم عمليات الإشراف على المحتوى والحد من الأخطاء وتعزيز معدلات الإنصاف لمستخدمي فيسبوك وInstagram وThreads.

أهمية الحالة

تسلط هذه الحالة الضوء على إحدى حالات ضعف إنفاذ Meta لسياستها بشأن المنظمات الخطرة والأفراد الخطرين، وعلى وجه التحديد، حالة فيديو يروج لمنشقين عن حركة "فارك" مشاركين في أعمال عنف في كولومبيا. وقد أعرب المجلس بالفعل عن قلقه بشأن فشل أنظمة الاكتشاف التلقائي لدى Meta في الإشارة إلى محتوى مرتبط بقوات الدعم السريع (RSF) السودانية، وهو كيان غير مسموح له بالتواجد على منصات الشركة، حسبما ورد في قرار فيديو أسير قوات الدعم السريع السودانية. في تلك الحالة، أصدر المجلس توصية تتعلق بدقة إنفاذ سياسة Meta بشأن المنظمات الخطرة والأفراد الخطرين. حيث دعا المجلس الشركة إلى أنه "لتحسين قدرتها على الاكتشاف التلقائي للمحتوى الذي يحتمل أن يشكّل انتهاكًا لسياسة المنظمات الخطرة والأفراد الخطرين وتحديد أولوية إخضاعه للمراجعة البشرية تلقائيًا، ينبغي لشركة Meta مراجعة بيانات التدريب المستخدمة في أداة تصنيف فهم محتوى الفيديو لتقييم احتوائها على القدر الكافي من النماذج المتنوعة للمحتوى الذي يدعم المنظمات المصنّفة في سياق النزاعات المسلحة، بما في ذلك اللغات واللهجات والمناطق والنزاعات المختلفة" (التوصية رقم 2). وقد أَبلغت Meta عن إحرازها تقدمًا في تنفيذ هذه التوصية.

وبشكل منفصل، أوصى المجلس الشركة أنه "لتحسين شفافية قائمتها التي تضم الكيانات والأحداث المصنّفة، على Meta أن تشرح بمزيدٍ من التفصيل الإجراء الذي يتم بموجبه تصنيف الكيانات والأحداث. كما ينبغي لها نشر معلومات مجمَّعة عن قائمة التصنيف بشكل منتظم، بما في ذلك العدد الإجمالي للكيانات التي تندرج تحت كل فئة من فئات القائمة، وعدد ما تمت إضافته أو إزالته من كل فئة خلال العام الماضي"، في الإشارة إلى الأفراد المُصنّفين كأفراد خطرين بكلمة "شهيد" (التوصية رقم 4). وأكدت الشركة أنها تعمل على تحديث مركز الشفافية الخاص بها لتوفير تفسير أكثر تفصيلاً بشأن عملية تصنيف الكيانات والأحداث وإلغاء تصنيفها.

ويرى المجلس أن التنفيذ الكامل للتوصيتين، على الترتيب، من شأنه أن يساهم في الحد من عدد أخطاء الإنفاذ ومنح المستخدمين قدرًا أكبر من الوضوح بشأن الانتهاكات المحتملة في محتواهم بموجب سياسة المنظمات الخطرة والأفراد الخطرين.

القرار

ألغى المجلس قرار شركة Meta الأصلي بالإبقاء على المحتوى. ويُقرّ المجلس بأن Meta قد صحّحت خطأها الأوّلي بمجرد أن لفت المجلس انتباهها إلى الحالة.

العودة إلى قرارات الحالة والآراء الاستشارية المتعلقة بالسياسة