أسقط
Report on Violent Attack in Sri Lanka
تم النشر بتاريخ 2 تِشْرِين الْأَوَّل 2025
A user appealed Meta’s decision to remove a Facebook post consisting of a link to a news article about a gunman firing at a church in Sri Lanka.
تتم في القرارات الموجزة دراسة الحالات التي ألغت فيها Meta قرارها الأصلي بشأن أحد عناصر المحتوى بعد أن لفت المجلس انتباه الشركة إليه، وتتضمن معلومات عن الأخطاء التي أقرّت Meta بها. وتوافق عليها لجنة من أعضاء المجلس، وليس المجلس بكامله، ولا تتضمن تعليقات عامة ولا تُشكّل سابقة قانونية لدى المجلس. وتؤدي القرارات الموجزة إلى إحداث تغييراتٍ مباشرة في قرارات Meta، مما يوفر الشفافية بشأن هذه التصحيحات، مع تحديد الجوانب التي يمكن أن تقوم Meta فيها بتحسين الإنفاذ.
الملخص
تقدم مستخدم بطعن على قرار Meta بإزالة منشور على فيسبوك يتألف من رابط لمقالة إخبارية حول قيام مسلح بإطلاق النار على كنيسة في سريلانكا. وبعد أن لفت المجلس انتباه Meta إلى الطعن، ألغت الشركة قرارها الأصلي وأعادت المنشور.
حول الحالة
في أبريل 2025، نشر مستخدم على فيسبوك رابطًا لمقالة إخبارية باللغة الإنجليزية حول قيام مسلح بإطلاق النار على كنيسة في سريلانكا. تمت مشاركة المقالة في مجموعة تصف نفسها بأنها مخصصة "للأخبار والمناقشات" حول النزاعات وبناء السلام. أنشأ الرابط تلقائيًا عنوانًا منبثقًا وشرحًا توضيحيًا يتضمن وصفًا لحالة التأهب القصوى التي تشهدها البلاد بعد ست سنوات من تفجيرات "أحد السعف" التي أودت بحياة مئات الأشخاص. كما عرض صورة لما بعد تفجير وقع في أبريل 2019 في كنيسة القديس سيباستيان في مدينة نيجومبو.
في البداية، أزالت Meta المحتوى بموجب معيار المجتمع بشأن المحتوى العنيف والصادم. وفي وقت لاحق، أوضحت الشركة أن السياسة ذات الصلة بإزالة المحتوى في هذه الحالة هي معيار المجتمع بشأن العنف والتحريض. بموجب هذه السياسة، تزيل الشركة "التهديدات بالعنف ضد أهداف مختلفة"، والتي تُعرّف بأنها "عبارات أو عناصر بصرية تمثل نوايا أو تطلعات أو دعوة للعنف ضد أحد الأهداف". ومع ذلك، تسمح Meta بالتهديدات "عندما تتم مشاركتها في سياق تعزيز الوعي أو الإدانة".
في الطعن الذي تقدم به إلى المجلس، أشار المستخدم إلى أن المجموعة التي نُشرت فيها المقالة مصممة ليتعلم الأشخاص من خلالها عن حالات تصعيد النزاعات وتهدئتها في جميع أنحاء العالم، للمساعدة في بناء السلام وحل النزاعات.
بعد أن لفت المجلس انتباه Meta إلى هذه الحالة، قررت الشركة أنه ما كان ينبغي إزالة المحتوى. وأبرزت Meta أن سياسة العنف والتحريض تسمح بالمحتوى الذي تتم مشاركته لتعزيز الوعي بشأن تهديد بالعنف من قبل آخرين. في هذه الحالة، اعتبرت الشركة أن المنشور كان يهدف إلى تعزيز الوعي لأن المحتوى كان رابطًا لتقرير إخباري حول مسلح أطلق النار على مكان للعبادة في سريلانكا. وأوضحت Meta أيضًا أن رابط الخبر تمت مشاركته على صفحة فيسبوك بعد يوم من وقوع الحدث، مما يشير إلى أن القصد كان إعلام الآخرين بالحدث. وعلى إثر ذلك أعادت الشركة المحتوى إلى فيسبوك.
سُلطة المجلس ونطاق عمله
يتمتع المجلس بسلطة مراجعة قرار شركة Meta بعد تلقي طعن من المستخدم الذي أُزيل المحتوى الخاص به (المادة 2، القسم 1 من اتفاقية المجلس؛ والمادة 3، القسم 1 من اللائحة الداخلية).
عندما تُقر Meta بأنها ارتكبت خطأً وتُلغي قرارها الصادر بشأن حالة قيد النظر نتيجة مراجعة المجلس، يجوز للمجلس اختيار هذه الحالة لإصدار قرار موجز (المادة 2، القسم 2.1.3 من اللائحة الداخلية). ويراجع المجلس القرار الأصلي لزيادة فهم عمليات الإشراف على المحتوى والحد من الأخطاء وتعزيز الإنصاف لمستخدمي فيسبوك وInstagram وThreads.
أهمية الحالة
تسلط هذه الحالة الضوء على المبالغة في إنفاذ معيار مجتمع Meta بشأن العنف والتحريض. فشلت أنظمة الإشراف على المحتوى في الشركة في التعرف على سياق تعزيز الوعي، مما أثر بشكل مباشر على قدرة المستخدم الذي نشر المحتوى على مشاركة معلومات حول الهجمات ضد أماكن العبادة في سريلانكا. يلاحظ المجلس أن وصف المجموعة التي نشر فيها المستخدم المقالة يؤكد أنها منتدى للأخبار والمناقشات التي تتناول حل النزاعات بالطرق السلمية. كما أثر هذا القصور في النظام في قدرة المستخدمين الآخرين على الوصول إلى هذه المعلومة.
أصدر المجلس سابقًا توصيات ذات صلة تهدف إلى زيادة دقة الإنفاذ والتتبع والشفافية حول استثناءات سياسة Meta بشأن العنف والتحريض. أولاً، أوصى المجلس بأن تقوم Meta "بتزويد المجلس بالبيانات التي تستخدمها لتقييم دقة إنفاذ سياساتها" من أجل "إثراء التقييمات والتوصيات المستقبلية لسياسة العنف والتحريض" (المنشورات الأمريكية التي تناقش موضوع الإجهاض، التوصية رقم 1). ويجري حاليًا تنفيذ هذه التوصية. في تقريرها للنصف الثاني من عام 2024، ذكرت Meta: "نحن بصدد تجميع نظرة عامة على بيانات إنفاذ معايير المجتمع لمشاركتها بسرية مع المجلس. ستحدد هذه الوثيقة نقاط البيانات التي تقيس دقة إنفاذنا عبر مختلف السياسات، بما في ذلك سياسة العنف والتحريض."
أوصى المجلس Meta أيضًا بأن "تضيف إلى الصيغة المعلنة من معيار مجتمعها بشأن العنف والتحريض أن الشركة تفسر السياسة باعتبار أنها تسمح بالمحتوى الذي يشتمل على عبارات تتضمن "إشارات حيادية إلى نتيجة محتملة لإجراء ما أو تحذير استشاري"، والمحتوى الذي "يدين التهديدات بارتكاب أعمال عنف أو يعزز الوعي بها" ( القصيدة الروسية، التوصية رقم 1). تم إثبات التنفيذ الجزئي للتوصية من خلال المعلومات المنشورة. حدّثت Meta سياسة العنف والتحريض الخاصة بها (انظر تقرير Meta للربع الرابع من عام 2023) لتشمل: "نحن لا نحظر التهديدات عند مشاركتها في سياق تعزيز الوعي أو الإدانة، وعند توجيه تهديدات أقل خطورة في سياق الرياضات التي تتطلب احتكاكًا جسديًا، أو عند توجيه التهديدات إلى مرتكبي أعمال عنف معينين، مثل الجماعات الإرهابية." ومع ذلك، أشارت Meta في تقريرها للربع الثالث من عام 2023 إلى أن الشركة قررت عدم إضافة صيغة محددة بشأن "الإشارات المحايدة إلى نتيجة محتملة لإجراء ما أو تحذير استشاري، حيث لا يقوم الناشر بتوجيه تهديد عنيف" لأن هذا "مشمول بشكل عام في مبادئ السياسة وتعريف التهديد وتأطيره."
بالإضافة إلى ذلك، أوصى المجلس بأنه "لتزويد المستخدمين بمعلومات أفضل عن إمكانية منح استثناءات من السياسة، يجب على Meta إنشاء قسم جديد ضمن كل معيار من معايير المجتمع يوضح بالتفصيل الاستثناءات التي يمكن تطبيقها. عندما يكون لدى Meta مبرر محدد لعدم السماح باستثناءات معينة تنطبق على سياسات أخرى (مثل التقارير الإخبارية أو تعزيز الوعي)، يجب على Meta تضمين هذا المبرر في هذا القسم من معيار المجتمع" (فيلم وثائقي لمؤسسة إخبارية حول إساءة معاملة الأطفال في باكستان، التوصية رقم 1). ويجري حاليًا تنفيذ هذه التوصية. في ردها الأولي إلى المجلس في عام 2024، ذكرت Meta أن الشركة "ستنظر في إجراء تحديثات على معايير مجتمعها لتوفير مزيد من الوضوح بشأن الاستثناءات ذات الصلة التي قد تنطبق على أقسام سياسات محددة ومبررات تطبيقها أو عدم تطبيقها." وأوضحت Meta أيضًا أنه "نظرًا للنطاق الواسع والمعقد" للتوصية، فإن تنفيذها سيستغرق وقتًا.
إن تكرار المبالغة في إنفاذ سياسة Meta بشأن العنف والتحريض يقوض قدرة المستخدمين على مشاركة التقارير الإخبارية والمعلومات حول الهجمات العنيفة. يعتقد المجلس أن التنفيذ الكامل للتوصية رقم 1 من حالة المنشورات الأمريكية التي تناقش موضوع الإجهاض سيعزز قدرة Meta على تحديد ومعالجة أوجه القصور في دقة الإنفاذ، وبالتالي تقليل عدد أخطاء الإنفاذ. علاوة على ذلك، فإن التنفيذ الكامل للتوصيات المتعلقة بالشفافية حول استثناءات سياسة العنف والتحريض من شأنه أن يمنع عمليات الإزالة الخاطئة ويلغيها عن طريق تعزيز وعي كل من المستخدمين ومراجعي المحتوى باستثناءات السياسة.
القرار
ألغى المجلس قرار Meta الأصلي بإزالة المحتوى. يقر المجلس بتصحيح Meta لخطئها الأولي بمجرد أن لفت المجلس انتباه الشركة إلى الحالة.
العودة إلى قرارات الحالة والآراء الاستشارية المتعلقة بالسياسة