قرار قضية متعددة
محتوى صادم في سياق تعزيز الوعي
تم النشر بتاريخ 21 نَيْسان 2026
تقدم أربعة مستخدمين بطعون على قرار Meta بإزالة منشوراتهم على فيسبوك وInstagram التي تضمنت محتوى صادمًا في سياق تعزيز الوعي.
4 تم تضمين من الحالات في هذه الحزمة
FB-PW4MPO8J
حالة بشأن محتوى عنيف وصادم على فيسبوك
FB-GKN5CHBI
حالة بشأن محتوى عنيف وصادم على فيسبوك
FB-S5ZFX6W8
حالة بشأن محتوى عنيف وصادم على فيسبوك
IG-IA95C08R
حالة بشأن محتوى عنيف وصادم على Instagram
تدرس القرارات الموجزة الحالات التي تراجعت فيها Meta عن قرارها الأصلي بشأن محتوى معين بعد أن لفت المجلس انتباه الشركة إليه، وتتضمن معلومات حول الأخطاء التي أقرت بها Meta. وتوافق عليها لجنة من أعضاء المجلس، وليس المجلس بكامله، ولا تتضمن تعليقات عامة ولا تُشكّل سابقة قانونية لدى المجلس. وتُحدث القرارات الموجزة تغييرات مباشرة في قرارات Meta، مما يوفر الشفافية بشأن هذه التصحيحات، مع تحديد الجوانب التي يمكن أن تحسّن Meta فيها عمليات الإنفاذ.
الملخص
تقدم أربعة مستخدمين بطعون على قرار Meta بإزالة منشوراتهم على فيسبوك وInstagram التي تضمنت محتوى صادمًا في سياق تعزيز الوعي. وبعد أن لفت المجلس انتباه Meta إلى هذه الطعون، تراجعت الشركة عن قراراتها الأصلية وأعادت المنشورات الأربعة جميعها.
حول الحالات
في شهري أغسطس وسبتمبر 2025، نشر أربعة مستخدمين من ثلاثة بلدان مختلفة (المكسيك وأوكرانيا والبرازيل) محتوى يتضمن صورًا صادمة في سياق تعزيز الوعي، والذي أزالته Meta في البداية لانتهاكه سياسة المحتوى العنيف والصادم.
في الحالة الأولى، نشر المستخدم مقطع فيديو على فيسبوك يُظهر فردًا يحمل دلوًا من الماء بالقرب من عدة أشخاص يعانون من إصابات بحروق واضحة، على ما يبدو في أعقاب انفجار شاحنة غاز في مكسيكو سيتي. وينص الشرح التوضيحي، المترجم من الإسبانية، على ما يلي: "أخطاء يجب ألا ترتكبها". وفي المقطع الصوتي، يوضح أحد الأشخاص أن الفرد الذي يحمل الدلو كان ينوي سكب الماء على ضحايا الحروق، مما كان سيؤدي إلى انتقال البكتيريا إلى بشرتهم المكشوفة. وفي طعنه المقدم إلى المجلس، ذكر المستخدم أن مقطع الفيديو كان يتعلق بانفجار في المكسيك.
وتتعلق الحالة الثانية بمنشور على فيسبوك يتضمن مقطع فيديو يُظهر ضحايا مصابين يبدو أنهم من الانفجار نفسه في مكسيكو سيتي. ومع تركيز مقطع الفيديو على بعض الضحايا العراة، تصبح الصورة معتمة وغير واضحة. ويتضمن الشرح التوضيحي، المترجم من الإسبانية، عبارة "صور قاسية" متبوعة بعلامات هاشتاج مثل "#حريق" و"#أخبار". وفي طعنه المقدم إلى المجلس، ذكر المستخدم أنه كان "يُطلع الجمهور على قضايا مهمة".
وفي الحالة الثالثة، نشرت مؤسسة إخبارية مقطع فيديو يعرض، في لحظتين مختلفتين، صورة لرقبة مذبوحة. وينص الشرح التوضيحي، المترجم من الأوكرانية، على ما يلي: "رغم ذبح رقبته، زحف [فلان] لمدة خمسة أيام من الأسر إلى المواقع الأوكرانية [...] بعد أن وقع هو ورفاقه في كمين نصبه جنود روس". ويزعم المنشور أيضًا أن المقاتل ورفاقه تعرضوا للتعذيب أثناء فترة الأسر. وفي طعنها المقدم إلى المجلس، أوضحت المؤسسة الإخبارية أن مقطع الفيديو نُشر بوصفه "دليلًا مهمًا على التعذيب والانتهاكات الجسيمة لحقوق الإنسان"، وأنه "يخدم المصلحة العامة من خلال توثيق الجرائم وتعزيز الوعي بعواقب[ها]".
وفي الحالة الرابعة، نشر أحد مستخدمي Instagram مقطع فيديو لفرد يقشر جلد يده ليكشف اللحم ما دون الجلد. ويقدم الشرح التوضيحي، المترجم من البرتغالية، معلومات حول مخاطر العدوى ونقص السوائل المرتبطة بتمزق الجلد. ويؤكد على أهمية الرعاية المناسبة للآفات الجلدية. كما يحتوي الشرح التوضيحي على علامات هاشتاج تتعلق بالتمريض والرعاية الصحية. وفي طعنه المقدم إلى المجلس، ذكر المستخدم أنه معلم متخصص في الأمراض الجلدية وأن محتواه يهدف إلى أن يكون تعليميًا للطلاب والمتخصصين في مجال الرعاية الصحية.
بموجب سياسة المحتوى العنيف والصادم، تحظر Meta "مقاطع فيديو لأشخاص، أحياءً كانوا أم أمواتًا، في سياقات غير طبية، تصوّر [...] أحشاء داخلية مرئية، مثل الأعضاء أو العظام أو الأنسجة العضلية المكشوفة لأشخاص أحياء أو أموات؛ أو أشخاصًا محترقين أو متفحمين؛ أو عمليات ذبح".
وبعد أن اختار المجلس هذه الحالات، حددت Meta أنها أزالت المنشورات الأربعة جميعها بشكل غير صحيح. في الحالة الأولى، خلُصت Meta إلى أنه رغم وضوح الإصابات، لا ينتهك المحتوى السياسة لأنه لا يصور احمرارًا، أو تقرحًا، أو انسلاخًا، أو نَزًّا للسوائل. وفي الحالة الثانية، توصلت Meta إلى النتيجة نفسها، ولكن هذه المرة لأن الإصابات غير مرئية نتيجة زيادة تعتيم الصورة كلما ركزت على الإصابات. وفيما يتعلق بالحالة الثالثة، أوضحت Meta أنها، بالنسبة للصور الثابتة التي تظهر رقبة مذبوحة، تطبق "شاشة تحذيرية للإشارة إلى أن المحتوى حساس وتقيّد إمكانية ظهوره ليقتصر على الأشخاص الذين تبلغ أعمارهم 18 عامًا فأكثر". ولذلك، خلُصت Meta إلى أنه يتعين السماح بالمحتوى شريطة وضعه خلف شاشة تحذيرية مع قصر إمكانية ظهوره على البالغين. وبالنسبة إلى الحالة الرابعة، لاحظت Meta أن "المحتوى يصور الطبقة السطحية من اللحم دون ظهور أعضاء أو عظام أو أنسجة عضلية مكشوفة"، مضيفة أن "الحروق لا تبدو شديدة بما يكفي لتشكّل انتهاكًا" لسياسة المحتوى العنيف والصادم. ونتيجة لذلك، أعادت Meta المنشورات الأربعة جميعها، مع تطبيق شاشة تحذيرية مقيدة بعمر على المحتوى في الحالة الثالثة.
سُلطة المجلس ونطاق عمله
يتمتع المجلس بسلطة مراجعة قرار Meta بعد تلقي طعن من المستخدم الذي أُزيل محتواه (المادة 2، القسم 1 من اتفاقية المجلس؛ والمادة 3، القسم 1 من اللائحة الداخلية).
عندما تُقر Meta بأنها ارتكبت خطأً وتتراجع عن قرارها بشأن حالة قيد النظر للمراجعة من قِبل المجلس، يجوز للمجلس اختيار هذه الحالة لإصدار قرار موجز (المادة 2، القسم 2.1.3 من اللائحة الداخلية). ويراجع المجلس القرار الأصلي لزيادة فهم عمليات الإشراف على المحتوى والحد من الأخطاء وتعزيز معدلات الإنصاف لمستخدمي فيسبوك وInstagram وThreads.
دلالات الحالات
توفر هذه المجموعة من الحالات أمثلة عديدة على الإفراط في إنفاذ معيار المجتمع بشأن المحتوى العنيف والصادم من Meta، وتوضح كيف يمكن أن يؤثر ذلك في تعزيز الوعي بالأحداث الإخبارية التي تهم الرأي العام، والقضايا المتعلقة بالصحة، وانتهاكات حقوق الإنسان.
وفي حالة فيديو صادم حول السودان، لاحظ المجلس أنه على الرغم من أن مبررات سياسة معيار المجتمع بشأن المحتوى العنيف والصادم تنص على أن Meta تسمح بتعزيز الوعي، فإن القواعد المحددة ضمن معيار المجتمع لا تستثني "تعزيز الوعي". وأوصى المجلس بضرورة "أن تُعدّل Meta معيار المجتمع بشأن المحتوى العنيف والصادم للسماح بمقاطع الفيديو التي يظهر بها أشخاص أو جثث عند مشاركتها لأغراض تعزيز الوعي بانتهاكات حقوق الإنسان أو توثيقها. وينبغي السماح بهذا المحتوى مع وضع شاشة تحذيرية حتى يدرك الأشخاص أن المحتوى قد يكون مزعجًا" (حالة فيديو صادم حول السودان، التوصية رقم 1). ويرى المجلس أن Meta قد أعادت صياغة هذه التوصية. وصرحت الشركة بما يلي: "في العام الماضي، دعونا المجلس لحضور منتدى للسياسات يتعلق بهذه التوصية [...] وفي النهاية، ونظرًا للملاحظات الواردة أثناء عملية تطوير السياسة هذه، اتفقنا على الإبقاء على الوضع الراهن وهو إزالة المحتوى بشكل افتراضي، مع السماح به مصحوبًا بعلامة تحذيرية فقط عند وجود سياق إضافي. وفي حين أن هذا لا يُعدل معيار المجتمع للسماح بمقاطع الفيديو الخاصة بأشخاص أو جثث عند مشاركتها لأغراض تعزيز الوعي بانتهاكات حقوق الإنسان أو توثيقها على نطاق واسع، فإنه يواصل السماح بتقييم هذا المحتوى عند التصعيد" (التحديث ربع السنوي للرُبع الرابع من عام 2023 الصادر عن Meta بشأن مجلس الإشراف).
وفيما يتعلق بالحالة الثالثة، التي تُظهر نتيجة عنف واضح ضد جندي أوكراني أسير، أوصى المجلس سابقًا بضرورة "أن تلتزم Meta بالاحتفاظ بأدلة ارتكاب جرائم فظيعة أو انتهاكات جسيمة لحقوق الإنسان، مثل تلك الواردة في نظام روما الأساسي للمحكمة الجنائية الدولية، ومشاركتها، عند الاقتضاء، مع السلطات المختصة، وذلك من خلال تحديث سياساتها الداخلية لتوضيح البروتوكولات المتبعة لديها في هذا الشأن." (حالة مقطع فيديو لأسرى حرب أرمينيين، التوصية رقم 1). وفي القرار نفسه، أوصى المجلس أيضًا بأنه "بعد تطوير بروتوكول الحفاظ على الأدلة المتعلقة بالجرائم الفظيعة والانتهاكات الجسيمة لحقوق الإنسان، يتعين على Meta مشاركة هذا البروتوكول علنًا في مركز الشفافية" (حالة مقطع فيديو لأسرى حرب أرمينيين، التوصية رقم 4). وأفادت Meta بتنفيذ هذه التوصيات، لكنها لم تنشر معلومات لإثبات ذلك. وردًا على كلتا التوصيتين، صرحت Meta بما يلي: "قدمنا إيجازًا لمجلس الإشراف [...] لمشاركة تفاصيل حول نهجنا الجديد للاحتفاظ بالأدلة المحتملة على الجرائم الفظيعة والانتهاكات الجسيمة للقانون الدولي لحقوق الإنسان" (التحديث نصف السنوي للنصف الأول من عام 2024 الصادر عن Meta بشأن مجلس الإشراف).
ويرى المجلس أن التنفيذ الكامل للتوصيات المذكورة أعلاه من شأنه أن يتيح للمستخدمين تعزيز الوعي بشكل أكثر فعّالية حول الأحداث الإخبارية التي تهم الرأي العام والقضايا المتعلقة بالصحة وانتهاكات حقوق الإنسان.
القرار
يلغي المجلس قرارات Meta الأصلية بإزالة عناصر المحتوى الأربعة. ويُقرّ المجلس بأن Meta قد صحّحت أخطاءها الأولية بمجرد أن لفت المجلس انتباهها إلى هذه الحالات.
العودة إلى قرارات الحالة والآراء الاستشارية المتعلقة بالسياسة