أسقط
سخرية إيلون ماسك
تم النشر بتاريخ 7 آذار 2024
تقدم مستخدم بطعن على قرار Meta بإزالة منشور على Instagram يتضمن سلسلة منشورات تخيلية على منصة "X" تصوّر إيلون ماسك بشكل ساخر وهو يتفاعل مع منشور يشتمل على محتوى مسيء. تسلط الحالة الضوء على العيوب التي تكتنف تحديد Meta للمحتوى الساخر على منصاتها بشكل دقيق.
هذا قرار موجز. تفحص القرارات الموجزة الحالات التي ألغت فيها Meta قرارها الأصلي بشأن المحتوى بعد أن لفت المجلس انتباه الشركة إليها. تتضمن هذه القرارات معلومات عن الأخطاء التي أقرت بها Meta، وتوضح للعامة التأثير الذي تحدثه أعمال المجلس. وتوافق عليها لجنة من أعضاء المجلس، وليس المجلس بكامله. ولا تنظر اللجنة في التعليقات العامة ولا تُشكّل هذه القرارات سابقة قانونية لدى المجلس. توفر القرارات الموجزة الشفافية بشأن تصحيحات Meta وتسلِّط الضوء على الجوانب التي يمكن أن تحسنها الشركة فيما يتعلق بإنفاذ سياساتها.
ملخص الحالة
تقدم مستخدم بطعن على قرار Meta بإزالة منشور على Instagram يتضمن سلسلة منشورات تخيلية على منصة "X" (منصة Twitter سابقًا) تصوّر إيلون ماسك بشكل ساخر وهو يتفاعل مع منشور يشتمل على محتوى مسيء. بعد أن لفت المجلس انتباه Meta إلى الطعن، ألغت الشركة قرارها الأصلي وأعادت المنشور.
وصف الحالة ومعلومات أساسية عنها
في يوليو 2023، نشر أحد المستخدمين صورة على Instagram تحتوي على سلسلة منشورات تخيلية على منصة X لا تشبه تخطيط منصة X الفعلية. في سلسلة المنشورات، نشر مستخدم تخيلي عدة عبارات تحريضية مثل: "لم ترتكب منظمة كو كلوكس كلان أي خطأ تجاه السود أبدًا"، و"هتلر لم يكن يكره اليهود"، و"جميع أعضاء مجتمع الميم من ذوي النزعة الجنسية تجاه الأطفال." وأظهرت سلسلة المنشورات قيام إيلون ماسك بالرد على منشور المستخدم بقول "أُلقي نظرة على هذا...." حصل منشور Instagram هذا على أقل من 500 مشاهدة.
تمت إزالة المنشور لانتهاك سياسة المنظمات الخطرة والأفراد الخطرين التي تنتهجها شركة Meta، والتي تحظر التحدث بلسان الجماعات والأشخاص الذين صنفتهم الشركة على أنهم يرتبطون بضرر كبير على أرض الواقع أو التحدث عنهم. تصنّف Meta كلاً من منظمة كو كلوكس كلان (KKK) وهتلر ككيانات خطرة بموجب هذه السياسة. في حالات معينة، تسمح Meta بالمحتوى الذي قد ينتهك معايير المجتمع في الأحوال العادية عندما تتأكد من أن المحتوى ساخر. ولن يُسمح بنشر المحتوى إلا عند السخرية من عناصر المحتوى المخالفة أو نسبتها إلى شيء أو شخص آخر من أجل السخرية منها أو انتقادها."
في الطعن الذي تقدم به إلى المجلس، أكد المستخدم على أن المنشور لم يكن يهدف إلى تأييد هتلر أو منظمة كو كلوكس كلان، وإنما "الإشارة إلى وانتقاد واحد من أكثر الرجال المؤثرين على وجه الأرض للتفاعل مع المتطرفين على منصته."
بعد أن لفتَ المجلس انتباه Meta إلى هذه الحالة، قررت الشركة أن المحتوى لا ينتهك سياستها بشأن المنظمات الخطرة والأفراد الخطرين، وأن إزالة المحتوى كانت غير صحيحة. ثم أعادت الشركة المحتوى إلى Instagram.
سُلطة المجلس ونطاق عمله
يتمتع المجلس بسلطة مراجعة قرار شركة Meta بعد تلقي طعن من المستخدم الذي تعرض المحتوى الخاص به إلى الإزالة (المادة 2، القسم 1 من اتفاقية المجلس؛ والمادة 3، القسم 1 من اللائحة الداخلية).
عندما تُقر Meta بأنها ارتكبت خطأً وتُلغي قرارها الصادر بشأن حالة قيد النظر نتيجة مراجعة المجلس، يجوز للمجلس اختيار هذه الحالة لإصدار قرار موجز (المادة 2، القسم 2.1.3 من اللائحة الداخلية). ويراجع المجلس القرار الأصلي لزيادة فهم عمليات الإشراف على المحتوى، والحد من الأخطاء وتعزيز معدلات الإنصاف لمستخدمي فيسبوك وInstagram.
أهمية الحالة
تسلط هذه الحالة الضوء على العيوب التي تكتنف تحديد Meta للمحتوى الساخر على منصاتها بشكل دقيق. وقد سبق أن أصدر المجلس توصيات بشأن إجراءات إنفاذ Meta تجاه المحتوى الساخر. حث المجلس Meta على "التأكد من توفير الإجراءات الكافية لتقييم المحتوى الساخر والسياق المرتبط به بشكل صحيح. ويتضمن ذلك تزويد المشرفين على المحتوى بما يلي: (1) الوصول إلى فِرق العمليات المحلية التابعة لفيسبوك لتجميع المعلومات الثقافية والأساسية وثيقة الصلة بالحالة؛ و(2) منحهم الوقت الكافي لاستشارة فِرق العمليات المحلية التابعة لفيسبوك وإجراء التقييم. يجب أن تضمن فيسبوك أن سياساتها الخاصة بمشرفي المحتوى تحفّز المزيد من التحقيق أو التصعيد عندما لا يكون مشرف المحتوى متأكدًا مما إذا كان الرسم الكاريكاتيري ساخرًا أم لا ،" ( قرار ميم زرا الاختيار، التوصية رقم 3). أبلغت Meta عن تنفيذ هذه التوصية دون نشر معلومات أخرى وبالتالي لا يمكن التحقق من هذا التنفيذ.
علاوة على ذلك، توضح هذه الحالة التحديات التي تواجه Meta على صعيد تفسير نية المستخدم. سبق أن حث المجلس Meta على إبلاغ المستخدمين بكيفية توضيح نيتهم من المنشور، لا سيّما فيما يتعلق بسياسة المنظمات الخطرة والأفراد الخطرين. نفّذت Meta جزئيًا توصية المجلس بشأن "تضمين شرح في معايير المجتمع يبيّن كيف يمكن للمستخدمين توضيح نواياهم من المنشورات لفيسبوك...ينبغي أيضًا على فيسبوك توفير أمثلة توضيحية لإظهار الخط الفاصل بين المحتوى المسموح به والمحتوى المحظور، بما في ذلك فيما يتعلق بتطبيق القاعدة التي توضح استثناءات "الدعم" ،" ( قرار عزلة أوجلان، التوصية رقم 6).
يشدد المجلس على أن تبَني هذه التوصيات بالكامل، بالإضافة إلى نشر Meta لمعلومات توضح أنها نفذت التوصيات بنجاح، قد يقلل من عدد أخطاء الإنفاذ بشأن المحتوى الساخر على منصات Meta.
القرار
ألغى مجلس الإشراف قرار شركة Meta الأصلي بإزالة المحتوى. ويُقر المجلس بأن Meta قد صحّحت خطأها الأولي بمجرد أن لفت المجلس انتباهها إلى الحالة.
العودة إلى قرارات الحالة والآراء الاستشارية المتعلقة بالسياسة