أسقط

التعامل مع معاداة السامية

تقدم مستخدم بطعن على قرار Meta بإزالة منشور على Instagram لمقطع فيديو أدان تصريحات أدلى بها الفنان الموسيقي "ييه" (مغني الراب الأمريكي الذي كان يعرف سابقًا باسم كانيي ويست) والتي يمجد فيها هتلر وينكر محرقة اليهود (الهولوكوست). بعد أن لفت المجلس انتباه Meta إلى الطعن، ألغت الشركة قرارها الأصلي وأعادت المنشور.

نوع القرار

ملخص

السياسات والمواضيع

عنوان
حرية التعبير
معيار المجتمع
أفراد خطرون ومنظمات خطرة

المناطق/البلدان

موقع
الولايات المتحدة، تركيا

منصة

منصة
Instagram

هذا قرار موجز. تفحص القرارات الموجزة الحالات التي ألغت فيها Meta قرارها الأصلي بشأن المحتوى بعد أن لفت المجلس انتباه الشركة إليها. وتتضمن هذه القرارات معلومات حول أخطاء Meta التي تم إقرارها. وتوافق عليها لجنة من أعضاء المجلس، وليس المجلس بكامله. ولا تنظر اللجنة في التعليقات العامة، ولا تُشكّل هذه القرارات سابقة قانونية لدى المجلس. توفر القرارات الموجزة الشفافية بشأن تصحيحات Meta وتسلط الضوء على جوانب التحسين المحتمل في إنفاذ الشركة لسياساتها.

ملخص الحالة

تقدم مستخدم بطعن على قرار Meta بإزالة منشور على Instagram لمقطع فيديو أدان تصريحات أدلى بها الفنان الموسيقي "ييه" (مغني الراب الأمريكي الذي كان يعرف سابقًا باسم كانيي ويست) والتي يمجد فيها هتلر وينكر محرقة اليهود (الهولوكوست). بعد أن لفت المجلس انتباه Meta إلى الطعن، ألغت الشركة قرارها الأصلي وأعادت المنشور.

وصف الحالة ومعلومات أساسية عنها

في يناير 2023، نشر مستخدم من تركيا على Instagram مقطع فيديو يتضمن مقتطفًا من مقابلة باللغة الإنجليزية يقول فيها "ييه" أنه "يحب" أدولف هتلر وأن هتلر "لم يقتل 6 ملايين من اليهود". ثم ينتقل الفيديو إلى شخص يبدو أنه مراسل تلفزيوني يعبر عن غضبه من تصريحات "ييه" ويروي كيف قُتل أفراد عائلته في محرقة اليهود (الهولوكوست). يتضمن الفيديو ترجمة باللغة التركية ويأتي مصحوبًا بشرح توضيحي ترجمته "مراسل تلفزيوني يرد على كانيي ويست".

أزالت Meta المنشور في البداية من Instagram بداعي انتهاك سياسة المنظمات الخطرة والأفراد الخطرين وسياسة الخطاب الذي يحض على الكراهية. بموجب سياسة Meta بشأن المنظمات الخطرة والأفراد الخطرين، تزيل الشركة الإشادة بالأفراد المصنَّفين، بما في ذلك أدولف هتلر. ومع هذا، تنص السياسة على أنه "يجوز للمستخدمين مشاركة محتوى يتضمن إشارات إلى منظمات خطرة وأفراد خطرين مصنفين لنشر تقارير عنهم أو عن أنشطتهم أو إدانتهم أو مناقشتهم بشكل محايد." بموجب سياستها بشأن الخطاب الذي يحض على الكراهية، تزيل الشركة إنكار محرقة اليهود (الهولوكوست) كأحد أشكال القوالب النمطية الضارة "المرتبطة تاريخيًا بالتخويف أو الإقصاء أو العنف على أساس سمة تتمتع بحقوق حماية". تنص سياسة الخطاب الذي يحض على الكراهية أيضًا على أن "الأشخاص يشاركون أحيانًا محتوىً يتضمن إهانات أو خطابًا يحض على الكراهية نقلاً عن شخص آخر بهدف إدانته أو تعزيز وعي الأشخاص به".

في الطعن الذي تقدم به إلى المجلس، قال المستخدم أن الفيديو لا يدعم أدولف هتلر وأنه قد أسيء فهمه.

بعد أن لفت المجلس انتباه Meta إلى هذه الحالة، قررت الشركة أن المحتوى لا ينتهك سياساتها. وعلى الرغم من أن الفيديو قد تضمن الإشادة بأدولف هتلر وإنكار محرقة اليهود (الهولوكوست)، فقد أدان الجزء الثاني من الفيديو هذه التصريحات، مما جعلها ضمن سياق مسموح به. ولذلك، خلُصت الشركة إلى أن قرار الإزالة الذي اتخذته في بادئ الأمر لم يكن صحيحًا وأعادت المحتوى إلى المنصة.

سُلطة المجلس ونطاق عمله

يتمتع المجلس بسلطة مراجعة قرار شركة Meta بعد تلقي طعن من المستخدم الذي تعرض المحتوى الخاص به إلى الإزالة (المادة 2، القسم 1 من اتفاقية المجلس؛ المادة 3، القسم 1 من اللائحة الداخلية).

عندما تُقر Meta بأنها ارتكبت خطأً وتُلغي قرارها الصادر بشأن حالة قيد النظر نتيجة مراجعة المجلس، يجوز للمجلس اختيار هذه الحالة لإصدار قرار موجز (المادة 2، القسم 2.1.3 من اللائحة الداخلية). ويراجع المجلس القرار الأصلي لزيادة فهم عملية الإشراف على المحتوى، بهدف تقليل الأخطاء ورفع مستوى الإنصاف لصالح الأشخاص الذين يستخدمون فيسبوك وInstagram.

أهمية الحالة

تعتبر هذه الحالة مثالاً على الخطأ في تطبيق استثناءات سياسات Meta بشأن المنظمات الخطرة والأفراد الخطرين، والخطاب الذي يحض على الكراهية. وقد يؤدي هذا النوع من الأخطاء إلى قمع التعبير الذي يهدف إلى الرد على الخطاب الذي يحض على الكراهية، بما في ذلك إنكار محرقة اليهود (الهولوكوست)، أو إدانة تصريحات الإشادة بالأفراد الخطرين مثل هتلر. وتعتبر حماية الخطاب المضاد أمرًا ضروريًا لتعزيز حرية التعبير وأداةً لمكافحة المحتوى الضار مثل المعلومات المضللة والخطاب الذي يحض على الكراهية. وقد سبق أن أوصى المجلس بما يلي: يجب على Meta تقييم دقة المراجعين في تنفيذ استثناء نشر التقارير الإخبارية بموجب سياسة الأفراد الخطرين والمنظمات الخطرة لتحديد المشكلات النظامية التي تتسبب في أخطاء الإنفاذ (ذِكر طالبان في التقارير الإخبارية، التوصية رقم 5)؛ يجب على Meta تقييم عمليات الإشراف المؤتمتة فيما يتعلق بإنفاذ سياسة المنظمات الخطرة والأفراد الخطرين ( عزلة أوجلان، التوصية رقم 2)؛ ويجب على Meta إجراء تقييمات للدقة تركز على استثناءات سياسة الخطاب الذي يحض على الكراهية التي تغطي أوجه تعبير مثل الإدانة وتعزيز الوعي والإشارة إلى الذات والاستخدامات الإيجابية ( حزام وامبوم، التوصية رقم 3). أشارت Meta إلى أنها تحرز تقدمًا بشأن التوصية رقم 5 في حالة ذِكر طالبان في التقارير الإخبارية، ورفضت تنفيذ التوصية رقم 2 في حالة عزلة أوجلان، وأظهرت أنها نفذت التوصية رقم 3 في حالة حزام وامبوم.

يكرر المجلس أن تنفيذ هذه التوصيات بالكامل قد يقلل من معدلات الخطأ في إنفاذ الاستثناءات التي تنص عليها سياسة الخطاب الذي يحض على الكراهية وسياسة المنظمات الخطرة والأفراد الخطرين. وهو ما سيؤدي بدوره إلى حماية الخطاب المضاد وتحسين حرية التعبير إجمالاً.

القرار

ألغى المجلس قرار شركة Meta الأصلي بإزالة المحتوى. ويُقر المجلس بأن Meta قد صحّحت خطأها الأولي بمجرد أن لفت المجلس انتباهها إلى الحالة.

العودة إلى قرارات الحالة والآراء الاستشارية المتعلقة بالسياسة