مجلس الإشراف يلغي قرار Meta الأصلي بشأن حالة إنكار الهولوكوست

ألغى مجلس الإشراف قرار Meta الأصلي بترك منشور على Instagram يحتوي على ادعاءات كاذبة ومشوهة حول محرقة اليهود (الهولوكوست). حيث وجد المجلس أن المحتوى ينتهك معيار المجتمع المتعلق بالخطاب الذي يحض على الكراهية الخاص بشركة Meta، والذي يحظر إنكار محرقة اليهود (الهولوكوست). ويتوافق هذا الحظر مع مسؤوليات Meta في مجال حقوق الإنسان. ويشعر المجلس بالقلق إزاء فشل Meta في إزالة هذا المحتوى ولديه تساؤلات حول مدى فعالية عمليات الإنفاذ لدى الشركة. ويوصي المجلس شركة Meta باتخاذ الخطوات اللازمة للتأكد من أنها تقوم بشكل منهجي بقياس دقة عمليات الإنفاذ لديها فيما يتعلق بمحتوى إنكار محرقة اليهود (الهولوكوست)، على مستوى أكثر تفصيلاً.

حول هذه الحالة

في 8 سبتمبر 2020، نشر مستخدم على Instagram ميم لشخصية "شفيق حبار" - وهو شخصية كرتونية من المسلسل التلفزيوني سبونج بوب سكوير بانتس. وتضمن الميم فقاعة كلام بعنوان "حقائق مضحكة عن الهولوكوست،" والتي تحتوي على ادعاءات كاذبة ومشوهة حول الهولوكوست. الادعاءات، باللغة الإنجليزية، تشكك في عدد ضحايا الهولوكوست، حيث تشير أنه لا يمكن أن يكون قتل ستة ملايين شخص يهودي ممكنًا بناءً على الأرقام المفترضة للسكان التي يقتبسها المستخدم لفترة ما قبل وبعد الحرب العالمية الثانية. كما يشكك المنشور في وجود محرقة في أوشفيتز عن طريق الادعاء بأن الأفران تم بناؤها بعد الحرب، وأن القادة العالميين في ذلك الوقت لم يعترفوا بالهولوكوست في مذكراتهم.

في 12 أكتوبر 2020، بعد عدة أسابيع من نشر المحتوى، قامت Meta بمراجعة معيار المجتمع المتعلق بالخطاب الذي يحض على الكراهية لديها لتحظر بشكل واضح إنكار الهولوكوست أو تشويهه.

ونظرًا لأن المحتوى قد نُشر في سبتمبر 2020، فقد أبلغ عنه المستخدمون ست مرات بسبب انتهاكه لسياسة الخطاب الذي يحض على الكراهية لدى Meta. تمت مراجعة أربعة من هذه التقارير من قِبل أنظمة Meta الآلية التي أما قد قيّمت المحتوى كغير مخالف أو أغلقت التقارير تلقائيًا بسبب سياسات أتمتة الشركة بشأن فيروس كورونا (كوفيد-١٩). وأدت هذه السياسات، التي تم تقديمها في بداية الجائحة في عام 2020، إلى إغلاق بعض وظائف المراجعة تلقائيًا لتقليل حجم التقارير المرسلة إلى المراجعين البشريين، مع إبقاء التقارير التي يحتمل أن تكون "عالية المخاطر" مفتوحة.

أدت اثنتان من البلاغات الستة من المستخدمين إلى تقييم المراجعين للمحتوى على أنه غير مخالف. قام مستخدم من الذين أبلغوا عن المنشور في مايو 2023، بعد إعلان Meta أنها لن تسمح بإنكار الهولوكوست، بالطعن ضد قرار الشركة بالإبقاء على المحتوى. ومع ذلك، تم إغلاق هذا الطعن أيضًا تلقائيًا بسبب سياسات أتمتة Meta الخاصة بفيروس كورونا (كوفيد-١٩)، والتي كانت لا تزال سارية في مايو 2023. عندها تقدم بطعن إلى مجلس الإشراف.

النتائج الرئيسية

وجد المجلس أن هذا المحتوى ينتهك معيار المجتمع المتعلق بالخطاب الذي يحض على الكراهية الخاص بشركة Meta، والذي يحظر إنكار الهولوكوست على فيسبوك وInstagram. أكد الخبراء المستشارون للمجلس أن جميع الادعاءات الموجودة في المنشور حول الهولوكوست إما كانت غير صحيحة تمامًا أو قامت بتزييف الحقائق التاريخية. ووجد المجلس أن سياسة Meta التي تحظر إنكار الهولوكوست تتماشى مع مسؤولياتها تجاه حقوق الإنسان. بالإضافة إلى ذلك، يشعر المجلس بالقلق من عدم إزالة Meta لهذا المحتوى حتى بعد تغيير الشركة لسياستها لتحظر بشكل واضح إنكار الهولوكوست، على الرغم من المراجعات البشرية والآلية.

كجزء من هذا القرار، كلف المجلس بإجراء تقييم لمحتوى إنكار الهولوكوست على منصات Meta، والذي كشف عن استخدام تنسيق ميم لشخصية "شفيق حبار" لنشر أنواع مختلفة من الروايات المعادية للسامية. وبينما أظهر التقييم انخفاضًا ملحوظًا منذ أكتوبر 2020 في المحتوى الذي يستخدم مصطلحات مثل "Holohoax"، فقد وجد أن هناك ثغرات في إزالة Meta لمحتوى إنكار الهولوكوست. أظهر التقييم أن المحتوى الذي ينكر الهولوكوست لا يزال من الممكن العثور عليه على منصات Meta، ربما لأن بعض المستخدمين يحاولون التهرب من التنفيذ بطرق بديلة، مثل استبدال حروف العلة في الكلمات بالرموز، أو إنشاء روايات ضمنية حول إنكار الهولوكوست باستخدام الميمات والرسوم الكاريكاتورية.

من المهم فهم إنكار الهولوكوست كعنصر من عناصر معاداة السامية، والتي تكون تمييزية في نتائجها.

يثير المجلس تساؤلات حول فعالية ودقة أنظمة الإشراف لدى Meta في إزالة محتوى إنكار الهولوكوست من منصاتها. لا تُتاح فرصة للمراجعين البشريين لدى Meta لتصنيف بيانات الإنفاذ بشكل تفصيلي (أي، يتم تصنيف المحتوى المخالف باعتباره "خطاب يحض على الكراهية" بدلاً من "إنكار الهولوكوست"). استنادًا إلى الرؤى المكتسبة من الأسئلة الموجهة إلى Meta في هذه الحالة والحالات السابقة، يفهم المجلس أن هذه التحديات يمكن التغلب عليها تقنيًا، إذا كانت تتطلب موارد كثيرة. يجب على Meta بناء أنظمة لتصنيف بيانات الإنفاذ على مستوى أكثر تفصيلاً، خاصة في ضوء النتائج الواقعية لإنكار الهولوكوست. قد تعمل هذه الخطوة على تحسين دقتها في الإشراف على المحتوى الذي ينكر الهولوكوست من خلال توفير مواد تدريبية أفضل لأدوات التصنيف والمراجعين البشر. بينما تزيد Meta من اعتمادها على الذكاء الاصطناعي للإشراف على المحتوى، يهتم المجلس بمعرفة كيف يمكن تشكيل تطوير مثل هذه الأنظمة لإعطاء الأولوية لإنفاذ أكثر دقة فيما يتعلق بالخطاب الذي يحض على الكراهية على مستوى سياسة تفصيلية.

يشعر المجلس أيضًا بالقلق من أنه اعتبارًا من مايو 2023، كانت Meta لا تزال تطبق سياسات الأتمتة الخاصة بفيروس كورونا (كوفيد-19). ردًا على أسئلة المجلس، كشفت Meta أنها أغلقت تلقائيًا طعن المستخدم ضد قرارها بترك هذا المحتوى على Instagram في مايو 2023، بعد أكثر من ثلاث سنوات من بدء الجائحة وبعد فترة وجيزة من إعلان كل من منظمة الصحة العالمية والولايات المتحدة أن فيروس كورونا (كوفيد-١٩) لم يعد "حالة طوارئ صحية عامة تثير قلقًا دوليًا". وكانت هناك حاجة ملحة لأن تعطي Meta الأولوية لإزالة الخطاب الذي يحض على الكراهية، ومن المثير للقلق أن التدابير التي تم تقديمها كحالة طوارئ متعلقة بالجائحة يمكن أن تستمر لفترة طويلة بعد أن بررت الظروف ذلك بشكل معقول.

قرار مجلس الإشراف

ألغى مجلس الإشراف قرار شركة Meta الأصلي بإبقاء المحتوى.

ويوصى المجلس Meta بما يلي:

  • اتخاذ خطوات تقنية لضمان قياس دقة عملية الإنفاذ لديها بشكل كافٍ ومنهجي لمحتوى إنكار الهولوكوست، بما في ذلك جمع تفاصيل أكثر تفصيلاً.
  • التأكيد علنًا إذا ما كانت قد أنهت تمامًا جميع سياسات الأتمتة المتعلقة بفيروس كورونا (كوفيد-١٩) التي تم وضعها خلال الجائحة.

لمزيد من المعلومات

للاطلاع على القرار الكامل بشأن الحالة، انقر هنا.

للاطلاع على ملخص تعليقات العامة بشأن هذه الحالة، يرجى النقر انقر هنا.

الملفات المرفقة

Holocaust-Denial-Public-Comments-Appendix-2

العودة إلى الأخبار