مجلس الإشراف يوسع نطاق عمله ليشمل Threads

يعلن مجلس الإشراف اليوم عن توسيع نطاق عمله ليشمل Threads، وهو تطبيق من تطبيقات Meta يسمح للمستخدمين بمشاركة التحديثات النصية والانضمام إلى المحادثات العامة. مع أن المجلس استطاع مراجعة الطعون المقدمة من مستخدمي فيسبوك وInstagram والبت فيها منذ أكتوبر 2020، يعتبر توسيع نطاق عمله في المراجعة ليشمل تطبيقًا جديدًا إنجازًا جديدًا له.

عندما تقرر منصات وسائل التواصل الاجتماعي فتح عملية اتخاذ القرارات التي تتبعها في الإشراف على المحتوى لتخضع للإشراف المستقل، فهذا من شأنه أن يؤدي إلى اتخاذ قرارات أفضل وأكثر مسؤولية. وهذا، بدوره، يؤدي إلى بناء الثقة مع الأشخاص الذين يستخدمون هذه المنصات. ويرحب المجلس، من جانبه، بقرار Meta بتوسيع نطاق هذا النهج الذي تتبعه ليشمل تطبيق Threads. ونعتقد أنه بإمكاننا المساعدة في إضفاء المزيد من الشفافية على تطبيق Threads واتباعه نهجًا عالميًا واحترامه لحرية التعبير وغيره من حقوق الإنسان.

ما الذي يحدث؟

بدءًا من اليوم، سيتمكن الأشخاص الذين يستخدمون Threads من الاعتراض على قرارات Meta من خلال تقديم طعون بشأن المحتوى المؤهل إلى مجلس الإشراف. وستكون العملية المتبعة للبت في الطعون بالنسبة إلى Threads مماثلة لتلك المتبعة بالنسبة إلى فيسبوك وInstagram. وبمجرد استنفاد المستخدمين للعملية الداخلية المتبعة لدى Meta لتقديم الطعون، ستصدر الشركة معرفًا مرجعيًا لمجلس الإشراف يسمح للمستخدمين بإرسال حالاتهم للمراجعة على موقع مجلس الإشراف على الويب. وستتمكن Meta أيضًا من إحالة الحالات المتعلقة بالمحتوى على Threads إلى المجلس، كما سيتمكن من ذلك 130 مليون شخص يستخدمون التطبيق.

ما الآلية التي سيتبعها مجلس الإشراف في اتخاذ القرارات بشأن المحتوى على تطبيق Threads؟

بالنسبة إلى تطبيق Threads، شأنه شأن فيسبوك وInstagram، سنحدد الحالات التي يُرجَّح أن تؤثر على العديد من الأشخاص، أو التي تشكل أهمية بالغة للخطاب العام، أو تثير تساؤلات مهمة حول سياسات Meta. ومع ذلك، فإن تأثير عملنا يتخطى الحالات الفردية إلى حد بعيد، إذ إننا نتعامل مع المشكلات التي يشاركها ملايين المستخدمين ونقدم حلولاً لها.

وكما هو الحال مع فيسبوك وInstagram، سيتمكن المجلس من مراجعة الحالات في عدة جداول زمنية مختلفة، وذلك بناءً على طبيعة الحالة وتوقيتها وصعوبتها. وسيتم التعامل مع بعض الحالات كقرارات قياسية (خلال جدول زمني مدته 90 يومًا، مع تعليقات من العامة، وستكون قرارات بعض الحالات (التي تعترف فيها Meta بخطئها عند تحديد المجلس للحالة) قرارات موجزة يتم إصدارها برأي موجز فقط، أما عن بعض الحالات (التي لها طبيعة طارئة خاصة)، فسيتم البت فيها على وجه السرعة.

سيتولى أعضاء المجلس مراجعة قرارات Meta بشأن المحتوى استنادًا إلى إرشادات مجتمع Instagram (التي تنطبق على Threads أيضًا)، وقيم الشركة والتزاماتها الدولية بالحفاظ على حقوق الإنسان، لا سيما مبادئ حرية التعبير. وستكون قراراتنا ملزمة، ويجب على Meta تنفيذها خلال سبعة أيام. وسنتمكن أيضًا من تقديم توصيات بشأن السبل التي يمكن أن تتبعها Meta لتحسين نهجها المتبع في الإشراف على المحتوى، ويجب على الشركة الرد على هذه التوصيات خلال 60 يومًا.

وقد أخبرتنا الشركة أنه بما أن تطبيق Threads آخذ في التطور بسرعة، خلال مدة تبلغ 12 شهرًا، وبينما يحقق استقرارًا، ستتمكن Meta من تنفيذ توصيات السياسة والإنفاذ من القرارات المتعلقة بالتطبيق؛ لكنها لن تتمكن من تنفيذ التوصيات الخاصة بالمنتج.

تغيير نهج Meta تجاه الإشراف على المحتوى

يشير سجل المجلس الحافل من التأثير على فيسبوك وInstagram إلى أننا نستطيع أيضًا إحداث فارق مهم في Threads.

على سبيل المثال، استجابةً للتوصيات التي قدمناها، أنشأت Meta "حالة الحساب" التي تخبر الأشخاص بالعقوبات التي طبقتها Meta على حساباتهم وسببها. وقد أنشأت الشركة أيضًا أدوات تصنيف جديدة لإيقاف الإزالة التلقائية للمحتوى المتعلق بالتوعية بسرطان الثدي. وهي الآن بصدد وضع اللمسات الأخيرة على نهج جديد ومتسق تجاه الاحتفاظ بالأدلة المحتملة على الفظائع والانتهاكات الخطيرة لقانون حقوق الإنسان. وهذه ما هي إلا بضع أمثلة على كيفية إضفاء عمل المجلس المزيد من الشفافية والانضباط والطابع العالمي على النهج الذي تتبعه Meta في التطلعات المستقبلية.

سيستفيد المجلس من أربع سنوات من الخبرة في مراجعته لتطبيق Threads. خلال هذه الفترة، طورنا النهج الذي نتبعه، مثل التغييرات التي أجريناها العام الماضي من أجل التعامل مع المزيد من الحالات بوتيرة أسرع. وفي عام 2023، أصدرنا قرارات مهمة بشأن أسرى الحرب، ورئيس الوزراء الكمبودي السابق هون سين، والحالات الأولى التي تعاملنا معها بسرعة بشأن الصراع الدائر بين إسرائيل وحماس. ونشرنا أيضًا رأيًا استشاريًا بشأن سياسات المحتوى فيما يتعلق بالمعلومات المضللة حول فيروس كورونا (كوفيد-١٩). وقد نقلنا هذا الزخم إلى عام 2024 من خلال نشر قرارات بشأن إنكار محرقة اليهود (الهولوكوست) والوسائط المتلاعب بها والكراهية تجاه الأشخاص المتحولين جنسيًا. ومع أنه ما يزال لدينا المزيد من الأعمال التي نريد إنجازها، سنواصل حث Meta على معاملة مستخدميها بعدالة وإنصاف على جميع منصاتها.

ما التالي؟

عندما نحدد حالاتنا القياسية الأولى بشأن المحتوى على Threads، سنعلن عن ذلك على موقعنا على الويب وندعو الأشخاص إلى إرسال تعليقاتهم العامة. وسننشر قراراتنا النهائية على موقع الويب لمجلس الإشراف.

ملاحظة: مجلس الإشراف هو مؤسسة مستقلة تدرس قرارات Meta بإزالة المحتوى أو تركه على فيسبوك وInstagram وThreads في عدد محدد من الحالات التي لها دلالة رمزية. ويُجري المجلس مراجعة، ويُلغي قرارات الشركة، إذا لزم الأمر. وتكون قرارات المجلس ملزمة لشركة Meta. ويقدم المجلس توصيات أيضًا لتحسين نهج Meta تجاه الإشراف على المحتوى.

العودة إلى الأخبار