التقرير السنوي لعام 2022: مجلس الإشراف يراجع التغييرات التي أجرتها Meta لتحقيق العدالة والشفافية على منصاتها

ننشر اليوم تقريرنا السنوي لعام 2022. يقدم هذا التقرير كشف حساب شاملاً عن عمل المجلس في عام 2022، بما في ذلك نشر آرائنا الاستشارية الأولى بشأن سياسات المحتوى والتأثير المتزايد لتوصياتنا في تجارب الأشخاص على فيسبوك وInstagram.

يمكنك قراءة تقريرنا السنوي باللغة الإنجليزية هنا.

يمكنك قراءة تقريرنا السنوي باللغة الإسبانية هنا.

ملاحظة: سننشر هذا التقرير باللغات العربية والصينية والفرنسية والهندية والروسية أيضًا خلال الأسابيع القادمة.

تحويل الالتزامات إلى تأثير دائم

لقد نفذت Meta العديد من توصياتنا منذ أن نشرنا قراراتنا الأولى في يناير 2021. وقد أضفت هذه التغيرات على الشركة مزيدًا من الشفافية والعدالة في تعاملها مع المستخدمين.

من يناير 2021 إلى مطلع أبريل 2023، في وقت إتمامنا لهذا التقرير السنوي، قدم المجلس توصيات بلغ عددها الإجمالي 191 توصية إلى Meta. وفيما يتعلق بثلثي هذا الرقم تقريبًا، استطاعت Meta كليًا أو جزئيًا تنفيذ التوصية أو قدمت تقريرًا عن مدى تقدمها في تنفيذها.

وفي عام 2022، كان من الأمور المشجعة لنا أن نرى Meta، لأول مرة، تجري تغييرات نظامية على قواعدها والطرق المتبعة لإنفاذ هذه القواعد، بما يشمل تلك المتعلقة بإشعارات المستخدمين، والقواعد المتعلقة بالمنظمات الخطرة. ومع أننا ندرك أنه لا يزال لدينا المزيد من الأعمال لإنجازها، يسلط التقرير السنوي اليوم الضوء على عدة أمثلة على التأثير الذي أحدثه المجلس حتى الآن.

إخبار الأشخاص بأسباب إزالة المحتوى الذي قاموا بنشره

إن أكثر توصية قدمناها كمجلس هي ضرورة قيام Meta بإخبار الأشخاص بأسباب إزالة المحتوى الذي نشروه.

في الماضي، رأينا المستخدمين يُتركون لتخمين السبب الذي دعا Meta إلى إزالة المحتوى الذي نشروه. واستجابةً لتوصياتنا، قدمت Meta رسائل جديدة على الصعيد العالمي لإخبار الأشخاص بالسياسة التي انتهكوها بالتحديد، وذلك فيما يتعلق بسياسات الخطاب الذي يحض على الكراهية، والأفراد الخطرين والمنظمات الخطرة، والمضايقة والإساءة. واستجابةً لتوصية أخرى، أكملت Meta أيضًا عملية طرح عالمية لرسائل تخبر الأشخاص بما إذا كانت المراجعة البشرية أو المؤتمتة قد أدت إلى إزالة المحتوى الذي نشروه. ونحن نؤمن أن إعطاء الأشخاص مزيدًا من المعلومات بشأن كيفية وسبب إزالة المحتوى الذي نشروه سيؤدي إلى بناء الثقة وتعزيز العدالة في طرق تطبيق Meta لقواعدها.

إضفاء مزيد من الاتساق والشفافية على القواعد

يوضح التقرير السنوي الذي ننشره اليوم تأثير توصياتنا في إضفاء مزيدًا من الوضوح والاتساق على قواعد Meta.

واستجابةً لاقتراحاتنا، قدمت Meta بروتوكول سياسة الأزمات لإضفاء مزيد من الاتساق على استجاباتها للأزمات، كما أعلنت مؤخرًا عن خطط لتكوين فريق جديد للتنسيق في الأزمات بهدف تقديم عمليات إشرافية مخصصة على مدار الساعة يوميًا للأزمات الوشيكة والناشئة.

وطرحت Meta أيضًا مراجعة لسياستها المعنية بالأفراد الخطرين والمنظمات الخطرة، وأنشأت معيار مجتمع جديدًا بشأن المعلومات المضللة، كما أدمجت قواعدها ووضحتها في مكان واحد. وأخيرًا، عقب تحفظاتنا حول نظام العقوبات الغامض لدى Meta ومخاوف المستخدمين بشأن وضعهم في "سجن فيسبوك"، قررت الشركة تغيير نظام "الإنذارات" لديها لإضفاء مزيد من العدالة والشفافية عليه.

حماية العبارات المهمة التي يطلقها الصحفيون والمتظاهرون والمشاركون في حملات الوعي بسرطان الثدي

يوضح تقريرنا السنوي أيضًا مدى المساعدة التي تقدمها توصياتنا في حماية العبارات المهمة التي يطلقها الصحفيون والمتظاهرون والمشاركون في حملات الوعي بسرطان الثدي على فيسبوك وInstagram.

واستجابةً لرأينا الاستشاري بشأن سياسات المحتوى فيما يخص برنامج Meta للتحقق الشامل، على سبيل المثال، التزمت الشركة بتقديم حماية أكبر للأشخاص المعرضين بصفة خاصة لإزالة المحتوى الذي يقدمونه عن طريق الخطأ، بما في ذلك الصحفيون والمدافعون عن حقوق الإنسان.

وقد وفرنا أيضًا حماية لآراء المستخدمين أثناء التحولات السياسية والاجتماعية. وفي إطار قرارنا بشأن "شعار الاحتجاجات في إيران"،، حثثنا Meta على تقديم حماية أفضل للخطاب السياسي في إيران حيث لاقت الاحتجاجات التاريخية قمعًا عنيفًا. واستجابةً لذلك، قررت Meta السماح باستخدام المصطلح "Marg bar Khamenei" (الذي يترجم حرفيًا إلى "الموت لخامنئي [المرشد الأعلى في إيران]") لمشاركته في سياق الاحتجاجات المستمرة في إيران وألغت إجراءات الإنفاذ السابقة إزاء هذا النوع من المحتوى.

وأخيرًا، في قرارنا بشأن "أعراض سرطان الثدي والعُري"، حثثنا Meta على تحسين طرق الاكتشاف التلقائي للصور التي تحتوي على تراكب نصي حتى لا يتم تمييز المنشورات التي تعزز الوعي بأعراض سرطان الثدي بالخطأ وإخضاعها للمراجعة. واستجابةً لذلك، حسَّنت Meta أساليبها في التعرف على سياق سرطان الثدي في المحتوى على Instagram.

وقد تم تطبيق هذه التحسينات منذ يوليو 2021، وفي الفترة من 26 فبراير إلى 27 مارس 2023، أسهمت في إرسال 2500 عنصر محتوى إضافي للمراجعة البشرية حيث كان من الممكن إزالتها فيما سبق. ومع أنه يصعب وضع هذا الأمر في إطار صحيح دون قاسم مشترك، توضح أداة قياس التأثير الأولى هذه مدى المساعدة التي قدمتها توصيتنا إلى Meta في الحد من مخاطر النظام الناتجة عن طريقة تعامل الشركة مع هذا النوع من المحتوى.

حوار جديد يتسم بالشفافية

من خلال تقديم هذه التوصيات علنًا، ومراقبة استجابات Meta وتنفيذها علنًا أيضًا، أطلقنا مساحة لإجراء حوار يتسم بالشفافية مع الشركة لم تكن موجودة من قبل. ونأمل أن تفتح هذه التوصيات المجال لإجراء حوار عام حول كيفية تعامل المنصات مع بعض التحديات الأكثر تعقيدًا في الإشراف على المحتوى.

وفي العديد من الحالات، تعكس اقتراحاتنا أو تستند إلى الدعوات التي لطالما أطلقتها مجموعات المجتمع المدني والجهات المعنية على مدار سنوات كثيرة؛ الأمر الذي دفع Meta إلى مراعاة الدعوات المستمرة المنادية باتخاذ إجراءات والاستجابة لها علنًا. ونود، كمجلس، أن نتوجه مجددًا بخالص الامتنان إلى هذه المؤسسات على مشاركتها لأفكارها وخبراتها.

عمل المجلس في 2022

إضافة إلى تسليط الضوء على تأثير المجلس المتزايد في Meta، يقدم تقريرنا السنوي أيضًا نظرة عامة على الحالات المقدمة للمجلس.

ففي عام 2022، تلقينا 1.3 مليون طعن تقريبًا من المستخدمين لاستعادة المحتوى أو إزالته على فيسبوك أو Instagram، ويمثل هذا العدد زيادة بمقدار الربع تقريبًا مقارنةً بعام 2021. وجدير بالذكر أن أكثر من ثلثي الطعون لاستعادة المحتوى في 2022 يخص منشورات تمت إزالتها بموجب قواعد Meta المعنية بالعنف والتحريض أو الخطاب الذي يحض على الكراهية.

بعد أن تدرج لجنة اختيار الحالات التابعة للمجلس الحالات في القائمة المختصرة للمراجعة من قِبل المجلس، تقرر Meta أحيانًا أن قرارها الأصلي بشأن المحتوى كان غير صحيح؛ ومن ثمَّ، تلغيه. في 2022، أدركت Meta أن قرارها الأصلي كان غير صحيح في 32 من أصل 50 حالة أدرجها المجلس في القائمة المختصرة. ومع أن هذه ليست سوى عينة صغيرة، ويسعى المجلس عن قصد للبحث عن أكثر الحالات صعوبةً وتعقيدًا، أثار قلقنا أن Meta وجدت أن قرارها الأصلي غير صحيح في حوالي ثلثي الحالات المدرجة في القائمة المختصرة.

يوضح تقريرنا السنوي أيضًا السبل التي سلكناها في عام 2022 لإنجاز ما يلي:

  • نشر آرائنا الاستشارية الأولى بشأن سياسات المحتوى فيما يتعلق بمشاركة معلومات محل الإقامة الخاصة وبرنامج Meta للتحقق الشامل.
  • إلغاء قرار Meta الأصلي بشأن المحتوى في ثلاثة أرباع قراراتنا المتخذة في الحالات.
  • تلقي أكثر من 600 تعليق عام من أفراد ومؤسسات حول العالم.
  • توسيع نطاقنا ليشمل القدرة على إضافة شاشات تحذيرية إلى المحتوى المؤهل.
  • الإعلان عن سبع أولويات استراتيجية هي: الانتخابات والحيز المدني، وحالات الأزمات والنزاعات، والجنس، والخطاب الذي يحض على الكراهية ضد الفئات المهمشة، والاستخدام الحكومي لمنصات Meta، ومعاملة المستخدمين بعدالة، والإنفاذ التلقائي للسياسات وتنظيم المحتوى.

تطوير عملنا مع Meta

في فبراير 2023، أعلنا عن خطط لمراجعة المزيد من الحالات بوتيرة أسرع. وستتيح لنا زيادة عدد القرارات التي نتخذها، وسرعتنا في اتخاذها، فرصة للتصدي للمزيد من التحديات الكبرى المرتبطة بالإشراف على المحتوى. ومنذ فبراير، أعلنا عن 10 حالات جديدة للنظر فيها، بالإضافة إلى رأي استشاري بشأن سياسات المحتوى فيما يتعلق بالكلمة العربية "شهيد" (التي تُترجم إلى "martyr"). وسننشر هذه الحالات خلال الأسابيع والأشهر القادمة.

يحدد تقريرنا السنوي ستة أهداف لمساعدتنا في تعزيز تأثيرنا في عام 2023. وتشمل هذه الأهداف نشر أول قراراتنا الموجزة، والتي نفحص فيها الحالات التي ألغت Meta قرارها الأصلي بشأن المحتوى بعد أن لفتنا انتباه الشركة إلى هذه الحالات. ونخطط أيضًا لإصدار أول قراراتنا العاجلة في عام 2023، والتي نراجع فيها قرار Meta بشأن أحد المنشورات خلال أيام، ونتطلع إلى تلقي أول حالة عاجلة لدينا من الشركة. ونهدف أيضًا إلى إكمال التكوين الأولي للمجلس، وتعميق التفاعل حول أولوياتنا الاستراتيجية السبع، ومتابعة الخطط طويلة الأمد لتوسيع نطاق أنشطتنا، وحث Meta على تقديم دليل على التنفيذ والتأثير.

مشاركة فوائد الإشراف المستقل

منذ الوهلة الأولى، اضطلع المجلس بمهمة اختبار نهج مستقل للإشراف على المحتوى، والذي قد يتم تطبيقه أيضًا على الشركات الأخرى، في حالة نجاحه. وفي السنوات الثلاث الماضية، اكتسبنا باعًا ضخمًا من الخبرات في الإشراف المستقل يمكن أن يساعد الشركات في اتخاذ قرارات أكثر صرامة تستند إلى مبدأ احترام حرية التعبير وحقوق الإنسان الأخرى.

ويستعرض تقريرنا السنوي أفكارًا حول آلية عمل مجلس الإشراف المعني بحوكمة المحتوى، بدءًا من أهمية التنوع ووصولاً إلى إبراز قيمة المعايير الدولية لحقوق الإنسان في صنع القرارات. ونظرًا لأن اللوائح الجديدة تستلزم متطلبات جديدة، توجد أيضًا مجالات محددة، مثل الشفافية وإشعارات المستخدم، نعتقد أنه يمكننا توفير جزء من الحل فيها.

الخطوات التالية

في إطار التزامنا بالشفافية، ننشر أيضًا تقارير الشفافية الربع سنوية على مدار العام. وسننشر، خلال الأيام القادمة، تقرير الشفافية الربع سنوي للربع الأول من عام 2023. وسيسلط هذا التقرير الضوء على أمثلة أخرى لتأثير المجلس في Meta، وسيتضمن مراجعة لإعلان Meta الصادر في شهر يناير 2023 بشأن الرئيس الأمريكي السابق ترامب.

العودة إلى الأخبار