أسقط
ذِكر طالبان في التقارير الإخبارية
ألغى مجلس الإشراف قرار Meta الأصلي بإزالة منشور على فيسبوك من صفحة منفذ إخباري وكان المنشور يتحدث عن إعلان إيجابي بشأن حكم طالبان في أفغانستان ويدور حول تعليم النساء والفتيات.
يتوفر هذا القرار أيضًا باللغة الأردية (من علامة تبويب "اللغة" التي يمكن الوصول إليها القائمة الموجودة أعلى هذه الشاشة)، ولغة الباشتو ( هنا)، واللغة الدَرية ( هنا).
په پښتو ژبه د دغې پريکړې د لوستلو لپاره دلته کليک وکړئ.
برای خواندن اين تصميم اينجا فشار دهيد.
ملخص الحالة
ألغى مجلس الإشراف قرار Meta الأصلي بإزالة منشور على فيسبوك من صفحة منفذ إخباري وكان المنشور يتحدث عن إعلان إيجابي بشأن حكم طالبان في أفغانستان ويدور حول تعليم النساء والفتيات. لم تكن إزالة المنشور تتسق مع معيار مجتمع فيسبوك بشأن الأفراد الخطرين والمنظمات الخطرة، والذي يسمح بنشر تقارير عن الجماعات الإرهابية، كما لم تكن تتسق مع مسؤوليات شركة Meta تجاه حقوق الإنسان. ورأى المجلس أن من الأفضل أن تحمي شركة Meta حرية الأشخاص في التعبير عندما يتعلق الأمر بنشر تقارير عن الأنظمة الإرهابية وأصدر توصيات بشأن السياسة للمساعدة على تحقيق هذه الغاية.
حول هذه الحالة
في شهر يناير 2022، نشرت صحيفة شهيرة تصدر باللغة الأردية ومقرها الهند منشورًا بصفحتها على فيسبوك. ورد في المنشور أن ذبيح الله مجاهد، عضو نظام طالبان في أفغانستان والمتحدث الرسمي باسمها، أعلن عن إعادة فتح المدارس والكليات المخصصة للنساء والفتيات في شهر مارس 2022. وتضمن المنشور رابطًا إلى مقالة بموقع الصحيفة على الويب وحصل على 300 مشاهدة.
وجدت Meta أن المنشور قد انتهك سياسة الأفراد الخطرين والمنظمات الخطرة التي تحظر "الإشادة" بالكيانات التي يتقرر أنها "تشارك في أضرار جسيمة على أرض الواقع،" بما في ذلك المنظمات الإرهابية. أزالت Meta المنشور، وأعطت "إنذارات" لمسؤول الصفحة الذي نشر المحتوى وقيدت وصوله إلى ميزات فيسبوك معينة (مثل إجراء بث مباشر على فيسبوك).
تقدم المستخدم بطعن وبعد أن قرر مراجع آخر تقييم المحتوى على أنه مخالف، وعندها تم وضع المحتوى في قائمة انتظار نظام تجاوز النتائج الإيجابية الخاطئة عالية التأثير (HIPO). نظام تجاوز النتائج الإيجابية الخاطئة عالية التأثير هو نظام تستخدمه Meta للتعرف على الحالات التي اتخذت فيها إجراءات غير صائبة، على سبيل المثال، من خلال إزالة المحتوى عن طريق الخطأ. مع هذا، وفي ظل وجود أقل من 50 مراجعًا ناطقًا باللغة الأردية في نظام تجاوز النتائج الإيجابية الخاطئة عالية التأثير في الوقت الحالي، وعدم اعتبار المنشور من المنشورات ذات الأولوية العالية، لم تتم مراجعته مطلقًا ضمن نظام تجاوز النتائج الإيجابية الخاطئة.
بعد أن حدد المجلس هذه الحالة، قررت Meta أنه لم يكن من المفترض أن تتم هذا المنشور لأن قواعدها تسمح "بنشر تقارير" عن المنظمات الإرهابية. وأعادت الشركة المحتوى، وألغت الإنذار، وأزالت القيود المفروضة على حساب المستخدم.
أهم النتائج
يرى مجلس الإشراف أن إزالة هذا المنشور لا تتفق مع معيار مجتمع فيسبوك بشأن الأفراد الخطرين والمنظمات الخطرة، أو قيم Meta، أو مسؤوليات الشركة تجاه حقوق الإنسان.
يحظر معيار المجتمع بشأن الأفراد الخطرين والمنظمات الخطرة "الإشادة" بكيانات معينة بما في ذلك المنظمات الإرهابية. وقد تم تعريف "الإشادة" تعريفًا عامًا في كل من معيار المجتمع والتوجيهات الداخلية المخصصة للمشرفين. نتيجة لذلك، يدرك المجلس الأسباب التي أدت إلى تفسير اثنين من المراجعين للمحتوى على أنه إشادة. مع هذا، يسمح معيار المجتمع بالمحتوى الذي "يقدم تقارير" عن المنظمات الخطرة. ويرى المجلس أن الاستثناء المذكور ينطبق في هذه الحالة.
يرى المجلس أيضًا أن إزالة المنشور لا تتفق مع مسؤوليات شركة Meta تجاه حقوق الإنسان؛ فهي تضع قيدًا غير مبرر على حرية التعبير، والذي يضم الحق في تداول المعلومات وتلقيها، بما في ذلك المعلومات التي تتناول الجماعات الإرهابية. ويحظى ذلك بأهمية خاصة في حالات النزاعات والأزمات، بما في ذلك عندما تسيطر جماعات إرهابية على أحد البلدان.
يشعر المجلس بالقلق تجاه تداخل أنظمة Meta وسياساتها مع حرية التعبير عندما يتعلق الأمر بنشر تقارير عن الأنظمة الإرهابية. تفتقد معايير المجتمع التي تعتنقها الشركة وتوجيهاتها الداخلية للمشرفين إلى الوضوح فيما يتعلق بكيفية تطبيق حظر الإشادة واستثناء التقارير، أو العلاقة بينهما. وتوحي حقيقة توصُل اثنين من المراجعين إلى أن المحتوى مخالف بأن هذه النقاط لم تُفهم بشكل جيد. ويشعر المجلس بالقلق تجاه كون الإجراء الافتراضي لشركة Meta يتمثل في إزالة المحتوى بموجب سياسة الأفراد الخطرين والمنظمات الخطرة إذا لم يوضح المستخدم أن غرضه هو "نشر تقارير" بشأن الموضوع. يشعر المجلس بالقلق أيضًا من عدم مراجعة المحتوى ضمن نظام تجاوز النتائج الإيجابية الخاطئة عالية التأثير (HIPO).
قد تشير هذه الحالة إلى مشكلة أكبر. فقد نظر المجلس في عدد من الشكاوى المقدمة بشأن أخطاء إنفاذ سياسة الأفراد الخطرين والمنظمات الخطرة، لا سيّما في اللغات الأخرى غير اللغة الإنجليزية. وهو ما يثير مخاوف جدية، لا سيّما للصحفيين والمدافعين عن حقوق الإنسان. وعلاوة على ذلك، فإن عقوبات انتهاك هذه السياسة قاسية وغير واضحة.
قرار مجلس الإشراف
ألغى مجلس الإشراف قرار شركة Meta الأصلي بإزالة المنشور.
وأوصى المجلس Meta بما يلي:
- التحقيق في أسباب عدم ترجمة تغييرات سياسة الأفراد الخطرين والمنظمات الخطرة خلال الإطار الزمني المستهدف، ومنع تكرار مثل هذه التأخيرات.
- جعل التفسير المتاح للعامة بشأن نظام "الإنذارات" أكثر شمولاً وأسهل وصولاً.
- جعل تعريف "الإشادة" في الأسئلة المعروفة أكثر تحديدًا (التوجيهات الداخلية للمشرفين) بإزالة مثال المحتوى الذي "يسعى لأن يفكر الآخرون بشكل أكثر إيجابية بشأن" المنظمات الخطرة.
- مراجعة معايير التنفيذ (التوجيهات الداخلية للمشرفين) لتوضيح أن استثناء نشر التقارير في سياسة الأفراد الخطرين والمنظمات الخطرة يسمح بالتصريحات الإيجابية. يجب أن توضح الأسئلة المعروفة أهمية حماية التقارير الإخبارية في حالات النزاع أو الأزمات.
- تقييم دقة المراجعين في إنفاذ استثناء نشر التقارير فيما يتعلق بسياسة الأفراد الخطرين والمنظمات الخطرة لتحديد أسباب الأخطاء.
- إجراء مراجعة لنظام تجاوز النتائج الإيجابية الخاطئة عالية التأثير لفحص ما إذا كان بإمكانه ترتيب أولوية الأخطاء المحتملة في إنفاذ استثناء سياسة الأفراد الخطرين والمنظمات الخطرة بشكل أكثر فعّالية.
- زيادة القدرة الاستيعابية المخصصة لمراجعة نظام تجاوز النتائج الإيجابية الخاطئة عالية التأثير على مستوى كل اللغات.
*توفر ملخصات الحالة نظرة عامة على الحالة ولا تُشكّل سابقة قانونية.
القرار الكامل للمجلس بشأن الحالة
1. ملخص القرار
ألغى مجلس الإشراف قرار Meta الأصلي بإزالة منشور على صفحة فيسبوك لصحيفة شهيرة تصدر باللغة الأردية في الهند. كان هذا المنشور عبارة عن تقرير يتناول إعلانًا من عضو بارز ومتحدث باسم نظام طالبان في أفغانستان بشأن تعليم النساء والفتيات في أفغانستان. ألغت Meta قرارها نتيجة لتحديد المجلس هذه الحالة، وألغت العقوبات التي فرضتها على حساب المسؤول. يرى المجلس أن المنشور لم ينتهك معيار المجتمع بشأن الأفراد الخطرين والمنظمات الخطرة لأن السياسة تسمح "بنشر تقارير" عن الكيانات المصنفة. يشعر المجلس بالقلق تجاه تعريف شركة Meta لكلمة "الإشادة" وأنه لا يتضح للمراجعين بالقدر الكافي كيفية إنفاذ استثناءات السياسة على نشر تقارير إخبارية عن أفعال الكيانات المصنفة التي تتولى الحكم في إحدى البلدان. يتداخل ذلك مع قدرة المنافذ الإخبارية على نشر تقارير صحفية عن أفعال وتصريحات الكيانات المصنفة في حالات كالتي بين أيدينا، حيث أقصت طالبان بالقوة حكومة أفغانستان المعترف بها. يرى المجلس أن Meta لم تفي بمسؤولياتها تجاه حقوق الإنسان لمنع الأخطاء أو التخفيف من حدتها عند تنفيذ استثناءات السياسة تلك. يوصي القرار Meta بتغيير سياستها وعمليات الإنفاذ التي فيما يتعلق بمعيار مجتمعها بشأن الأفراد الخطرين والمنظمات الخطرة.
2. وصف الحالة ومعلومات أساسية عنها
في يناير 2022، شاركت صفحة على فيسبوك لمنفذ إخباري هندي منشورًا نصيًا باللغة الأردية يحتوي على رابط إلى مقالة بموقع الويب الخاص بذلك المنفذ. أشارت Meta إلى أن هذا المنشور قد حصل على 300 مشاهدة تقريبًا. ذكر المنشور أن ذبيح الله مجاهد، الذي يشغل منصب "وزير الثقافة والمعلومات" والمتحدث الرسمي المركزي باسم نظام طالبان في أفغانستان، قد أعلن أن المدارس والكليات المخصصة للفتيات والنساء ستفتح أبوابها في بداية العام الأفغاني الجديد في 21 مارس. تضمنت المقالة التي يؤدي إليها الرابط تقريرًا أكبر عن الإعلان.
كان المنفذ الإخباري عبارة عن صحيفة تصدر باللغة الأردية في حيدر أباد بالهند، وهي مدينة يقيم بها الكثير من السكان الناطقين باللغة الأردية. وهي الصحيفة الأردية الأوسع انتشارًا في البلاد ويصل قرائها إلى أكثر من مليون شخص يوميًا. ويتحدث نحو 230 مليون شخص باللغة الأردية حول العالم.
لم تعترف أي دولة بشكل دبلوماسي رسمي بنظام طالبان في أفغانستان منذ استيلاء الجماعة على السلطة في أغسطس 2021. لم تفتح مدارس الفتيات والنساء أبوابها في بداية العام الأفغاني الجديد كما أعلن المتحدث الرسمي باسم نظام طالبان، وظلت الفتيات بعمر 12 عامًا وأكبر (بداية من الصف السادس) والنساء ممنوعة من الذهاب إلى المدارس أثناء إصدار المجلس قراره بشأن هذه الحالة.
في 20 يناير 2022، نقر أحد مستخدمي فيسبوك على "الإبلاغ عن المنشور" لدى قراءة المحتوى لكنه لم يكم شكواه. أدى ذلك إلى تنشيط أداة تصنيف (أداة تعلُّم إلكتروني مدربة لاكتشاف حالات انتهاك معايير مجتمع Meta) قامت بتقييم المحتوى باعتبار أنه يشكل انتهاكًا محتملاً لسياسة الأفراد الخطرين والمنظمات الخطرة وأرسلته إلى المراجعة البشرية. قرر مراجع ناطق باللغة الأردية أن المحتوى قد انتهك سياسة الأفراد الخطرين والمنظمات الخطرة وأزاله في نفس اليوم الذي نُشر فيه. أوضحت Meta أن الإزالة نتجت عن "الإشادة" بمنظمة مصنّفة. وطالبان هي منظمة إرهابية مصنّفة من الطبقة الأولى بموجب سياسة Meta للأفراد الخطرين والمنظمات الخطرة. ونتيجة لهذه المخالفة، طبقت Meta أيضًا إنذارًا شديدًا وإنذارًا قياسيًا ضد مسؤول الصفحة. وبوجه عام، في حين يبدو أن المحتوى المنشور على صفحات فيسبوك مستمد من الصفحة نفسها (على سبيل المثال، المنفذ الإخباري)، فإنه من تأليف مسؤولي الصفحة باستخدام حسابات شخصية على فيسبوك. تُسفر الإنذارات عن فرض Meta لقيود مؤقتة تحد من قدرة المستخدمين على أداء وظائف أساسية على المنصة (مثل مشاركة المحتوى)، فيما يعرف باسم "تقييد الميزات" أو تعطيل الحساب. وتُسفر الإنذارات الشديدة عن عقوبات أقوى. في هذه الحالة، أسفرت الإنذارات عن فرض تقييد للميزات لمدة ثلاثة أيام إلى جانب تقييد إضافي لمدة أطول ضد مسؤول الصفحة. وقد أدى التقييد الأول إلى منع المستخدم من إنشاء محتوى عام جديد وإنشاء غرف على Messenger أو الانضمام إليها. بينما أدى التقييد الثاني إلى منع المستخدم من إجراء بث مباشر على فيسبوك، واستخدام منتجات الإعلانات، وإنشاء غرف Messenger أو الانضمام إليها. علاوة على ذلك، تلقت صفحة المنفذ الإخباري ذاتها إنذارًا قياسيًا وإنذارًا شديدًا.
في 21 يناير، تقدم مسؤول صفحة المنفذ الإخباري ("المستخدم") بطعن على إزالة المحتوى على Meta. تولى مراجع آخر ناطق باللغة الأردية مراجعة المحتوى والذي قرر بدوره أن المحتوى قد انتهك معيار المجتمع بشأن الأفراد الخطرين والمنظمات الخطرة. وعلى الرغم من أن المحتوى قد وضع في قائمة انتظار لاكتشاف وإلغاء أخطاء "النتائج الإيجابية الخاطئة" (المحتوى الذي تم اتخاذ إجراء ضده بالخطأ لانتهاك معايير المجتمع)، والتي تعرف باسم نظام تجاوز النتائج الإيجابية الخاطئة عالية التأثير، لم يحصل على مراجعة إضافية. وفقًا لشركة Meta، نتج ذلك عن عدد مراجعي نظام تجاوز النتائج الإيجابية الخاطئة عالية التأثير باللغة الأردية في منتصف 2022 ولأن المحتوى في هذه الحالة، بعد إزالته، لم يحصل على درجة أولوية مرتفعة بواسطة أنظمة Meta التلقائية مثل باقي عناصر المحتوى في قائمة انتظار نظام تجاوز النتائج الإيجابية الخاطئة عالية التأثير في ذلك الحين.
نتيجة لتحديد المجلس طعن المستخدم لمراجعته، قررت Meta أن قرارها الأصلي بإزالة المحتوى كان خاطئًا لأن معيار مجتمعها يسمح "بنشر تقارير" عن المنظمات المصنّفة والأفراد المصنّفين. في 25 فبراير 2022، استعادت Meta المحتوى. أزالت Meta أيضًا تقييد الميزات طويل الأجل وألغت الإنذارات التي فرضتها على حساب المسؤول وعلى الصفحة.
3. سُلطة ونطاق مجلس الإشراف
يتمتع المجلس بسلطة مراجعة قرار شركة Meta بعد تلقي طعن من المستخدم الذي تعرض المحتوى الخاص به إلى الإزالة (المادة 2، القسم 1 من اتفاقية المجلس؛ المادة 3، القسم 1 من اللائحة الداخلية). يجوز للمجلس تأييد قرار شركة Meta أو إلغائه (المادة 3، القسم 5 من اتفاقية المجلس)، ويكون قراره بهذا الشأن ملزمًا للشركة (المادة 4 من اتفاقية المجلس). يجب على شركة Meta أيضًا تقييم جدوى تطبيق قرارها على أي محتوى مماثل له سياق موازٍ (المادة 4 من اتفاقية المجلس). وقد تتضمن قرارات المجلس بيانات استشارية بشأن السياسية تضم توصيات غير ملزمة يجب على شركة Meta الرد عليها (اتفاقية المجلس، المادة 3، القسم 4؛ المادة 4).
4. مصادر السُلطة
أخذ مجلس الإشراف السلطات والمعايير التالية في الاعتبار:
1. قرارات مجلس الإشراف:
تتضمن أكثر قرارات مجلس الإشراف السابقة ارتباطًا بهذه الحالة ما يلي:
- "مشاركة منشور الجزيرة " (القرار الصادر بشأن الحالة 2021-009-FB-UA): أوصى المجلس شركة Meta بتوفير معايير وأمثلة علنية في معيار مجتمعها بشأن الأفراد الخطرين والمنظمات الخطرة للاستثناءات التالية للسياسة: "المناقشة الحيادية" و"نشر التقارير" و"الإدانة".
- "عزلة أوجلان" (القرار الصادر بشأن الحالة 2021-006-IG-UA): أوصى المجلس Meta بأن توضح في معايير مجتمعها المعلنة للعامة بشأن الأفراد الخطرين والمنظمات الخطرة كيف يمكن للمستخدمين توضيح نواياهم عند النشر. وكرر المجلس توصياته بأن تكشف Meta إما عن القائمة الكاملة للأفراد والمنظمات المصنّفة أو أن تكشف عن قائمة توضيحية. دعا المجلس أيضًا إلى تعزيز مستوى الشفافية فيما يتعلق بإعلان معدلات أخطاء إنفاذ حظر الإشادة بالأفراد والمنظمات المصنّفة ودعمها، مقسمة حسب المنطقة واللغة.
- "مخاوف البنجابيين تجاه منظمة راشتريا سوايامسيفاك سانغ (RSS) في الهند" (القرار الصادر بشأن الحالة 2021-003-FB-UA): أوصى المجلس Meta بضرورة إتاحة معايير مجتمعها بكل اللغات التي يتحدث بها مستخدموها على نطاق واسع. وقد عبر المجلس أيضًا عن مخاوفه تجاه انتشار قواعد Meta بشأن هذه القيود على مستوى العديد من المواقع وعدم وجودها بالكامل في معايير المجتمع، كما هو متوقع.
- "الاقتباس النازي" (القرار الصادر بشأن الحالة 2020-005-FB-UA): أوصى المجلس Meta بتوفير أمثلة "للإشادة" و"الدعم" و"التمثيل" في معيار المجتمع بشأن الأفراد الخطرين والمنظمات الخطرة.
2. سياسات المحتوى لدى Meta:
تنص معايير المجتمع بشأن الأفراد الخطرين والمنظمات الخطرة على أن فيسبوك "لا تسمح لمنظمات أو أفراد يتبنون مهمات تنطوي على أعمال عنف أو يشاركون في أعمال عنف بالتواجد على فيسبوك".
تقسِّم Meta تصنيفها للكيانات "الخطرة" إلى ثلاث طبقات موضحة أنها "تشير إلى مستوى إنفاذ المحتوى، إذ يقابل الطبقة الأولى مستوى الإنفاذ الأكثر شمولاً لأن Meta تقول إن لهذه الكيانات الارتباط الأكثر مباشرةً مع الضرر على أرض الواقع." تركز تصنيفات الطبقة الأولى على "الكيانات التي تشارك في أضرار جسيمة على أرض الواقع،" بما في ذلك "المنظمات الإرهابية والإجرامية والداعية إلى الكراهية." وتزيل Meta "الإشادة" و"الدعم الموضوعي" و"التمثيل" للكيانات التي تندرج تحت الطبقة الأولى، وكذلك قادتها أو مؤسسيها أو أعضائها البارزين. تصنّف Meta طالبان ككيان من الطبقة الأولى.
تعِّرف معايير المجتمع "الإشادة" بأنها أي مما يلي: "التحدث بشكل إيجابي عن كيان مصنّف أو حدث مصنّف" أو "منح كيان مصنّف أو حدث مصنف إحساسًا بالإنجاز" أو "إضفاء الشرعية على القضية التي يتبناها كيان مصنّف من خلال تقديم مزاعم بأن سلوكه البغيض أو العنيف أو الإجرامي مبرر أو مقبول بشكل قانوني أو أخلاقي أو بأي شكل آخر" أو "التوافق أيديولوجيًا مع كيان مصنّف أو حدث مصنّف."
تدرك Meta أنه "يجوز للمستخدمين مشاركة محتوى يتضمن إشارات إلى منظمات خطرة وأفراد خطرين مصنفين لنشر تقارير عنهم أو عن أنشطتهم أو إدانتهم أو مناقشتهم بشكل محايد." تقول Meta إن سياساتها مصممة بحيث "توفر مساحة لهذه الأنواع من المناقشات وتقيد في الوقت ذاته من مخاطر حدوث أضرار محتملة على أرض الواقع." مع هذا، تطلب Meta من "الأشخاص الإشارة بوضوح إلى نواياهم عند إنشاء أو مشاركة مثل هذا المحتوى. وإذا كانت نية المستخدم مبهمة أو غير واضحة، فإننا نزيل المحتوى بشكل افتراضي."
3. قيم شركة Meta:
جرى وصف قيمة "حرية الرأي" بأنها "ذات أهمية قصوى":
يتمثل هدف معايير مجتمعنا في توفير مكان لحرية التعبير يستطيع الأشخاص من خلاله إبداء وجهات نظرهم. تريد Meta أن يتمتع الأشخاص بالقدرة على التحدث بحرية عن القضايا التي تهمهم، حتى في حالة عدم اتفاق الآخرين أو اعتراضهم على الأفكار المطروحة.
تقيد فيسبوك "حرية الرأي" لصالح أربع قيم. وتعتبر "السلامة" هي القيمة الأكثر صلة بهذه الحالة:
نحن ملتزمون بجعل فيسبوك مكانًا آمنًا. ونعمل على إزالة المحتوى الذي قد يسهم في مخاطر إلحاق ضرر بالأمان البدني للأشخاص. إن المحتوى الذي يحمل تهديدًا للأشخاص قد يتسبب في إخافة الآخرين أو إقصائهم أو إسكاتهم ونحن لا نسمح بذلك على فيسبوك.
4. المعايير الدولية لحقوق الإنسان:
تُرسي مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان (UNGP)، التي أقرها مجلس حقوق الإنسان التابع للأمم المتحدة عام 2011، إطار عمل تطوعي لمسؤوليات الأنشطة التجارية الخاصة فيما يتعلق بحقوق الإنسان. في عام 2021، أعلنت شركة Meta عن سياسة حقوق الإنسان الخاصة بالشركة، والتي أعادت التأكيد من خلالها على الالتزام باحترام حقوق الإنسان على نحو يتفق مع مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان. وقد استند تحليل المجلس لمسؤوليات شركة Meta تجاه حقوق الإنسان في هذه الحالة إلى معايير حقوق الإنسان التالية:
- الحق في حرية الرأي والتعبير: المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية (ICCPR)؛ لجنة حقوق الإنسان، التعليق العام رقم 34 (2011)؛ مجلس حقوق الإنسان، القرار المعني بسلامة الصحفيين، A/HRC/RES/45/18، 2020؛ إعلان بريسبان الصادر عن اليونيسكو بشأن حرية المعلومات: الحق في المعرفة؛ مقرر الأمم المتحدة الخاص المعني بحرية الرأي والتعبير، A/74/486، 2019.
- الحق في التعليم: المادة 13، العهد الدولي الخاص بالحقوق الاقتصادية والاجتماعية والثقافية؛ المادة 10، اتفاقية القضاء على جميع أشكال التمييز ضد المرأة؛ المادتان 28 و29 بشأن اتفاقية حقوق الطفل؛اتفاقية اليونيسكو لمكافحة التمييز في مجال التعليم، 1960.
- الحق في عدم التعرض للتمييز: المادتان 2 و26 من العهد الدولي الخاص بالحقوق المدنية والسياسية.
- الحق في الحياة: المادة 6 من العهد الدولي الخاص بالحقوق المدنية والسياسية؛ لجنة حقوق الإنسان، التعليق العام رقم 36، 2018.
- الحق في الأمن الشخصي: المادة 9 من العهد الدولي الخاص بالحقوق المدنية والسياسية؛ حسب تفسيرها في التعليق العام رقم 35، الفقرة رقم 9، لجنة حقوق الإنسان 2014.
5. المعلومات المقدَّمة من المستخدمين
أشار المستخدم في بيانه إلى المجلس بأنه يمثل مؤسسة إعلامية ولا يدعم التطرف. وأفاد المستخدم إن مقالات المؤسسة الإعلامية تستند إلى مصادر إعلامية وطنية ودولية وأنه تمت مشاركة هذا المحتوى بهدف توفير معلومات تتعلق بتعليم النساء والفتيات في أفغانستان. وقال المستخدم أيضًا إنه يحرص دائمًا أن يخدم المحتوى الذي يشاركه الصالح العام وأنه مقبول بموجب معايير مجتمع Meta.
6. المعلومات المقدَّمة من Meta
لدى إعادة النظر في قرارها الأصلي، قررت Meta أنه لم يكن يفترض إزالة المحتوى في هذه الحالة بسبب الإشادة بمنظمة مصنّفة بموجب سياسة الأفراد الخطرين والمنظمات الخطرة. أوضحت Meta أن السياق الإخباري الضمني يعني أن من المفترض أن يستفيد المحتوى من استثناء السياسة الذي يتيح للمستخدمين نشر تقارير عن الكيانات المصنّفة.
أوضحت Meta أن المنشور والمقالة التي يؤدي إليها يتضمنان تقارير عن تواريخ وتفاصيل إعادة فتح المدارس، وهي مسألة تحظى باهتمام عام. وفقًا لشركة Meta، تسمح سياسة الأفراد الخطرين والمنظمات الخطرة بالتقارير الإخبارية التي تذكر الكيانات المصنّفة. للاستفادة من الاستثناءات التي تكفلها سياسة الأفراد الخطرين والمنظمات الخطرة، أوضحت Meta "أننا نطلب من الأشخاص الإشارة بوضوح إلى نواياهم. وإذا كانت نية المستخدم مبهمة أو غير واضحة، فإننا نزيل المحتوى بشكل افتراضي." أوضحت Meta أيضًا أنها تفضل ألا يستنتج مراجعوها النية لأن ذلك "يساعد على الحد من الذاتية والتحيز والإنفاذ غير المنصف عند مراجعة المحتوى مع الاحتفاظ بالقدرة على توسيع نطاق سياساتنا."
أخبرت Meta المجلس أنها لم تتمكن من توضيح سبب قيام اثنين من المراجعين بإزالة المحتوى عن طريق الخطأ وعدم تطبيق استثناء نشر التقارير بشكل صحيح. وأشارت الشركة إلى أن المشرفين غير مطالبين بتوثيق أسباب قراراتهم ويكتفون بتصنيف المحتوى كجزء من المراجعة التي يجرونها - في هذه الحالة، تم تصنيف المحتوى كمخالفة لسياسة Meta بشأن الأفراد الخطرين والمنظمات الخطرة بسبب الإشادة بتلك الكيانات.
ردًا على استفسار المجلس بشأن ما إذا كان بالإمكان نشر الإشادة بالمنظمات الخطرة كجزء من التقارير الإخبارية، أفادت Meta بأن سياستها "تسمح بنشر التقارير الإخبارية حيث يجوز لشخص أو مجموعة أشخاص الإشادة بشخص أو منظمة خطرة مصنّفة."
ردًا على سؤال المجلس بشأن الفرق بين الإنذارات القياسية والشديدة، أوضحت Meta أن نظام الإنذارات يحتوي على مسارين لإنفاذ معايير المجتمع: مسار ينطبق على كل أنواع الانتهاكات (القياسي)، والآخر ينطبق على الانتهاكات الأشد خطورة (الشديد). أشارت Meta إلى أنه يتم التعامل مع كافة انتهاكات سياسة الأفراد الخطرين والمنظمات الخطرة كانتهاكات شديدة. وأوضحت الشركة للمجلس أن الإنذارات الشديدة هي تلك التي تُسفر عن عقوبات أقوى ضد الأضرار الأكثر خطورة، وتقييد الوصول إلى الخدمات عالية الخطورة مثل فيديو البث المباشر عبر خدمة Facebook Live والإعلانات. أشارت Meta أيضًا إلى صفحة في مركز الشفافية تتناول "تقييد الحسابات" (تم تحديثها بتاريخ 11 فبراير 2022) والتي تقول الشركة إنها توضح نهجها في التعامل مع الإنذارات.
ردًا على أسئلة المجلس، وفرت Meta توضيحًا إضافيًا بشأن النظام الذي تتبعه لتصحيح أخطاء الإنفاذ وكيفية تأثير ذلك في هذه الحالة، مما أدى إلى طرح المجلس عدة أسئلة إضافية. تم اكتشاف المحتوى في هذه الحالة تلقائيًا وإرساله إلى قناة تجاوز النتائج الإيجابية الخاطئة عالية التأثير (تعرف لدى Meta باسم HIPO). وهو عبارة عن نظام مصمم لتصحيح أخطاء النتائج الإيجابية الخاطئة المحتملة بعد اتخاذ إجراء ضد المحتوى. وأوضحت Meta للمجلس أن هذا النظام يقابل نظام Meta للمراجعة الثانوية العامة (جزء من برنامج التحقق الشامل)، والذي تم تصميمه بهدف منع أخطاء النتائج الإيجابية الخاطئة قبل اتخاذ إجراء ضد المحتوى. ينضم المحتوى الذي يتم إرساله إلى نظام تجاوز النتائج الإيجابية الخاطئة عالية التأثير لقائمة انتظار للخضوع إلى مراجعة إضافية، لكن المراجعة لن تتم إلا إذا توافرت القدرة على القيام بذلك. ويعتمد موضع المحتوى في قائمة الانتظار على درجة الأولوية التي يتم تعيينها للمحتوى تلقائيًا. وقد أوضحت Meta أن المحتوى يحظى بالأولوية للمراجعة ضمن نظام تجاوز النتائج الإيجابية الخاطئة عالية التأثير استنادًا إلى عوامل من بينها: حساسية الموضوع (إذا كان الموضوع رائجًا أو حساسًا)؛ واحتمالية النتائج الإيجابية الخاطئة؛ والوصول المتوقع (العدد التقديري للمشاهدات التي قد يحصل عليها المحتوى)؛ وحساسية الكيان (هوية المجموعة أو المستخدم الذي يشارك المحتوى). أوضحت Meta أن بالإمكان إعادة المحتوى بطريقتين: إما بمراجعة عنصر المحتوى المعني بواسطة مشرفين واكتشاف أنه غير مخالف؛ أو من خلال اكتشاف أنظمة Meta التلقائية أن المحتوى يطابق محتوى آخر تمت مراجعته وتقرر أنه غير مخالف.
خضعت صفحة المنفذ الإخباري من قبل للتحقق الشامل، ولكن ضمن سياق تحديث واسع أجرته المنصة على نظام التحقق الشامل، ولم تخضع الصفحة للتحقق الشامل عند مراجعة المحتوى في هذه الحالة، ولم يؤثر التحقق الشامل في مراجعة المحتوى الخاص بهذه الحالة. وفقًا لشركة Meta، يتضمن التحقق الشامل حاليًا نظامين: المراجعة الثانوية العامة التي تنطبق على كل المحتوى العادي على فيسبوك وInstagram؛ والمراجعة الثانوية للاستجابة المبكرة التي تنطبق على كل المحتوى المنشور بواسطة كيانات محددة، بما في ذلك بعض المنافذ الإخبارية. وقد ذكرت Meta أنه عند اكتشاف مخالفة المحتوى الذي تنشره هذه الكيانات لإحدى سياسات المحتوى، يتم إخضاعه لمراجعة إضافية بدلاً من تطبيق إجراءات الإنفاذ ضده. يتم إرسال هذا المحتوى إلى فريق الأسواق أولاً. إذا قرر أحد مراجعي هذا الفريق أن المحتوى غير مخالف، تنتهي العملية، ويظل المحتوى على المنصة. ولكن إذا قرر المراجع أن المحتوى مخالف، يتم تصعيده إلى فريق آخر. يتألف هذا الفريق، وهو فريق الاستجابة المبكرة، من مراجعي محتوى متخصصين لدى Meta. يحتاج المراجع في هذا الفريق إلى اكتشاف أن المحتوى مخالف قبل أن تتم إزالته.
حين تم تحديد أن المحتوى في هذه الحالة مخالف، لم تكن صفحة المنفذ الإخباري على قائمة المراجعة الثانوية للاستجابة المبكرة في نظام التحقق الشامل الحالي. علاوة على ذلك، لم تتم مراجعة محتوى الحالة المعنية كجزء من نظام المراجعة الثانوية العامة، والذي يتضمن أيضًا مراجعة إضافية قبل الإنفاذ. وفقًا لشركة Meta، تم إرسال المحتوى إلى قناة تجاوز النتائج الإيجابية الخاطئة عالية التأثير بعد إزالته، لكنه لم يكن ضمن أولوية المراجعة البشرية. لم يخضع المحتوى لمراجعة بشرية إضافية "بسبب السعة الاستيعابية المخصصة للسوق" ولأن المحتوى في هذه الحالة لم يحصل على درجة أولوية مرتفعة بواسطة أنظمة Meta التلقائية كباقي عناصر المحتوى في قائمة انتظار نظام تجاوز النتائج الإيجابية الخاطئة عالية التأثير في ذلك الوقت. تتم مراجعة المحتوى الذي يحصل على الأولوية بواسطة نظام تجاوز النتائج الإيجابية الخاطئة عالية التأثير فقط بواسطة مراجعين خارجيين بعد اتخاذ إجراء الإنفاذ. وتخصص Meta المراجعين الناطقين باللغة الأردية للأعمال المختلفة حسب الحاجة. تتم مشاركة هؤلاء المراجعين عبر عدة أنواع مختلفة من المراجعة، مما يعني أنهم غير متفرغين بشكل حصري لنوع معين من الأعمال. في منتصف 2022، كان نظام تجاوز النتائج الإيجابية الخاطئة عالية التأثير لدى شركة Meta يتضمن أقل من 50 مراجعًا ناطقًا باللغة الأردية استنادًا إلى الاحتياج في ذلك الوقت.
طرح المجلس 34 سؤالاً على شركة Meta. أجابت Meta عن 30 سؤالاً إجابة كاملة، وأجابت جزئيًا عن ثلاثة أسئلة ورفضت الإجابة عن سؤال واحد. كانت الإجابات الجزئية عن أسئلة تتعلق بما يلي: توفير نسبة مئوية لعمليات الإزالة التي تمت بموجب سياسة الأفراد الخطرين والمنظمات الخطرة وتمت استعادة المحتوى فيها بموجب طعن أو مراجعة ثانية؛ ومعدلات دقة إنفاذ حظر الإشادة والدعم عند المراجعة على نطاق واسع؛ وكيفية تحديد Meta لنية الناشر من أجل تطبيق استثناء نشر التقارير والعوامل السياقية ذات الصلة. لم تجب Meta عن أحد الأسئلة المتعلقة بتقديم بيانات عن عدد عناصر المحتوى التي تمت إزالتها بموجب سياسة الأفراد الخطرين والمنظمات الخطرة من خلال الوسائل التلقائية مقارنة بالمراجعة البشرية بحجة أنها لا تستطيع التحقق مما إذا كانت البيانات المطلوبة متوفرة في حينه.
7. التعليقات العامة
تلقى مجلس الإشراف ونظر في ستة تعليقات عامة ذات صلة بهذه الحالة. تم تقديم تعليق واحد من منطقة آسيا والمحيط الهادئ والأوقيانوس، وأربعة تعليقات من أوروبا، وتعليق واحد من الولايات المتحدة وكندا.
تناولت التعليقات المقدمة أهمية الوصول إلى وسائل التواصل الاجتماعي بالنسبة إلى الأشخاص الذين يعيشون في أفغانستان أو بالقرب منها، والمخاوف بشأن التقييدات المفروضة على مناقشة المجموعات المصنّفة، والمصلحة العامة المترتبة على السماح بمجموعة أوسع من التقارير الإعلامية التي تتناول أفعال حركة طالبان. ناقشت العديد من التعليقات العامة أن اعتماد سياسة Meta بشأن الأفراد الخطرين والمنظمات الخطرة على مصطلحات الإشادة والدعم المبهمة قد يقمع المناقشات السياسية الناقدة ويؤثر بشكل غير متناسب في مجتمعات الأقليات ودول الجنوب العالمي. انتقدت التعليقات العامة أيضًا شركة Meta لاستخدام القانون الأمريكي "كذريعة" لحظر "الإشادة" بالجماعات المصنّفة، بدلاً من التحلي بالشفافية من خلال الإقرار بأن خيار سياسة Meta يحظر حرية التعبير بشكل أكبر مما يتطلبه القانون الأمريكي.
لقراءة التعليقات العامة المقدمة في هذه الحالة، يرجى النقر هنا.
8. تحليل مجلس الإشراف
تحظى هذه الحالة بالأهمية لأنها تُظهر أن انعدام الوضوح في تعريف الإشادة قد يؤدي إلى خلق إحساس من عدم اليقين لدى المراجعين والمستخدمين. كما أنها تنظر في القضايا المهمة للإشراف على المحتوى كما تنطبق على التمييز بين الجنسين والنزاع. تتسم هذه الحالة بالصعوبة لوجود اهتمام بضمان عدم استخدام الجماعات الإرهابية أو داعميها للمنصات في جهود الدعاية والتجنيد. مع هذا، فإن هذه الأهمية، عند تطبيقها أيضًا على نطاق واسع قد تؤدي إلى حجب أي محتوى يقدم تقارير عن تلك الجماعات. نظر المجلس في مسألة ما إذا كان ينبغي استعادة هذا المحتوى، والآثار الأوسع لنهج Meta في الإشراف على المحتوى، من خلال ثلاث رؤى: سياسات المحتوى لدى شركة Meta، وقيَمها، ومسؤولياتها تجاه حقوق الإنسان.
8.1 الامتثال لسياسات المحتوى لدى شركة Meta
1. قواعد المحتوى
يرى المجلس أن المحتوى يندرج ضمن الاستثناء الذي ينص على أنه "يجوز للمستخدمين مشاركة محتوى يتضمن إشارات إلى منظمات خطرة مصنّفة (...) لنشر تقارير عنها (...) أو عن أنشطتها" وبالتالي فهو غير مخالف. والمحتوى غير مخالف برغم التعريف العام للإشادة الوارد في معايير المجتمع المعلنة للعامة، حتى مع إمكانية فهم المحتوى كما لو كان يتحدث بإيجابية عن أحد أفعال كيان مصنّف، ألا وهو نظام طالبان، وأنه قد يمنح هذا النظام "شعورًا بالإنجاز." ويلاحظ المجلس أن توجيهات الأسئلة المعروفة المتوفرة للمشرفين بشأن تفسير الإشادة تتسم بمزيد من العمومية. فهي توجه المراجعين إلى إزالة المحتوى بسبب الإشادة إذا كان "يدفع الأشخاص إلى التفكير بشكل أكثر إيجابية بشأن" جماعة مصنّفة، مما يجعل معنى "الإشادة" يتعلق بشكل أقل بنية المتحدث وليس التأثير على الجمهور. وقد يؤدي نشر تقارير عن نوايا مزعومة لكيان مصنّف بشأن السماح بوصول النساء والفتيات إلى التعليم، حتى وإن كانت هذه المزاعم محل شك، إلى دفع الأشخاص إلى التفكير بشكل أكثر إيجابية في هذه الجماعة. وفي ضوء الإرشادات المقدمة، يتفهم المجلس أسباب تفسير اثنين من المراجعين (عن طريق الخطأ) لهذا المحتوى كإشادة بجماعة مصنّفة.
يقبل المجلس أن Meta تستهدف أن يفسح معيار مجتمعها بشأن الأفراد الخطرين والمنظمات الخطرة المجال أمام نشر تقارير عن الكيانات التي صنّفتها Meta ككيانات خطرة، حتى إذا كانت هذه التقارير تستوفي تعريف الشركة للإشادة. مع هذا، لا يعتقد المجلس أن صياغة معيار المجتمع أو الأسئلة المعروفة تجعل هذا التعريف واضحًا. في واقع الأمر، دون تحديد، يظل تعريف "الإشادة" عامًا أكثر من اللازم. لا توفر معايير المجتمع أي أمثلة عن التقارير المقبولة. وليس هناك أيضًا توجيهات داخلية للمشرفين بشأن كيفية تفسير هذا الاستثناء.
2. إجراء الإنفاذ
يلاحظ المجلس أن إجراء الإنفاذ في هذه الحالة قد حدث بعد أن بدأ أحد المستخدمين الإبلاغ عن المحتوى لكنه لم يكمل البلاغ. وقد تم تنشيط أحد الأنظمة التلقائية بمجرد بدء هذه العملية، حتى وإن لم يكمل المستخدم بلاغه، وبالتالي لم يوضع المحتوى في قائمة الانتظار ليخضع للمراجعة البشرية. لم يتم إبلاغ المستخدم الذي قدم البلاغ بأن فعله قد يسفر عن عواقب حتى وإن قرر عدم إكمال البلاغ، حيث كان يتم إخطار المستخدم بعواقب بلاغه عندما يقوم بإرساله. تقول Meta في ردها إن "البلاغ التلقائي لا يرتبط بالمستخدم [المبلغ]" لكن المجلس يرى أن ذلك جدير بالملاحظة حيث بدأت العملية بأكملها في هذه الحالة عند قيام أحد المستخدمين بالشروع في تقديم بلاغ. يشعر المجلس أيضًا بالقلق من أن زر الإبلاغ لا يوفر للمستخدمين معلومات كافية عن تبعات النقر عليه.
لم يكن ينبغي فرض إجراءات الإنفاذ المتخذة في هذه الحالة (إزالة المحتوى والإنذارات وتقييد الميزات) لعدم وجود انتهاكات ضمنية لمعايير المجتمع. ويشعر المجلس بالقلق من أن أنظمة Meta لمنع أخطاء الإنفاذ من هذا النوع لم تكن فعّالة، لا سيّما في ضوء العقوبات الشديدة المفروضة.
يرى المجلس في هذه الحالة أن صفحة المنفذ الإخباري قد خضعت من قبل للتحقق الشامل، ولكن ضمن سياق تحديث واسع أجرته المنصة على نظام التحقق الشامل، ولم تخضع الصفحة للتحقق الشامل عند مراجعة المحتوى في هذه الحالة، ولم يؤثر التحقق الشامل في مراجعة المحتوى الخاص بهذه الحالة. في نظام التحقق الشامل الذي تتبعه Meta حاليًا، يتم توفير مراجعة بشرية ثانية مؤكدة للمستخدمين المدرجين في قائمة المراجعة الثانوية للاستجابة السريعة. وعلى الرغم من عدم إدراج صفحات بعض المنافذ الإخبارية على فيسبوك في هذه القائمة، لم تكن صفحة المنفذ الإخباري هذا من بينها. ويضمن التواجد على قائمة المراجعة الثانوية للاستجابة السريعة قيام موظفي Meta دونًا عن المراجعين على نطاق واسع، بمراجعة المحتوى قبل إزالته. ويرى المجلس أن إزالة المحتوى لم تكن محتملة لو كانت الصفحة مدرجة في قائمة المراجعة الثانوية للاستجابة المبكرة في ذلك الوقت.
يثني المجلس على Meta لاستحداث نظام تجاوز النتائج الإيجابية الخاطئة عالية التأثير لكنه يشعر بالقلق بشأن عدم تسببه في إجراء مراجعة ثانية للمنشور الذي كان يتمثل لمعايير مجتمع Meta. لم يخضع المحتوى في هذه الحالة لمراجعة بشرية إضافية "بسبب السعة الاستيعابية المخصصة للسوق" لأنه لم يحصل على درجة أولوية مرتفعة بواسطة أنظمة Meta التلقائية كباقي عناصر المحتوى في قائمة انتظار نظام تجاوز النتائج الإيجابية الخاطئة عالية التأثير في ذلك الوقت. نظرًا لطبيعة المصلحة العامة المترتبة على نشر التقارير في هذه الحالة، وهوية الصفحة كمنفذ إخباري ينشر المحتوى، كان من المفترض أن يحصل على درجة أولوية كافية تخوله من الخضوع لمراجعة ثانية. وكما أوضحت Meta، يأخذ عامل "حساسية الكيان" في الحسبان هوية الكيان الناشر في الاعتبار وقد يؤدي ذلك إلى تصنيف أعلى للمحتوى الوارد من المنافذ الإخبارية، لا سيّما تلك التي تقدم تقارير عن الأحداث العالمية المهمة. ولنفس الأسباب، يشعر المجلس بالقلق تجاه وجود أقل من 50 مراجع في قائمة انتظار اللغة الأردية في منتصف 2022. ينظر المجلس في حجم السوق الهندي، وعدد الجماعات التي صنّفتها Meta كجماعات خطرة في هذه المنطقة، ومن ثم الأهمية الكبيرة للأصوات المستقلة، ومما يستتبعه ذلك من ضرورة ضخ الشركة لمزيد من الاستثمارات في تصحيح الأخطاء (بل ومنع) حدوثها في هذه القضايا المهمة.
8.2 الامتثال لقيم شركة Meta
قد يهدد المحتوى الذي يتضمن إشادة بجماعات خطرة قيمة "السلامة" لمستخدمي Meta والآخرين لارتباطه بالعنف على أرض الواقع واحتمال "إخافة الآخرين أو إقصائهم أو إسكاتهم." مع هذا، لا توجد قضايا مهمة بشأن السلامة في هذه الحالة لأن المحتوى يقتصر على نشر تقارير عن إعلان لإحدى المنظمات المصنّفة. تحظى قيمة "حرية الرأي" بأهمية خاصة فيما يتعلق بالمنافذ الإعلامية لأنها توفر لجماهيرها معلومات ضرورية وتلعب دورًا حيويًا في مساءلة الحكومات. لم تسهم إزالة المحتوى في هذه الحالة بشكل مادي في تعزيز قيمة "السلامة" ولم يكن تقييد "حرية الرأي" ضروريًا.
8.3 الامتثال لمسؤوليات شركة Meta تجاه حقوق الإنسان
يرى المجلس أن إزالة المحتوى من المنصة لا تتسق مع مسؤوليات Meta تجاه حقوق الإنسان، وأن على Meta توظيف أنظمة أكثر فعّالية لمنع حدوث هذه الأخطاء وتصحيحها. ويحظى التزام Meta بمسؤولياتها تجاه حقوق الإنسان بأهمية خاصة في سياق الأزمات أو النزاعات. وفي أعقاب الاستيلاء بالقوة على الحكم من قبل جماعة تشتهر بانتهاكات حقوق الإنسان ونتيجة لأهمية إخبار العامة بأفعال هذه الجماعة المصنّفة، يجب أن تكون الشركة أكثر حذرًا فيما يتعلق بحماية التقارير الإخبارية بشأن هذه الجماعة.
حرية التعبير (المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية)
توفر المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية حماية للحق في حرية التعبير وتتضمن حق جميع الأفراد في تداول المعلومات وتلقيها. يولي القانون الدولي لحقوق الإنسان أهمية خاصة لدور الصحافة في توفير معلومات تحظى باهتمام العامة. وقد ذكرت لجنة حقوق الإنسان التابعة للأمم المتحدة أن "لا غنى لأي مجتمع عن الصحافة أو غيرها من وسائط الإعلام التي تكون حرة وغير خاضعة للرقابة وتعمل بدون عراقيل وذلك لضمان حرية الرأي وحرية التعبير والتمتع بالحقوق الأخرى المنصوص عليها في العهد" (التعليق العام رقم 34، في الفقرة 13). لقد كانت منصات التواصل الاجتماعي مثل فيسبوك وسيلة لنقل التقارير الصحفية حول العالم، وقد أقرت Meta بمسؤولياتها تجاه الصحفيين والمدافعين عن حقوق الإنسان في سياسة حقوق الإنسان الخاصة بالشركة.
يتضمن الحق في حرية التعبير قدرة مستخدمي Meta على الوصول إلى معلومات عن الأحداث التي تحظى باهتمام عام في أفغانستان، لا سيّما عند قيام جماعة مصنّفة بإقصاء الحكومة المعترف بها بالقوة. من الضروري أن يتمتع المستخدمون، بما في ذلك المعلقون على الشأن الأفغاني داخل وخارج البلاد، والعامة من الوصول إلى تقارير في الوقت الفعلي عن الوضع هناك. ويؤدي نهج طالبان في التعامل مع حرية الإعلام في البلاد إلى جعل دور التقارير الدولية أكثر أهمية. وتتسم المعلومات في هذه الحالة بأنها ضرورية للأشخاص المهتمين بحق الفتيات والنساء المتكافئ في الوصول إلى التعليم. وقد ظل الوضع كذلك عندما أخفقت طالبان في الوفاء بهذه التعهدات.
تنص المادة 19، الفقرة 3 من العهد الدولي الخاص بالحقوق المدنية والسياسية، كما فسرتها لجنة حقوق الإنسان في التعليق العام رقم 34، على أنه عند فرض الدولة لقيود على حرية التعبير، يجب أن تفي تلك القيود بمتطلبات الشرعية والهدف المشروع والضرورة والتناسب. يطبق المجلس هذه المعايير الدولية لتقييم مدى امتثال Meta لمسؤولياتها تجاه حقوق الإنسان.
1. الشرعية (وضوح القواعد وسهولة الوصول إليها)
يقتضي مبدأ الشرعية أن تكون القوانين التي تستخدمها البلدان لتقييد حرية التعبير واضحة ويسهل الوصول إليها، حتى يفهم الأشخاص الأمور المسموح بها وغير المسموح بها. علاوة على ذلك، يقتضي المبدأ أن تكون القوانين التي تقيد حرية التعبير محددة، لضمان عدم منح الأشخاص المسؤولين عن تنفيذها سلطة تقديرية مطلقة (التعليق العام رقم 34، الفقرة 25). وقد حذرت لجنة حقوق الإنسان وأكدت أنه ينبغي وضع تعريفات واضحة لجرائم مثل "الإشادة بالإرهاب" أو "تمجيده" أو "تبريره" لضمان ألا تؤدي إلى تداخل غير ضروري أو غير متناسب مع حرية التعبير. ويجب أيضًا تفادي فرض قيود مفرطة على سبل الحصول على المعلومات" (التعليق العام رقم 34، في الفقرة 46؛ راجع أيضًا: مقرر الأمم المتحدة الخاص المعني بمكافحة الإرهاب وحقوق الإنسان في الفقرتين 36 و37 (التقرير A/HRC/40/52)).
متابعة لنهجه في التعامل مع الحالات السابقة، يطبق المجلس هذه المبادئ على قواعد Meta بشأن المحتوى. في حين يرحب المجلس باحتواء سياسات Meta بشأن الأفراد الخطرين والمنظمات الخطرة على مزيد من التفاصيل الآن مقارنة بتوقيت إصدار المجلس لأولى توصياته بهذا الشأن، لا تزال هناك بعض المخاوف المهمة.
بالنسبة إلى المستخدمين الذين يقدمون تقارير عن طالبان، لا يزال من غير الواضح ما إذا كانت طالبان لا تزال كيانًا خطرًا مصنّفًا أم لا بعد أن قامت بإقصاء الحكومة الأفغانية المعترف بها بالقوة. وقد سبق وأن أوصى المجلس شركة Meta إما بالكشف عن القائمة الكاملة للكيانات المصنّفة أو الكشف عن قائمة توضيحية، لتوضيح الأمر للمستخدمين (حالة "الاقتباس النازي" وحالة "عزلة أوجلان"). ويأسف المجلس لعدم إحراز تقدم بشأن هذه التوصية، ويلاحظ أنه في حين أن الشركة لم تكشف عن هذه المعلومات بشكل استباقي، فقد سعى المبلغون والصحفيون إلى إعلام الجمهور من خلال الكشف عن نسخة من القائمة "السرية" علنًا.
كما أُشير سابقًا في هذا القرار (راجع القسم 8.1)، فإن تعريف "الإشادة" في معايير المجتمع المعلنة لعامة الجمهور على أنها "التحدث بشكل إيجابي عن" كيان مصنّف هو تعريف عام أكثر من اللازم. بالنسبة إلى الأشخاص الذين يعملون على نشر التقارير الإخبارية، من غير الواضح مدى ارتباط هذه القاعدة باستثناء نشر التقارير المضمن في نفس السياسة. وفقًا لشركة Meta، يسمح هذا الاستثناء بنشر التقارير الإخبارية حتى في حالة إشادة شخص ما بكيان مصنّف في نفس المنشور. يرى المجلس أن العلاقة بين استثناء "نشر التقارير" في سياسة الأفراد الخطرين والمنظمات الخطرة واستثناء الأهمية الإخبارية الأشمل لا تزال غير واضحة للمستخدمين. في حالة "مشاركة منشور الجزيرة"، أوصى المجلس شركة Meta بتوفير معايير وأمثلة توضيحية في معايير المجتمع بشأن ما يمكن اعتباره تقريرًا إخباريًا. ردت Meta في تقرير التنفيذ عن الربع الأول من عام 2022 أنها تجري حاليًا مشاورات مع عدة فِرق داخليًا لوضع معايير لمساعدة المستخدمين على فهم ما يمكن اعتباره تقريرًا إخباريًا. وقالت إنها تتوقع الانتهاء من هذه العملية في الربع الرابع من عام 2022.
لا يزال المجلس يشعر بالقلق من أن التغييرات التي يتم إجراؤها على معيار المجتمع المعني لا تترجم إلى كل اللغات المتاحة وهناك عدم اتساق على مستوى اللغات. بعد إصدار المجلس قراره في حالة "مشاركة منشور الجزيرة"، تم تعديل النسخة الإنجليزية الأمريكية من سياسة الأفراد الخطرين والمنظمات الخطرة في ديسمبر 2021 لتغيير عبارة "يجوز لنا إزالة المحتوى" المطلقة إلى "نزيل المحتوى بشكل افتراضي" إذا كانت نية المستخدم غير واضحة. مع هذا، لم تعكس إصدارات اللغات الأخرى من معايير المجتمع، بما في ذلك اللغة الأردية والإنجليزية البريطانية، هذا التغيير. في حين ذكرت الشركة بشكل علني في ردها على توصيات سابقة من المجلس ( تحديث Meta ربع السنوي الرابع لعام 2021 حول مجلس الإشراف) أنها تهدف إلى الانتهاء من الترجمة إلى كل اللغات المتاحة في غضون أربعة إلى ستة أسابيع، يبدو أن ترجمة السياسة المعنية في هذه الحالة لم تكتمل بعد خمسة أشهر. وبالتالي أصبحت السياسة غير متوفرة بشكل متكافئ لكل المستخدمين، مما يجعل من الصعب عليهم فهم الأمور المسموح بها وغير المسموح بها.
يشعر المجلس أيضًا بالقلق تجاه عدم بذل Meta ما يكفي من الجهود لتوضيح طريقة عمل نظام الإنذارات لمستخدميها. في حين تحتوي صفحة عن "تقييد الحسابات" في مركز الشفافية التابع لشركة Meta على بعض التفاصيل، فإنها لم تذكر بشكل شامل التقييد الذي قد تفرضه الشركة على استخدام الميزات ومدة ذلك التقييد. كما لم تذكر الصفحة "المدة الزمنية المحددة" للإنذارات الشديدة أسوة بالإنذارات القياسية. وهو أمر مثير للقلق بوجه خاص لأن الإنذارات الشديدة تحمل عقوبات أكثر قوة ولا توجد آلية للطعن على العقوبات المفروضة على مستوى الحساب على نحو منفصل عن القرار الصادر بشأن المحتوى. حتى عند استعادة المحتوى، لا يمكن دائمًا إلغاء القيود المفروضة على استخدام الميزات. في هذه الحالة، على سبيل المثال، عانى المستخدم بالفعل من تقييد الميزات لعدة أيام وهو إجراء لم يتم تصحيحه بشكل كامل عندما ألغت Meta قرارها.
يشير قيام اثنين من المراجعين الناطقين باللغة الأردية هذا المحتوى باعتباره مخالفًا إلى أن حظر الإشادة، وعلاقته باستثناءات نشر التقارير، هي جوانب غير واضحة للأشخاص المكلفين بإنفاذ القواعد. ويتم تزويد مراجعي المحتوى بتوجيهات داخلية تتناول كيفية تفسير القواعد (الأسئلة المعروفة ومعايير التنفيذ). يعرِّف مستند الأسئلة المعروفة الإشادة بأنها نوعًا من المحتوى الذي "يدفع الأشخاص إلى التفكير بشكل أكثر إيجابية بشأن" جماعة مصنّفة. وهو تعريف أكثر عمومية من التعريف المعلن لعامة الجمهور في معايير المجتمع، مما يجعل معنى "الإشادة" أقل ارتباطًا بنوايا المتحدث مقارنة بتأثيراته على الجمهور. كذلك، لا تقيد معايير المجتمع ولا مستند الأسئلة المعروفة من حرية المراجع في تقييد حرية التعبير. لا تتسم التعريفات المعجمية القياسية لمصطلح "الإشادة" بهذه العمومية، وكما تمت صياغتها، تكتشف القاعدة البيانات التي تعبر عن الحقائق، بما في ذلك البيانات الصحفية الحيادية، والآراء أيضًا. وردًا على أسئلة المجلس، أوضحت Meta أن استثناء نشر التقارير يتيح لأي شخص، وليس الصحفيين فقط، التحدث بشكل إيجابي عن منظمة مصنّفة في سياق نشر التقارير. مع هذا، لا يتوفر هذا الوضوح للمراجعين في التوجيهات الداخلية. وتقر Meta بأن تلك التوجيهات لا توفر للمراجعين تعريفًا لكيفية تفسير "نشر التقارير".
2. الهدف المشروع
أقر مجلس الإشراف سابقًا بأن سياسة الأفراد الخطرين والمنظمات الخطرة تسعى لتحقيق الهدف المتمثل في حماية حقوق الآخرين، بما في ذلك الحق في الحياة، والأمن الشخصي، والمساواة وعدم التمييز (المادة 19(3) من العهد الدولي الخاص بالحقوق المدنية والسياسية، وقرار مجلس الإشراف بشأن حالة "مخاوف البنجابيين تجاه منظمة راشتريا سوايامسيفاك سانغ (RSS) في الهند"). ويقر المجلس أيضًا بأن الدعاية من الكيانات المصنّفة، بما في ذلك من خلال وكلاء يقدمون أنفسهم كوسائل إعلام مستقلة، قد تشكل خطورة تتمثل في الإضرار بحقوق الآخرين. ويعتبر السعي إلى التخفيف من حدة هذه المخاطر من خلال هذه السياسة هدفًا مشروعًا.
3. الضرورة والتناسب
يجب أن تكون أي تقييدات لحرية التعبير "مناسبة لتحقيق وظيفتها الحمائية، ويجب أن تكون أقل الوسائل تدخلاً مقارنة بغيرها من الوسائل التي يمكن أن تحقق النتيجة المنشودة؛ ويجب أن تكون متناسبة مع المصلحة التي ستحميها" (التعليق العام رقم 34، الفقرة 34). أقرت Meta بأن إزالة المحتوى في هذه الحالة لم تكن ضرورية، وبالتالي لم تكن العقوبات الإضافية التي فرضت على المستخدم ضرورية.
يدرك المجلس أن الأخطاء قد تقع عند الإشراف على المحتوى على نطاق واسع. مع هذا، يتلقى المجلس شكاوى عن أخطاء إنفاذ سياسة الأفراد الخطرين والمنظمات الخطرة التي تؤثر في نشر التقارير، لا سيّما باللغات الأخرى غير اللغة الإنجليزية، وهو ما يثير مخاوف كبيرة (راجع القرار الصادر بشأن الحالة "مشاركة منشور الجزيرة"، والقرار الصادر بشأن الحالة "عزل أوجلان"). أكدت لجنة حقوق الإنسان التابعة للأمم المتحدة على أن "وسائل الإعلام تؤدي دورًا حاسمًا في إعلام الجمهور بأعمال الإرهاب، وينبغي عدم الحد بلا مبرر من قدرتها على العمل. وفي هذا الخصوص، ينبغي عدم معاقبة الصحفيين بسبب قيامهم بوظائفهم المشروعة" (التعليق العام رقم 34، الفقرة 46). بالتالي تقع على عاتق Meta مسؤولية تجاه منع تأثير منصاتها بشكل سلبي على نشر التقارير الإخبارية والتخفيف من حدة ذلك.
يشعر المجلس بالقلق من أن نوع أخطاء الإنفاذ في هذه الحالة قد يعتبر مؤشرًا على إخفاقات أكبر في هذا الشأن. يواجه الأشخاص الذين يقدمون تعليقات منتظمة عن أنشطة الأفراد الخطرين والمنظمات الخطرة من الطبقة الأولى مخاطر كبيرة للتعرض لأخطاء الإنفاذ التي تؤدي إلى تعريض حساباتهم لعقوبات شديدة. قد يؤثر ذلك سلبًا في سبل معيشتهم وحرمان العامة من الوصول إلى معلومات في اللحظات المهمة. يشعر المجلس بالقلق من أن سياسة إزالة المحتوى افتراضيًا عند عدم إشارة المستخدم بوضوح إلى نواياه المتمثلة في نشر تقارير عن الكيانات الخطرة قد يؤدي إلى الإفراط في إزالة المحتوى غير المخالف، حتى إذا اتضح من القرائن السياقية أن المنشور، في الحقيقة، بمثابة نشر للتقارير. علاوة على ذلك، لم يفيد نظام منع الأخطاء وتصحيحها هذا المستخدم كما ينبغي. وهو ما يشير إلى وجود مشكلات في كيفية قيام أداة التصنيف في نظام تجاوز النتائج الإيجابية الخاطئة عالية التأثير بترتيب أولوية قرارات المحتوى من حيث الخضوع لمراجعة ثانية، وهو ما يعني عدم وصول المحتوى إطلاقًا إلى مقدمة قائمة الانتظار. ويطرح ذلك أيضًا أسئلة عن الموارد المخصصة للمراجعة البشرية لقائمة انتظار نظام تجاوز النتائج الإيجابية الخاطئة عالية التأثير وعدم كفايتها للمحتوى المنشور باللغة الأردية. في هذه الحالة، أدى خطأ الإنفاذ وعدم القدرة على تصحيحه إلى حرمان عدد من مستخدمي فيسبوك من الوصول إلى معلومات عن قضايا تحظى بأهمية عالمية وأعاق منفذًا إخباريًا عن أداء وظيفته الصحفية المتمثلة في إمداد الجمهور بالمعلومات.
يمكن للصحفيين نشر تقارير عن الأحداث بطريقة حيادية تتجنب نوع الإدانة الصريحة التي قد يتطلع المراجعون إلى رؤيتها. لتجنب إزالة المحتوى وفرض عقوبات على الحساب، قد يلجأ الصحفيون إلى الرقابة الذاتية، بل قد يدفعهم ذلك إلى النأي عن المسؤوليات الأخلاقية لوظيفتهم. علاوة على ذلك، وردت تقارير عن قيام بعض مستخدمي فيسبوك من المناوئين لحكم طالبان بتجنب ذِكر طالبان في منشوراتهم خشية تعرضهم للعقوبات عن طريق الخطأ.
يلاحظ المجلس أيضًا أن Meta قد أصدرت ما تطلق عليه استثناءات "روح السياسة" فيما يتعلق بحركة طالبان. يشير ذلك إلى اعتراف Meta أن نهجها بموجب سياسة الأفراد الخطرين والمنظمات الخطرة يؤدي في بعض الأحيان إلى نتائج لا تتسق مع أهداف السياسة، وبالتالي لا تفي بمتطلب الضرورة. تكشف بعض المواد الداخلية الخاصة بالشركة والتي حصل عليها الصحفيون أن الشركة أنشأت في سبتمبر 2021 استثناءً "للسماح بمشاركة المحتوى المنشور بواسطة وزير الداخلية [الأفغاني]" بشأن أمور مثل قوانين المرور الجديدة، والسماح بمنشورات معينة من وزارة الصحة فيما يتعلق بفيروس كورونا (كوفيد-١٩). وقد وردت أنباء عن صياغة استثناءات أخرى أكثر تخصيصًا والتي استمرت لفترات قصيرة. لمدة 12 يومًا في شهر أغسطس من عام 2021، كان بإمكان "الشخصيات الحكومية" الإقرار بحركة طالبان حسبما ورد باعتبارها "الحكومة الرسمية لأفغانستان [ كما ورد]" دون المخاطرة بفرض عقوبات على الحساب. واعتبارًا من نهاية أغسطس 2021 وحتى 3 سبتمبر، استطاع المستخدمون "نشر البيانات الرسمية الصادرة عن طالبان دون الحاجة إلى" مناقشة تلك البيانات بطريقة حيادية أو نشر تقارير عنها أو إدانتها." أقر متحدثون باسم Meta بإصدار بعض الاستثناءات المخصصة. في منتدى للسياسة حول بروتوكول سياسة الأزمات، في 25 يناير 2022، صرحت Meta أنها ستنشر "أدوات سياسية" في حالات الأزمات ووفرت مثالاً للسماح "بالإشادة بمنظمة مصنّفة معينة (على سبيل المثال توقيع جماعة لحرب العصابات على اتفاقية سلام)." قد تؤدي هذه الاستثناءات للحظر العام على الإشادة بالكيانات المصنّفة إلى شعور المراجعين بقدر أكبر من عدم الوضوح، وكذلك الأمر بالنسبة إلى المستخدمين الذين قد لا يعلمون بوجود استثناء أو حالات تطبيقه. وهو ما يوضح وجود حالات ورد فيها أن Meta قد أقرت اتباع نهج أكثر دقة تجاه المحتوى للتعامل مع كيان مصنّف يطيح بحكومة شرعية ويتولى السلطة الإقليمية
يرى المجلس أن إزالة المحتوى من المنصة هو إجراء غير ضروري وغير متناسب. أسهم كل من عدد أخطاء الإنفاذ هذه، وتأثيراتها على النشاط الصحفي، وإخفاق أنظمة منع الأخطاء لدى Meta في الوصول إلى هذه النتيجة.
9. قرار مجلس الإشراف
ألغى مجلس الإشراف قرار شركة Meta الأصلي بإزالة المحتوى.
10. البيان الاستشاري بشأن السياسة
سياسة المحتوى
1. ينبغي على Meta التحقيق في عدم تحديث تغييرات ديسمبر 2021 التي تم إدخالها على سياسة الأفراد الخطرين والمنظمات الخطرة خلال الوقت المستهدف البالغ ستة أسابيع، وضمان عدم تكرار هذه التأخيرات أو هذا الإهمال. يطلب المجلس من Meta إبلاغه في غضون 60 يومًا بنتائج تحقيقها، والتدابير التي اتخذتها لمنع تأخير الترجمة مستقبلاً.
2. يجب أن تجعل Meta تفسيرها المعلن لنظام الإنذارات الذي يتألف من مسارين أكثر شمولاً وأسهل وصولاً، لا سيّما في "الإنذارات الشديدة." يجب أن يتضمن ذلك كل انتهاكات السياسة التي تسفر عن فرض إنذارات شديدة، وتحديد ميزات الحساب التي قد يتم تقييدها نتيجة لذلك وتحديد مدد التقييد. يجب أيضًا تحديد السياسات التي تسفر عن فرض إنذارات شديدة بوضوح في معايير المجتمع، مع إدراج رابط إلى التفسير الوارد بشأن نظام الإنذارات في صفحة "تقييد الحسابات". يطلب المجلس من Meta إبلاغه في غضون 60 يومًا بتحديث تفسير نظام الإنذارات في مركز الشفافية، وتضمين روابط إلى هذا التفسير بالنسبة إلى كل سياسات المحتوى التي تسفر عن فرض إنذارات شديدة.
الإنفاذ
3. ينبغي على Meta تضييق نطاق تعريف "الإشادة" في توجيهات الأسئلة المعروفة التي يتم توفيرها للمراجعين، من خلال إزالة مثال المحتوى الذي "يسعى لأن يفكر الآخرون بشكل أكثر إيجابية بشأن" كيان مصنّف من خلال إسناد قيم إيجابية له أو إقرار أفعاله. يطلب المجلس من Meta تزويد المجلس في غضون 60 يومًا بالإصدار الكامل لمستند الأسئلة المعروفة المحدّث بشأن الأفراد الخطرين والمنظمات الخطرة.
4. ينبغي على Meta مراجعة معايير الإنفاذ الداخلية لتوضيح أن استثناء "نشر التقارير" في سياسة الأفراد الخطرين والمنظمات الخطرة يسمح بالبيانات الإيجابية بشأن الكيانات المصنّفة كجزء من نشر التقارير، وكيفية تمييز ذلك عن "الإشادة" المحظورة. ينبغي توسيع مستند الأسئلة المعروفة لتوضيح أهمية نشر التقارير الإخبارية في مواقف النزاع أو الأزمات وتوفير أمثلة ذات صلة، وأن ذلك قد يتضمن الإدلاء ببيانات إيجابية عن كيانات مصنّفة مثل نشر تقارير عن طالبان في هذه الحالة. يطلب المجلس من Meta مشاركة معايير التنفيذ المحدّثة مع المجلس في غضون 60 يومًا.
5. ينبغي على Meta تقييم دقة المراجعين في تنفيذ استثناء نشر التقارير بموجب سياسة الأفراد الخطرين والمنظمات الخطرة لتحديد المشكلات النظامية التي تتسبب في أخطاء الإنفاذ. يطلب المجلس من Meta إبلاغه في غضون 60 يومًا بالنتائج التفصيلية لمراجعة هذا التقييم، أو تقييمات الدقة التي تجريها Meta بالفعل لسياستها بشأن الأفراد الخطرين والمنظمات الخطرة، بما في ذلك دور النتائج في تحسين عمليات الإنفاذ، وتحسين نظام تجاوز النتائج الإيجابية الخاطئة عالية التأثير.
6. ينبغي على Meta إجراء مراجعة لأداة تصنيف نظام تجاوز النتائج الإيجابية الخاطئة عالية التأثير للتحقق من قدرته على إعطاء الأولوية بشكل أكثر فعّالية للأخطاء المحتملة في إنفاذ استثناءات سياسة الأفراد الخطرين والمنظمات الخطرة. ينبغي أن يتضمن ذلك فحص ما إذا كانت أداة تصنيف نظام تجاوز النتائج الإيجابية الخاطئة عالية التأثير تحتاج إلى أن تكون أكثر حساسية فيما يتعلق بمحتوى التقارير الإخبارية، حيث تزيد احتمالات إزالة النتائج الإيجابية الخاطئة التي تؤثر في حرية التعبير. يطلب المجلس من Meta إبلاغ المجلس في غضون 60 يومًا بنتائج المراجعة والتحسينات التي ستجريها لتجنب حدوث أخطاء من هذا النوع مستقبلاً.
7. ينبغي على Meta تحسين قدرتها الاستيعابية المخصصة لمراجعة نظام تجاوز النتائج الإيجابية الخاطئة عالية التأثير على مستوى اللغات لضمان خضوع مزيد من قرارات المحتوى التي قد تشكل أخطاءً في الإنفاذ لمراجعة بشرية إضافية. يطلب المجلس من Meta إبلاغه في غضون 60 يومًا بالتحسينات المقرر إجراؤها على السعة الاستيعابية.
*ملاحظة إجرائية:
يتم إعداد قرارات مجلس الإشراف من قِبل لجان مكونة من خمسة أعضاء ويتم اعتمادها من أغلبية أعضاء المجلس. ولا يلزم بالضرورة أن تُعبّر قرارات المجلس عن وجهات النظر الشخصية لجميع الأعضاء.
بالنسبة إلى القرار المتخذ بشأن هذه الحالة، تم إجراء بحث مستقل نيابة عن المجلس. تلقى المجلس مساعدة من معهد أبحاث مستقل يقع مقره في جامعة جوتنبرج والذي يعتمد على فريق مكون من أكثر من 50 عالم اجتماع من ست قارات، فضلاً عن أكثر من 3200 خبير محلي من جميع أنحاء العالم. وقد تلقى المجلس أيضًا مساعدة من شركة Duco Advisors، وهي شركة تركز على نقطة التقاء الجغرافيا السياسية والثقة والأمان والتكنولوجيا. تم توفير الخبرة اللغوية بواسطة شركة Lionbridge Technologies LLC، التي يتقن المتخصصون بها أكثر من 350 لغة ويعملون من 5000 مدينة في جميع أنحاء العالم.
العودة إلى قرارات الحالة والآراء الاستشارية المتعلقة بالسياسة