أسقط

تغيير دلالة كلمات عربية ازدرائية إلى كلمات مقبولة

ألغى مجلس الإشراف قرار شركة Meta الأصلي بإزالة منشور على Instagram يعرض، وفقًا للمستخدم، صورًا لكلمات عربية يمكن استخدامها للإشارة على نحو ازدرائي إلى الرجال الذين يُظهرون سلوكيات أنثوية.

نوع القرار

معيار

السياسات والمواضيع

عنوان
المساواة بين الجنسين، مثليون، مجتمعات مهمشة
معيار المجتمع
خطاب يحض على الكراهية

المناطق/البلدان

موقع
المغرب، لبنان، مصر

منصة

منصة
Instagram

ألغى مجلس الإشراف قرار شركة Meta الأصلي بإزالة منشور على Instagram يعرض، وفقًا للمستخدم، صورًا لكلمات عربية يمكن استخدامها للإشارة على نحو ازدرائي إلى الرجال الذين يُظهرون "سلوكيات أنثوية". وقد كان المحتوى يندرج تحت استثناء لسياسة الخطاب الذي يحض على الكراهية من Meta وبالتالي لم يكن من المفترض إزالته.

حول هذه الحالة

في شهر نوفمبر 2021، نشر حساب عام على Instagram يصف نفسه بأنه مساحة لمناقشة الموضوعات المتعلقة بأحرار الجنس (كوير) في الثقافة العربية مجموعة من الصور في شكل عنصر دوّار (منشور واحد على Instagram يمكن أن يحتوي على 10 صور بحد أقصى بشرح توضيحي واحد). أشار الشرح التوضيحي المكتوب باللغتين العربية والإنجليزية إلى أن كل صورة من هذه الصور تعرض كلمة مختلفة يمكن استخدامها للإشارة على نحو ازدرائي إلى الرجال الذين يُظهرون "سلوكيات أنثوية" بين المتحدثين باللغة العربية، ومن بينها مصطلحات مثل "زامل"، "فوفو"، و "طنط/طنطا". ذكر المستخدم أن الغرض من المنشور هو "تغيير دلالة هذه المصطلحات المؤذية."

في بادئ الأمر، أزالت Meta المحتوى لانتهاكه سياستها بشأن الخطاب الذي يحض على الكراهية لكنها استعادته بعد تقدم المستخدم بطعن. وبعد إبلاغ مستخدم آخر عن المحتوى، أزالت Meta المحتوى مرة أخرى لانتهاك سياستها بشأن الخطاب الذي يحض على الكراهية. وفقًا لشركة Meta، وقبل تحديد المجلس لهذه الحالة، تم تصعيد المحتوى إلى مراجعة داخلية إضافية تقرر بموجبها أنه لم ينتهك، فعليًا، سياسة الشركة بشأن الخطاب الذي يحض على الكراهية. وعندها استعادت Meta المحتوى إلى Instagram. أوضحت Meta أن قراراتها الأولية بإزالة المحتوى استندت إلى مراجعات الصور التي تحتوي على كلمات "ز**ل" و"ط*ط/ط**ا."

أهم النتائج

يرى المجلس أن إزالة المحتوى كانت بمثابة خطأ واضح وأنها لم تكن تتفق مع سياسة Meta بشأن الخطاب الذي يحض على الكراهية. وعلى الرغم من أن المنشور لم يتضمن أي إهانات، فإنه يندرج تحت استثناء للخطاب الذي "يُستخدم للإشارة إلى الذات أو بطريقة إيجابية"، بالإضافة إلى استثناء يسمح باقتباس الخطاب الذي يحض على الكراهية بهدف "إدانته أو تعزيز الوعي به." إن بيان المستخدم وما تضمنه من إشارة إلى أنه لم "يقبل أو يشجع على استخدام" الإهانات المعنية، وأن هدفه كان "تغيير دلالة هذه المصطلحات المؤذية" كان من المفترض أن ينبه المشرف إلى احتمال وجود استثناء يمكن تطبيقه.

بالنسبة لأعضاء مجتمع الميم في البلدان التي يتعرضون فيها لعقوبات عند التعبير عن توجهاتهم، غالبًا ما تكون وسائل التواصل الاجتماعي هي الوسيلة الوحيدة للتعبير عن أنفسهم بحرية. ويُشكّل الإشراف الزائد عن الحد على خطاب المستخدمين المنتمين إلى مجموعات الأقليات المضطهدة تهديدًا خطيرًا لحريتهم في التعبير. ومن هذا المنطلق، يشعر المجلس بالقلق من أن Meta لا تطبق باستمرار الاستثناءات الواردة في سياسة الخطاب الذي يحض على الكراهية على تعبير المجموعات المهمشة.

تعتبر الأخطاء في هذه الحالة، والتي قرر فيها ثلاثة مشرفين مختلفين أن المحتوى قد انتهك سياسة الخطاب الذي يحض على الكراهية، مؤشرًا على عدم كفاية إرشادات Meta للمشرفين الذين يعملون على تقييم الإشارات إلى الألفاظ الازدرائية. يشعر المجلس بالقلق من احتمال عدم كفاية الموارد المتوفرة للمراجعين من حيث القدرة أو التدريب لمنع حدوث نوع الأخطاء الذي شهدته هذه الحالة.

يُشكل توفير إرشادات للمشرفين باللغة الإنجليزية توضح كيفية مراجعة المحتوى المكتوب بلغة غير اللغة الإنجليزية، كما تفعل Meta حاليًا، تحديًا في حد ذاته. لمساعدة المشرفين على تقييم حالات تطبيق الاستثناءات بشكل أفضل على المحتوى الذي يتضمن إهانات، يوصي المجلس بأن تترجم Meta إرشاداتها الداخلية إلى اللهجات العربية التي يستخدمها المشرفون.

يرى المجلس كذلك أنه لوضع قوائم دقيقة بالإهانات ومنح المشرفين إرشادات سليمة بشأن تطبيق استثناءات سياسة الإهانات، على Meta العمل بصفة دورية على التماس الإسهامات من الأقليات المستهدفة بالإهانات على مستوى كل بلد وثقافة على حدة. ينبغي أن تُظهر Meta أيضًا مزيدًا من الشفافية فيما يتعلق بكيفية إنشاء قوائمها لألفاظ الإهانات لكل سوق معين وإنفاذها وتدقيقها.

قرار مجلس الإشراف

ألغى مجلس الإشراف قرار شركة Meta الأصلي بإزالة المحتوى.

وفي صورة بيان استشاري بشأن السياسة، يوصي المجلس شركة Meta بما يلي:

  • ترجمة معايير التنفيذ الداخلية والأسئلة المعروفة إلى لهجات اللغة العربية التي يستخدمها مشرفو المحتوى. قد يحد ذلك من الإفراط في تطبيق إجراءات الإنفاذ في المناطق الناطقة باللغة العربية من خلال مساعدة المشرفين على التقييم بشكل أفضل في حالة وجود ما يبرر استثناءات المحتوى الذي يتضمن إهانات.
  • نشر تفسير واضح لطريقتها في إنشاء قوائم الإهانات لكل سوق معين. يجب أن يتضمن هذا التفسير العمليات والمعايير المستخدمة لتحديد الإهانات والبلدان لكل قائمة مخصصة لسوق معين.
  • نشر تفسير واضح لطريقتها في إنفاذ قوائم الإهانات لكل سوق معين. يجب أن يتضمن هذا التفسير العمليات والمعايير التي تحدد بدقة متى وأين سيتم تطبيق حظر هذه الإهانات، سواء فيما يتعلق بالمنشورات التي تم إنشاؤها جغرافيًا من المنطقة المعنية، و/أو التي تم إنشاؤها خارجها ولكنها تتعلق بالمنطقة المعنية و/أو فيما يتعلق بكل المستخدمين في المنطقة المعنية، بغض النظر عن الأصل الجغرافي للمنشور.
  • نشر تفسير واضح لطريقتها في تدقيق قوائم الإهانات لكل سوق معين. يجب أن يتضمن التفسير العمليات والمعايير الخاصة بإزالة الإهانات من قوائم Meta لكل سوق معين أو الإبقاء عليها بتلك القوائم.

*توفر ملخصات الحالة نظرة عامة على الحالة ولا تُشكّل سابقة قانونية.

القرار الكامل للمجلس بشأن الحالة

1.ملخص القرار

ألغى مجلس الإشراف قرار شركة Meta الأصلي بإزالة منشور على Instagram من حساب يتناول "الموضوعات المتعلقة بأحرار الجنس (الكوير) في التاريخ العربي والثقافة الرائجة." يندرج المحتوى تحت أحد استثناءات سياسة الخطاب الذي يحض على الكراهية من Meta، لأنه يتناول الاستخدام السلبي للإهانات المعادية للمثليين الموجهة لهم من الآخرين ويدينها ويناقشها ويستخدمها في سياق إيجابي صريح.

2. وصف الحالة ومعلومات أساسية عنها

في شهر نوفمبر 2021، نشر حساب عام على Instagram يعرّف نفسه بأنه مساحة لمناقشة الموضوعات المتعلقة بأحرار الجنس (الكوير) في الثقافة العربية مجموعة من الصور في شكل عنصر دوّار (منشور واحد على Instagram يمكن أن يحتوي على 10 صور بحد أقصى بشرح توضيحي واحد). يسفر الشرح التوضيحي، الذي أورده المستخدم باللغتين العربية والإنجليزية، أن كل صورة تعرض كلمة مختلفة يمكن استخدامها بطريقة ازدرائية تجاه الرجال الذين يظهرون "سلوكيات أنثوية" في البلدان الناطقة باللغة العربية، ومن بينها كلمات مثل "زامل" و"فوفو" و"طنط/طنطا." ذكر المستخدم في الشرح التوضيحي أنه لم "يقبل أو يشجع على استخدام هذه الكلمات"، بل أوضح أنه تعرض سابقًا للإساءة بإحدى هذه الإهانات وأن هدف المنشور كان "تغيير دلالة هذه المصطلحات المؤذية". أكد الخبراء الخارجيون الذين استشارهم المجلس أن الألفاظ التي وردت في المحتوى تُستخدم غالبًا كإهانات.

شُوهد المحتوى ما يقرب من 9000 مرة، وتلقى نحو 30 تعليقًا و2000 تفاعل. في غضون ثلاث ساعات من نشر المحتوى، أبلغ عنه أحد المستخدمين باعتباره نوعًا من "العُري أو النشاط الجنسي للبالغين"، بينما أبلغ عنه مستخدم آخر باعتباره نوعًا من "الإغواء الجنسي." وقد تم التعامل بشكل منفصل مع كل بلاغ من خلال مُشرف مختلف. ولم يتخذ المُشرف الذي راجع أول بلاغ أي إجراء، بينما أزال المُشرف الذي راجع البلاغ الثاني المحتوى لانتهاك سياسة الخطاب الذي يحض على الكراهية من Meta. تقدم المستخدم بطعن على هذه الإزالة وقام مراجع آخر باستعادة المحتوى إلى المنصة. بعد استعادة المحتوى، قام شخص آخر بالإبلاغ عنه باعتباره "خطابًا يحض على الكراهية" وأجرى مُشرف آخر مراجعة رابعة، وأزال المحتوى مرة أخرى. تقدم المستخدم بطعن مرة أخرى، وبعد إجراء مراجعة خامسة، أيد مُشرف آخر قرار إزالة المحتوى. بعد أن أخطرت Meta المستخدم بهذا القرار، أرسل المستخدم طعنًا إلى مجلس الإشراف. أكدت Meta لاحقًا أن كل المُشرفين الذين راجعوا المحتوى ممن يتحدثون العربية بطلاقة.

أوضحت Meta أن القرارات الأولية بإزالة المحتوى استندت إلى مراجعات الصور التي تحتوي على كلمات "ز**ل" و"ط*ط/ط**ا". وقد أشارت Meta أيضًا في إجابتها عن سؤال طرحه المجلس إلى اعتبار كلمة "مخنّث" التي وردت أيضًا في المحتوى بمثابة إهانة من وجهة نظر الشركة.

ووفقًا لشركة Meta، بعد تقدم المستخدم بطعن إلى المجلس وقبل تحديد المجلس لهذه الحالة، فقد تم تصعيد المحتوى بشكل مستقل لمراجعة داخلية إضافية، والتي قررت أنه لم ينتهك سياسة الخطاب الذي يحض على الكراهية. وبالتالي تم استعادة المحتوى إلى المنصة.

3. سُلطة ونطاق مجلس الإشراف

يتمتع المجلس بسلطة مراجعة قرار شركة Meta بعد تلقي طعن من المستخدم الذي تعرض المحتوى الخاص به إلى الإزالة (المادة 2، القسم 1 من اتفاقية المجلس؛ المادة 3، القسم 1 من اللائحة الداخلية).

يجوز للمجلس تأييد قرار شركة Meta أو إلغائه (المادة 3، القسم 5 من اتفاقية المجلس)، ويكون قراره بهذا الشأن ملزمًا للشركة (المادة 4 من اتفاقية المجلس). يجب على شركة Meta أيضًا تقييم جدوى تطبيق قرارها على أي محتوى مماثل له سياق موازٍ (المادة 4 من اتفاقية المجلس). وقد تتضمن قرارات المجلس بيانات استشارية بشأن السياسية تضم توصيات غير ملزمة يجب على شركة Meta الرد عليها (اتفاقية المجلس، المادة 3، القسم 4؛ والمادة 4).

عندما يحدد المجلس حالات كهذه الحالة التي أقرت فيها شركة Meta بوقوع خطأ، يراجع المجلس القرار الأصلي للمساعدة على تعزيز فهم أسباب وقوع الأخطاء، وتقديم ملاحظات أو توصيات تسهم في التقليل من الأخطاء وتحسين العمليات.

4.مصادر السُلطة

أخذ مجلس الإشراف ما يلي في الاعتبار كمصادر للسُلطة:

1.قرارات مجلس الإشراف:

تتضمن قائمة أكثر قرارات المجلس ملاءمة لهذه الحالة ما يلي:

ويشير المجلس أيضًا إلى التوصيات الصادرة بشأن: القرار الصادر بشأن الحالة "عزلة أوجلان" (‎2021-006-IG-UA)، والقرار الصادر بشأن الحالة "ميم "زرا الاختيار"" (‎2021-005-FB-UA) والقرار الصادر بشأن الحالة "أعراض سرطان الثدي والعُري" (‎2020-004-IG-UA).

2. سياسات المحتوى لدى Meta:

تتضمن هذه الحالة إرشادات مجتمع Instagram ومعايير مجتمع فيسبوك. ورد في "مركز الشفافية" التابع لشركة Meta أن "سياسات المحتوى مشتركة بين فيسبوك وInstagram. ويعني ذلك أن اعتبار المحتوى مخالفًا على فيسبوك يجعله مخالفًا على Instagram أيضًا."

ورد ما يلي في إرشادات مجتمع Instagram:

إننا نرغب في الوصول إلى مجتمع يمتاز بالإيجابية والتنوع. لذا، فإننا نقوم بإزالة المحتوى الذي يحتوي على تهديدات فعلية أو خطاب يحض على الكراهية... غير مسموح مطلقًا بالتشجيع على العنف أو مهاجمة أي شخص على أساس العرق أو السلالة أو الأصل القومي أو الجنس أو النوع أو الهوية الجنسية أو التوجه الجنسي أو الانتماء الديني أو الإعاقات أو الأمراض. وقد نسمح بمشاركة الخطاب الذي يحض على الكراهية فقط لتحديه أو التوعية ضده. وفي هذه الحالات، نطلب منك التعبير عن نيتك بوضوح.

يُعرّف معيار مجتمع فيسبوك الخطاب الذي يحض على الكراهية على أنه "هجوم مباشر على الأشخاص على أساس ما نطلق عليه سمات تتمتع بحقوق حماية – العِرق والسلالة والأصل القومي والانتماء الديني والتوجه الجنسي والطبقة الاجتماعية والجنس والنوع والهوية الجنسية والأمراض أو الإعاقات الخطيرة." تقسّم Meta الهجمات إلى ثلاث طبقات. يحظر قسم الإهانات من سياسة الخطاب الذي يحض على الكراهية "المحتوى الذي يصف الأشخاص أو يستهدفهم سلبيًا بكلمات مهينة، ونقصد بالكلمات المهينة أي كلمات مُسيئة بطبيعتها وتُستخدم كتسميات مشينة لأصحاب السمات الواردة أعلاه." يحظر الجزء الباقي من الطبقة الثالثة المحتوى الذي يستهدف الأشخاص الذين يعانون من الإقصاء والعزل.

كجزء من مبادئ السياسة، توضح Meta ما يلي:

ندرك أن الأشخاص يشاركون أحيانًا محتوى يتضمن خطابًا يحض على الكراهية على لسان شخص آخر لإدانته أو تعزيز الوعي به حتى يتجنبه الأشخاص. وفي حالات أخرى، يُسمح بالخطاب الذي قد ينتهك معاييرنا بشكل آخر عندما يُستخدم للإشارة إلى الذات أو بطريقة إيجابية." وتم تصميم سياساتنا لتوفير مساحة لهذه الأنواع من الخطاب، لكننا نحث الأشخاص على الإشارة بوضوح إلى نواياهم. وإذا كانت النية غير واضحة، فقد نقوم بإزالة المحتوى.

3. قيم شركة Meta:

تم توضيح قيم شركة Meta في مقدمة معايير مجتمع فيسبوك وقد جرى وصف قيمة "حرية الرأي" بأنها "ذات أهمية قصوى":

يتمثل هدف معايير مجتمعنا دائمًا في توفير مكان لحرية الرأي يستطيع الأشخاص من خلاله إبداء وجهات نظرهم. [...] ونحن نريد أن يتمتع الأشخاص بالقدرة على التحدث بحرية عن القضايا التي تهمهم، حتى في حالة عدم اتفاق البعض أو اعتراضهم.

تُقيد شركة Meta "حرية الرأي" لخدمة أربع قيم، ترتبط اثنتان منها بهذه الحالة:

"السلامة": نحن ملتزمون بجعل فيسبوك مكانًا آمنًا. ولا شك أن أشكال التعبير التي تحمل تهديدًا للأشخاص قد تتسبب في إخافة الآخرين أو إقصائهم أو إسكاتهم ونحن لا نسمح بذلك على فيسبوك.

"الكرامة": نحن نؤمن بأن الأشخاص متساوون في الكرامة والحقوق. ونتوقع من الجميع احترام كرامة الآخرين وعدم الإساءة إليهم أو الحط من قدرهم.

4. المعايير الدولية لحقوق الإنسان:

تُرسي مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان (UNGP)، التي أقرها مجلس حقوق الإنسان التابع للأمم المتحدة عام 2011، إطار عمل تطوعي لمسؤوليات الأنشطة التجارية الخاصة فيما يتعلق بحقوق الإنسان. في عام 2021، أعلنت شركة Meta عن سياسة حقوق الإنسان الخاصة بالشركة، والتي أعادت التأكيد من خلالها على الالتزام باحترام حقوق الإنسان على نحو يتفق مع مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان. وقد استند تحليل المجلس لمسؤوليات شركة Meta تجاه حقوق الإنسان في هذه الحالة إلى معايير حقوق الإنسان التالية التي تم تطبيقها في القسم 8 من هذا القرار:

  • الحقوق في حرية الرأي والتعبير: المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية (ICCPR)، التعليق العام رقم 34، اللجنة المعنية بحقوق الإنسان، 2011؛ الوثيقة رقم 488/1992، تونين ضد أستراليا، اللجنة المعنية بحقوق الإنسان، 1992؛ القرار 32/2، مجلس حقوق الإنسان بالأمم المتحدة، 2016؛ تقارير مقرر الأمم المتحدة الخاص المعني بحرية الرأي والتعبير: A/HRC/38/35 ‏(2018) وA/74/486 ‏(2019). مفوض الأمم المتحدة السامي لحقوق الإنسان، تقرير: A/HRC/19/41 ‏(2011).
  • الحق في عدم التمييز: المادة 2، الفقرة 1 والمادة 26، العهد الدولي الخاص بالحقوق المدنية والسياسية.

5. المعلومات المقدَّمة من المستخدمين

في البيان الذي أرسله للمجلس، وصف المستخدم حسابه كمكان "للاحتفاء بثقافة أحرار الجنس في العالم العربي." وأضاف شارحًا أنه على الرغم من كونه "مكانًا آمنًا"، ومع ازدياد متابعيه، ازداد استهدافه من المتصيدين المعادين للمثليين الذين يكتبون تعليقات مسيئة ويقدمون بلاغات جماعية ضد المحتوى.

أوضح المستخدم أن هدفه من نشر المحتوى كان الاحتفاء "بالرجال والفتيان الذين يظهرون سلوكيات أنثوية" في المجتمع العربي والذين غالبًا ما يتم التقليل من شأنهم باستخدام اللغة الازدرائية التي تم تسليط الضوء عليها في المنشور. وقد وضّح أيضًا أنه كان يحاول تغيير دلالة هذه الألفاظ الازدرائية الموجهة ضدهم كشكل من أشكال المقاومة والتمكين، وأكد على أنه وضّح في محتوى المنشور أنه لا يقبل أو يشجع على استخدام هذه الألفاظ الواردة في الصور كإهانات. وأشار المستخدم أيضًا إلى اعتقاده بأن المحتوى الذي شاركه يتفق مع سياسات المحتوى لدى Meta والتي تسمح على وجه التحديد باستخدام مصطلحات محظورة في حالات أخرى عندما تستخدم للإشارة إلى الذات أو بطريقة إيجابية.

6. المعلومات المقدَّمة من Meta

وضّحت Meta في حيثياتها أن المحتوى أزيل في الأصل بموجب سياسة الخطاب الذي يحض على الكراهية نظرًا لاحتواء المحتوى على كلمة محظورة مدرجة في قائمة Meta للإهانات وهي عبارة عن "لفظة ازدرائية للرجال المثليين." ألغت Meta في النهاية قرارها الأصلي واستعادت المحتوى لأن استخدام الكلمة المعنية يقع ضمن استثناء Meta بشأن "المحتوى الذي يدين الإهانة أو الخطاب الذي يحض على الكراهية، أو يناقش استخدام الإهانات بما في ذلك حالات الإبلاغ عن استخدام الإهانات، أو المناقشات التي تتناول ما إذا كان استخدام الإهانات مقبولاً أم لا". وافقت Meta على أن السياق أشار إلى أن المستخدم كان يلفت الانتباه إلى الطبيعة المؤذية للكلمة وبالتالي فهو لم يكن مخالفًا.

ذكرت Meta في معرض إجابتها عن أسئلة المجلس بشأن مدى أهمية السياق في تطبيق Meta لاستثناءات سياسة الخطاب الذي يحض على الكراهية أنه "مسموح بالخطاب الذي يحض على الكراهية والإهانات" عند السخرية منها أو إدانتها أو مناقشتها أو الإبلاغ عنها أو استخدامها للإشارة إلى الذات وأن المستخدم مسؤول عن توضيح نيته عند ذِكر أي إهانة.

وفي إجابتها عن سؤال آخر من المجلس، ذكرت Meta أنها "لم تتكهن" بسبب إزالة المحتوى عن طريق الخطأ لأن مراجعي المحتوى لديهم لا يوثقون أسباب القرارات التي يصدرونها.

طرح المجلس على Meta ما مجموعه 17 سؤالاً، تمت الإجابة عن 16 منها إجابة كاملة في حين أجيب عن سؤال واحد إجابة جزئية.

7. التعليقات العامة

تلقى المجلس ثلاثة تعليقات عامة على صلة بهذه الحالة. من بينها تعليق من الولايات المتحدة وكندا، وتعليق من الشرق الأوسط وشمال أفريقيا، وتعليق من أمريكا اللاتينية ومنطقة الكاريبي.

تناولت التعليقات المقدمة الموضوعات التالية: سلامة أعضاء مجتمع الميم على منصات التواصل الاجتماعي الرئيسية، ومراعاة السياق الاجتماعي عند إنفاذ سياسة الخطاب الذي يحض على الكراهية، والدلالات المتغيرة للألفاظ العربية.

لقراءة التعليقات العامة المقدمة في هذه الحالة، يرجى النقر هنا.

علاوة على ذلك، كجزء من الجهود المستمرة لإشراك المساهمين، عقد أعضاء المجلس مناقشات إثرائية غنية بالمعلومات مع المنظمات التي تعمل على حرية التعبير وحقوق أعضاء مجتمع الميم، ومن بينهم منظمات ناطقة باللغة العربية. سلطت هذه المناقشة الضوء على بعض المخاوف من بينها: صعوبة تغيير دلالة الإهانة ليتم تعديل تصنيفها وتصبح غير مسيئة بوجه عام إذا ظل اللفظ المعني مسموعًا كإهانة لدى بعض الجماهير، بغض النظر عن نية المتحدث، والمشكلات الناتجة عن عدم وجود إسهامات بشأن سياسة المحتوى من مجموعات تأييد مجتمع الميم والمجتمعات غير الناطقة باللغة الإنجليزية، ومخاطر الإشراف على المحتوى الذي لا يتأثر بالسياق بدرجة كافية.

8.تحليل مجلس الإشراف

نظر المجلس في مسألة ما إذا كان ينبغي استعادة هذا المحتوى من خلال ثلاث رؤى: سياسات المحتوى لدى شركة Meta، وقيَمها، ومسؤولياتها تجاه حقوق الإنسان.

تم تحديد هذه الحالة بواسطة المجلس حيث يُشكّل الإشراف الزائد عن الحد على خطاب المستخدمين المنتمين إلى مجموعات الأقليات المضطهدة تهديدًا خطيرًا ومنتشرًا لحريتهم في التعبير. تحظى مساحات التعبير على الإنترنت بأهمية كبيرة للمجموعات التي تواجه الاضطهاد والتي تقتضي حماية حقوقها على درجة أكبر من اهتمام شركات وسائل التواصل الاجتماعي. توضح هذه الحالة أيضًا التوتر الذي تعاني منه Meta أثناء السعي لحماية الأقليات ضد الخطاب الذي يحض على الكراهية، مع السعي في الوقت ذاته إلى توفير مساحة تتمكن فيها الأقليات من التعبير عن أنفسهم بشكل كامل، بما في ذلك من خلال تغيير دلالات الإهانات البغيضة.

8.1 الامتثال لسياسات المحتوى لدى شركة Meta

1.قواعد المحتوى

يرى المجلس أنه على الرغم من استخدام ألفاظ الإهانات، لا يعتبر المحتوى شكلاً من أشكال الخطاب الذي يحض على الكراهية لأنه يندرج تحت أحد استثناءات سياسة الخطاب الذي يحض على الكراهية لأن ألفاظ الإهانة "استخدمت للإشارة إلى الذات أو بطريقة إيجابية"، ويندرج أيضًا تحت استثناء اقتباس الخطاب الذي يحض على الكراهية بهدف "إدانته أو تعزيز الوعي به."

في القرارات الصادرة بشأن حالتي "حزام وامبوم" و"ميم زري الاختيار"، أشار المجلس إلى أنه من غير الضروري أن يذكر المستخدم نيته من المنشور بشكل صريح حتى يستوفي متطلبات الاستثناء من سياسة الخطاب الذي يحض على الكراهية. ويكفي المستخدم أن يتضح من سياق المنشور أنه يستخدم مصطلحات الخطاب الذي يحض على الكراهية بطريقة تسمح بها السياسة.

ومع هذا، فقد تضمن المحتوى في هذه الحالة بيان المستخدم الذي أشار إلى أنه لم "يقبل أو يشجع على" الاستخدام المسيء لألفاظ الإهانات المعنية لكن المنشور بدلاً من ذلك كان بمثابة "محاولة لمقاومة السرديات السائدة أو تحديها" و"تغيير دلالة هذه المصطلحات المؤذية." وفي حين أن البيانات الواضحة التي تدل على النية قد لا تكون ضرورية دائمًا أو كافية لإضفاء الشرعية على استخدام أو اقتباس الخطاب الذي يحض على الكراهية، فإنه وجودها يجب أن ينبه المُشرف إلى احتمال وجود استثناء قد يتم تطبيقه. في هذه الحالة، يرى المجلس أن بيان النية، مع السياق، يوضح أن المحتوى يندرج تحت الاستثناء بلا لبس.

وعلى الرغم من ذلك، فقد أزالت Meta المحتوى في بادئ الأمر، حيث قرر ثلاثة مشرفين منفصلين أن المحتوى انتهك سياسة الخطاب الذي يحض على الكراهية. وعلى الرغم من وجود عدد من الأسباب الممكنة لإخفاق عدة مشرفين في تصنيف المحتوى بشكل صحيح، لم تتمكن Meta من تقديم تفسيرات محددة لهذا الخطأ لأن الشركة لا تُلزم المشرفين بتسجيل أسباب قراراتهم. وكما ذُكر في القرار الصادر بشأن حالة "حزام وامبوم"، تعكس أنواع الأخطاء والأشخاص أو المجتمعات التي تتحمل تبعات تلك الأخطاء خيارات تصميم أنظمة الإنفاذ على المنصة والتي تخاطر بتقويض حقوق أعضاء المجموعات المضطهدة في حرية التعبير والخطاب. عندما ترصد Meta وجود نمط مستمر من الإنفاذ المفرط بشأن المحتوى فيما يتعلق بالمجموعات المضطهدة أو المهمشة، كما في هذه الحالة، فإنه يجدر بها التحقيق في أسباب قرارات الإنفاذ والنظر فيما يلزم من تعديلات على قواعد الإشراف، أو زيادة التدريب أو الرقابة فيما يتعلق بالقواعد الحالية لتجنب الإنفاذ المفرط الذي قد يثقل كاهل أعضاء المجموعات التي تتعرض حقوق التعبير لديها للخطر بوجه خاص.

2.إجراء الإنفاذ

وضّحت Meta في معرض إجابتها عن أسئلة المجلس أنها استعادت المحتوى إلى المنصة فقط لأنه قد تم تمييزه بواسطة أحد موظفي Meta لإخضاعه لأحد مستويات المراجعة الأعلى. وتعني عبارة "التصعيد للمراجعة" أنه بدلاً من إعادة النظر في القرار من خلال مراجعة واسعة النطاق، والتي غالبًا ما يتم الاستعانة بمصادر خارجية لها، يتم إرسال المحتوى إلى فريق داخلي في Meta. ويبدو أن هذا الإجراء يتطلب من موظف Meta ملاحظة إزالة المحتوى، ثم ملء نموذج ويب داخلي وإرساله لتسليط الضوء على المشكلة. وعلاوة على عنصر المصادفة، لا يمكن لمثل هذه الأنظمة اكتشاف الأخطاء في المحتوى إلا في حالة رؤية أحد موظفي Meta لها. وبناءً على ذلك، فإن المحتوى المكتوب بغير اللغة الإنجليزية، أو المحتوى المنشور من حسابات لا يتابعها الكثير من المتابعين في الولايات المتحدة، أو المحتوى الذي تم إنشاؤه لمجموعات غير ممثلة بشكل جيد داخل Meta من غير المرجح أن يتم ملاحظته وتمييزه وإعطائه اهتمامًا إضافيًا.

كجزء من جهوده على صعيد التواصل، تنامى إلى علم المجلس من خلال المساهمين أن الإنفاذ الدقيق لاستثناءات سياسة الخطاب الذي يحض على الكراهية يتطلب درجة من الخبرة في الموضوع المعني ومعرفة محلية ربما تفتقد إليها Meta أو لا تستطيع تطبيقها دائمًا. يشارك المجلس مخاوفه من أنه ما لم تلتمس Meta بانتظام معطيات من مجموعات الأقليات المستهدفة بالإهانات على مستوى كل بلد على حدة، فلن تتمكن من صياغة قوائم دقيقة لألفاظ الإهانات المحددة ولن تقدم لمشرفيها إرشادات صحيحة بشأن كيفية تطبيق استثناءات سياسة الإهانات كما ينبغي.

8.2 الامتثال لقيم شركة Meta

وجد المجلس أن القرار الأصلي بإزالة المحتوى لم يكن يتسق مع قيم شركة Meta المتمثلة في "حرية الرأي" و"الكرامة" ولم يخدم قيمة "السلامة". وعلى الرغم من اتفاق المجلس مع قيم Meta بمنع استخدام الإهانات للإساءة إلى الأشخاص على منصتها، يعرب المجلس عن قلقه من عدم تطبيق Meta لاستثناءات السياسة بشكل متسق على أشكال التعبير التي تدلي بها المجموعات المهمشة.

في سياق هذه الحالة، تحظى قيمة "حرية الرأي" التي تسعى إلى تعزيز حرية التعبير لدى مجموعة مهمشة بأهمية قصوى. إن Meta محقّة في سعيها إلى الحد من استخدام الإهانات لتشويه سمعة الأشخاص المستهدفين وإخافتهم، والسماح أيضًا بحسن نية بمحاولات تجريد هذه الألفاظ من تأثيراتها السلبية من خلال تغيير دلالاتها.

يدرك المجلس أن انتشار الإهانات يؤثر في "الكرامة". وتحديدًا عند استخدامها بنية الإساءة أو عند غياب القرائن السياقية التي تشير إلى عدم استخدامها بغرض الإساءة، قد يؤدي التعرض لألفاظ الإهانات إلى تخويف المستخدمين أو إغضابهم أو الإساءة إليهم بطرق تقوض حرية التعبير على الإنترنت. وعند وجود قرائن سياقية واضحة تدل على استخدام الإهانات لإدانتها، أو تعزيز الوعي بها، أو استخدامها للإشارة إلى الذات أو بطريقة إيجابية، فإن قيمة "الكرامة" لا تنص على ضرورة إزالة مثل هذه الألفاظ من المنصة. على العكس من ذلك، فإن الإنفاذ المفرط الذي يتجاهل الاستثناءات يؤثر بشكل خاص في الأقليات والمجموعات المهمشة. وكما أوصى المجلس في قرار الحالة "ميم زري الاختيار"، يجب أن تضمن Meta توفر الدعم والموارد الكافية لمشرفيها على نحو يكفل تقييم السياق المتصل بطريقة صحيحة. ومن المهم أن يتمكن المشرفون من التفرقة بين الإشارات المسموح بها إلى الإهانات والاستخدام غير المسموح بها لحماية قيم "حرية الرأي" و"الكرامة" للمستخدمين، لا سيّما أولئك الذين ينتمون إلى مجتمعات مهمشة.

نظرًا لأن "كرامة" و "سلامة" المجتمعات المهمشة تتعرض لمستوى عالٍ من المخاطر على منصات التواصل الاجتماعي، فقد زادت مسؤوليات هذه المنصات تجاه حمايتها. أوصى المجلس بالفعل في قراره الصادر بشأن حالة "حزام وامبوم" أن تجري Meta تقييمات لدقة تطبيق استثناءات سياسة الخطاب الذي يحض على الكراهية. ويمكن تحسين الدقة من خلال تدريب المشرفين على اكتشاف المحتوى الذي يتعلق بأي مجتمعات تعاني من التمييز وإمدادهم بإرشادات تكفل تقييم إمكانية تطبيق استثناءات سياسة الخطاب الذي يحض على الكراهية بعناية. يجب أن يكون تقييم المحتوى، جنبًا إلى جنب مع القرائن السياقية الداعمة، العامل المحفز لتطبيق هذه الاستثناءات.

فيما يتعلق بقيمة "السلامة"، يرى المجلس أيضًا الأهمية الخاصة لوجود كل من المساحات الآمنة على الإنترنت والإشراف الحريص على المحتوى الذي يتعلق بالمجتمعات المهمشة والمعرضة للتهديدات. يواجه أعضاء مجتمع الميم من الناطقين باللغة العربية، لا سيّما في منطقة الشرق الأوسط وشمال أفريقيا، درجة من الخطورة عند التعبير عن أنفسهم بشكل منفتح على الإنترنت. يجب على Meta الموازنة بين الحاجة إلى توفير ساحات داعمة لهذا التعبير وضمان عدم الإفراط في الإشراف وإسكان الأشخاص الذين يواجهون الرقابة والقمع بالفعل. وفي حين يقر المجلس بتعقيد الإشراف في هذا المجال، لا سيّما على نطاق واسع، يجب على المنصات أن تستثمر في الموارد الضرورية للقيام بذلك على نحو صحيح.

8.3 الامتثال لمسؤوليات شركة Meta تجاه حقوق الإنسان

خلُص المجلس إلى أن قرار Meta الأولي بإزالة المحتوى لم يكن يتسق مع مسؤولياتها كشركة تجاه حقوق الإنسان. ألزمت شركة Meta نفسها باحترام حقوق الإنسان بموجب مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان (UNGP). وتنص سياسة حقوق الإنسان الخاصة بشركة فيسبوك على أن ذلك يتضمن العهد الدولي الخاص بالحقوق المدنية والسياسية (ICCPR).

1. حرية التعبير (المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية)

تنص المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية على توفير حماية واسعة لحرية التعبير، بما في ذلك مناقشة حقوق الإنسان وأوجه التعبير التي قد تعتبر "مسيئة للغاية" (التعليق العام رقم 34، الفقرة 11). الحق في حرية التعبير مكفول لجميع الأشخاص دون تمييز على أساس "الجنس" أو أي "حالة أخرى" (المادة 2، الفقرة 1، العهد الدولي الخاص بالحقوق المدنية والسياسية). وهو ما يتضمن التوجه الجنسي والهوية الجنسية (تونين ضد أستراليا (1992)؛ A/HRC/19/41، الفقرة 7).

يرتبط هذا المنشور بقضايا اجتماعية مهمة تتعلق بالتمييز ضد أعضاء مجتمع الميم. أشار مفوض الأمم المتحدة السامي المعني بحقوق الإنسان إلى مخاوف بشأن فرض قيود على حرية التعبير نتيجة القيود التمييزية المفروضة على تأييد حقوق أعضاء مجتمع الميم (A/HRC/19/41، الفقرة 65).

تنص المادة 19 على أنه عند فرض الدولة لقيود على حرية التعبير، يجب أن تفي تلك القيود بمتطلبات الشرعية والهدف المشروع والضرورة والتناسب (المادة 19، الفقرة 3، العهد الدولي الخاص بالحقوق المدنية والسياسية). استنادًا إلى إطار عمل مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان، دعا مقرر الأمم المتحدة الخاص المعنى بحرية الرأي والتعبير شركات وسائل التواصل الاجتماعي إلى ضمان استرشاد قواعد المحتوى التي تتبعها بمتطلبات الفقرة 3 من المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية (A/HRC/38/35، الفقرتان 45 و70).

1. الشرعية (وضوح القواعد وسهولة الوصول إليها)

ينص متطلب الشرعية على أن تكون أي قيود تُفرض على حرية التعبير متاحة وواضحة بما يكفي لتوفير إرشادات حول الأمور المسموح بها وغير المسموح بها.

أوصى المجلس في قراره بشأن الحالة "أعراض سرطان الثدي والعُري" (‎2020-004-IG-UA، التوصية رقم 9)، والقرار الصادر بشأن الحالة "عزلة أوجلان" (‎2021-006-IG-UA، التوصية رقم 10) والرأي الاستشاري بشأن السياسة والذي يتعلق بمشاركة معلومات خاصة عن محل الإقامة (التوصية رقم 9) أن على Meta أن توضح لمستخدمي Instagram أن معايير مجتمع فيسبوك تنطبق على Instagram بنفس قدر انطباقها على فيسبوك، مع بعض الاستثناءات. في الرأي الاستشاري بشأن السياسة، أوصى المجلس أن تنتهي Meta من ذلك في غضون 90 يومًا. يرى المجلس رد Meta على الرأي الاستشاري بشأن السياسة أنه، على الرغم من أن هذه التوصية ستنفذ بالكامل، فإن Meta لا تزال تعمل على وضع إرشادات مجتمع Instagram أكثر شمولية توضح علاقتها بمعايير مجتمع فيسبوك ولا يمكنها الالتزام بمهلة الـ 90 يومًا. وقد أكد المجلس على هذه التوصية في عدة مناسبات، مما دفعه إلى الاعتقاد بأن Meta كان لديها ما يكفي من الوقت للاستعداد لهذه التغييرات. تعد العلاقة غير الواضحة بين إرشادات مجتمع Instagram ومعايير مجتمع فيسبوك مصدرًا للإرباك المستمر لمستخدمي منصات Meta. وفي الوقت الحالي، وعلى الرغم من احتواء إرشادات مجتمع Instagram على رابط إلى معايير مجتمع فيسبوك بشأن الخطاب الذي يحض على الكراهية، فإنه لا يتضح للمستخدم أن معيار مجتمع فيسبوك بشأن الخطاب الذي يحض على الكراهية بالكامل، بما في ذلك حظر الإهانات، والاستثناءات، ينطبق على Instagram. وتظل التحديثات السريعة والشاملة لإرشادات مجتمع Instagram أولوية قصوى من أولويات المجلس.

فيما يتعلق بوضع قائمة بالإهانات، يكرر المجلس ما سبق أن أشار إليه في حالة "الإهانات في جنوب أفريقيا" (‎2021-011-FB-UA) من ضرورة تحلي Meta بمزيد من الشفافية تجاه إجراءات ومعايير وضع القائمة. في هذه الحالة، وضّحت Meta أنها تضع قوائم بالإهانات لكل سوق محدد استنادًا إلى "التحليل والتدقيق الذي يجريه الشركاء الداخليون مثل فِرق المعالجة والأسواق وسياسة المحتوى." ذكرت Meta أيضًا أن خبراء الأسواق لديها يجرون عمليات تدقيق سنوية لقوائم الإهانات، حيث يتم تقييم كل لفظ نوعيًا وكميًا، مع التمييز بين "الكلمات المسيئة بطبيعتها، حتى إذا ذُكرت بمفردها، والكلمات التي ليست مسيئة بطبيعتها." من غير الواضح بالنسبة إلى المجلس متى تجري هذه المراجعة السنوية، ولكن بعد تحديد المجلس لهذه الحالة، قامت Meta بتدقيق استخدام كلمة "ز**ل." بعد هذا التدقيق، أزيلت الكلمة من قائمة الإهانات "العربية" وظلت مدرجة بقائمة الإهانات في "السوق المغربي." لا يعلم المجلس ما إذا كان هذا التدقيق جزءًا من إجراءات دورية أو مراجعة مخصصة استجابة لتحديد هذه الحالة من قبل المجلس. على نحو أعم، لا يتضح للمجلس ما يترتب على التقييمات النوعية والكمية التي يتم إجراؤها سنويًا.

لا تتوفر للمستخدمين معلومات عن العمليات والمعايير المتبعة عند وضع قوائم الإهانات وتحديد الأسواق، لا سيّما فيما يتعلق بكيفية التفرقة بين الأسواق اللغوية والجغرافية. دون توفر هذه المعلومات، قد يواجه المستخدمون صعوبة في تقييم الكلمات التي قد تشكّل إهانات، وذلك عند الاعتماد فقط على تعريف الإهانات في سياسة الخطاب الذي يحض على الكراهية والتي تستند إلى مفاهيم ذاتية من الإساءة المتأصلة والطبيعة المهينة (A/74/486، الفقرة 46؛ راجع أيضًا A/HRC/38/35، الفقرة 26).

فيما يتعلق بكيفية إنفاذ قائمة الإهانات، ذكرت Meta في حالة "الإهانات في جنوب أفريقيا ((‎2021-011-FB-UA) أن حظرها للإهانات عالميًا، لكنها تحدد الإهانات لكل سوق معين." وقد وضّحت أنه "إذا ظهر لفظ ما في قائمة الألفاظ المهينة لأحد الأسواق، فإن سياسة الخطاب الذي يحض على الكراهية تحظر استخدامه في هذا السوق." ويُعد تفسير Meta محيرًا بشأن ما إذا كانت ممارسات الإنفاذ، والتي قد تكون عالمية في نطاقها، تعني أن الإهانات المحددة في سوق ما محظورة أيضًا على مستوى العالم. أوضحت Meta أنها تعرّف السوق بأنه "مزيج من البلد (البلدان) واللغة (اللغات)/اللهجة (اللهجات)" وأن التقسيم بين ...السوق [الأسواق] يستند بالأساس إلى مزيج من اللغات/اللهجات والبلد الخاص بالمحتوى." وبالنسبة إلى مراجعي المحتوى في Meta فإنه "يتم تخصيصهم للأسواق استنادًا إلى استعدادهم اللغوي والثقافي ومعرفتهم بالسوق." وفقًا لشركة Meta، تضمن هذا المحتوى السوق العربي والمغربي في قائمة الإهانات. وقد تم توجيهه إلى هذه الأسواق "استنادًا إلى مزيج يتألف من عدة عوامل مثل الموقع واللغة واللهجة التي تم اكتشافها في المحتوى، ونوع المحتوى ونوع البلاغ." ولا تتضح للمجلس بالشكل الكافي آلية عمل الإشارات المتعددة معًا لتحديد الأسواق التي قد يرتبط بها أحد عناصر المحتوى، وما إذا كان المحتوى الذي يتضمن كلمة تشكّل إهانة في سوق معين سيزال فقط إذا كان المحتوى يتعلق بهذا السوق، أم ستتم إزالته على المستوى العالمي. لا يوضح معيار المجتمع ذاته هذه العملية.

ينبغي على Meta إصدار تفسير شامل لكيفية إنفاذ سياسة الإهانات على المنصة. وهناك عدد من الجوانب المبهمة في السياسة الحالية، بما في ذلك ما إذا كانت الإهانات المحددة لمناطق جغرافية معينة تُزال من المنصة فقط عند نشرها في هذه المناطق الجغرافية أو عند مشاهدتها في هذه المناطق الجغرافية، أو بغض النظر عن مكان نشرها أو مشاهدتها. ينبغي على Meta أيضًا توضيح طريقتها في التعامل مع الكلمات التي تشكّل إهانة في بعض السياقات لكن لها معنى مختلف تمامًا، لا ينتهك أي من سياسات Meta، في أي مكان آخر.

قد تتسبب بنية معيار المجتمع بشأن الخطاب الذي يحض على الكراهية بعض الإرباك. على الرغم من ظهور حظر الإهانات أسفل العنوان الخاص بالخطاب الذي يحض على الكراهية من الطبقة الثالثة، يرى المجلس أنه من غير الواضح ما إذا كان الحظر يندرج تحت الطبقة الثالثة كإهانات لا تستهدف بالضرورة الأشخاص الذين يعانون من التمييز أو الإقصاء، وهو ما يركز عليه باقي هذه الطبقة.

2.الهدف المشروع

ينبغي أن تستند أي قيود مفروضة على حرية التعبير إلى أحد الأهداف المشروعة الواردة في العهد الدولي الخاص بالحقوق المدنية والسياسية، والتي من بينها "حقوق الآخرين". سعت السياسة التي بين أيدينا في هذه الحالة إلى تحقيق الهدف المشروع المتمثل في حماية حقوق الآخرين (التعليق العام رقم 34، الفقرة 28) في المساواة والحماية ضد العنف والتمييز على أساس التوجه الجنسي والهوية الجنسية (المادة 2، الفقرة 1، والمادة 26 من العهد الدولي الخاص بالحقوق المدنية والسياسية؛ اللجنة المعنية بحقوق الإنسان، تونين ضد أستراليا (1992)؛ مجلس حقوق الإنسان بالأمم المتحدة القرار 32/2 بشأن الحماية ضد العنف والتمييز على أساس التوجه الجنسي والهوية الجنسية).

3. الضرورة والتناسب

يقتضي مبدأ الضرورة والتناسب أن تكون أي تقييدات يتم فرضها على حرية التعبير "مناسبة لتحقيق وظيفتها الحمائية، ويجب أن تكون أقل الوسائل تدخلاً مقارنة بغيرها من الوسائل التي يمكن أن تحقق النتيجة المنشودة؛ [و] يجب أن تكون متناسبة مع المصلحة التي ستحميها" (التعليق العام رقم 34، الفقرة 34).

لم يكن من الضروري إزالة المحتوى في هذه الحالة لأن الإزالة نتجت عن خطأ واضح لا يتفق مع أحد استثناءات سياسات Meta بشأن الخطاب الذي يحض على الكراهية. لم تكن الإزالة هي الوسيلة الأقل تدخلاً لتحقيق الهدف المشروع لأنه، في كل عملية مراجعة تسفر عن إزالة، كان العنصر الدوّار الذي يحتوي على 10 صور يزال بالكامل بسبب انتهاك صورة واحدة للسياسة المزعومة. حتى إذا تضمن العنصر الدوّار صورة واحدة تحتوي على إهانات محظورة لا تندرج تحت أي استثناء، فإن إزالة العنصر الدوّار بالكامل لا تشكّل استجابة متناسبة.

وضّحت Meta للمجلس أن "المنشور يعتبر مخالفًا إذا تضمنت أي من صوره مخالفة لمعايير المجتمع" و"على عكس فيسبوك، لا يمكن لشركة Meta حذف صورة واحدة من منشور متعدد الصور على Instagram." ذكرت Meta وجود مقترح بتحديث أداة مراجعة المحتوى يهدف إلى تمكين المراجعين من إزالة الصورة المخالفة فقط في العنصر الدوّار، لكن هذا التحديث لم يوضع في أولوياتها. يرى المجلس أن هذا التفسير غير واضح، ويعتقد بأن عدم وضع هذا التحديث ضمن الأولويات قد يؤدي إلى إفراط منهجي في الإنفاذ حيث تتم إزالة عنصر دوّار بالكامل حتى في حالة اقتصار الانتهاك على بعض عناصره فقط. يرى المجلس أيضًا أنه، عندما ينشر أحد المستخدمين نفس السلسلة من الصور على فيسبوك وInstagram، قد يؤدي التعامل المختلف مع هذا النوع من المحتوى على المنصتين إلى نتائج غير متسقة وهو ما لا ينص عليه أي فرق مفهوم في السياسة: إذا كانت إحدى الصور مخالفة، فسيؤدي ذلك إلى إزالة العنصر الدوّار بالكامل على Instagram، دون أن يحدث نفس الأمر على فيسبوك.

2.عدم التمييز

نظرًا لأهمية تغيير دلالات الألفاظ الازدرائية الموجهة إلى أعضاء مجتمع الميم ودورها في مواجهة التمييز، يتوقع المجلس أن تتحلى شركة Meta بحساسية خاصة تجاه احتمال إزالة المحتوى عن طريق الخطأ في هذه الحالة والمحتوى المماثل على فيسبوك وInstagram. كما أشار المجلس في قراره بشأن حالة "حزام وامبوم" (‎2021-012-FB-UA) فيما يتعلق بالتعبير الفني من السكان الأصليين، لا يكفي تقييم أداء إنفاذ Meta لسياسة فيسبوك بشأن الخطاب الذي يحض على الكراهية ككل - يجب مراعاة التأثيرات التي تقع على المجموعات المهمشة تحديدًا. بموجب مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان، "ينبغي لمؤسسات الأعمال التجارية أن تولي اهتمامًا خاصًا لأي آثار معينة لحقوق الإنسان على الأفراد من الجماعات أو السكان الأكثر عرضة لخطر متزايد من الضعف أو التهميش" (مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان، المبادئ 18 و20). بالنسبة لأعضاء مجتمع الميم في البلدان التي يتعرضون فيها لعقوبات عند التعبير عن توجهاتهم، غالبًا ما تكون وسائل التواصل الاجتماعي هي الوسيلة الوحيدة التي يظل بإمكانهم من خلالها التعبير عن أنفسهم بحرية. وهذا هو ما حدث بشكل خاص بالنسبة إلى Instagram، حيث تسمح إرشادات المجتمع للمستخدمين بعدم استخدام أسمائهم الحقيقية. يرى المجلس أن نفس الحريات غير متوفرة لمستخدمي فيسبوك في معايير المجتمع. من المهم بالنسبة إلى شركة Meta أن تبرهن على أنها تبذل العناية الواجبة بحقوق الإنسان لضمان عمل أنظمتها بشكل عادل وعدم إسهامها في التمييز (مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان، المبدأ 17). يرى المجلس أن Meta تُجري تقييمات روتينية لدقة أنظمة الإنفاذ لديها فيما يتعلق بالتعامل مع الخطاب الذي يحض على الكراهية (القرار الصادر بشأن حالة "حزام وامبوم"). ومع ذلك، لم يتم تقسيم هذه التقييمات إلى تقييمات للدقة تقيس تحديدًا قدرة Meta على التمييز بين الخطاب الذي يحض على الكراهية غير المسموح به والمحتوى المسموح به الذي يحاول تغيير دلالة الألفاظ الازدرائية.

تشير الأخطاء في هذه الحالة إلى أن توجيهات شركة Meta للمشرفين الذين يعملون على تقييم الإشارات إلى الألفاظ الازدرائية قد لا تكون كافية. ويعرب المجلس عن مخاوفه تجاه احتمال عدم توفر الموارد الكافية على صعيد السعة الاستيعابية أو التدريب للمراجعين بشكل يحول دون وقوع نوع الأخطاء الذي شهدناه في هذه الحالة، لا سيّما فيما يتعلق بالمحتوى المسموح به بموجب استثناءات السياسة. في هذه الحالة، أخطرت Meta المجلس بأن الأسئلة المعروفة ومعايير التنفيذ الداخلية تتوفر باللغة الإنجليزية فقط بهدف "ضمان إنفاذ قياسي على مستوى العالم" لسياساتها، وأن "جميع مشرفي المحتوى بها يتحدثون الإنجليزية بطلاقة." في قراره بشأن حالة "البرنامج التلقائي لميانمار" (‎2021-007-FB-UA)، أوصى المجلس شركة Meta بأن تضمن توفر جميع معايير الإنفاذ الداخلية باللغة التي يستخدمها مشرفو المحتوى أثناء المراجعة. لم تتخذ Meta أي إجراء إضافي بشأن هذه التوصية، وقدمت ردًا مشابهًا يفيد بأن مشرفي المحتوى لديها يتحدثون الإنجليزية بطلاقة. يلاحظ المجلس أن توفير إرشادات للمراجعين باللغة الإنجليزية حول كيفية الإشراف على المحتوى المكتوب بلغة أخرى يشكّل تحديًا في حد ذاته. عادة ما تستند معايير التنفيذ الداخلية والأسئلة المعروفة إلى تراكيب اللغة الإنجليزية التي قد لا تنطبق على اللغات الأخرى، مثل اللغة العربية.

في قراره الصادر بشأن حالة "حزام وامبوم" (‎2021-012-FB-UA، التوصية رقم 3)، أوصى المجلس Meta بإجراء تقييمات للدقة تركز على استثناءات سياسة الخطاب الذي يحض على الكراهية والتي تغطي أوجه التعبير ذات الصلة بانتهاكات حقوق الإنسان (على سبيل المثال، الإدانة وتعزيز الوعي والاستخدام للإشارة الذاتية والاستخدام بطريقة إيجابية)، وبضرورة نشر نتائج التقييم، بما في ذلك مدى الاعتماد على هذه النتائج في تحسين عمليات الإنفاذ وتطوير السياسة. أصدر المجلس هذه التوصية استنادًا إلى إدراكه لحقيقة أن الإفراط في إزالة أوجه التعبير المتعلقة بانتهاكات حقوق الإنسان له تكاليف باهظة بشكل خاص. يلاحظ المجلس مخاوف Meta بشأن توصيته التي تنص على تقييم الجدوى، بما في ذلك (أ) عدم وجود فئات محددة في سياساتها تتناول الاستثناءات الخاصة بجوانب مثل انتهاكات حقوق الإنسان، و(ب) عدم وجود نماذج يسهل اكتشافها وتحديدها من المحتوى الذي يندرج تحت استثناءات سياسة الخطاب الذي يحض على الكراهية. يرى المجلس أن هذه التحديات يمكن التغلب عليها، حيث يمكن لشركة Meta تركيز التحليل على الاستثناءات الحالية لسياسة الخطاب الذي يحض على الكراهية ووضع الأولوية على اكتشاف نماذج من المحتوى. يحث المجلس Meta على الالتزام بتنفيذ التوصيات الصادرة في حالة "حزام وامبوم" (‎2021-012-FB-UA) ويرحب بالتحديثات الواردة من Meta في تقريرها ربع السنوي القادم.

9. قرار مجلس الإشراف

ألغى مجلس الإشراف قرار شركة Meta الأصلي بإزالة المحتوى.

10. البيان الاستشاري بشأن السياسة

الإنفاذ

1. يجب أن تترجم Meta معايير التنفيذ الداخلية والأسئلة المعروفة إلى اللغة العربية القياسية الحديثة. قد يحد ذلك من الإفراط في تطبيق إجراءات الإنفاذ في المناطق الناطقة باللغة العربية من خلال مساعدة المشرفين على التقييم بشكل أفضل في حالة وجود ما يبرر استثناءات المحتوى الذي يتضمن إهانات. يرى المجلس أن Meta لم تتخذ أي إجراءات إضافية استجابة لتوصيته في حالة "البرنامج التلقائي لميانمار" (‎2021-007-FB-UA)، والتي تنص على أن تضمن شركة Meta توفر جميع معايير الإنفاذ الداخلية باللغة التي يستخدمها مشرفو المحتوى أثناء المراجعة. سيعتبر المجلس هذه التوصية قد دخلت حيز التنفيذ عندما تخطر Meta المجلس باكتمال الترجمة إلى اللغة العربية القياسية الحديثة.

الشفافية

2. يجب على Meta نشر تفسير واضح لطريقتها في إنشاء قوائم إهانات مخصصة لسوق معين. يجب أن يتضمن هذا التفسير العمليات والمعايير المستخدمة لتحديد الإهانات والبلدان لكل قائمة مخصصة لسوق معين. سيعتبر المجلس أن هذه التوصية قد دخلت حيز التنفيذ بمجرد نشر المعلومات في مركز الشفافية.

3. يجب على Meta نشر تفسير واضح لطريقتها في إنفاذ قوائم إهانات مخصصة لسوق معين. يجب أن يتضمن هذا التفسير العمليات والمعايير التي تحدد بدقة متى وأين سيتم تطبيق حظر هذه الإهانات، سواء فيما يتعلق بالمنشورات التي تم إنشاؤها جغرافيًا من المنطقة المعنية، و/أو التي تم إنشاؤها خارجها ولكنها تتعلق بالمنطقة المعنية و/أو فيما يتعلق بكل المستخدمين في المنطقة المعنية، بغض النظر عن الأصل الجغرافي للمنشور. سيعتبر المجلس أن هذه التوصية قد دخلت حيز التنفيذ بمجرد نشر المعلومات في مركز شفافية Meta.

4. يجب على Meta نشر تفسير واضح لطريقتها في تدقيق قوائم إهانات مخصصة لسوق معين. يجب أن يتضمن التفسير العمليات والمعايير الخاصة بإزالة الإهانات من قوائم Meta لكل سوق أو الإبقاء عليها بتلك القوائم. سيعتبر المجلس أن هذه التوصية قد دخلت حيز التنفيذ بمجرد نشر المعلومات في مركز شفافية Meta.

*ملاحظة إجرائية:

يتم إعداد قرارات مجلس الإشراف من قِبل لجان مكونة من خمسة أعضاء ويتم اعتمادها من أغلبية أعضاء المجلس. ولا يلزم بالضرورة أن تُعبّر قرارات المجلس عن وجهات النظر الشخصية لجميع الأعضاء.

بالنسبة إلى القرار المتخذ بشأن هذه الحالة، تم إجراء بحث مستقل نيابة عن المجلس. معهد أبحاث مستقل يقع مقره في جامعة جوتنبرج ويعتمد على فريق مكون من أكثر من 50 عالم اجتماع من ست قارات، فضلاً عن أكثر من 3200 خبير محلي من جميع أنحاء العالم. وقد تلقى المجلس أيضًا مساعدة من شركة Duco Advisors، وهي شركة تركز على نقطة التقاء الجغرافيا السياسية والثقة والأمان والتكنولوجيا. وقد تم تقديم الخبرة اللغوية من شركة Lionbridge Technologies LLC، التي يتقن المتخصصون بها أكثر من 350 لغة ويعملون من 5000 مدينة حول العالم.

العودة إلى قرارات الحالة والآراء الاستشارية المتعلقة بالسياسة