أسقط

منشور باللغة البولندية يستهدف الأشخاص المتحولين جنسيًا

ألغى مجلس الإشراف قرار Meta الأصلي بترك منشور على فيسبوك استهدف فيه أحد المستخدمين الأشخاص المتحولين جنسيًا بخطاب ينطوي على عنف يدعو أعضاء هذه المجموعة إلى الانتحار.

نوع القرار

معيار

السياسات والمواضيع

عنوان
المساواة بين الجنسين، مثليون

المناطق/البلدان

موقع
بولندا

منصة

منصة
Facebook

لقراءة هذا القرار باللغة البولندية، انقر هنا.

Kliknij tutaj, aby przeczytać postanowienie w języku polskim.

الملخص

ألغى مجلس الإشراف قرار Meta الأصلي بترك منشور على فيسبوك استهدف فيه أحد المستخدمين الأشخاص المتحولين جنسيًا بخطاب ينطوي على عنف يدعو أعضاء هذه المجموعة إلى الانتحار. وجد المجلس أن المنشور ينتهك معايير المجتمع بشأن الخطاب الذي يحض على الكراهية والانتحار وإيذاء الذات. ومع ذلك، لا تتعلق المشكلة الأساسية في هذه الحالة بالسياسات، وإنما بإنفاذها. ومع تكرار فشل Meta في اتخاذ إجراء الإنفاذ الصحيح، على الرغم من تعدد الإشارات التي تُشير إلى احتواء المنشور على محتوى ضار، يستنتج المجلس أن الشركة لا ترقى إلى مستوى المُثُل التي عبّرت عنها بشأن سلامة أعضاء مجتمع الميم (LGBTQIA+‎). ويحث المجلس شركة Meta على سد الفجوات التي تكتنف الإنفاذ، بما يشمل تحسين الإرشادات الداخلية للمراجعين.

حول هذه الحالة

في أبريل 2023، نشر أحد مستخدمي فيسبوك في بولندا صورة لستارة مخططة بألوان الأزرق والوردي والأبيض لعلم المتحولين جنسيًا، مع نص باللغة البولندية يقول: "تكنولوجيا جديدة ... ستائر تعلّق نفسها"، وكُتب أعلى ذلك النص، "تنظيف الربيع <3". وتتضمن السيرة الذاتية للمستخدم الوصف التالي: "أنا كاره للمتحولين جنسيًا". وقد حصل المنشور على أقل من 50 تفاعل.

خلال الفترة من أبريل إلى مايو 2023، أبلغ 11 مستخدمًا مختلفًا عن المنشور بإجمالي 12 مرة. أعطت أنظمة Meta التلقائية أولوية المراجعة البشرية لبلاغين فقط من أصل 12 بلاغًا، وتم إغلاق باقي البلاغات. قد تم إرسال البلاغين إلى المراجعة البشرية لاحتمال انتهاك معيار فيسبوك بشأن الانتحار وإيذاء الذات، وتم اعتبارهما بعد التقييم غير مخالفين. ولم يتم إرسال أي من البلاغات التي تستند إلى سياسة الخطاب الذي يحض على الكراهية إلى المراجعة البشرية.

تقدم ثلاثة مستخدمين بعد ذلك بطعن على قرار Meta بترك المنشور على فيسبوك، حيث أسفر طعن منهم عن قيام المراجع البشري بتأييد القرار الأصلي استنادًا إلى معيار المجتمع بشأن الانتحار وإيذاء الذات. ومرة أخرى، لم يتم إرسال الطعون الأخرى المقدمة بموجب معيار المجتمع بشأن الخطاب الذي يحض على الكراهية إلى المراجعة البشرية. وأخيرًا، تقدَّم أحد المستخدمين الذين أبلغوا عن المحتوى في الأصل بطعن إلى المجلس. نتيجةً لوقوع اختيار المجلس على هذه الحالة، قررت Meta أن المنشور انتهك سياسة الخطاب الذي يحض على الكراهية وسياسات الانتحار وإيذاء الذات وأزالته من فيسبوك. بالإضافة إلى ذلك، قامت الشركة بتعطيل حساب المستخدم الذي نشر المحتوى لوجود عدة انتهاكات سابقة.

أهم النتائج

وجد المجلس أن المحتوى انتهك سياسة Meta بشأن الخطاب الذي يحض على الكراهية لأنه يتضمن "خطابًا ينطوي على عنف" في صورة دعوة مجموعة لديها سمة تتمتع بحقوق حماية إلى الموت عن طريق الانتحار. وقد أدى المنشور الذي يؤيد الانتحار في أوساط المتحولين جنسيًا إلى خلق جو من الترهيب والإقصاء، وكان من الممكن أن يتسبب في حدوث ضرر بدني. وبالنظر إلى طبيعة النص والصورة، أدى المنشور أيضًا إلى تفاقم أزمة الصحة النفسية التي يعاني منها أعضاء مجتمع المتحولين جنسيًا. ويُشير تقرير حديث صادر عن تحالف المثليين والمثليات ضد التشهير (GLAAD) إلى "الأثر النفسي المؤلم للغاية الناتج عن التعرض المستمر للإهانات والسلوك البغيض" على الإنترنت. يجد المجلس دعمًا إضافيًا لاستنتاجه في السياق الأوسع للأضرار التي يواجهها مجتمع الميم (LGBTQIA+‎) على الإنترنت وعلى أرض الواقع في بولندا، بما في ذلك الهجمات والخطاب السياسي الصادر عن شخصيات حكومية وعامة مؤثرة.

يشعر المجلس بالقلق من عدم التقاط المراجعين البشريين للقرائن السياقية. وقد شكَّلت إشارة المنشور إلى ارتفاع خطر الانتحار ("الستائر التي تعلّق نفسها") وتأييد موت هذه الفئة ("تنظيف الربيع") انتهاكات واضحة لمعيار المجتمع بشأن الخطاب الذي يحض على الكراهية، في حين أن تعريف منشئ المحتوى لذاته على أنه كاره للمتحولين جنسيًا يشكّل، وحده، انتهاكًا آخر. يحث المجلس Meta على تحسين دقة إنفاذ سياسة الخطاب الذي يحض على الكراهية فيما يتعلق بأعضاء مجتمع الميم (LGBTQIA+‎)، وبالأخص عندما تتضمن المنشورات صورًا ونصوصًا تتطلب سياقًا لتفسيرها. في هذه الحالة، نجد أن الإشارات المشفّرة نوعًا ما إلى الانتحار وإيراد تصوير مرئي لمجموعة تتمتع بالحماية (عَلَم المتحولين جنسيًا) شكّل نوعًا من "الإبداع الخبيث". ويُمثل ذلك مؤشرًا على قيام المسيئين باستحداث وسائل جديدة لاستهداف مجتمع الميم (LGBTQIA+‎) من خلال المنشورات والميمات التي يتذرعون بأنها من قبيل "الدعابة أو السخرية"، ولكنها في الواقع كراهية أو إساءة.

علاوةً على ذلك، يشعر المجلس بالانزعاج من بيان Meta بأن فشل المراجعين البشريين في إزالة المحتوى تتماشى مع التطبيق الصارم لإرشاداتها الداخلية. قد يُشير ذلك إلى أن إرشادات Meta الداخلية لا تراعي بالقدر الكافي آلية تفاعل النصوص والصور لتمثيل مجموعة محددة من خلال الهوية الجنسية لأفرادها.

في حين أن المنشور قد انتهك أيضًا وبوضوح معيار مجتمع فيسبوك بشأن الانتحار وإيذاء الذات، يرى المجلس ضرورة أن تحظر هذه السياسة بشكل أكثر وضوحًا المحتوى الذي يروّج الانتحار ويستهدف مجموعة محددة من الأشخاص، بدلاً من استهداف شخص واحد في تلك المجموعة.

في هذه الحالة، أثرت أنظمة ترتيب أولوية المراجعة البشرية بشكل كبير في عملية الإنفاذ، بما في ذلك كيفية تعامل الشركة مع تعدد البلاغات بشأن عنصر محتوى واحد. وتراقب Meta وتحذف (تزيل) البلاغات المكررة من أجل "ضمان اتساق قرارات المراجعة وإجراءات الإنفاذ". وتضمنت الأسباب الأخرى لإغلاق البلاغات تلقائيًا انخفاض درجة خطورة المحتوى وانخفاض درجة انتشاره (عدد المشاهدات التي حققها المحتوى)، مما يعني أنه لم تتم وضع أولوية على المحتوى ليخضع للمراجعة البشرية. في هذه الحالة، يعتقد المجلس أنه كان من الممكن أخذ السيرة الذاتية للمستخدم في الحسبان كإشارة ذات صلة عند تحديد درجة الخطورة.

يعتقد المجلس أن على Meta الاستثمار بدرجة أكبر في تطوير أدوات التصنيف التي تكتشف المحتوى المخالف المحتمل الذي يؤثر في مجتمع الميم (LGBTQIA+‎) وتحسين تدريب المراجعين البشريين على الأضرار ذات الصلة بالهوية الجنسية.

قرار مجلس الإشراف

ألغى مجلس الإشراف قرار شركة Meta الأصلي بإبقاء المحتوى.

أوصى المجلس Meta بما يلي:

  • توضيح في صفحة سياستها بشأن الانتحار وإيذاء الذات بأن هذه السياسة تحظر المحتوى الذي يروّج أو يشجّع على الانتحار ويستهدف مجموعة محددة من الأشخاص.
  • تعديل الإرشادات الداخلية التي تقدمها للمراجعين الذين يعملون على نطاق واسع لضمان فهم عمليات التصوير المرئي للهوية الجنسية من خلال استخدام الأعلام وليس الشكل البشري كأدوات لتمثيل مجموعة من الأشخاص تُعرف من خلال الهوية الجنسية لأعضائها.

* توفِّر ملخصات الحالة نظرة عامة على الحالة ولا تُشكّل سابقة قانونية.

القرار الكامل للمجلس بشأن الحالة

1. ملخص القرار

يلغى مجلس الإشراف قرار Meta الأصلي بترك عنصر محتوى باللغة البولندية على فيسبوك استهدف فيه أحد المستخدمين الأشخاص المتحولين جنسيًا بخطاب عنيف دعا أعضاء هذه المجموعة إلى الانتحار. بعد أن وقع اختيار المجلس على هذه الحالة لمراجعتها، خلُصت Meta إلى أن قراراها الأصلي بترك المنشور على المنصة كان خاطئًا، وأزالت المحتوى وفرضت عقوبات. يرى المجلس أن المنشور انتهك معايير المجتمع بشأن الخطاب الذي يحض على الكراهية والانتحار وإيذاء الذات. ينتهز المجلس هذه الفرصة ليحث Meta على تحسين سياساتها وإرشاداتها للمراجعين بهدف توفير حماية أفضل للمتحولين جنسيًا على منصاتها. وعلى وجه الخصوص، عند تقييم إذا ما كان المنشور يشكِّل خطابًا يحض على الكراهية، يجب أن تضمن Meta أنه يتم فهم عمليات التصوير المرئي للهوية الجنسية من خلال استخدام الأعلام وليس الشكل البشري كأدوات لتمثيل مجموعة من الأشخاص تُعرف من خلال الهوية الجنسية لأعضائها. يجب أن توضِّح Meta أيضًا أن حث مجموعة كاملة من الأشخاص على الانتحار هو انتهاك مماثل تمامًا لحث شخص واحد على الانتحار. ومع ذلك، يرى المجلس أن المشكلة الأساسية في هذه الحالة لا تتعلق بالسياسات، وإنما بإنفاذها. حتى كما هو مكتوب، كانت السياسات تحظر بوضوح هذا المنشور، والذي تضمَّن عدة إشارات إلى الخطاب الذي يحض على الكراهية والذي يستهدف مجموعة من الأشخاص على أساس هويتهم الجنسية. ومع تكرار فشل Meta في اتخاذ إجراء الإنفاذ الصحيح في هذه الحالة، على الرغم من تعدد بلاغات المستخدمين، يستنتج المجلس أن Meta غير ناجحة في الارتقاء إلى مستوى المُثُل التي عبّرت عنها بشأن سلامة أعضاء مجتمع الميم (LGBTQIA+‎). يحث المجلس Meta على سد هذه الفجوات في الإنفاذ.

2. وصف الحالة ومعلومات أساسية عنها

في أبريل 2023، نشر مستخدم على فيسبوك في بولندا صورة لستارة مخططة بألوان علم المتحولين جنسيًا وهي الأزرق والوردي والأبيض. وقد كُتب على الصورة باللغة البولندية: "تكنولوجيا جديدة. ستائر تعلِّق نفسها". وأعلى هذا السطر، ورد نص آخر باللغة البولندية يقول: "تنظيف الربيع <3." وقد ورد وصف باللغة البولندية في السيرة الذاتية للمستخدم يقول فيه: "أنا كاره للمتحولين جنسيًا". حصل المنشور على أقل من 50 تفاعلاً من مستخدمين آخرين، معظمها تفاعلات إيجابية. وكان أكثر رمز تعبيري مستخدَم من بين التفاعلات هو "هاهاها".

خلال الفترة من أبريل إلى مايو 2023، أبلغ 11 مستخدمًا مختلفًا عن المحتوى بإجمالي 12 مرة. ولم تمنح أنظمة Meta التلقائية أولوية المراجعة البشرية في 10 من هذه البلاغات لأسباب متنوعة، بما في ذلك "انخفاض درجة الخطورة وسرعة الانتشار". وبشكل عام، فإن Meta تضع أولوية المراجعة البشرية للمحتوى بناءً على خطورته وسرعة انتشاره واحتمالية انتهاكه لسياسات المحتوى. وأسفر اثنان فقط من البلاغات المقدمة بموجب معيار مجتمع فيسبوك بشأن الانتحار وإيذاء الذات بإرسال المحتوى إلى المراجعة البشرية. ولم يتم إرسال أي من البلاغات التي استندت إلى سياسة الخطاب الذي يحض على الكراهية إلى المراجعة البشرية. ووفقًا لشركة Meta، يتمتع المراجعون بالتدريب والأدوات التي تخولهم من "تقييم المحتوى واتخاذ إجراءات بشأنه" بغض النظر عن قائمة انتظار السياسة المحددة التي يتواجد بها (أي الخطاب الذي يحض على الكراهية أو الانتحار وإيذاء الذات). ومع هذا، خلُص تقييم كلا المراجعين إلى أن المحتوى غير مخالف ولم يتم تصعيده أكثر من ذلك.

تقدَّم ثلاثة مستخدمين بطعن على قرار Meta بإبقاء المحتوى على فيسبوك. أسفر طعن منها عن تأييد مراجع بشري لقرار Meta الأصلي بعدم انتهاك المحتوى لسياسة الانتحار وإيذاء الذات. ولم يتم إرسال الطعنَين الآخرين اللذين تم تقديمهما بموجب سياسة الخطاب الذي يحض على الكراهية إلى المراجعة البشرية. ويرجع ذلك إلى أن Meta "تراقب وتحذف تكرارات" البلاغات المتعددة المتعلقة بعنصر المحتوى ذاته لضمان اتساق قرارات المراجعين وإجراءات الإنفاذ.

قدَّم أحد المستخدمين الذين أبلغوا عن المحتوى في الأصل طعنًا إلى المجلس. ونتيجةً لوقوع اختيار المجلس على هذه الحالة، قررت Meta أن المحتوى انتهك سياسة الخطاب الذي يحض على الكراهية وسياسة الانتحار وإيذاء الذات وأزالت المنشور. علاوةً على ذلك، وكجزء من مراجعة المجلس للحالة، قررت الشركة أن حساب منشئ محتوى ارتكب بالفعل عدة انتهاكات لمعايير المجتمع إلى الدرجة التي تكفل تعطيله. قامت Meta بتعطيل الحساب في أغسطس 2023.

أخذ المجلس في حسبانه السياق التالي عند التوصل إلى قراره بشأن هذه الحالة:

غالبًا ما يُشار إلى وجود مستويات مرتفعة من العداء تجاه مجتمع الميم (LGBTQIA+‎) في بولندا. [ملاحظة: يستخدم المجلس مصطلح "LGBTQIA+‎" (المثليات والمثليين ومزدوجي الميول الجنسية والمتحولين جنسيًا ومتحرري الجنس وثنائيي الجنس واللاجنسيين) عند الإشارة إلى مجموعات تستند إلى التوجه الجنسي و/أو الهوية الجنسية و/أو التعبير الجنسي. ومع هذا، سيحتفظ المجلس بالاختصارات أو الاستخدامات التي يوظفها الآخرون عند الاستشهاد بها أو اقتباسها.]. وقد سبق لمفوض مجلس أوروبا لحقوق الإنسان أن لفت الانتباه إلى "وصم أعضاء مجتمع الميم" باعتبارها "مشكلة مستمرة في بولندا". ويصنِّف تقرير رينبو أوروبا الصادر عن الرابطة الدولية للمثليات والمثليين ومزدوجي الميول الجنسية والمتحولين جنسيًا وثنائيي الجنس (ILGA) البلدان على أساس القوانين والسياسات التي تؤثر مباشرةً في حقوق الإنسان الخاصة بأعضاء مجتمع الميم. ويصنِّف التقرير بولندا على أنها صاحبة أقل أداء بين الدول الأعضاء في الاتحاد الأوروبي وتحل في المركز 42 بين 49 دولة أوروبية تم تقييمها. وقد استهدفت الحكومات الوطنية والمحلية، والشخصيات العامة البارزة بشكل متزايد أعضاء مجتمع الميم (LGBTQIA+‎) من خلال الخطابات التمييزية والإجراءات التشريعية.

بدءًا من عام 2018، تتبَّعت الرابطة الدولية للمثليات والمثليين ومزدوجي الميول الجنسية والمتحولين جنسيًا وثنائيي الجنس في أوروبا ما أسمته "الخطاب السياسي رفيع المستوى الذي يحض على الكراهية ضد أعضاء مجتمع الميم من القادة السياسيين البولنديين"، بما في ذلك التصريحات التي تفيد بأن "حركة الميم بأكملها" تشكِّل "تهديدًا" لبولندا. وفي العام نفسه، حاول عمدة مدينة لوبلين في بولندا حظر مسيرة المساواة في المدينة، على الرغم من رفع محكمة الاستئناف للحظر قبل وقت قصير من المسيرة المقررة. وفي عام 2019، وضع عمدة وارسو ميثاق وارسو لأعضاء مجتمع الميم بهدف "تحسين وضع أعضاء مجتمع الميم" في المدينة. وقد تعرض الميثاق لانتقادات من حزب القانون والعدالة الحاكم في بولندا (PiS) والقادة الدينيين. وقد حدَّد الرئيس البولندي والحكومة المركزية أيضًا مجتمع المتحولين جنسيًا كأهداف. على سبيل المثال، أشار رئيس حزب القانون والعدالة الحاكم إلى المتحولين جنسيًا على أنهم "غير طبيعيين". وطلب وزير العدل في بولندا من المحكمة العليا في بولندا أن تأخذ في الاعتبار أنه "بالإضافة إلى والديهم، يجب على المتحولين جنسيًا الحصول على حكم قضائي من أطفالهم وأزواجهم أيضًا [للسماح لهم بالتحول] حال رغبتهم في الحصول على الاعتراف القانوني بالجنس (LGR)."

سنت بولندا أيضًا تشريعات مناهضة لأعضاء مجتمع الميم. على حد تعبير هيومن رايتس ووتش، بدأت المدن الدعوة إلى "إقصاء أعضاء مجتمع الميم من المجتمع البولندي" من خلال إقامة "مناطق خالية من أعضاء مجتمع الميم" في 2019، ضمن إجراءات أخرى. وقد ذكرت هيومن رايتس ووتش أن هذه المناطق عبارة عن أماكن "تبنت فيها السلطات المحلية 'مواثيق عائلية' تمييزية تتعهد "بحماية الأطفال من 'الفساد الأخلاقي' أو أعلنت أنها خالية من 'أفكار مجتمع الميم'". وقد قامت أكثر من 100 مدينة بإقامة هذه المناطق. وتُشير الرابطة الدولية للمثليات والمثليين ومزدوجي الميول الجنسية والمتحولين جنسيًا وثنائيي الجنس في أوروبا إلى أنه بسبب الضغوط المحلية والأوروبية والدولية، سحبت بعض هذه البلديات "القرارات المناهضة لمجتمع الميم أو مواثيق حقوق الأسرة". في 28 يونيو 2022، أمرت المحكمة الإدارية العليا في بولندا أربع بلديات بسحب قراراتها المناهضة لأعضاء مجتمع الميم. ومع ذلك، كما يوحي تصنيف تقرير رينبو أوروبا لبولندا، فإن المناخ في البلاد مُعادٍ بشكل ملحوظ لمجتمع الميم.

قارن استبيان تم إجراؤه عام 2019 على أفراد مجتمع الميم في الاتحاد الأوروبي، أجرتها وكالة الاتحاد الأوروبي للحقوق الأساسية، تجارب أفراد مجتمع الميم مع الاعتداء والمضايقة في بولندا وأجزاء أخرى من الاتحاد الأوروبي. وفقًا للاستبيان، فإن 51% من أعضاء مجتمع الميم في بولندا يتجنبون غالبًا أو دائمًا مواقع معينة خوفًا من التعرُّض للاعتداء. وتبلُغ هذه النسبة في باقي بلدان الاتحاد الأوروبي 33‏%. أفاد الاستبيان أيضًا أن واحدًا من كل خمسة أشخاص متحولين جنسيًا تعرضوا لاعتداءات جسدية أو جنسية في آخر خمس سنوات قبل إجراء الاستبيان؛ مما يعني أكثر من ضِعف المجموعات الأخرى من مجتمع الميم.

كلَّف المجلس خبراء خارجيين بتحليل الردود على وسائل التواصل الاجتماعي فيما يتعلق بالعبارات المُهينة الصادرة عن مسؤولي الحكومة البولندية. وقد أشار هؤلاء الخبراء إلى وجود "زيادة مقلقة في الخطاب الذي يحض على الكراهية على الإنترنت والذي يستهدف مجتمعات الأقليات في بولندا، بما في ذلك مجتمعات الميم منذ 2015". وقد أفاد هؤلاء الخبراء في تحليلهم للمحتوى المناهض لمجتمع الميم باللغة البولندية على فيسبوك أن الزيادات المذكورة حدثت أثناء "إصدار المحكمة لأحكام تتعلق بالتشريعات المناهضة لمجتمع الميم". يتضمن ذلك قرار المحكمة الإدارية العليا الذي تمت مناقشته أعلاه والقرارات المتعلقة بالتحديات القانونية التي تكتنف إقرار العديد من الإعلانات المناهضة لمجتمع الميم والمرفوعة أمام المحاكم الإدارية المحلية بواسطة الأمناء البولنديين لمفوض حقوق الإنسان، والتي لا تزال مستمرة منذ عام 2019.

طرح المجلس أيضًا أسئلة على خبراء لغويين عن معنى العبارتين اللتين وردتا باللغة البولندية في المنشور. لاحظ الخبراء فيما يتعلق بعبارة "ستائر تعلّق نفسها" أنه في سياق "تعليق علم المتحولين جنسيًا في النافذة"، كانت العبارة تمثل "تلاعبًا بالكلمات" حيث جمعت بين "تعليق الستائر" و"الانتحار شنقًا". توصَّل الخبراء إلى أن العبارة كانت بمثابة "إهانة مستترة معادية للمتحولين جنسيًا". وفيما يتعلق بعبارة "تنظيف الربيع"، قال الخبراء إنها عبارة تُشير عادةً إلى التنظيف الشامل عند حلول فصل الربيع"، ولكن في سياقات معينة، "فإنها تعني أيضًا 'التخلص من جميع العناصر (و/أو الأشخاص) غير المرغوب فيهم'". وقد ناقشت العديد من التعليقات العامة، بما في ذلك تعليق مؤسسة حملة حقوق الإنسان (PC-16029) موضحة أن إشارة المنشور إلى "تنظيف الربيع" كان شكلاً من أشكال "الإشادة بإقصاء وعزلة الأشخاص المتحولين جنسيًا من المجتمع البولندي (من خلال موتهم)."

تمتد القضايا المنظورة في هذه الحالة والمتعلقة بالأضرار على الإنترنت وعلى أرض الواقع لتتجاوز نطاق مجتمع الميم في بولندا لتؤثر في هذا المجتمع في جميع أنحاء العالم. ووفقًا لمنظمة الصحة العالمية، يشكّل الانتحار رابع أبرز أسباب الوفاة بين الأشخاص الذين تتراوح أعمارهم بين 15 و29 عامًا حول العالم. وتُشير منظمة الصحة العالمية إلى أن "معدلات الانتحار مرتفعة أيضًا بين الفئات الأكثر عرضة للخطر التي تعاني من التمييز، مثل اللاجئين والمهاجرين، والسكان الأصليين؛ وأعضاء مجتمع الميم". وقد أظهرت دراسات بحثية أخرى وجود "صلة قوية" بين الإيذاء عبر الإنترنت والأفكار والسلوكيات التي تؤذي الذات.

يشكِّل الانتحار مصدر قلق خاص لمجتمع المتحولين جنسيًا وغير ثنائيي الجنس. فقد كشف الاستبيان الوطني الذي تم إجراؤه عام 2023 حول الصحة العقلية لأعضاء مجتمع الميم ضمن مشروع تريفور أن نصف الشباب المتحولين جنسيًا وغير ثنائيي الجنس في الولايات المتحدة فكروا في الانتحار خلال عام 2022. وتُشير تقديرات الدراسة نفسها إلى أن 14‏% من شباب مجتمع الميم حاولوا الانتحار خلال العام الماضي، بما في ذلك ما يقرب من خُمس الشباب المتحولين جنسيًا وغير ثنائيي الجنس. وفقًا لاستبيان حول السلوكيات الخطرة للشباب أجراه مراكز مكافحة الأمراض والوقاية منها، حاول 10‏% من طلاب المدارس الثانوية في الولايات المتحدة الانتحار خلال عام 2021. وقد كشفت العديد من الدراسات من مختلف أنحاء العالم أن الأشخاص المتحولين جنسيًا وغير ثنائيي الجنس أكثر عرضة لخطر الأفكار الانتحارية ومحاولات الانتحار مقارنةً بالأشخاص متوافقي الجنس.

في أحد التعليقات العامة (PC-16027) المقدمة إلى المجلس، أكدت منظمة GLAAD على النتائج التي توصل إليها الاستبيان السنوي "مؤشر السلامة على وسائل التواصل الاجتماعي"، حول سلامة المستخدمين من مجتمع الميم على خمس منصات رئيسية لوسائل التواصل الاجتماعي. وقد أعطى تقرير 2023 فيسبوك درجة 61‏% استنادًا إلى 12 مؤشرًا خاصًا بمجتمع الميم. وتمثل هذه النتيجة زيادة بمقدار 15 نقطة مقارنةً بعام 2022، حيث احتل فيسبوك المرتبة الثانية بعد Instagram متقدمًا بذلك على المنصات الثلاث الرئيسية الأخرى. ومع هذا، فقد كتبت منظمة GLAAD، "لا تزال سلامة المستخدمين من مجتمع الميم وجودة حمايتهم غير مُرضية". وقد كشف التقرير عن وجود "أضرار حقيقية تعود على أعضاء مجتمع الميم على الإنترنت، بما في ذلك التأثير الرادع الذي يحول دون ممارسة أعضاء مجتمع الميم لحرية التعبير خشية تعرضهم للاستهداف، والأثر النفسي المؤلم الناتج عن التعرُّض المستمر للإهانات والسلوك البغيض".

3. سُلطة ونطاق مجلس الإشراف

يتمتع المجلس بسُلطة مراجعة قرار شركة Meta بعد تلقي طعن من الشخص الذي أبلغ سابقًا عن المحتوى الذي تم تركه على المنصة (المادة 2، القسم 1 من ميثاق المجلس؛ المادة 3، القسم 1 من اللائحة الداخلية).

يجوز للمجلس تأييد قرار شركة Meta أو إلغائه (المادة 3، القسم 5 من ميثاق المجلس)، ويكون قراره بهذا الشأن ملزمًا للشركة (المادة 4 من ميثاق المجلس). يجب على شركة Meta أيضًا تقييم جدوى تطبيق قرارها على أي محتوى مماثل له سياق موازٍ (المادة 4 من ميثاق المجلس). وقد تتضمن قرارات المجلس توصيات غير مُلزِمة يجب على شركة Meta الاستجابة لها (المادة 3، القسم 4 من ميثاق المجلس؛ المادة 4). وعندما تلتزم Meta بتنفيذ التوصيات، يراقب المجلس هذا التنفيذ.

عندما يحدد المجلس حالات مثل هذه الحالة، والتي تقر فيها Meta لاحقًا بارتكاب خطأ، يراجع المجلس القرار الأصلي لتعزيز فهم عملية الإشراف على المحتوى وتقديم توصيات بهدف الحد من الأخطاء وتعزيز العدالة لمستخدمي فيسبوك وInstagram.

4. مصادر السُلطة والإرشادات

استند تحليل المجلس في هذه الحالة إلى المعايير والسوابق التالية:

1. قرارات مجلس الإشراف

تتضمن قرارات مجلس الإشراف السابقة الأكثر ارتباطًا بهذه الحالة ما يلي:

2. سياسات المحتوى لدى شركة Meta

تُعرِّف مبادئ سياسة الخطاب الذي يحض على الكراهية هذا النوع من الخطاب على أنه "هجوم مباشر ضد الأشخاص - وليس الأفكار أو المؤسسات - على أساس سمات تتمتع بحقوق حماية"، بما في ذلك الجنس والهوية الجنسية. وتُعرِّف Meta "الهجمات" على أنها خطاب "يحض على العنف أو الازدراء أو النماذج النمطية الضارة، أو ينطوي على عبارات دونية أو عبارات ازدراء أو اشمئزاز أو نبذ أو سب أو دعوات للإقصاء أو العزل." وفي مبادئ السياسة، تقول Meta أيضًا: "نؤمن بأن الأشخاص يعبّرون عن آرائهم ويتواصلون بحرية أكبر عندما لا يشعرون بأنهم يتعرضون للهجوم على أساس هويتهم. ولهذا السبب لا نسمح بالخطاب الذي يحض على الكراهية على فيسبوك. فهذا الخطاب الذي يحض على الكراهية يخلق بيئة من التخويف والتهديد والإقصاء وقد يشجِّع على العنف على أرض الواقع في بعض الحالات."

يقسِّم معيار مجتمع Meta بشأن الخطاب الذي يحض على الكراهية الهجمات إلى "فئات". تتضمن هجمات الفئة الأولى المحتوى الذي يستهدف شخصًا أو مجموعة أشخاص على أساس سمة (سمات) تتمتع بحقوق حماية "بخطاب ينطوي على عنف أو يدعمه بشكل مكتوب أو مرئي". وجدت Meta في النهاية أن المنشور في هذه الحالة انتهك بند السياسة هذا. في 6 ديسمبر 2023، حدَّثت Meta معايير المجتمع لتوضيح أن حظر الخطاب الذي يحض على العنف ضد فئات لديها سمات تتمتع بحقوق حماية قد انتقل إلى سياسة العنف والتحريض.

تتضمن هجمات الفئة الثانية المحتوى الذي يستهدف شخصًا أو مجموعة أشخاص على أساس سمة (سمات) تتمتع بحقوق حماية "بتعبيرات الازدراء" (بشكل مكتوب أو مرئي)". في معيار المجتمع بشأن الخطاب الذي يحض على الكراهية، يتضمن تعريف Meta لتعبيرات الازدراء "الاعتراف بعدم قبول الآخرين استنادًا إلى سمات تتمتع بحقوق حماية" و"التعبيرات التي تنادي بضرورة ألا تكون السمة التي تتمتع بحقوق حماية موجودة".

يحظر معيار المجتمع بشأن الانتحار وإيذاء الذات "أي محتوى يُشجِّع على الانتحار أو إيذاء الذات، بما في ذلك المحتوى الخيالي، مثل الميمات أو الرسوم التوضيحية". وبموجب هذه السياسة، تُزيل Meta "المحتوى الذي يروّج إرشادات بشأن الانتحار وإيذاء الذات أو يشجِّعها أو ينسقها أو يوضحها".

استند تحليل المجلس إلى التزام Meta بتعزيز حرية الرأي، والتي تصفها الشركة بأنها "ذات أهمية قصوى" بالإضافة إلى قيم "السلامة" و"الكرامة".

3. مسؤوليات شركة Meta تجاه حقوق الإنسان

تُرسي مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان (UNGP)، التي أقرها مجلس حقوق الإنسان التابع للأمم المتحدة عام 2011، إطار عمل تطوعيًا لمسؤوليات الأنشطة التجارية الخاصة فيما يتعلق بحقوق الإنسان. في عام 2021، أعلنت شركة Meta عن سياسة حقوق الإنسان الخاصة بالشركة، والتي أعادت التأكيد من خلالها على الالتزام باحترام حقوق الإنسان على نحو يتفق مع مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان. استند تحليل المجلس لمسؤوليات شركة Meta تجاه حقوق الإنسان في هذه الحالة إلى المعايير الدولية التالية:

  • الحق في حرية الرأي والتعبير: المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية ( ICCPR); التعليق العام رقم 34، اللجنة المعنية بحقوق الإنسان 2011؛ تقارير مقرر الأمم المتحدة الخاص (UNSR) المعني بحرية الرأي والتعبير: ‏ A/HRC/38/35 (2018)، A/74/486 (2019)؛ وخطة عمل الرباط، وتقرير مفوض الأمم المتحدة السامي لحقوق الإنسان: A/HRC/22/17/Add.4 (2013).
  • الحق في الحياة: المادة 6، العهد الدولي الخاص بالحقوق المدنية والسياسية.
  • الحق في التمتُّع بأعلى مستوى من الصحة البدنية والعقلية: المادة 12 من العهد الدولي الخاص بالحقوق الاقتصادية والاجتماعية والثقافية ( ICESCR).
  • الحق في المساواة وعدم التمييز: المادة 2، الفقرة 1 والمادة 26، العهد الدولي الخاص بالحقوق المدنية والسياسية.

5. المعلومات المقدَّمة من المستخدمين

أشار المستخدم الذي أبلغ عن المحتوى، في الطعن الذي قدمه إلى المجلس، إلى أن الشخص الذي نشر الصورة سبق وأن ضايق الأشخاص المتحولين جنسيًا على الإنترنت وأنشأ حسابًا جديدًا بعد تعليق حسابه على فيسبوك. وقال أيضًا إن الإشادة بارتفاع معدلات الانتحار في أوساط مجتمع المتحولين جنسيًا "لا ينبغي السماح بها".

6. المعلومات المقدَّمة من Meta

أزالت Meta المنشور في النهاية بموجب الفئة الأولى من معيار المجتمع بشأن الخطاب الذي يحض على الكراهية نظرًا لانتهاك المحتوى بند السياسة الذي يحظر المحتوى الذي يستهدف شخصًا أو مجموعة أشخاص على أساس سماتهم التي تتمتع بحقوق حماية من خلال "خطاب يحض على العنف أو يدعمه في شكل مكتوب أو مرئي". في إرشاداتها الداخلية بشأن كيفية تطبيق هذه السياسة، تقول Meta إنه يجب إزالة المحتوى إذا كان يشكِّل "خطابًا ينطوي على عنف في شكل دعوات لاتخاذ إجراء أو عبارات تنم عن نية إيقاع الموت أو المرض أو إلحاق الضرر أو عبارات تحريضية أو مشروطة بشأن ذلك أو عبارات تدعو إلى ذلك أو تدعمه (بشكل مكتوب أو مرئي)".

في هذه الإرشادات الداخلية، تصف الشركة أيضًا ما تعتبره تمثيلاً مرئيًا للفئات التي لديها سمات تتمتع بحقوق حماية من خلال الصور أو مقاطع الفيديو. لم تسمح Meta للمجلس بنشر معلومات أكثر تفصيلاً تتعلق بهذه الإرشادات. وبدلاً من ذلك، قالت الشركة إنه "بموجب سياسة الخطاب الذي يحض على الكراهية، قد تأخذ Meta في اعتبارها العناصر المرئية الموجودة في المحتوى عند تحديد إذا ما كان المحتوى يستهدف شخصًا أم مجموعة أشخاص استنادًا إلى سماتهم التي تتمتع بحقوق حماية".

قالت Meta إن تعدد التقييمات التي توصلت إلى أن المحتوى لا ينتهك معيار المجتمع بشأن الخطاب الذي يحض على الكراهية بواسطة مراجعيها تتماشى مع "التطبيق الصارم لإرشاداتنا الداخلية". وأوضحت: "على الرغم من تشابه الستائر مع علم فخر المتحولين جنسيًا، فإننا سنفسر الهجوم على العلم، بمفرده، كهجوم على مفهوم أو مؤسسة، وبذلك فإنه لا ينتهك سياستنا، ولن نعتبره هجومًا على شخص أو مجموعة من الأشخاص". ومع ذلك، فقد قررت Meta لاحقًا أن "الإشارة إلى عملية التعليق تُشير إلى أن هذا المنشور يهاجم مجموعة من الأشخاص". استند هذا التقييم إلى ما تقرر من أن عبارة "الستائر التي تعلِّق نفسها" تُشير ضمنيًا إلى معدل الانتحار لدى مجتمع المتحولين جنسيًا لأن الستائر تشبه علم فخر المتحولين جنسيًا، والستائر المعلقة في الصورة (بالإضافة إلى تراكب النص) تمثل استعارة للانتحار من خلال شنق الذات". وقد أشارت Meta أيضًا إلى أن "المفاهيم أو المؤسسات" لا يمكنها "تعليق نفسها"، على الأقل ليس بالمعني الحرفي". ولهذا السبب، وجدت Meta أن المستخدم كان يُشير إلى "المتحولين جنسيًا وليس المفهوم". لذلك، ووفقًا لشركة Meta، "ينتهك هذا المحتوى سياسة الخطاب الذي يحض على الكراهية لأنه يهدف إلى أن يتم تفسيره كعبارة تؤيد موت فئة لديها سمة تتمتع بحقوق حماية عن طريق الانتحار".

بعد إجراء تحديث لسياسة الخطاب الذي يحض على الكراهية، والذي تم بموجبه نقل بند السياسة الذي يحظر توجيه خطاب ينطوي على عنف إلى مجموعات لديها سمات تتمتع بحقوق حماية إلى سياسة العنف والتحريض، أخبرت Meta المجلس بأن المحتوى لا يزال مخالفًا.

أفادت Meta أيضًا أن العبارة المكتوبة في السيرة الذاتية بحساب المستخدم والتي تقول: "أنا كاره للمتحولين جنسيًا"، انتهكت الفئة الثانية من سياسة الخطاب الذي يحض على الكراهية باعتبارها "اعترافًا بعدم قبول الآخرين استنادًا إلى سمات تتمتع بحقوق حماية". وقد تم تقييم هذه العبارة، وفقًا لشركة Meta، على أنها مخالفة كجزء من مراجعة Meta لكل من الحالة وحساب المستخدم بعد وقوع اختيار المجلس على هذه الحالة. وقد قالت Meta إن هذه العبارة ساعدتها على تكوين فهم عن نية المستخدم فيما يتعلق بمحتوى الحالة.

ردًا على سؤال المجلس عما إذا كان المحتوى ينتهك سياسة الانتحار وإيذاء الذات، أكدت Meta أن "المحتوى ينتهك سياسة الانتحار وإيذاء الذات من خلال التشجيع على الانتحار، على نحو يتفق مع قرارنا بأن المحتوى يشكِّل عبارة تؤيد موت فئة لديها سمة تتمتع بحقوق حماية عن طريق الانتحار". أشارت Meta أيضًا إلى أن سياسة الانتحار وإيذاء الذات "لا تفرِّق بين المحتوى الذي يروّج للانتحار أو يشجّع عليه سواءً أكان موجهًا إلى شخص بعينه أو مجموعة أشخاص".

طرح المجلس 13 سؤالاً كتابيًا على شركة Meta. كانت الأسئلة تتعلق بنهج Meta في الإشراف على المحتوى الذي يتعلق بقضايا المتحولين جنسيًا وأعضاء مجتمع الميم؛ والعلاقة بين معياري المجتمع بشأن الخطاب الذي يحض على الكراهية والانتحار وإيذاء الذات؛ وكيفية تقييم "الدعابة" و"السخرية" بواسطة المشرفين عند مراجعة المحتوى لاكتشاف مدى مخالفته لسياسة الخطاب الذي يحض على الكراهية؛ ودور درجات "سرعة الانتشار" و"الخطورة" في إعطاء أولوية المراجعة البشرية للمحتوى؛ وكيفية تعامل ممارسات الإشراف على المحتوى لدى Meta مع وضع أولوية إخضاع المحتوى للمراجعة البشرية عند تعدد بلاغات المستخدمين ضد هذا المحتوى. وقد أجابت Meta عن جميع الأسئلة وعددها 13 سؤالاً.

7. التعليقات العامة

تلقى مجلس الإشراف 35 تعليقًا عامًا على صلة بهذه الحالة، بما في ذلك 25 تعليقًا من الولايات المتحدة وكندا، وسبعة تعليقات من أوروبا وثلاثة تعليقات من آسيا والمحيط الهادئ والأوقيانوس. يتضمن هذا المجموع تعليقات عامة مكررة أو تعليقات وافق مرسلوها على نشرها ولكنها لا تستوفي شروط المجلس لنشر التعليقات. قد يستند هذا الاستبعاد إلى الطبيعة المسيئة للتعليق و/أو وجود مخاوف بشأن خصوصية المستخدم و/أو لوجود أسباب قانونية أخرى. يمكن تقديم التعليقات العامة إلى المجلس مع الموافقة أو عدم الموافقة على نشرها، كما يمكن الموافقة أو عدم الموافقة على إسنادها إلى أصحابها.

تناولت التعليقات المقدمة الموضوعات التالية: وضع حقوق الإنسان في بولندا، وتحديدًا من واقع تجربة المتحولين جنسيًا؛ وسلامة أعضاء مجتمع الميم على منصات وسائل التواصل الاجتماعي؛ والعلاقة بين الأضرار على الإنترنت وعلى أرض الواقع في بولندا؛ والعلاقة بين الدعابة والسخرية والميمات والكراهية/المضايقة الموجهة إلى المتحولين جنسيًا على منصات التواصل الاجتماعي؛ وتحديات الإشراف على المحتوى الذي يحتاج إلى سياق لتفسيره.

لقراءة التعليقات العامة المقدمة في هذه الحالة، يُرجى النقر هنا.

8. تحليل مجلس الإشراف

راجع المجلس إذا كانت إزالة هذا المحتوى ضرورية من خلال تحليل سياسات المحتوى لدى Meta، ومسؤولياتها تجاه حقوق الإنسان وقيمها. كما أجرى المجلس تقييمًا للآثار التي تمثلها هذه الحالة بالنسبة إلى نهج Meta في إدارة المحتوى.

اختار المجلس هذه الحالة لتقييم دقة إنفاذ Meta لسياستها بشأن الخطاب الذي يحض على الكراهية، ولتكوين فهم أفضل عن كيفية تعامل Meta مع المحتوى الذي ينطوي على وجود خطاب يحض على الكراهية وترويج للانتحار أو إيذاء الذات.

8.1 الامتثال لسياسات المحتوى لدى Meta

1. قواعد المحتوى

الخطاب الذي يحض على الكراهية

وجد المجلس أن المحتوى في هذه الحالة ينتهك معيار المجتمع بشأن الخطاب الذي يحض على الكراهية. تضمن المنشور "خطابًا يحض على العنف أو يدعمه" (الفئة الأولى) في صورة دعوة مجموعة لديها سمة تتمتع بحقوق حماية إلى الموت عن طريق الانتحار، وهو ما ينتهك بوضوح سياسة الخطاب الذي يحض على الكراهية.

يتفق المجلس مع ما توصلت إليه Meta في النهاية من أن الإشارة إلى عملية التعليق في المنشور تشكّل هجومًا على مجموعة أشخاص وليس على المفهوم لأن "المفاهيم أو المؤسسات لا يمكنها 'تعليق نفسها'". يرى المجلس أيضًا ما يدعم استنتاجه في السياق حول الأضرار على الإنترنت وعلى أرض الواقع التي يواجهها أعضاء مجتمع الميم، وبالأخص المتحولين جنسيًا، في بولندا. إن المنشور الذي يستخدم خطابًا ينطوي على عنف للدعوة إلى موت المتحولين جنسيًا عن طريق الانتحار ودعم ذلك يخلق جوًا من التخويف والإقصاء، وقد يسهم في حدوث ضرر بدني. يوضح هذا السياق الذي استخدمت فيه لغة المنشور أنه كان يهدف إلى تجريد الفئة المستهدفة من السمات الإنسانية. في ضوء طبيعة النص والصورة، يفاقم المنشور أيضًا أزمة الصحة النفسية المستمرة التي يعاني منها حاليًا مجتمع المتحولين جنسيًا. وفقًا لعدة دراسات، يتعرض المتحولون جنسيًا أو غير ثنائيي الجنس من مخاطر تتضمن الأفكار الانتحارية ومحاولات الانتحار مقارنةً بالأشخاص متوافقي الجنس. علاوةً على ذلك، ارتبطت تجربة الهجمات والإيذاء على الإنترنت ارتباطًا قويًا بالأفكار الانتحارية. في هذا السياق، وجد المجلس أن وجود علم المتحولين جنسيًا، جنبًا إلى جنب مع الإشارة إلى ارتفاع مخاطر الانتحار في مجتمع المتحولين جنسيًا ("الستائر التي تعلّق نفسها")، يشكّل إشارة واضحة إلى أن المنشور يستهدف المتحولين جنسيًا. يرى المجلس أن عبارة "تنظيف الربيع"، متبوعة بالرمز التعبيري "<3" (القلب)، تشكِّل أيضًا دعمًا لموت هذه المجموعة من الأشخاص. ومن هذا المنطلق، فهي تنتهك الحظر المفروض بموجب (الفئة الثانية) من معيار المجتمع بشأن الخطاب الذي يحض على الكراهية على "التعبيرات التي تنادي بضرورة ألا تكون السمة التي تتمتع بحقوق حماية موجودة".

فيما يتعلق بمعيار المجتمع المذكور، يعتقد المجلس أن السياسة والإرشادات الداخلية الخاصة بإنفاذها يمكن أن تكون أكثر تجاوبًا مع "الإبداع الخبيث" في اتجاهات المحتوى التي تستهدف الفئات المهمشة سابقًا. لقد صاغ مركز ويلسون هذه العبارة من خلال بحث عن الإساءة التي تحمل الطابع الجنسي أو المرتبطة بنوع الجنس، وقد أكد أيضًا GLAAD على أهميتها في تعليقه العام رقم (PC-16027). يُشير مصطلح "الإبداع الخبيث" إلى "استخدام اللغة المشفرة؛ والميمات النصية والمرئية المكررة التي تستند إلى السياق؛ وغيرها من الأساليب لتجنُّب اكتشاف المحتوى على منصات وسائل التواصل الاجتماعي". عند تطبيق هذا المفهوم على المنشور الذي بين أيدينا في هذه الحالة، قالت منظمة GLAAD إن "الإبداع الخبيث" ينطوي على "استحداث وسائل جديدة لاستهداف مجتمع الميم" والفئات الأكثر عرضة للخطر بشكل أعم من خلال المنشورات والميمات التي يتذرعون بأنها من قبيل "الدعابة أو السخرية"، لكنها في الواقع كراهية أو إساءة موجهة إلى أعضاء مجتمع الميم". وتحديدًا، أخذ "الإبداع الخبيث" شكل منشور يستخدم إشارتين مشفرتين نوعًا ما للانتحار ("الستائر التي تعلق نفسها" و"تنظيف الربيع") مع تصوير مرئي لفئة تتمتع بحقوق حماية (علم المتحولين جنسيًا) للتشجيع على الموت عن طريق الانتحار. في قرار الأرمن في أذربيجان، أشار المجلس إلى أهمية السياق في تحديد أن المصطلح المنظور في تلك الحالة كان يهدف إلى استهداف مجموعة استنادًا إلى سمة تتمتع بحقوق حماية. وفي حين كان سياق الحرب هو السائد في تلك الحالة، تُظهر التهديدات التي يواجهها المتحولون جنسيًا في بولندا أن الأوضاع يمكن أن تكون وخيمة بالنسبة إلى المجتمع، دون وجود حرب. وكما أشرنا أعلاه، أفاد واحد من كل خمسة متحولين جنسيًا في بولندا إلى تعرضه لاعتداءات جنسية أو جسدية خلال آخر خمس سنوات قبل عام 2019، وهو أكثر من ضِعف عدد الأفراد الذين أبلغوا عن هذا النوع من الهجمات في مجموعات مجتمع الميم الأخرى.

يشعر المجلس بالقلق من أن المراجعين البشريين الذين راجعوا المحتوى في بادئ الأمر لم يفطنوا إلى تلك القرائن السياقية الموجودة في المحتوى، ونتيجةً لذلك، توصلوا إلى أن المحتوى لم يكن مخالفًا. وفي حين يوصي المجلس بإجراء بعض المراجعات لإرشادات إنفاذ معيار المجتمع بشأن الخطاب الذي يحض على الكراهية، فإنه يؤكد على أن المنشور انتهك السياسات حتى بصيغتها الموجودة في ذلك الحين. تدعم العبارتين اللتين اشتمل عليهما المنشور موت المتحولين جنسيًا عن طريق الانتحار. وتدعم إشارة إضافية في السيرة الذاتية للمستخدم هذا الاستنتاج. ويشكِّل تعريف المستخدم لنفسه بأنه كاره للمتحولين جنسيًا - في حد ذاته - انتهاكًا للحظر الذي يفرضه معيار المجتمع بشأن الخطاب الذي يحض على الكراهية على "الاعتراف بعدم قبول الآخرين استنادًا إلى سمات تتمتع بحقوق حماية". ويجب على Meta تحسين دقة إنفاذها لسياسة الخطاب الذي يحض على الكراهية فيما يتعلق بأعضاء مجتمع الميم، سواءً من خلال الأتمتة أو المراجعة البشرية، لا سيّما عندما تحتوي المنشورات على صور ونصوص تتطلب سياقًا لتفسيرها. وكما أشارت منظمة GLAAD في التعليق العام رقم (PC-16027)، فإن Meta "تفشل باستمرار في إنفاذ سياساتها عند مراجعة البلاغات المقدمة بشأن المحتوى الذي يوظف "الإبداع الخبيث".

يشعر المجلس أيضًا بالانزعاج من بيان Meta بأن فشل المراجعين في إزالة المحتوى "يتماشى مع التطبيق الصارم لإرشاداتنا الداخلية". يُشير بيان Meta إلى أن الإرشادات الداخلية للمراجعين لا تراعي بالقدر الكافي آلية تفاعل النصوص والصور في منشورات وسائل التواصل الاجتماعي لتمثيل مجموعة من الأشخاص تُعرف من خلال الهوية الجنسية لأفرادها. يرى المجلس أن الإرشادات غير كافية بالقدر الذي يُتيح لمراجعي المحتوى الذين يعملون على نطاق واسع الوصول إلى ناتج الإنفاذ الصحيح بشأن المحتوى الذي يستهدف مجموعات لديها سمات تتمتع بحقوق حماية عندما يتم التعبير عنها بعناصر مرئية، دون أن تتم تسميتها أو تصويرها من خلال شخصيات بشرية. لم تسمح Meta للمجلس بنشر تفاصيل إضافية كانت ستكفل مناقشة أقوى لكيفية تحسين إجراءات الإنفاذ لهذا النوع من المحتوى. ومع هذا، يعتقد المجلس أنه يجب على Meta تعديل إرشاداتها لضمان فهم عمليات التصوير المرئي للهوية الجنسية بالشكل الكافي عند تقييم إذا ما كان المحتوى ينطوي على هجمات أم لا. ويؤكد المجلس أنه لا يسعى من خلال اقتراح هذا المسار إلى التقليل من حماية Meta للمحتوى الذي يواجه المفاهيم أو المؤسسات أو الأفكار أو الممارسات أو المعتقدات. وبدلاً من ذلك، يريد المجلس أن توضح Meta أنه لا يلزم للمنشورات أن تتضمن شخصيات بشرية ليتم اعتبارها هجومًا على الأشخاص.

الانتحار وإيذاء الذات

يجد المجلس أن المحتوى في هذه الحالة أيضًا ينتهك معيار المجتمع بشأن الانتحار وإيذاء الذات. وتحظر هذه السياسة "المحتوى الذي يروّج لإرشادات بشأن الانتحار وإيذاء الذات أو يشجّعها أو ينسقها أو يوضحها". وفقًا للإرشادات الداخلية التي توفرها Meta للمراجعين، ينص تعريف "الترويج" على أنه "التحدث بإيجابية". ويتفق المجلس مع ما توصلت إليه Meta في النهاية من أن المحتوى يشكِّل عبارة تؤيد موت مجموعة لديها سمات تتمتع بحقوق حماية عن طريق الانتحار، وبالتالي فهو يشجع على الانتحار.

يجد المجلس أيضًا أن معيار المجتمع بشأن الانتحار وإيذاء الذات يجب أن يحظر بشكل أكثر وضوحًا المحتوى الذي يشجِّع أو يروّج على الانتحار ويستهدف مجموعة محددة من الأشخاص، بدلاً من استهداف شخص واحد في تلك المجموعة. كشفت Meta للمجلس أن السياسة لا تُفرِّق بين هذين الشكلين من المحتوى. ونظرًا للتحديات التي واجهت المراجعين عند تحديد إذا ما كانت العبارة تشجِّع على انتحار مجموعة ما في هذه الحالة، يحث المجلس Meta على توضيح أن السياسة تحظر المحتوى الذي يشجِّع أو يروّج على الانتحار ويستهدف مجموعة محددة من الأشخاص. يجب على Meta أن توضح هذه النقطة في صفحة سياستها بشأن الانتحار وإيذاء الذات وكذلك في الإرشادات الداخلية المرتبطة بهذه السياسة للمراجعين.

2. إجراء الإنفاذ

يجد المجلس أن أنظمة Meta التلقائية لترتيب أولوية المراجعة أثرت بشكل كبير في إجراءات الإنفاذ في هذه الحالة. وقد تم تلقائيًا إغلاق 10 من أصل 12 بلاغًا من بلاغات المستخدمين بواسطة أنظمة Meta التلقائية. وقد تم تلقائيًا أيضًا إغلاق اثنين من الطعون الثلاثة المقدمة من المستخدم على قرارات Meta بواسطة أنظمة Meta التلقائية. يشعر المجلس بالقلق من أن سجل الحالة الذي تمت مشاركته مع المجلس يحتوي على مؤشرات عديدة على وجود انتهاك وهو ما يوحي أنه لا يتم إنفاذ سياسات Meta بالقدر المناسب.

يلاحظ المجلس أنه تم إغلاق الكثير من بلاغات المستخدمين نتيجةً لممارسات الإشراف على المحتوى في Meta للتعامل مع عدة بلاغات بشأن عنصر المحتوى نفسه. لم يتم وضع أولوية للمراجعة البشرية لأول بلاغ قدمه المستخدم لوجود خطاب يحض على الكراهية بسبب "انخفاض درجتي الخطورة وسرعة الانتشار". ولم يتم وضع أولوية للمراجعة البشرية للبلاغات اللاحقة المقدمة بداعي انتهاك سياسة الخطاب الذي يحض على الكراهية نظرًا لتقديم عدة بلاغات بشأن عنصر المحتوى ذاته، حيث ستقوم Meta "بحذف تكرارات هذه البلاغات لضمان اتساق قرارات المراجعة وإجراءات الإنفاذ". ويقر المجلس بأن حذف البلاغات المكررة يمثل ممارسة معقولة للإشراف على المحتوى على نطاق واسع. ومع هذا، يلاحظ المجلس أن هذه الممارسة تضع المزيد من الضغط على القرار الأولي الذي يتم اتخاذه بشأن البلاغ، لأن ذلك سيحدد أيضًا مصير كافة البلاغات التي يتم جمعها معه.

يعتقد المجلس أن من المهم أن تضع شركة Meta الأولوية لتحسين دقة الأنظمة التلقائية المسؤولة عن إنفاذ المحتوى ووضع أولوية لمراجعته، لا سيّما عند التعامل مع المحتوى الذي يحتمل أن يؤثر في أعضاء مجتمع الميم. ومما لا شك فيه أن مثل هذا التحسين لقدرة الأنظمة التلقائية على اكتشاف نوع اللغة المشفرة والصور التي تستند إلى السياق المنظورة في هذه الحالة سيؤدي إلى تحسين إجراءات الإنفاذ التي يتم تطبيقها على المحتوى الذي يستهدف المجموعات الأخرى التي لديها سمات تتمتع بحقوق حماية أيضًا. ويعتقد المجلس أن السيرة الذاتية للمستخدم، على سبيل المثال، والتي تضمنت اعترافه بكراهية المتحولين جنسيًا، كان من الممكن اعتبارها إشارة ذات صلة عند تحديد درجات الخطورة لأغراض تحديد إذا ما كان سيتم وضع أولوية لمراجعة المحتوى و/أو اتخاذ إجراء إنفاذ بشأنه. ويمكن لهذه الإشارة أن تكمل التحليلات السلوكية وتحليلات شبكات التواصل الاجتماعي الحالية التي قد تستخدمها Meta لتسليط الضوء على المحتوى الذي يحتمل أن يشكّل انتهاكًا.

بالإضافة إلى ذلك، يؤكِّد المجلس أنه من المهم أن تضمن شركة Meta معايرة الأنظمة التلقائية جيدًا وتدريب مراجعي المحتوى على التقييم الفعَّال للمنشورات ذات الصلة بمجتمع الميم على نطاق واسع. ويشعر المجلس بالقلق بشأن نهج Meta الحالي، والذي يبدو فيه أن المراجعين المكلفين بتقييم الطعون يتمتعون على الأغلب بنفس مستوى الخبرة الذي يتمتع به المراجعون المكلفون بتقييم المحتوى في المرة الأولى. يعتقد المجلس أن على Meta زيادة استثماراتها في تطوير وتدريب أدوات التصنيف التي تكتشف المحتوى الذي يحتمل أن يشكِّل انتهاكًا ويؤثر في مجتمع الميم ووضع أولوية للمراجعة البشرية على هذا النوع من المحتوى. يجب دائمًا وضع أولوية لمراجعة الخطاب الذي يحض على الكراهية، وخصوصًا المحتوى عالي الخطورة الذي يندرج تحت الفئة الأولى من سياسة Meta. ويقترح المجلس أيضًا تعزيز تحسينات هذه العملية من خلال: 1) تحسين تدريب المراجعين على الأضرار المتعلقة بالهوية الجنسية؛ 2) إنشاء فريق عمل معني بتجارب المتحولين جنسيًا وغير ثنائيي الجنس على منصات Meta؛ 3) إنشاء مجموعة متخصصة من الخبراء المتخصصين لمراجعة المحتوى المتعلق بالقضايا ذات التأثير في أعضاء مجتمع الميم. وفي حين تتعلق وقائع هذه الحالة تحديدًا بالأضرار التي يواجهها المتحولون جنسيًا على فيسبوك، يحث المجلس Meta أيضًا على استكشاف كيفية تحسين الإنفاذ ضد المحتوى الذي يحض على الكراهية ويؤثر في المجموعات الأخرى التي لديها سمات تتمتع بحقوق حماية.

على الرغم من اكتفاء المجلس بإصدار توصيتين رسميتين فقط أدناه، يؤكد المجلس أن سبب ذلك يتمثل في عدم ارتباط التحديات الموضحة في هذه الحالة بالسياسات في صيغتها المكتوبة بقدر ارتباطها بإنفاذ تلك السياسات. ويُحصي المجلس ما لا يقل عن خمسة مؤشرات على وجود محتوى ضار في هذه الحالة: (1) إشارات المنشور إلى "الستائر التي تعلق نفسها"؛ (2) وإشارة المنشور إلى "تنظيف الربيع <3"؛ (3) ووصف المستخدم لنفسه بأنه "كاره للمتحولين جنسيًا" في سياق بلد يشهد مستويات مرتفعة من العداء ضد أعضاء مجتمع الميم؛ (4) وعدد بلاغات المستخدمين والطعون المقدمة بشأن المحتوى؛ (5) وعدد البلاغات والطعون نسبة إلى سرعة انتشار المحتوى. يشعر المجلس بالقلق من إغفال Meta لهذه الإشارات ويرى أن ذلك يوحي بأنه لا يتم إنفاذ سياساتها بالقدر الكافي. ويُصر المجلس على ضرورة أن تفكر Meta بشكل صارم وإبداعي في كيفية سد الفجوة بين مُثُلها الرامية إلى حماية أفراد مجتمع الميم على منصاتها وبين تطبيق هذه المُثُل.

8.2 الامتثال لمسؤوليات شركة Meta تجاه حقوق الإنسان

حرية التعبير (المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية)

تنص الفقرة 2 من المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية (ICCPR) على أن "لكل فرد الحق في حرية التعبير؛ ويشمل هذا الحق حرية طلب المعلومات والأفكار من جميع الأنواع وتلقيها ونقلها، بصرف النظر عن الحدود، سواءً بشكل شفهي أو خطي أو مطبوع، أو في شكل فن، أو عن طريق أي وسيلة أخرى". كما ينص التعليق العام رقم 34 (2011) على أن التعبير الذي يتمتع بحقوق حماية يتضمن التعبير الذي يمكن اعتباره "مسيئًا للغاية" (الفقرة 11).

عند فرض الدولة لقيود على حرية التعبير، يجب أن تفي تلك القيود بمتطلبات الشرعية والهدف المشروع والضرورة والتناسب (المادة 19، الفقرة 3 من العهد الدولي الخاص بالحقوق المدنية والسياسية). وتتم الإشارة إلى هذه المتطلبات غالبًا باسم "الاختبار الثلاثي". يستخدم المجلس إطار العمل هذا لتفسير التزامات Meta التطوعية تجاه حقوق الإنسان، سواءً فيما يتعلق بقرارات المحتوى الفردي التي تخضع للمراجعة وما يعكسه ذلك عن نهْج Meta الأوسع نطاقًا تجاه إدارة المحتوى. وكما ذكر مقرر الأمم المتحدة الخاص المعني بحرية التعبير بالغم من أن "الشركات لا تلتزم بنفس التزامات الحكومات، لكن تأثيرها يتطلب منها تقييم نفس النوع من الأسئلة المتعلقة بحماية حقوق مستخدميها في حرية التعبير" ( A/74/486، الفقرة 41).

1. الشرعية (وضوح القواعد وسهولة الوصول إليها)

يتطلب مبدأ الشرعية بموجب القانون الدولي لحقوق الإنسان أن تكون القواعد التي تحد من حرية التعبير واضحة ومتاحة لعامة الجمهور (التعليق العام رقم 34، الفقرة 25). إن القواعد التي تقيد حرية التعبير "يجب ألا تمنح الأشخاص المسؤولين عن تنفيذ القانون سلطة تقديرية مطلقة في تقييد حرية التعبير" وأن توفُّر "إرشادات كافية للأشخاص المسؤولين عن إنفاذها حتى تُتيح لهم التأكد من ضروب التعبير المقيدة وغير المقيدة بشكل صحيح" (المرجع نفسه). بتطبيق ذلك على القواعد التي تنظِّم الخطاب على الإنترنت، قال مقرر الأمم المتحدة الخاص المعني بحرية التعبير إن هذه القواعد يجب أن تكون واضحة ومحددة ( A/HRC/38/35، الفقرة 46). يجب أن يتمكن الأشخاص الذين يستخدمون منصات Meta من الوصول إلى هذه القواعد وفهمها، ويجب أن تتوفر لمراجعي المحتوى إرشادات واضحة بشأن إنفاذها.

يرى المجلس أن عمليات الحظر التي تفرضها Meta على "الخطاب الذي يحض على العنف أو يدعمه" بشكل مكتوب أو مرئي ويستهدف المجموعات التي لديها سمات تتمتع بحقوق حماية، وعلى التعبيرات التي تنادي بضرورة ألا تكون السمة التي تتمتع بحقوق حماية موجودة وعلى الخطاب الذي يشجع أو يروّج على الانتحار وإيذاء الذات واضحة بالقدر الكافي.

مع ذلك، يلاحظ المجلس أن Meta يمكنها تحسين دقة الإنفاذ فيما يتعلق بتلك السياسات ذات الصلة في هذه الحالة من خلال توفير إرشادات أوضح للمراجعين البشريين، على النحو الوارد في القسم 8.1 أعلاه. ويجب على Meta توضيح أن عمليات التصوير المرئي للهوية الجنسية، من خلال استخدام علم على سبيل المثال، لا تحتاج إلى تصوير شخصية بشرية لتشكِّل هجومًا بموجب سياسة الخطاب الذي يحض على الكراهية. ويجب على Meta أيضًا أن توضح أن دعوة مجموعة (وليس شخص) للانتحار تنتهك سياسة الانتحار وإيذاء الذات.

2. الهدف المشروع

ينبغي أن تستند أي قيود مفروضة على حرية التعبير إلى أحد الأهداف المشروعة المنصوص عليها في العهد الدولي الخاص بالحقوق المدنية والسياسية، والتي من بينها "حقوق الآخرين". وقد وجد المجلس في العديد من القرارات أن سياسة Meta بشأن الخطاب الذي يحض على الكراهية، والتي تهدف إلى حماية الأشخاص من الأضرار الناجمة عن هذا الخطاب، لها هدف مشروع تقره معايير القانون الدولي لحقوق الإنسان (راجِع، على سبيل المثال، قرار كرتون كنين). علاوةً على ذلك، يرى المجلس أن بنود سياسة الانتحار وإيذاء الذات بشأن المحتوى الذي يشجع على الانتحار أو إيذاء الذات تخدم، في هذه الحالة، الهدف المشروع المتمثل في حماية حق الأشخاص في التمتُّع بأعلى مستوى من الصحة البدنية والعقلية (المادة 12 من العهد الدولي الخاص بالحقوق الاقتصادية والاجتماعية والثقافية) والحق في الحياة (المادة 5 من العهد الدولي الخاص بالحقوق المدنية والسياسية). في الحالات المشابهة للحالة التي بين أيدينا، حين يتم تشجيع مجموعة لديها سمة تتمتع بحقوق حماية على الانتحار، فإن سياسة الانتحار وإيذاء الذات تحمي أيضًا حقوق الأشخاص في المساواة وعدم التمييز (المادة 2، الفقرة 1، من العهد الدولي الخاص بالحقوق المدنية والسياسية).

3. الضرورة والتناسب

يقتضي مبدأ الضرورة والتناسب أن أي قيود تُفرَض على حرية التعبير "يجب أن تكون مناسبة لتحقيق وظيفة الحماية المنوطة بها، ويجب أن تكون أقل الوسائل تدخلاً مقارنةً بغيرها من الوسائل التي يمكن أن تحقق النتيجة المنشودة، ويجب أن تكون متناسبة مع المصلحة التي ستحميها" ( التعليق العام رقم 34، الفقرة 34).

أثناء تحليل المخاطر التي يُشكّلها المحتوى الذي ينطوي على عنف، يسترشد المجلس عادةً باختبار العوامل الستة الموضح في خطة عمل الرباط، والذي يتناول الدعوة إلى الكراهية القومية أو العرقية أو الدينية التي تُشكّل تحريضًا على العداء أو التمييز أو العنف. واستنادًا إلى تقييم العوامل ذات الصلة، لا سيّما المحتوى وشكل التعبير، ونية المتحدث والسياق الموضَّح بمزيد من التفصيل أدناه، يرى المجلس أن إزالة المحتوى تتماشى مع مسؤوليات Meta تجاه حقوق الإنسان لأنه يمثل ضررًا وشيكًا ومحتملاً. تُعَد إزالة المحتوى قيدًا ضروريًا ومتناسبًا على التعبير بهدف حماية الحق في الحياة، وكذلك الحق في التمتُّع بأعلى مستوى من الصحة البدنية والعقلية لأعضاء مجتمع الميم، وتحديدًا المتحولين جنسيًا في بولندا.

في حين أشار المجلس سابقًا إلى أهمية تغيير دلالة بعض المصطلحات المهينة لأعضاء مجتمع الميم في مكافحة المعلومات المضللة (راجِع قرار تغيير دلالة كلمات عربية ازدرائية إلى كلمات مقبولة)، فإن الحال هنا ليس كذلك. ولا يتضمن المنشور أيضًا خطابًا سياسيًا أو جديرًا بالنشر (راجِع قرار الاحتجاجات في كولومبيا). يعرض المنشور في هذه الحالة صورة لعلم المتحولين جنسيًا يأخذ شكل ستارة معلقة، حيث يُشير الوصف إلى أن الستائر تعلق نفسها. وفقًا للخبراء الذين استشارهم المجلس، لا يبدو أن استخدام الستائر - بشكل مرئي ونصي على حدٍ سواء - يشكِّل لغة مشفرة متكررة تستهدف مجتمع المتحولين جنسيًا. ومع هذا، وكما تمت مناقشته أعلاه، فإن ظاهرة "الإبداع الخبيث"، أو استخدام لغة واستراتيجيات تمثيل جديدة للتعبير عن الكراهية والمضايقة، أصبحت سمة لاتجاهات المحتوى الذي يستهدف المتحولين جنسيًا. وجد المجلس أن المحتوى في هذه الحالة يندرج تمامًا تحت هذا الاتجاه. وعلى الرغم من أن المحتوى استخدم صورًا يعتبرها البعض من قبيل "الدعابة" (بدليل وجود تفاعلات رمز التعبير "هاهاها")، لا يزال من الممكن تفسير المنشور على أنه بيان يحض على العنف ويشكِّل استفزازًا يستهدف مجتمع المتحولين جنسيًا. ويمكن استخدام الدعابة والسخرية، بطبيعة الحال، لتجاوز حدود النقد المشروع، ولكن لا يمكن أن يشكِّل ذلك غطاءً للخطاب الذي يحض على الكراهية. ويتعامل المنشور فقط مع موضوع ارتفاع معدلات الانتحار في مجتمع المتحولين جنسيًا للاحتفال بهذه الحقيقة.

عند النظر في نية منشئ المحتوى، يلاحظ المجلس أن سيرته الذاتية تذكُر بشكل صريح أنه "كاره للمتحولين جنسيًا". وفي حين لم تنظر Meta في الآثار المترتبة على هذه العبارة بالنسبة إلى محتوى الحالة إلا في وقت لاحق، يرى المجلس أنها وثيقة الصلة بتحديد نية المستخدم. ويمكن أن تكون سببًا مستقلاً أيضًا لإزالة المحتوى باعتباره انتهاكًا للفئة الثانية من سياسة الخطاب الذي يحض على الكراهية. وقد وصف المنشور أيضًا موت الأشخاص المتحولين جنسيًا عن طريق الانتحار بأنه "تنظيف الربيع"، مع تضمين الرمز التعبيري "القلب" مع الوصف. وفي ضوء هذه العبارة التي تدعم موت مجموعة من الأشخاص عن طريق الانتحار، يرى المجلس وجود نية للتشجيع على التمييز والعنف استنادًا إلى محتوى المنشور، والصورة المستخدمة والنص والشرح التوضيحي المصاحبين له. ولا يشجّع المحتوى في هذه الحالة المتحولين جنسيًا على اتخاذ إجراء عنيف ضد أنفسهم فحسب، بل يحرض الآخرين على التمييز ضد المتحولين جنسيًا والتعامل معهم بشكل عدائي. وتؤكد هذا الفهم حقيقة أن تفاعل الرمز التعبيري المستخدم بشكل متكرر بواسطة المستخدمين الآخرين الذي يتفاعلون مع المحتوى هو "هاهاها".

أخيرًا، يُشير المجلس إلى المخاطر الكبيرة على أرض الواقع التي تواجه أعضاء مجتمع الميم في بولندا في شكل هجمات متزايدة من خلال الإجراءات التشريعية والإدارية، بالإضافة إلى الخطاب السياسي الصادر عن شخصيات من الحكومة المركزية وأصوات عامة مؤثرة. منذ عام 2020، صُنِفت بولندا على الدوام على أنها أقل الدول الأعضاء أداءً في الاتحاد الأوروبي على صعيد حقوق مجتمع الميم وفقًا للرابطة الدولية للمثليات والمثليين ومزدوجي الميول الجنسية والمتحولين جنسيًا وثنائيي الجنس في أوروبا. من المهم أيضًا ملاحظة أن بولندا لم تضع تشريعات لحماية أعضاء مجتمع الميم في قوانينها بشأن الخطاب الذي يحض على الكراهية وجرائم الكراهية، وهو ما أدى إلى دعوة الرابطة الدولية للمثليات والمثليين ومزدوجي الميول الجنسية والمتحولين جنسيًا وثنائيي الجنسفي أوروبا ومنظمة العفو الدولية، بين منظمات أخرى، بولندا إلى معالجتها. وعلاوةً على ذلك، فإن تزايد الخطاب المناهض لمجتمع الميم باللغة البولندية على فيسبوك، والذي أشار إليه خبراء خارجيون وعدد من التعليقات العامة، لا يحدث بمعزل عن غيره. فقد أعربت العديد من المنظمات والمؤسسات عن مخاوفها بشأن انتشار الخطاب المناهض لمجتمع الميم على وسائل التواصل الاجتماعي. وقد قال خبير الأمم المتحدة المستقل المعني بالتوجه الجنسي والهوية الجنسية (IE SOGI) فيكتور مادريجال بورلوز أن مستويات العنف والتمييز ضد الأشخاص المتنوعين والمتحولين جنسيًا "تهين الضمير الإنساني". وقد توصلت أبحاث وتقارير من منظمة GLAAD إلى وجود "أضرار حقيقية جدًا تواجه أعضاء مجتمع الميم على الإنترنت، بما في ذلك ... الصدمة النفسية الهائلة الناجمة عن التعرُّض المستمر للإهانات والسلوك البغيض على الإنترنت". قد يسهم المحتوى المماثل للمنشور في هذه الحالة، لا سيّما عند النظر إليه على نطاق واسع، في خلق بيئة يتفاقم فيها الضرر المنتشر بالفعل المتمثل في الموت عن طريق الانتحار في مجتمع المتحولين جنسيًا. علاوةً على ذلك، فإن المحتوى الذي يُضفي صبغة طبيعية على الخطاب العنيف المناهض للمتحولين جنسيًا، كما هو الحال في هذا المنشور، يخاطر بالمساهمة في كل من أزمة الصحة العقلية الحالية التي تؤثر في مجتمع المتحولين جنسيًا، وكذلك زيادة العنف الذي يستهدف أفراد هذا المجتمع على أرض الواقع.

9. قرار مجلس الإشراف

ألغى مجلس الإشراف قرار شركة Meta الأصلي بترك المحتوى.

10. التوصيات

سياسة المحتوى

1. يجب أن توضح صفحة سياسة Meta بشأن الانتحار وإيذاء الذات أن السياسة تحظر المحتوى الذي يشجِّع أو يروِّج الانتحار ويستهدف مجموعة محددة من الأشخاص.

سيعتبر المجلس أن هذا قد دخل حيّز التنفيذ عندما تعكس الصيغة المعلنة لعامة الجمهور من معيار المجتمع بشأن الانتحار وإيذاء الذات التغيير المقترح.

الإنفاذ

2. يجب تعديل الإرشادات الداخلية التي تقدمها Meta للمراجعين الذين يعملون على نطاق واسع على نحو يضمن فهم عمليات التصوير المرئي للهوية الجنسية من خلال استخدام الأعلام وليس الشكل البشري كأدوات لتمثيل مجموعة من الأشخاص تُعرف من خلال الهوية الجنسية لأعضائها. وهذا التعديل من شأنه توضيح إرشادات الإنفاذ لهذا الشكل من أشكال المحتوى على نطاق واسع عندما يتضمن هجومًا مخالفًا.

سيعتبِر المجلس أن هذا قد دخل حيّز التنفيذ عندما تقدِّم Meta للمجلس التغييرات التي أدخلتها على إرشاداتها الداخلية.

*ملاحظة إجرائية:

يتم إعداد قرارات مجلس الإشراف من قِبل لجان مكونة من خمسة أعضاء ويتم اعتمادها من أغلبية أعضاء المجلس. ولا يلزم بالضرورة أن تُعبِّر قرارات المجلس عن وجهات النظر الشخصية لجميع الأعضاء.

بالنسبة إلى القرار المتخذ بشأن هذه الحالة، تم إجراء بحث مستقل نيابةً عن المجلس. تلقى المجلس مساعدة من معهد أبحاث مستقل يقع مقره في جامعة جوتنبرج، والذي يعتمد على فريق مكون من أكثر من 50 عالم اجتماع من ست قارات، فضلاً عن أكثر من 3200 خبير محلي من جميع أنحاء العالم. وقد تم تقديم تحليلات أيضًا بواسطة Memetica، وهي مؤسسة متخصصة في الأبحاث مفتوحة المصدر عن اتجاهات وسائل التواصل الاجتماعي. تم توفير الخبرة اللغوية بواسطة شركة Lionbridge Technologies LLC، التي يتقن متخصصوها أكثر من 350 لغة ويعملون من 5000 مدينة في جميع أنحاء العالم.

العودة إلى قرارات الحالة والآراء الاستشارية المتعلقة بالسياسة