أسقط
موسيقى دريل البريطانية
ألغى مجلس الإشراف قرار Meta بإزالة مقطع فيديو يتضمن موسيقى دريل البريطانية من Instagram.
تحديث يناير 2023:
في هذه الحالة، قدم مجلس الإشراف طلبًا بموجب قانون حرية المعلومات إلى خدمة شرطة العاصمة (MPS)، يتضمن أسئلة عن طبيعة وحجم الطلبات التي قدمتها خدمة شرطة العاصمة إلى شركات وسائل التواصل الاجتماعي، بما في ذلك Meta، لمراجعة أو إزالة محتوى موسيقى دريل لمدة عام. وقد ردت خدمة شرطة العاصمة بتاريخ 7 أكتوبر 2022، وقدمت الأرقام الخاصة بعدد الطلبات المرسلة، وعدد الطلبات التي نتج عنها إزالة المحتوى. وقد تم نشر الرد الوارد من خدمة شرطة العاصمة بالكامل مع القرار، كما تم تضمين الأرقام الواردة به في قرار المجلس، والذي نشر بتاريخ 22 نوفمبر 2022. وبتاريخ 4 يناير 2023، تواصلت خدمة شرطة العاصمة مع المجلس لتخبره بأنها اكتشفت بعض الأخطاء في ردها، وقامت بتصحيحها. وقد قامت تحديدًا بتصحيح الأرقام إلى: أسفرت كل الطلبات البالغ عددها 992 [كانت 286 طلبًا قبل التصحيح] التي قدمتها شرطة العاصمة إلى شركات وسائل التواصل الاجتماعي وخدمات البث لمراجعة أو إزالة المحتوى بين يونيو 2021 ومايو 2022 والتي تضمنت موسيقى دريل؛ عن 879 عملية إزالة [كانت 255 عملية إزالة قبل التصحيح]؛ أسفر 28 طلبًا يتعلق بمنصات Meta [كانت 21 قبل التصحيح] عن 24 عملية إزالة [كانت 14 عملية إزالة قبل التصحيح]. يحتوي القرار على الأرقام الأصلية قبل تصحيحات خدمة شرطة العاصمة. ولا يغير هذا التحديث من تحليل مجلس الإشراف أو قراره بشأن هذه الحالة. يمكن العثور على النسخة المحدثة من الطلب المقدم بموجب قانون حرية المعلومات هنا.
ملخص الحالة
ألغى مجلس الإشراف قرار Meta بإزالة مقطع فيديو يتضمن موسيقى دريل البريطانية من Instagram. أزالت Meta المحتوى بناءً على طلب من شرطة العاصمة. تثير هذه الحالة مخاوف بشأن علاقات Meta مع سلطات إنفاذ القانون، والتي يحتمل أن تزيد من التحيز. يقدم المجلس توصيات لتحسين احترام الإجراءات الواجبة والشفافية في هذه العلاقات.
حول هذه الحالة
في يناير 2022، نشر حساب على Instagram يصف نفسه بأنه ينشر الموسيقى البريطانية محتوى يتناول طرح مسار لموسيقى دريل البريطانية بعنوان "Secrets Not Safe" (الأسرار ليست بمأمن) لمغني الراب شينكس (OS)، بما في ذلك مقطع فيديو موسيقي للمسار.
بعد فترة وجيزة، أرسلت شرطة العاصمة، المسؤولة عن إنفاذ القانون في لندن الكبرى، رسالة بريد إلكتروني إلى Meta تطلب من الشركة مراجعة كل المحتوى الذي يتضمن عبارة "Secrets Not Safe". وقد تلقت Meta أيضًا سياقًا إضافيًا من شرطة العاصمة. ووفقًا لشركة Meta، فقد تناول هذا السياق معلومات عن أعمال العنف التي ترتكبها العصابات في لندن، بما في ذلك جرائم القتل، وتشعر الشرطة بالقلق من أن هذا المسار الموسيقي قد يزيد من العنف الانتقامي.
راجعت فِرق Meta المتخصصة المحتوى. واستنادًا إلى السياق الذي قدمته شرطة العاصمة، تبيّن لتلك الفِرق أن المسار الموسيقي تضمن "تهديدًا مستترًا" من خلال الإشارة إلى إطلاق النار عام 2017، والذي يحتمل أن يؤدي إلى مزيد من العنف. وقد أزالت الشركة المحتوى من الحساب الذي يخضع للمراجعة لانتهاك سياستها بشأن العنف والتحريض. وأزالت أيضًا 52 عنصر محتوى يتضمن المسار الموسيقي "Secrets Not Safe" من حسابات أخرى، بما في ذلك حساب مغني الراب شينكس (OS) نفسه. وأزالت أنظمة Meta التلقائية لاحقًا المحتوى 112 مرة أخرى.
أحالت Meta هذه الحالة إلى المجلس. وطلب المجلس من Meta أيضًا إحالة منشور شينكس (OS) لهذا المحتوى. ومع هذا، فقد ذكرت Meta استحالة ذلك لأن إزالة فيديو "Secrets Not Safe" من حساب شينكس (OS) قد أدت في النهاية إلى حذف الحساب، ولم يتم الاحتفاظ بمحتواه.
أهم النتائج
يرى المجلس أن إزالة هذا المحتوى لا تتفق مع معايير مجتمع Meta، أو قيمها، أو مسؤولياتها تجاه حقوق الإنسان.
افتقرت Meta إلى أدلة كافية على استنتاجها من أن المحتوى قد تضمن تهديدًا مستترًا، ولم تكشف المراجعة التي أجراها المجلس عن أدلة تدعم هذه النتيجة. وبغياب هذه الأدلة، كان الأجدر بشركة Meta أن تغطي وزنًا أكبر للطبيعة الفنية للمحتوى.
تثير هذه الحالة مخاوف بشأن علاقات Meta مع الحكومات، لا سيّما عندما تؤدي طلبات سلطات إنفاذ القانون إلى مراجعة محتوى مشروع للوقوف على مدى توافقه مع معايير المجتمع وإزالته في النهاية. وفي حين أن سلطات إنفاذ القانون يمكن أن تقدم في بعض الأحيان السياق والخبرة، لا ينبغي إزالة كل عنصر محتوى تفضّل سلطات إنفاذ القانون إزالته. لذلك من المهم أن تعمل Meta على تقييم هذه الطلبات بشكل مستقل، لا سيما عندما تتعلق بالتعبير الفني من أفراد ينتمون إلى أقليات أو فئات مهمشة ممن تكون مخاطر التحيز الثقافي ضد المحتوى الذي يقدمونه أكثر حدة.
تتسم القنوات التي تقدم من خلالها سلطات إنفاذ القانون الطلبات إلى شركة Meta بالعشوائية وعدم الشفافية. ولا يُطلب من سلطات إنفاذ القانون استيفاء الحد الأدنى من المعايير لتبرير طلباتها، وبالتالي تفتقر تفاعلاتها للاتساق. وعلاوة على ذلك، فإن البيانات التي تنشرها Meta عن الطلبات الحكومية غير مكتملة.
إن افتقار علاقة Meta مع سلطات إنفاذ القانون إلى الشفافية يؤدي إلى احتمال تسبب الشركة في زيادة التحيز. كشف طلب قدمه المجلس بموجب قانون حرية المعلومات أن جميع الطلبات البالغ عددها 286 التي قدمتها شرطة العاصمة لشركات وسائل التواصل الاجتماعي وخدمات البث لمراجعة المحتوى الموسيقي أو إزالته من يونيو 2021 إلى مايو 2022 تضمنت موسيقى دريل التي تحظى بشعبية خاصة بين الشباب السود في بريطانيا. وقد أسفر 255 طلبًا من هذه الطلبات عن قيام المنصات بإزالة المحتوى. وأسفر 21 طلبًا متعلقًا بمنصات Meta، إلى إزالة 14 عنصرًا من عناصر المحتوى. ويرى المجلس أنه من أجل احترام Meta لقيمها ومسؤولياتها تجاه حقوق الإنسان، يجب أن تنم استجابة Meta لطلبات سلطات إنفاذ القانون عن احترام الإجراءات القانونية وأن تتسم بمزيد من الشفافية.
تثير هذه الحالة أيضًا مخاوف بشأن توفر سبل الانتصاف. وقد أخبرت Meta المجلس، ضمن مجريات هذه الحالة، أنه لا يمكن للمستخدمين تقديم طعن في حالة اتخاذ الشركة للقرارات "عند التصعيد". ويتم اتخاذ القرارات "عند التصعيد" بواسطة فرق Meta الداخلية المتخصصة. ووفقًا لشركة Meta، يتم اتخاذ جميع القرارات المتعلقة بطلبات سلطات إنفاذ القانون "عند التصعيد" (ما لم يتم تقديم الطلب من خلال "أداة الإبلاغ داخل المنتج" المتاحة للجمهور)، ولا يمكن كذلك تطبيق القرارات المتعلقة بسياسات معينة إلا من قبل فرق Meta الداخلية. ويزيد هذا الوضع من المخاوف التي أثيرت عند إعداد الرأي الاستشاري الصادر عن المجلس بشأن السياسة والذي تناول التحقق الشامل حيث كشفت Meta أنه بين مايو ويونيو 2022، تعذر تصعيد حوالي ثلث المحتوى الموجود في نظام التحقق الشامل إلى المجلس.
أحالت Meta إلى المجلس في حالات عديدة محتوى تم تصعيده، ومن بينها هذه الحالة. ومع ذلك، فإن المجلس يشعر بالقلق حرمان المستخدمين من الوصول إلى سبل الانتصاف عند اتخاذ Meta مجموعة من أكثر قراراتها المتعلقة بالمحتوى تأثيرًا. ويجب على الشركة حل هذه المشكلة بشكل عاجل.
قرار مجلس الإشراف
ألغى مجلس الإشراف قرار Meta بإزالة المحتوى.
وأوصى المجلس Meta بما يلي:
- إنشاء نظام موحد لتلقي طلبات إزالة المحتوى من الجهات الحكومية. ويجب أن يتضمن ذلك طلب معايير مثل كيفية انتهاك السياسة المعنية، وأدلة هذا الانتهاك.
- نشر بيانات عن الطلبات المقدمة من الجهات الحكومية لمراجعة المحتوى وإزالته بسبب انتهاكات معايير المجتمع.
- إجراء مراجعة منتظمة لقرارات الإشراف على المحتوى التي تطلبها الجهات الحكومية لتقييم أي حالات تحيز منهجية، وإنشاء آلية لمعالجة أي تحيز يتم اكتشافه.
- منح المستخدمين إمكانية تقديم طعن إلى مجلس الإشراف عند اتخاذ الشركة لقرارات المحتوى "عند التصعيد".
- عدم حذف المحتوى والحسابات التي تم فرض عقوبات عليها أو تعطيلها بسبب نشر محتوى يخضع لتحقيق مفتوح بواسطة المجلس.
- تحديث قيمة "حرية الرأي" لتعكس أهمية التعبير الفني.
- التوضيح في معايير المجتمع أنه كي تتم إزالة المحتوى لاحتوائه على "تهديد مستتر"، يجب توفر إشارة أولية وإشارة ثانوية، مع توضيح كل منهما.
*توفر ملخصات الحالة نظرة عامة على الحالة ولا تُشكّل سابقة قانونية.
القرار الكامل للمجلس بشأن الحالة
1. ملخص القرار
ألغى مجلس الإشراف قرار Meta بإزالة مقطع من Instagram يعلن عن طرح مسار لموسيقى دريل البريطانية لمغني الراب شينكس (OS).
أحالت Meta هذه الحالة إلى المجلس لأنها تثير أسئلة متكررة بشأن التعامل الصحيح مع التعبير الفني الذي يتضمن إشارات إلى العنف. وينطوي الأمر على الموازنة بين اثنين من قيم Meta وهما "حرية الرأي" في صورة تعبير فني، و"السلامة".
يرى المجلس أن Meta افتقرت إلى الدليل الكافي لتخلُص بشكل مستقل إلى أن المحتوى قد تضمن تهديدًا جديًا مستترًا. ولا ينبغي، وفق تقييم المجلس، إزالة المحتوى ما لم يكن هناك دليل أقوى على أنه قد يسفر عن حدوث ضرر وشيك. وكان الأجدر بشركة Meta أن تأخذ السياق الفني للمحتوى في الاعتبار بشكل كامل عند تقييم جدية التهديد المفترض. ويرى المجلس أن المحتوى لم ينتهك معيار مجتمع Meta بشأن العنف والتحريض، وأن إزالته لم توفر الحماية الكافية لقيمة "حرية الرأي" لدى Meta، أو تفي بمسؤوليات Meta تجاه حقوق الإنسان كشركة.
تثير هذه الحالة مخاوف أوسع بشأن علاقة Meta بالحكومات، بما في ذلك عندما تطلب سلطات إنفاذ القانون من Meta تقييم مدى توافق المحتوى المشروع مع معايير مجتمعها. ويرى المجلس أن القنوات التي يمكن للحكومات من خلالها طلب إجراء مثل هذه التقييمات مبهمة وعشوائية. ويرى المجلس أيضًا أن غياب الشفافية وعدم وجود ضمانات كافية بشأن علاقة Meta بسلطات إنفاذ القانون يزيد من احتمال تسبب الشركة في تفاقم الممارسات الحكومية التعسفية أو التمييزية.
تكشف هذه الحالة أيضًا أنه عند اتخاذ Meta لقرارات الإشراف على المحتوى "عند التصعيد"، يتم حرمان المستخدمين دون وجه حق من فرصة التقدم بطعن إلى مجلس الإشراف. ويتم اتخاذ القرارات "عند التصعيد" بواسطة فِرق Meta الداخلية بدلاً من مراجعتها من خلال عملية مراجعة المحتوى "على نطاق واسع". ويضيف عدم توافر إمكانية تقديم طعن إلى المخاوف المتعلقة بالوصول إلى المجلس والتي من المقرر تناولها في الرأي الاستشاري التالي الصادر عن المجلس بشأن السياسة حول التحقق الشامل. وتثير هذه المخاوف، مجتمعة، أسئلة مهمة بشأن حق المستخدمين في الوصول إلى سبل الانتصاف عندما تتخذ Meta بعضًا من أكثر قرارات المحتوى تأثيرًا عند التصعيد. ويجب على الشركة حل هذه المشكلة بشكل عاجل.
2. وصف الحالة ومعلومات أساسية عنها
في يناير 2022، نشر حساب على Instagram يصف نفسه بأنه يروّج الموسيقى البريطانية مقطع فيديو مع شرح توضيحي قصير بحسابه العام. وكان الفيديو عبارة عن مقطع مدته 21 ثانية من فيديو موسيقي يتضمن مسارًا لموسيقى دريل البريطانية بعنوان "Secrets Not Safe" لمغني الراب شينكس (OS). ويتضمن الشرح التوضيحي إشارة إلى شينكس (OS) بالإضافة إلى فنان آخر ويشير إلى أن المسار قد تم إطلاقه توًا. ويعرض الفيديو المقطع الثاني من المسار الذي يتلاشى تدريجيًا إلى أن تظهر شاشة سوداء مكتوب عليها "OUT NOW" (تم الطرح الآن).
موسيقى دريل هي نوع فرعي من موسيقى الراب الشهيرة في المملكة المتحدة، لا سيّما بين الشباب السود، ويوجد العديد من الفنانين والمعجبين بهذه الموسيقى في لندن. ويتسم هذا النوع من الموسيقى بالطابع المحلي لأقصى درجة، حيث يمكن أن ترتبط مجموعات موسيقى دريل بمناطق صغيرة مثل المجمعات السكنية الفردية. وهو نوع من الموسيقى الشعبية، ينتشر على نطاق واسع باللغة الإنجليزية في سياق حضري مع خط رفيع يفصل بين الفنانين المحترفين والهواة. وغالبًا ما يتناول الفنانون بتفاصيل دقيقة نزاعات الشوارع العنيفة المستمرة، متحدثين بضمير المتكلم مع صور وكلمات تصور أعمال العنف أو تصفها. وتعتبر الادعاءات المحتملة بارتكاب أعمال عنف والتباهي في الأداء جزءًا من هذا النوع من الموسيقي - كما أنه يُعد شكلاً من أشكال التعبير الفني الذي قد يتلاشى فيه الخط الفاصل بين الحقيقة والخيال. ومن خلال هذه الادعاءات، يتنافس الفنانون على الأهمية والشعبية. ويعتبر مدى تسبب موسيقى دريل في ارتكاب أعمال عنف على أرض الواقع أمرًا محل نزاع، لا سيّما مصداقية الادعاءات الدالة المقدمة في النقاش.
في السنوات الأخيرة، كانت أعداد حوادث العنف المسجلة في فندنا باستخدام الأسلحة النارية والسكاكين مرتفعة، وكانت آثارها غير متناسبة على مجتمعات السود.
فيما يلي مقتطفات من كلمات الأغنية الواردة في المسار الموسيقي. وقد أضاف المجلس معاني المصطلحات الإنجليزية غير القياسية بين أقواس مربعة وقام بتنقيح أسماء الأفراد:
Ay, broski [a close friend], wait there one sec (wait). You know the same mash [gun] that I showed [name redacted] was the same mash that [name redacted] got bun [shot] with. Hold up, I’m gonna leave somebody upset (Ah, fuck). I’m gonna have man fuming. He was with me putting loud on a Blue Slim [smoking cannabis] after he heard that [name redacted] got wounded. [Name redacted] got bun, he was loosing (bow, bow) [he was beaten]. Reverse that whip [car], confused him. They ain’t ever wheeled up a booting [a drive-by shooting] (Boom). Don’t hit man clean, he was moving. Beat [shoot] at the crowd, I ain’t picking and choosing (No, no). Leave man red [bleeding], but you know [track fades out] (نعم، رفيقي [صديق مقرب]، انتظر هناك ثانية واحدة (انتظر). أنت تعرف أن نفس الطبنجة [المسدس] التي أشهرتها في وجه [الاسم محجوب] كانت نفس الطبنجة التي أرديت [قتلت رميًا بالرصاص] بها [الاسم محجوب]. اصمد، سأترك شخصًا ما منزعجًا (آه، اللعنة). سأغضب رجلاً آخر لأقصى درجة. لقد كان معي ينفث دخانه بصوت عالٍ [يدخن الحشيش] بعد أن سمع أن [الاسم محجوب] أصيب. لقد قُتل [تم حذف الاسم]، كان يخسر (بو، بو) [تعرض للضرب]. عكس تلك العجلة [السيارة]، أربكه. لم يسبق له إطلاق النار على عجلات [إطلاق نار من سيارة] (بوم). لا تصدم رجلاً لا دخل له، كان فقط يتحرك. اهزم [أطلق النار على] الحشد، أنا لا أختار وأنتقي (لا، لا). اصبغ الرجل بلون أحمر [اجعله ينزف]، لكنك تعلم [يتلاشى المسار]).
بعد نشر الفيديو بفترة وجيزة، تلقت Meta طلبًا عبر البريد الإلكتروني من شرطة العاصمة البريطانية لمراجعة كل المحتوى الذي يتضمن المسار الموسيقي لمغني الراب شينكس (OS). تقول Meta إن سلطات إنفاذ القانون قدمت سياقًا عن عنف العصابات، وجرائم القتل المرتبطة بها في لندن، وأشارت إلى أن عناصر المسار بالكامل قد تزيد من مخاطر ارتكاب العصابات لأعمال عنف انتقامية.
عند تلقي الطلب من شرطة العاصمة، قامت Meta بتصعيد طلب مراجعة المحتوى إلى فريق داخلي هو فريق العمليات العالمية المعنية بالمحتوى ثم إلى فريق سياسة المحتوى. ويتخذ فريق سياسة المحتوى لدى Meta قرارات الإزالة بعد تلقي معطيات من خبراء الموضوع وإجراء مراجعات سياقية متخصصة. واستنادًا إلى السياق الإضافي الذي قدمته شرطة العاصمة، تبنت Meta وجهة النظر التي تفيد بأن مقتطف من المسار الموسيقي يشير إلى حادثة إطلاق نار وقعت عام 2017. وقد قررت الشركة أن المحتوى انتهك سياسة العنف والتحريض، وتحديدًا حظر "العبارات المشفرة التي لا تذكر طريقة العنف أو الضرر بوضوح، لكنها تتضمن تهديدًا خفيًا أو ضمنيًا". وتعتقد Meta أن كلمات المسار الموسيقي، "كانت بمثابة دعوة تهديدية للقيام بفعل ما وقد تسهم في مخاطر ارتكاب أعمال عنف أو حدوث ضرر بدني وشيك، بما في ذلك أعمال العنف الانتقامية التي ترتكبها العصابات." ومن ثم فقد أزالت Meta المحتوى.
بعد ساعات، تقدم منشئ المحتوى بطعن على قرار Meta. وعادة لا يمكن للمستخدمين الطعن على القرارات التي تتخذها Meta بشأن المحتوى من خلال عملية التصعيد. وذلك لأنه لا يتم توجيه الطعون التي يقدمها المستخدمون لشركة Meta إلى فِرق التصعيد وإنما إلى المراجعين الذين يعملون على نطاق واسع. ودون الوصول إلى السياق الإضافي المتاح عند التصعيد، ستزيد احتمالات ارتكاب هؤلاء المراجعين للأخطاء، وإلغاء القرارات المتخذة عند التصعيد بشكل غير صحيح. ومع ذلك، في هذه الحالة، وبسبب خطأ بشري، استطاع المستخدم الطعن على القرار الذي تم تصعيده إلى مراجعي Meta الذين يعملون على نطاق واسع. وقيّم أحد المراجعين الذين يعملون على نطاق واسع المحتوى بأنه غير مخالف وقرر إعادته إلى Instagram.
بعد ثمانية أيام، وبعد تلقي طلب آخر من شرطة العاصمة، أزالت Meta المحتوى من خلال عملية التصعيد مرة أخرى.
وتبين أن الحساب المعني في هذه الحالة يتابعه أقل من 1000 متابع، ويعيش أغلبهم في المملكة المتحدة. وتلقى المستخدم إشعارات من Meta في المرتين اللتين تمت إزالة المحتوى فيهما؛ لكن لم يتم إعلامه بأن عمليات الإزالة قد تمت بناءً على طلب من سلطات إنفاذ القانون في المملكة المتحدة.
إلى جانب إزالة المحتوى قيد المراجعة، حددت Meta وأزلت 52 عنصر محتوى تتضمن المسار الموسيقي "Secrets Not Safe" من حسابات أخرى، بما في ذلك حساب شينكس (OS) نفسه. وقد أضافت Meta المحتوى الذي بين أيدينا في هذه الحالة إلى بنك خدمة مطابقة الوسائط لسياسة العنف والتحريض كمحتوى مخالف. وتكتشف هذه البنوك تلقائيًا المحتوى المطابق ويمكنها إزالته أو منع تحميله إلى فيسبوك وInstagram. وقد أدت إضافة الفيديو إلى بنك خدمة مطابقة الوسائط إلى إجراء 112 عملية إزالة مؤتمتة أخرى لمحتوى مطابق من مستخدمين آخرين.
أحالت Meta هذه الحالة إلى المجلس. وقد نُشر المحتوى المُحال إلى المجلس من حساب لا يرتبط مباشرةَ بمغني الراب شينكس (OS). ونظرًا لأن موسيقى شينكس (OS) هي محور هذه الحالة، فقد طلب المجلس من Meta أن تحيل إليه أيضًا قرارها بإزالة منشور شينكس (OS) الذي يتضمن نفس المسار الموسيقي. وقد أوضحت Meta عدم إمكانية ذلك، لأن إزالة الفيديو من حساب الفنان أدت إلى إنذاره. وهو ما تسبب في تجاوز الحساب الحد الذي يتم بموجبه تعطيل الحساب نهائيًا. وبعد ستة أشهر، وقبل طلب المجلس للإحالة الإضافية، حذفت Meta نهائيًا حساب شينكس (OS) المعطل، كجزء من عملية مؤتمتة منتظمة، وذلك على الرغم من عدم صدور قرار مجلس الإشراف بشأن هذه الحالة. ولأنه لا يمكن إلغاء حذف حساب شينكس (OS) بما في ذلك ما يتضمنه من محتوى، فإن إحالة الحالة إلى المجلس أصبحت مستحيلة.
3. سُلطة ونطاق مجلس الإشراف
يتمتع المجلس بسلطة مراجعة القرارات التي تحيلها Meta للمراجعة (المادة 2، القسم 1 من اتفاقية المجلس؛ المادة 2، القسم 2.1.1 من اللائحة الداخلية). يجوز للمجلس تأييد قرار شركة Meta أو إلغائه (المادة 3، القسم 5 من اتفاقية المجلس)، ويكون قراره بهذا الشأن ملزمًا للشركة (المادة 4 من اتفاقية المجلس). يجب على شركة Meta أيضًا تقييم جدوى تطبيق قرارها على أي محتوى مماثل له سياق موازٍ (المادة 4 من اتفاقية المجلس). وقد تتضمن قرارات المجلس بيانات استشارية بشأن السياسية تضم توصيات غير ملزمة يجب على شركة Meta الرد عليها (اتفاقية المجلس، المادة 3، القسم 4؛ المادة 4).
عندما يكتشف المجلس حالات تثير مشكلات مشابهة، فقد يتم تعيينها معًا لإحدى اللجان. وقد طلب المجلس في هذه الحالة أن تحيل إليه Meta أيضًا المحتوى الذي يتضمن نفس المسار الموسيقي والذي تم نشره بواسطة مغني الراب شينكس (OS). ومن وجهة نظر المجلس، كان من الممكن أن تتغلب Meta على صعوبة الموازنة بين السلامة والتعبير الفني بشكل أفضل من خلال إحالة منشور شينكس (OS) الذي يتضمن موسيقاه من حسابه الخاص. وهو ما كان سيسمح أيضًا للمجلس بإصدار قرار ملزم فيما يتعلق بمنشور الفنان. وقد أدت إجراءات Meta في هذه الحالة إلى استبعاد الفنان تمامًا من المشاركة رسميًا في عمليات المجلس، وأزالت حساب شينكس (OS) من المنصة دون توفير أي سبيل للانتصاف.
أحالت Meta إلى المجلس في عدة مناسبات، من بينها هذه الحالة، محتوى تم تصعيده داخل Meta (راجع على سبيل المثال، حالة "مكتب تيجراي لشؤون الاتصالات"، وحالة "تعليق حساب الرئيس الأسبق ترامب"). عندما تتخذ Meta قرارًا بشأن المحتوى "عند التصعيد"، لا يتمكن المستخدمون من الطعن على القرار إلى الشركة أو إلى المجلس. وبما أنه يمكن لشركة Meta أن تحيل إلى المجلس الحالات التي تم اتخاذ قرار فيها عند التصعيد، فإنه يجب أن يتمتع المستخدمون الذين قاموا بكتابة المحتوى أو الإبلاغ عنه بالقدرة على التقدم بطعن إلى المجلس. ومن المرجّح أن تكون القرارات التي يتم اتخاذها عند التصعيد من بين القرارات الأكثر أهمية وصعوبة، حيث يكون الإشراف المستقل أكثر أهمية. تنص المستندات الحاكمة للمجلس على أن جميع قرارات الإشراف على المحتوى التي تقع ضمن النطاق وغير المستبعدة بموجب اللائحة الداخلية (المادة 2 من اللائحة الداخلية، الأقسام 1.2، و1.2.1) والتي استنفذت عملية الطعن الداخلي لشركة Meta (المادة 2، القسم 1 من اتفاقية المجلس) مؤهلة لأن يقدم الأشخاص طعنًا بشأنها إلى المجلس.
4. مصادر السُلطة
أخذ مجلس الإشراف السلطات والمعايير التالية في الاعتبار:
1. قرارات مجلس الإشراف:
- "الرسم الكاريكاتوري للشرطة الكولومبية" (القرار الصادر بشأن الحالة 2022-004-FB-UA): للتغلب على المخاوف المتعلقة باحتمال أن تزيد بنوك خدمة مطابقة الوسائط من تأثير القرارات غير الصحيحة، أوصى المجلس Meta بتحسين الإجراءات لتزيل سريعًا المحتوى غير المخالف الذي أضيف بالخطأ إلى هذه البنوك.
- "كارتون كنين" (القرار الصادر بشأن الحالة 2022-001-FB-UA): ألغى المجلس قرار Meta بترك المحتوى على المنصة، حيث وجد أن المقارنة الضمنية بين الصرب والجرذان تنتهك معيار المجتمع بشأن الخطاب الذي يحض على الكراهية، وأن الإشارة إلى أحداث تاريخية سابقة ضمن هذه المقارنة يمثل مخالفة أيضًا لمعيار المجتمع بشأن العنف والتحريض.
- "حزام وامبوم" (القرار الصادر بشأن الحالة 2021-012-FB-UA): أكد المجلس على أهمية احترام Meta للتعبير الفني.
- "مشاركة منشور الجزيرة " (القرار الصادر بشأن الحالة 2021-009-FB-UA): أوصى المجلس Meta بإرساء عملية تتسم بالشفافية لكيفية التعامل مع الطلبات الحكومية وإصدار تقارير علنية عنها. يجب أن تميز تقارير الشفافية بين الطلبات الحكومية التي أسفرت عن إزالة المحتوى بسبب انتهاك معايير المجتمع والطلبات التي أدت إلى الإزالة أو الحظر الجغرافي بسبب انتهاك القوانين المحلية، والطلبات التي لم تسفر عن اتخاذ أي إجراء.
- "عزلة أوجلان" (القرار الصادر بشأن الحالة 2021-006-IG-UA): أوصى المجلس بأن تخطر Meta المستخدمين عند إزالة المحتوى الخاص بهم بموجب طلب حكومي. وقدّم القرار أيضًا توصيات بشأن إصدار تقارير تتسم بالشفافية بشأن هذه الطلبات.
- "الاحتجاجات في الهند ضد فرنسا" (القرار الصادر بشأن الحالة 2020-007-FB-FBR): لاحظ المجلس التحديات التي تكتنف التعامل مع التهديدات المستترة بارتكاب أعمال عنف على نطاق واسع نظرًا لأهمية التحليل السياقي.
- "أعراض سرطان الثدي والعُري" (القرار الصادر بشأن الحالة2020-004-IG-UA): أوصى المجلس Meta بإخبار مستخدمي Instagram أن معايير مجتمع فيسبوك تسري على Instagram بنفس قدر سريانها على فيسبوك. وقد تكررت هذه التوصية في القرار الصادر بشأن حالة "تغيير دلالات كلمات عربية ازدرائية إلى كلمات مقبولة" (2022-003-IG-UA).
2. سياسات المحتوى لدى Meta:
تتضمن هذه الحالة إرشادات مجتمع Instagram ومعايير مجتمع فيسبوك.
تنص إرشادات مجتمع Instagram تحت عنوان "احترام الأعضاء الآخرين بمجتمع Instagram" على أن الشركة تريد "الوصول إلى مجتمع يمتاز بالإيجابية والتنوع." وتزيل الشركة المحتوى الذي ينطوي على "تهديدات جدية" تتضمن الكلمات المرتبطة بمعيار مجتمع فيسبوك بشأن العنف والتحريض. وتنص الإرشادات أيضًا على ما يلي:
غير مسموح بالتهديدات الجدية بإلحاق الضرر بالسلامة العامة أو الشخصية. ويشتمل ذلك على توجيه تهديدات محددة بالإيذاء البدني والتهديد بالسرقة والتخريب وأنواع الإيذاء المالي الأخرى. نحن نراجع البلاغات المقدمة بشأن التهديدات بعناية ونضع الكثير من الأمور في الحسبان عند تحديد مصداقية التهديدات.
تنص مبادئ السياسة التي يستند إليها معيار مجتمع فيسبوك بشأن العنف والتحريض على أنها "تهدف إلى منع تعرض المستخدمين لأي أذى محتمل على أرض الواقع قد ينتج عن محتوى يتم نشره على فيسبوك" وأنه في حين أن Meta "تتفهم أن الأشخاص عادةً ما يعبرون عن الازدراء أو الاختلاف من خلال التهديد أو الدعوة إلى العنف بطرق هزلية، إلا أننا سنزيل أي عبارات تحرض على العنف أو تساعد عليه." وتنص أيضًا على أن Meta تقوم بإزالة المحتوى وتعطيل الحسابات وتتعاون مع سلطات إنفاذ القانون "عندما تعتقد بوجود تهديد فعلي ينطوي على إيذاء بدني أو تهديد مباشر للسلامة العامة." وتقول Meta إنها تحاول أن "تأخذ في الاعتبار اللغة والسياق من أجل التفرقة بين العبارات العفوية والمحتوى الذي يمثل تهديدًا جديًا."
تحت عنوان فرعي ينص على أن Meta تطلب "تقديم مزيد من المعلومات و/أو السياق لتطبيق المعايير"، ينص معيار المجتمع على ضرورة ألا ينشر المستخدمون عبارات مشفرة "لا تذكر طريقة العنف أو الضرر بوضوح، لكنها تتضمن تهديدًا خفيًا أو ضمنيًا." ويتضمن ذلك "الإشارات إلى حوادث عنف تاريخية أو خيالية" والحالات التي "يؤكد السياق المحلي أو الخبرة في المضوع أن العبارة المعنية يمكن أن تكون تهديدًا و/أو يمكن أن تؤدي إلى حدوث عنف وشيق أو ضرر بدني."
3. قيم شركة Meta:
جرى وصف قيمة "حرية الرأي" بأنها "ذات أهمية قصوى":
يتمثل هدف معايير مجتمعنا في توفير مكان لحرية التعبير يستطيع الأشخاص من خلاله إبداء وجهات نظرهم. تريد Meta أن يتمتع الأشخاص بالقدرة على التحدث بحرية عن القضايا التي تهمهم، حتى في حالة عدم اتفاق الآخرين أو اعتراضهم على الأفكار المطروحة.
تقيد Meta "حرية الرأي" لصالح أربع قيم. وتعتبر "السلامة" و"الكرامة" هي الأكثر ارتباطًا بهذه الحالة.
السلامة: نحن ملتزمون بجعل فيسبوك مكانًا آمنًا. ونعمل على إزالة المحتوى الذي قد يسهم في مخاطر إلحاق ضرر بالأمان البدني للأشخاص. إن المحتوى الذي يحمل تهديدًا للأشخاص قد يتسبب في إخافة الآخرين أو إقصائهم أو إسكاتهم ونحن لا نسمح بذلك على فيسبوك.
الكرامة:نحن نؤمن بأن الأشخاص متساوون في الكرامة والحقوق. ونتوقع من الجميع احترام كرامة الآخرين وعدم الإساءة إليهم أو الحط من قدر الآخرين.
4. المعايير الدولية لحقوق الإنسان:
تُرسي مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان (UNGP)، التي أقرها مجلس حقوق الإنسان التابع للأمم المتحدة عام 2011، إطار عمل تطوعي لمسؤوليات الأنشطة التجارية الخاصة فيما يتعلق بحقوق الإنسان. في عام 2021، أعلنت شركة Meta عن سياسة حقوق الإنسان الخاصة بالشركة، والتي أعادت التأكيد من خلالها على الالتزام باحترام حقوق الإنسان على نحو يتفق مع مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان. وقد استند تحليل المجلس لمسؤوليات شركة Meta تجاه حقوق الإنسان في هذه الحالة إلى معايير حقوق الإنسان التالية:
- الحق في حرية الرأي والتعبير: المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية (ICCPR)، التعليق العام رقم 34، اللجنة المعنية بحقوق الإنسان، 2011؛ تقارير مقرر الأمم المتحدة الخاص المعني بحرية الرأي والتعبير: A/HRC/38/35 (2018)، A/74/486 (2019)، A/HRC/44/49/Add.2 (2020).
- الحق في الحياة: المادة 6، العهد الدولي الخاص بالحقوق المدنية والسياسية.
- الحق في الأمن الشخصي: المادة 9، الفقرة 1، العهد الدولي الخاص بالحقوق المدنية والسياسية.
- الحق في سبل انتصاف فعّال: المادة 2، العهد الدولي الخاص بالحقوق المدنية والسياسية؛ التعليق العام رقم 31، اللجنة المعنية بحقوق الإنسان (2004).
- المساواة وعدم التمييز: المادة 2، الفقرة 1 والمادة 26 (العهد الدولي الخاص بالحقوق المدنية والسياسية)؛ المادة 2، الاتفاقية الدولية للقضاء على جميع أشكال التمييز العنصري.
- الحقوق الثقافية: المادة 27، العهد الدولي الخاص بالحقوق المدنية والسياسية، المادة 15، العهد الدولي الخاص بالحقوق الاقتصادية والاجتماعية والثقافية (ICESCR)، مقرر الأمم المتحدة الخاص في مجال الحقوق الثقافية، تقرير عن حرية التعبير والإبداع الفنيين، A/HRC/23/34، 2013.
5. المعلومات المقدَّمة من المستخدمين
أحالت Meta هذه الحالة إلى المجلس، واختارها المجلس في منتصف يونيو 2022. ونظرًا لوجود خطأ فني تم إصلاحه منذ ذلك الحين، لم تنجح Meta في إخطار المستخدم باختيار المجلس لحالة تتعلق بمحتوى قام بنشره ولم تقم بدعوته لتقديم بيان إلى المجلس. وفي نهاية شهر أغسطس، أخطرت Meta المستخدم يدويًا، لكنه لم يقدم أي بيان خلال المهلة المحددة ومدتها 15 يومًا.
6. المعلومات المقدَّمة من Meta
أوضحت Meta للمجلس أنها أزالت المحتوى لأن منشور Instagram قد انتهك سياستها بشأن العنف والتحريض باحتوائه على تهديد مستتر بارتكاب أعمال عنف. وقالت Meta إن قرارها يتفق مع المبادئ الدولية لحقوق الإنسان لأن معايير المجتمع تنص على عدم جواز نشر المستخدمين لتهديدات مستترة بارتكاب أعمال عنف؛ ولأن تطبيق هذه السياسة يخدم الهدف المشروع المتمثل في حماية حقوق الآخرين والنظام العام؛ ولأن إزالة المحتوى المعني كانت ضرورية ومتناسبة لتحقيق تلك الأهداف.
اعتبرت Meta أن القرار كان يتسم بصعوبة خاصة لأن سياستها بشأن العنف والتحريض لا تتضمن استثناءات صريحة للفكاهة أو السخرية أو التعبير الفني. وتنص السياسة على أن تقوم Meta بتقييم ما إذا كان التهديد جديًا أم أنه لأغراض التباهي أو الاستفزاز، وهو في النهاية مجرد تعبير لا ينطوي على عنف. وترى Meta أن هذه الحالة مهمة لأنها تثير أسئلة متكررة بشأن التعامل الصحيح مع التعبير الفني الذي يتضمن إشارات إلى العنف. ويتضمن هذا التقييم موازنة بين اثنين من قيم الشركة وهما "حرية الرأي" و"السلامة". وقد أخبرت Meta المجلس أنه عندما يتضمن عمل منشئ المحتوى تهديدات بارتكاب أعمال عنف أو عبارات يمكن أن تسهم في خطر اندلاع أعمال عنف، فإنها "ترجّح إزالته من منصاتنا".
توضح إرشادات Meta الداخلية للمشرفين، ومعايير التنفيذ الداخلية "تحليل التهديدات المستترة" الذي تستخدمه Meta لتحدد مدى وجود تهديدات مستترة بموجب معيار المجتمع بشأن العنف والتحريض. ويوضح هذا التحليل أنه كي يُصنّف المحتوى كتهديد مستتر، يجب وجود إشارة أولية (مثل الإشارة إلى أعمال عنف حدثت في الماضي)، وإشارة ثانوية. وتتضمن الإشارات الثانوية السياق المحلي أو الخبرة في الموضوع حين تشير إلى احتمال أن ينطوي المحتوى على تهديد، أو عند قيام الشخص المستهدف بتأكيد أنه ينظر إلى المحتوى كتهديد. ووفقًا لشركة Meta، يتم تقديم الإشارات الثانوية بواسطة المنظمات غير الحكومية المحلية، أو وكالات إنفاذ القانون، أو فريق السياسة العامة لدى Meta، أو خبراء محليين آخرين. ويتم إجراء "تحليل التهديدات المستترة" فقط "عند التصعيد"، مما يعني أنه لا يمكن إجراؤه بواسطة المراجعين الذين يعملون "على نطاق واسع". ويمكن إجراؤه فقط بواسطة فِرق Meta الداخلية.
في هذه الحالة، وجدت Meta أن المحتوى تضمن إشارة أساسية تمثلت في ذِكر مشاركة مغني الراب في عملية إطلاق نار سابقة والتلميح إلى وجود نية للاستجابة بشكل أكبر. ووفقًا لشركة Meta، تمثلت الإشارة الثانوية في تصنيف شرطة العاصمة البريطانية للمحتوى باعتبار أنه ينطوي على تهديد محتمل أو أنه قد يسهم في مخاطر حدوث عنف وشيك أو أذى بدني. ولم تدعي سلطات إنفاذ القانون أن المحتوى شكّل انتهاكًا للقانون المحلي. وتقول Meta إنها تقيّم بلاغات سلطات إنفاذ القانون جنبًا إلى جنب مع الخبرة السياسية والثقافية واللغوية المقدمة من فِرق Meta الداخلية.
تقول Meta إن موسيقى دريل غالبًا ما ارتبطت بالعنف، مستشهدة بتقرير مؤسسة Policy Exchange الذي يزعم أن ما يقرب من ربع جرائم القتل التي ترتكبها العصابات في لندن مرتبطة بموسيقى دريل. مع هذا، فقد أقرت Meta في وقت لاحق أن هذا التقرير قد واجه "بعض الانتقادات من علماء الجريمة." واقتبست Meta خطابًا مفتوحًا وقّع عليه 49 من علماء الجريمة وعلماء الاجتماع والمؤسسات المتخصصة، والذي تم فيه "رفض التقرير باعتباره غير دقيق من الناحية الواقعية ومضلل وخطير من الناحية السياسية" ولأنه "ينطوي على أخطاء جسيمة بشأن العلاقة السببية".
لا يمكن إنفاذ بعض سياسات Meta إلا بواسطة فِرق Meta الداخلية، من خلال عملية التصعيد الداخلية. وتُعرف هذه العملية باتخاذ القرار "عند التصعيد". وقد قدمت Meta قائمة تضم نحو 40 قاعدة يتم اتخاذ القرار فيها عند "التصعيد فقط" وتندرج هذه القواعد تحت تسع مجالات للسياسة. وقد سأل المجلس Meta في هذه الحالة عن كيفية تمكن مراجع يعمل على نطاق واسع من استعادة منشور تمت إزالته عند التصعيد. وأجابت Meta أن ذلك قد تم "بشكل استثنائي في هذه الحالة ونتيجة لخطأ بشري، استطاع منشئ المحتوى الطعن على قرار الإزالة الأولي." وكشفت Meta أنه عندما يتم اتخاذ إجراء بشأن المحتوى من خلال عملية التصعيد الداخلية لشركة Meta، فليس بالإمكان عادةً تقديم طعن لتقوم الشركة بإجراء عملية فحص ثانية. ويهدف ذلك إلى منع المراجعين "على نطاق واسع" من إلغاء القرارات المتخذة "عند التصعيد" دون الوصول إلى السياق المتاح عند المراجعة في مرحلة التصعيد.
بناءً على طلب المجلس، قدمت Meta إيجازًا عن "الطلبات الحكومية لمراجعة المحتوى بسبب انتهاك معايير المجتمع." أوضحت Meta للمجلس أن بإمكان الحكومات تقديم طلبات للشركة لإزالة المحتوى عبر البريد الإلكتروني أو البريد العادي أو مركز المساعدة، وكذلك من خلال أدوات الإبلاغ داخل المنتجات، والتي ترسل المحتوى إلى المراجعة التلقائية أو "على نطاق واسع".
أوضحت Meta أنها عندما تتلقى طلبات من سلطات إنفاذ القانون بطريقة أخرى غير الأدوات الموجودة داخل المنتجات، فإن المحتوى يخضع لعملية تصعيد داخلية. وبغض النظر عن طريقة تلقي طلب التصعيد، هناك نطاق قياسي وعملية لترتيب الأولويات لتقييم مدى إلحاح طلب التصعيد وحساسيته وتعقيده. وتحدد هذه العملية فِرق Meta التي ستتعامل مع الطلب وموقع الطلب في قائمة الانتظار. بمجرد تلقي طلب مراجعة من جهة خارجية، بما في ذلك الحكومات، يقوم فريق العمليات العالمية المعنية بالمحتوى في Meta بتعبئة الإشارات يدويًا في نموذج مخصص لذلك. ويأخذ نموذج وركائز تحديد الأولويات في اعتبارهما الإشارات المتعلقة بالمخاطر القانونية والتنظيمية وتلك المتعلقة بالسمعة، والتأثير الواقع على السلامة البدنية لأعضاء مجتمع Meta، ونطاق المشكلة المطروحة وعدد مشاهداتها، وحساسية الوقت فيها.
يتم ترتيب ركائز تحديد الأولويات هذه من حيث الأهمية واحتساب نقاط الأولوية تلقائيًا استنادًا إلى الإشارات التي تم إدخالها. ويتسم النموذج بأنه ديناميكي ومتجاوب مع التغييرات التي تطرأ على البيئة (على سبيل المثال، الأحداث على أرض الواقع) والتحسينات التي تطرحها Meta. ويتم إرسال طلبات التصعيد ذات الأولوية العالية، كما في هذه الحالة، إلى فريق متخصص داخل فريق العمليات العالمية المعنية بالمحتوى لدى Meta. ويقوم الفريق بمراجعة المحتوى في ضوء معايير المجتمع، والتحقيقات، ويتواصل مع الجهات المعنية لمزيد من التقييم إذا اقتضت الضرورة، ليتخذ قرار الإنفاذ في النهاية. في بعض الحالات، بما في ذلك الحالة التي بين أيدينا، يتم تصعيد المحتوى إلى فريق سياسة المحتوى لإبداء الرأي. ويتم إبلاغ الأشخاص الخارجيين الذين قدموا الطلب الأصلي بالإجراء المتخذ. وشاركت Meta أن فريقها المعني بحقوق الإنسان لا يعلق عادةً على طلبات الأفراد المتعلقة بإطار عمل التهديدات المستترة.
تشير Meta إلى أنها تقوم عند تلقي طلبات إزالة المحتوى من وكالات إنفاذ القانون بتقييم المحتوى في ضوء معايير المجتمع بنفس الطريقة المتبعة في التعامل مع أي عنصر محتوى آخر، بغض النظر عن طريقة اكتشافه أو تصعيده. وتزعم Meta أن ذلك يعني التعامل مع الطلبات بنفس الطريقة في كل البلدان. وقد أوضحت Meta أن درجة الأولوية تتأثر بالسياق المقدم فيما يتعلق بالركائز. وفي حين أن هوية مقدم الطلب ليست من العوامل التي تؤثر بشكل مباشر في تحديد الأولوية، فإن هذه الأنواع المحددة من السياق تؤثر في تحديد الأولوية.
للتقدم بطعن إلى مجلس الإشراف، يجب أن يكون لدى المستخدم معرف مرجعي للطعن. وتصدر Meta هذه المعرفات في سياق عملية تقديم الطعون. وفي ردها على أسئلة المجلس، أكدت Meta أنها تقوم بذلك مع قرارات المحتوى المؤهلة للطعن الداخلي وبعد استنفاد المراجعة الثانية. ولذلك، لا توجد فرصة للتقدم بطعن إلى المجلس في الحالات التي تتعامل فيها Meta مع المحتوى ولا توفر إمكانية تقديم طعن. وعادة ما يكون الأمر كذلك في القرارات التي يتم اتخاذها "عند التصعيد"، مثل تلك التي تتم مراجعتها بموجب طلبات حكومية (تم تقديمها خارج أدوات الإبلاغ داخل المنتجات)، والمحتوى الذي تتم مراجعته بموجب سياسات "التصعيد فقط".
أرسل المجلس رسميًا إلى Meta ما مجموعه 26 سؤالًا مكتوبًا، بما في ذلك ثلاث جولات من أسئلة المتابعة. ويستثنى من هذا الرقم الأسئلة التي طرحها المجلس خلال الإيجاز الذي قدمته Meta وجهًا لوجه لأعضاء المجلس بشأن كيفية التعامل مع الطلبات الحكومية. تمت الإجابة عن ثلاثة وعشرين سؤالاً من الأسئلة المكتوبة إجابة كاملة ولم تستجب Meta لثلاثة طلبات. وقد رفضت Meta تقديم بيانات عن طلبات سلطات إنفاذ القانون عالميًا وفي المملكة المتحدة والتي تركز على "التهديدات المستترة" أو موسيقى دريل أو نسبة الطلبات التي أدت إلى إزالة المحتوى لانتهاك معايير المجتمع. وعلاوة على ذلك، فقد رفضت Meta تقديم نسخة من طلبات مراجعة المحتوى التي تلقتها من شرطة العاصمة في هذه الحالة. ومع هذا، فقد زودت شرطة العاصمة المجلس بنسخة من أول طلب أرسلته إلى Meta، شريطة الحفاظ على سرية محتوى الطلب.
7. التعليقات العامة
نظر مجلس الإشراف في عشر تعليقات عامة ذات صلة بهذه الحالة. تم تقديم تعليق واحد من كل من المناطق التالية: أوروبا؛ الشرق الأوسط وشمال أفريقيا؛ وأمريكا اللاتينية والكاريبي. وتم تقديم تعليقين من وسط وجنوب آسيا وخمسة تعليقات من الولايات المتحدة وكندا. وقدمت شرطة العاصمة تعليقًا؛ وهي تدرك أن المجلس سيفصح عن ذلك، لكنها لم تأذن بنشر التعليق. وقد طلب المجلس من شرطة العاصمة إعادة النظر في هذا القرار من أجل الشفافية، لكنها رفضت. وقد أشارت شرطة العاصمة إلى أنها قد تتمكن من إبداء موافقتها في وقت لاحق. وعندها، سيشارك المجلس التعليق العام.
تناولت التعليقات المقدمة الموضوعات التالية: التحيز العرقي واستهداف سلطات إنفاذ القانون بشكل مفرط وغير متناسب لمجتمعات السود؛ وأهمية السياق الثقافي الاجتماعي في تقييم التعبير الفني؛ والروابط السببية بين موسيقى دريل والعنف؛ والتعامل مع طلبات الإزالة الصادرة عن الحكومات.
قدم المجلس طلبًا بموجب قانون حرية المعلومات (رقم مرجعي: 01/FOI/22/025946) إلى شرطة العاصمة لإمداده بمعلومات عن سياساتها وممارساتها في تقديم الطلبات إلى شبكات وسائل التواصل الاجتماعي وشركات البث لمراجعة المحتوى و/أو إزالته. وقد استند التحليل التالي الصادر عن المجلس إلى استجابة شرطة العاصمة لهذا الطلب.
لقراءة التعليقات العامة المقدمة في هذه الحالة، يرجى النقر هنا. لقراءة رد شرطة العاصمة على الطلب المقدم من المجلس بموجب قانون حرية المعلومات، يرجى النقر هنا.
8. تحليل مجلس الإشراف
نظر المجلس في مسألة ما إذا كان ينبغي استعادة هذا المحتوى من خلال ثلاث رؤى: سياسات المحتوى لدى شركة Meta وقيمها ومسؤولياتها تجاه حقوق الإنسان.
8.1 الامتثال لسياسات المحتوى لدى شركة Meta
1. قواعد المحتوى
يرى المجلس أن إزالة Meta للمحتوى في هذه الحالة لا تتفق مع معيار المجتمع بشأن العنف والتحريض.
يتسم اكتشاف التهديدات على نطاق واسع وتقييمها بالصعوبة، لا سيّما إذا كانت مستترة، وعند الحاجة إلى التمتع بخبرة ثقافية أو لغوية معينة لتقييم السياق (انظر قرارات مجلس الإشراف "الاحتجاجات في الهند ضد فرنسا" و "كارتون كنين"). ويمكن أن يحتوي التعبير الفني على تهديدات مستترة، مثله مثل أي وسيلة أخرى. وفي الفن تحديدًا تزداد حدة التحدي الذي يكتنف تقييم مصداقية التهديدات المستترة. فقد تكون النوايا في رسائل الفن غامضة وخاضعة للتفسير بشكل مقصود. وقد تكون العبارات التي تشير إلى العنف مشفرة، لكنها أيضًا قد تكون استعراضية أو ساخرة في طبيعتها. بل إنها تعتبر سمة لبعض أشكال الفن، مثل موسيقى دريل. وقد أقرت Meta بهذه التحديات عندما أحالت هذه الحالة إلى المجلس.
يتفق المجلس مع Meta على أن كلمات الأغنية في مقطع الفيديو لم تتضمن تهديدًا صريحًا بالعنف بموجب معيار المجتمع بشأن العنف والتحريض.
يتمثل السؤال الأصعب فيما إذا كان الفيديو يتضمن تهديدًا مستترًا بموجب نفس السياسة. توضح مبادئ السياسة أن Meta تسعى إلى "منع حدوث أي ضرر محتمل على أرض الواقع"، وأنها تزيل اللغة "التي تحرض على ارتكاب أعمال عنف خطيرة أو تساعد عليها" والتي تنطوي على "خطر حقيقي بوقوع إيذاء بدني أو تهديد مباشر للسلامة العامة". وقد تم التأكيد على ضرورة التفريق بين التهديدات الجدية والتهديدات غير الجدية. ولإيجاد علاقة سببية بين اللغة ومخاطر حدوث ضرر يجب إجراء تحليل يحتاج إلى موارد كثيفة.
كي يتم تصنيف المحتوى باعتباره تهديدًا "مستترًا أو ضمنيًا" بموجب معيار المجتمع بشأن العنف والتحريض، يجب ألا تكون طريقة العنف مذكورة بوضوح. تستخدم Meta "تحليل التهديدات المستترة"، الموضح في إرشاداتها لمشرفي المحتوى غير المعلنة لعامة الجمهور، وإرشادات التنفيذ الداخلية، لتقييم مدى وجود تهديد مستتر. يتطلب ذلك تحديد إشارة أولية وإشارة ثانوية كي يتصف المحتوى بأنه يشكّل تهديدًا مستترًا.
يتفق المجلس مع Meta على وجود إشارة أولية في هذه الحالة. حيث تحتوي كلمات الأغنية على إشارة إلى حادث عنف "تاريخي". ويحتاج الأمر إلى سياق إضافي لإدراك أن الأمر يتعلق بحادث إطلاق نار وقع عام 2017 بين العصابات المتنافسة في لندن. بالنسبة إلى Meta، فإن الجزء المقتطف من الأغنية يشير بالكامل إلى تلك الوقائع. ويستند استنتاج المجلس، الذي يتفق مع Meta على وجود إشارة أولية، إلى تحليلين خارجيين مستقلين لكلمات الأغنية جرى تنفيذهما بتكليف من المجلس. ويلاحظ المجلس أن هذه التحليلات اختلفت في نواحٍ جوهرية عن تفسير Meta. على سبيل المثال، فسّرت Meta كلمة "mash" على أنها تعني "مخدر الحشيش"، في حين فسرها الخبراء الذين استعان بهم المجلس على أنها تعني "مسدس". فسرت Meta كلمة "bun" على أنها "مرتفع"، في حين فسرها خبراء المجلس على أنها تعني "قتل رميًا بالرصاص".
يتطلب تحديد التهديد المستتر أو الضمني أيضًا وجود إشارة ثانوية توضح أن الإشارة "قد تنطوي على تهديد و/أو قد تؤدي إلى حدوث عنف وشيك أو ضرر بدني" [التشديد مُضاف]. وتستند الإشارة إلى السياق المحلي، والذي غالبًا ما تقدمه جهات خارجية مثل سلطات إنفاذ القانون، لتأكيد أن المحتوى "يعتبر بمثابة تهديد محتمل، أو يحتمل أن يسهم في حدوث عنف وشيك أو ضرر بدني" [التشديد مُضاف]. وهو التأكيد الذي قدمته شرطة العاصمة البريطانية في هذه الحالة. وقد قررت Meta أن إشارة شينكس (OS) إلى إطلاق النار الذي وقع عام 2017 كانت تهديدًا محتملاً، أو من المحتمل أن تسهم في حدوث عنف الوشيك أو ضرر بدني وبالتالي فقد تم تصنيفها على أنها تهديد مستتر. وقد تضمن تقييم Meta السياقي التنافس الواضح بين العصابات المرتبطة بإطلاق النار الذي وقع عام 2017، بالإضافة إلى السياق الأوسع للعنف والقتل بين العصابات في لندن.
من المناسب أن تعتمد Meta على الخبرة المحلية في الموضوع لتقييم السياق ذي الصلة والوقوف على مصداقية التهديدات المستترة. ويلاحظ المجلس وجود قلق مفهوم بشأن ارتفاع معدلات العنف باستخدام المسدسات والسكاكين في السنوات الأخيرة في لندن، مع وجود تأثيرات غير متناسبة على مجتمعات السود. ويمكن أن توفر سلطات إنفاذ القانون في بعض الأحيان هذا السياق والخبرة. ولكن لا ينبغي إزالة كل عنصر محتوى تفضّل سلطات إنفاذ القانون إزالته - ولا ينبغي كذلك إزالة كل عنصر محتوى يحتمل أن يؤدي إلى تصعيد العنف. ولذلك من المهم أن تعمل Meta على تقييم هذه الطلبات بنفسها والوصول إلى استنتاج مستقل. وهو ما تقول الشركة إنها تقوم به بالفعل. وتعتبر الاستقلالية أمرًا بالغ الأهمية، وينبغي أن يطلب التقييم وجود دليل محدد على دور المحتوى في حدوث الضرر. ويحظى ذلك بأهمية خاصة في التصدي لإمكانية مشاركة سلطات إنفاذ القانون للمعلومات بشكل انتقائي، ومحدودية فرصة الحصول على وجهات نظر مضادة من أطراف معنية أخرى. وبالنسبة إلى التعبير الفني من أفراد الأقليات أو الفئات المهمشة، يكون خطر التحيز الثقافي ضد المحتوى الذي ينشرونه حادًا بشكل خاص.
في هذه الحالة، لم تبرهن Meta على أن كلمات الأغنية التي تضمنها المحتوى قيد المراجعة شكّلت تهديدًا جديًا أو خطرًا لوقوع ضرر وشيك، كما لم تكشف مراجعة المجلس عن أدلة تدعم هذه النتيجة. ولإثبات أن الإشارة إلى إطلاق النار قبل خمس سنوات قد تتسبب في حدوث ضرر اليوم، يحتاج الأمر لأدلة إثباتية إضافية تتجاوز الإشارة ذاتها. ولا يعني بالضرورة احتواء المسار الموسيقي على إشارة إلى أحداث تورطت فيها العصابات ضمن التنافس العنيف بينها أن الإشارات الفنية إلى هذا التنافس تشكل تهديدًا. وفي ظل عدم وجود تفاصيل كافية تجعل تلك العلاقة السببية أكثر وضوحًا، مثل وجود دليل على أن كلمات الأغاني السابقة تحولت إلى أعمال عنف أو بلاغ من الطرف المستهدف بالتهديد المزعوم يفيد بتعرضه للخطر، كان الأجدر ترجيح الطبيعة الفنية للتهديد المزعوم عند تقييم مصداقيته. ويعتبر شيوع التباهي في الأداء في هذا النوع من الموسيقى هو السياق المناسب الذي كان ينبغي أن يستند إليه تحليل Meta لاحتمالية أن تكون إشارة المسار الموسيقي إلى أعمال العنف السابقة بمثابة تهديد جديّ في الوقت الحالي. وقد أبلغ خبراء خارجيون المجلس أن تحليل كلمات الأغنية سطرًا بسطر للوصول إلى دليل على ارتكاب مخالفات في السابق أو احتمال حدوث أضرار في المستقبل غير دقيق بدرجة كبيرة وأن التحقق من صحة العبارات التي يفترض أن تكون واقعية في كلمات أغاني موسيقى دريل يشكّل تحديًا (Digital Rights Foundation، PC-10618). انتقدت التعليقات العامة (على سبيل المثال، Electronic Frontier Foundation، PC-10971) مراقبة سلطات إنفاذ القانون لموسيقى دريل المشروعة، وقد تعرض البحث الذي استشهدت به Meta في المعلومات التي قدمتها لانتقادات واسعة من علماء الجريمة، كما أقرت الشركة. ومن وجهة نظر المجلس، كان يفترض أن يأخذ هذا الانتقاد تحليل Meta في الحسبان، وقد حث المجلس على طلب معلومات إضافية من سلطات إنفاذ القانون و/أو من جهات أخرى فيما يتعلق بالسببية قبل إزالة المحتوى.
يلاحظ المجلس كذلك أن المسار الموسيقي الكامل لمغني الراب شينكس (OS)، الذي تم اقتباسه في هذه الحالة، لا يزال متاحًا على منصات بث الموسيقى التي يمكن الوصول إليها في المملكة المتحدة ولم ير المجلس أي دليل على أن هذا قد أدى إلى ارتكاب أي أعمال عنف. لم يكن هذا السياق متاحًا لشركة Meta عند اتخاذ القرار الأولي في هذه الحالة، لكنه مع هذا وثيق الصلة بالمراجعة المستقلة التي أجراها المجلس للمحتوى.
يقر المجلس بالطبيعة السياقية المتأصلة لهذا النوع من القرارات التي يتعين على Meta اتخاذها بشأن المحتوى، والضغط الزمني المرتبط بذلك عند وجود احتمالات لحدوث ضرر شديد الخطورة. وقد يختلف الحصفاء، كما في هذه الحالة، حول مدى اعتبار جزء معين من المحتوى يشكل تهديدًا مستترًا. ومع ذلك، فإن الافتقار إلى الشفافية بشأن قرارات Meta بإزالة المحتوى استجابة للطلبات الحكومية يجعل من الصعب تقييم ما إذا كان خطأ Meta في حالة فردية يعكس خلافًا معقولاً أم يشير إلى تحيز منهجي محتمل يتطلب بيانات إضافية ومزيدًا من التحقيق. وتصر Meta على أن "تحليل التهديدات المستترة" هو تحليل مستقل - ويتفق المجلس على ضرورة أن يكون كذلك - ولكن في هذا السياق، لا يكفي قول Meta. وتشير Meta إلى أنها تقوم بتقييم المحتوى في ضوء معايير المجتمع بنفس الطريقة المتبعة في التعامل مع أي عنصر محتوى آخر، بغض النظر عن طريقة اكتشافه. يضع "تحليل التهديدات المستترة" سلطات إنفاذ القانون في موضع كل من الإبلاغ عن المحتوى (أي الإبلاغ عن الإشارة الأولية) وتوفير كل المعلومات السياقية التي تحتاج إليها Meta لتقييم الضرر المحتمل (أي توفير المعرفة المحلية اللازمة للإشارة الثانوية). وفي حين أنه قد توجد أسباب وجيهة لاعتماد إطار لتحديد الأولويات يضمن تقييم البلاغات الواردة من جهات إنفاذ القانون بسرعة، يجب تصميم هذه العملية على نحو يضمن احتواء هذه البلاغات على معلومات كافية تكفل إجراء تقييم مستقل، بما في ذلك السعي للحصول على معلومات أكثر من الكيان الطالب أو الأطراف الأخرى عند الضرورة.
يميز المجلس هذا القرار عن قراره في حالة "كارتون كنين". في تلك الحالة، كان السياق الإضافي لإنفاذ قاعدة "التهديد المستتر" هو وجود خطاب يحض على الكراهية في الكارتون ضد الفئة المستهدفة في حادثة العنف السابقة. برر المجلس الإزالة بشكل أساسي استنادًا إلى معيار المجتمع بشأن الخطاب الذي يحض على الكراهية. وقد اعتمد قرار المجلس بأن المحتوى ينتهك أيضًا معيار المجتمع بشأن العنف والتحريض على المعرفة السياقية التي ساعدت على فهم الحادث التاريخي (عملية العاصفة) المشار إليه في المنشور. وكانت هذه المعرفة السياقية معروفة جيدًا في المنطقة، سواء للمتحدثين باللغة الكرواتية أو ذوي الأصول الصربية. وقد تجلى ذلك من خلال العدد الهائل للبلاغات المقدمة بشأن المحتوى في هذه الحالة (حوالي 400)، مقارنة بعدم وجود بلاغات عن المحتوى في هذه الحالة. وقد كان التحريض على الكراهية ضد مجموعة عرقية معينة واضحًا على الفور لأي مراقب عادي. وفي حين أن فهم العديد من الإشارات داخل المحتوى يعتمد على معرفة سياقية محددة، فلا يزال بالإمكان اكتساب تلك المعرفة دون الاعتماد على جهات خارجية.
2. إجراء الإنفاذ والشفافية
في هذه الحالة، أسفر طلب واحد من سلطات إنفاذ القانون عن 52 إزالة يدوية و112 إزالة تلقائية لعناصر محتوى مطابقة (بين 28 يناير 2022 و28 أغسطس 2022). ومن المهم أن ندرك أن الإجراءات التي اتخذتها Meta استجابة لطلب من شرطة العاصمة لم تؤثر فقط على مالك حساب Instagram في هذه الحالة، بل أثرت أيضًا على شينكس (OS) والعديد من الأشخاص الآخرين (انظر أيضًا: حالة "الرسم الكاريكاتوري للشرطة الكولومبية").
ويؤكد حجم عمليات الإزالة هذه على أهمية الإجراءات القانونية الواجبة والشفافية بشأن علاقة Meta بسلطات إنفاذ القانون وتبعات الإجراءات المتخذة بموجب تلك العلاقة (انظر أيضًا قرارات مجلس الإشراف "عزلة أوجلان" و"مشاركة منشور الجزيرة"). ولمعالجة هذه المخاوف، يجب اتباع عملية واضحة وموحدة تتضمن وسائل حماية ضد إساءة الاستخدام، بما في ذلك التدقيق؛ وإرسال إشعار مناسب للمستخدمين يوضح دور الحكومة في الإجراءات المتخذة ضدهم؛ والشفافية في إعلان عمليات التفاعل هذه للجمهور. وهذه الجوانب الثلاثة متشابكة، ويجب التعامل معها جميعًا.
أ. الشفافية مع الجمهور
تنشر Meta تقارير في مركز الشفافية عن الطلبات الحكومية لإزالة المحتوى استنادًا إلى القانون المحلي. وتنشر أيضًا تقارير منفصلة عن الطلبات الحكومية للحصول على بيانات المستخدمين. وهناك تقارير منفصلة بشأن اتخاذ إجراءات إنفاذ في ضوء معايير المجتمع. ومع هذا، لا تميّز أي من هذه التقارير بيانات المحتوى الذي تمت إزالته لانتهاك سياسات المحتوى بعد تقديم طلب حكومي لمراجعته. ولا تعكس بيانات الشفافية الحالية بشأن طلبات الإزالة الحكومية النطاق الكامل للتفاعلات بين Meta وسلطات إنفاذ القانون بشأن عمليات إزالة المحتوى. ومن خلال التركيز على الإجراء الذي تتخذه Meta (إزالة المحتوى لانتهاك القانون المحلي)، تستبعد تقارير الطلبات الحكومية جميع البلاغات الواردة من سلطات إنفاذ القانون التي أدت إلى الإزالة بسبب انتهاك سياسات المحتوى. ولا تتضمن تلك التقارير المحتوى الذي أبلغت عنه سلطات إنفاذ القانون والذي ينتهك كل من القانون المحلي وسياسات المحتوى. ولهذا السبب، قدم المجلس طلبًا بموجب قانون حرية المعلومات إلى شرطة العاصمة لفهم القضايا التي تكتنف تلك الحالة بشكل كامل.
زعمت Meta محدودية الاستفادة من الشفافية فيما يتعلق بطلبات الإزالة الحكومية استنادًا إلى سياسات المحتوى، حيث يمكن للحكومات أيضًا استخدام أدوات الإبلاغ داخل المنتجات وهو ما تفعله الحكومات بالفعل. ولا تفرِّق هذه الأدوات بين الطلبات المقدمة من الحكومة أو من المستخدمين الآخرين.
توضح هذه الحالة تمتع سلطات إنفاذ القانون بصلاحيات وصول مميزة إلى فرق الإنفاذ الداخلي في Meta، كما يتضح من المراسلات التي اطلع عليها المجلس، وكيفية اعتماد سياسات معينة على التفاعل مع جهات خارجية، مثل سلطات إنفاذ القانون، كي يتم اتخاذ إجراءات إنفاذ بموجبها. وتثير طريقة عمل هذه العلاقة بالنسبة إلى سياسات "التصعيد فقط"، كما في هذه الحالة، تساؤلات بشأن قدرة Meta على التقييم المستقل لاستنتاجات الجهة الحكومية التي تفتقد إلى أدلة تفصيلية.
يقر المجلس بأن Meta قد أحرزت تقدمًا فيما يتعلق بتقارير الشفافية منذ قرارات المجلس الأولى التي تناولت هذا الموضوع. ويتضمن ذلك تنفيذ عملية لتحديد النطاق فيما يتعلق بقياس عناصر المحتوى التي تمت إزالتها بموجب معايير المجتمع بعد تلقي طلبات حكومية، والمساهمة في مشروع "لومن" وهو مشروع بحثي لمركز بيركمان كلاين للإنترنت والمجتمع بشأن طلبات الإزالة الحكومية. وتحظى أي جهود شفافية إضافية يتم بذلها في هذا المجال بأهمية كبيرة بالنسبة إلى المناقشة العامة بشأن آثار التفاعل بين الحكومات وشركات وسائل التواصل الاجتماعي.
ب. عملية تلقي طلبات سلطات إنفاذ القانون
على الرغم من إفصاح Meta بشكل علني عن كيفية استجابتها للطلبات الحكومية لإزالة المحتوى بسبب انتهاك القوانين المحلية، تظل القنوات التي يمكن للحكومات من خلالها تقديم طلبات مراجعة لانتهاك سياسات المحتوى في Meta غير واضحة.
توضح هذه الحالة وجود عيوب كبيرة في نظام Meta الذي يحكم طلبات سلطات إنفاذ القانون، عندما لا تستند هذه الطلبات إلى القانون المحلي وعند تقديمها خارج أدوات الإبلاغ داخل المنتجات (أي، الوظائف المتاحة لكل المستخدمين العاديين لتمييز المحتوى كمخالف أو الإبلاغ عنه). في القرار الصادر بشأن حالة "مشاركة منشور الجزيرة"، أوصى المجلس Meta بوضع عملية رسمية شفافة لكيفية تلقي الطلبات الحكومية لإزالة المحتوى والاستجابة لها. وتقدم وكالات إنفاذ القانون الطلبات من خلال مختلف قنوات الاتصال، مما يجعل توحيد الطلبات وتجميعها في مكان مركزي، وجمع البيانات عنها، أمرًا صعبًا. يركز النظام الحالي لتلقي الطلبات، الذي تقوم فيه Meta بتعبئة نموذج إدخال البيانات، فقط على ترتيب أولوية الطلبات الواردة. ولا يضمن النظام بشكل كافٍ أن طلبات الجهات الخارجية تلبي الحد الأدنى من المعايير ولا يتيح إمكانية لجمع البيانات بدقة على نحو يسمح بمراقبة وتدقيق تأثيرات هذا النظام بشكل صحيح. قد تشير بعض الطلبات إلى انتهاكات معايير مجتمع Meta، ويشير البعض الآخر إلى انتهاكات القانون الوطني، في حين تشير طلبات أخرى إلى مخاوف ذُكرت بشكل عام عن الضرر المحتمل دون ربط ذلك بمزاعم وجود نشاط غير مشروع أو انتهاكات لسياسات المنصة. ولا تتم مطالبة جهات إنفاذ القانون بتلبية الحد الأدنى من المعايير لإضافة السياق المناسب لطلباتهم وتبريرها بشكل كامل، مما يؤدي إلى عدم انتظام عمليات التفاعل مع Meta وارتجالها وعدم اتساقها. قد يتضمن الحد الأدنى من المعايير، على سبيل المثال، إشارة إلى سياسة Meta التي تعتقد سلطات إنفاذ القانون أنه قد تم انتهاكها، وسبب هذا الاعتقاد، وإثبات تفصيلي كافٍ لهذا الاستنتاج.
ج. إرسال الإشعارات إلى المستخدمين
في التحديث ربع السنوي الثاني لعام 2022 بشأن مجلس الإشراف، كشفت Meta أنها تعمل على تحسين الإشعارات المرسلة إلى المستخدمين من خلال الإشارة على وجه التحديد إلى إزالة المحتوى بسبب انتهاك معايير المجتمع بعد الإبلاغ عنه من قبل جهة حكومية (تنفيذ توصية المجلس في القرار الصادر بشأن حالة "عزلة أوجلان"). في هذه الحالة، لو كانت هذه التغييرات قد طرحت، لتلقى كل المستخدمين الذين تعرض المحتوى الخاص بهم لعمليات الإزالة الإضافية (164 عملية إزالة) إشعارات من هذا النوع. أقرت Meta أنها بمجرد أن تنشئ البنية التحتية اللازمة لجمع المزيد من البيانات الدقيقة من الطلبات الحكومية، ستتمكن من تصميم واختبار إرسال إشعارات أكثر تفصيلاً للمستخدم. لذلك يتفق المجلس مع Meta على أن هذا العمل يعتمد على تتبع وتقديم المزيد من المعلومات حول الطلبات الحكومية، والتي يمكن نشرها بعد ذلك في تقارير الشفافية المعلنة الصادرة عن Meta.
8.2 الامتثال لقيم شركة Meta
يرى المجلس أن إزالة المحتوى لم تتفق مع قيم Meta. وتوضح هذه الحالة التحديات التي تواجه Meta في الموازنة بين قيم "حرية الرأي" و"السلامة"، عند العمل على معالجة عدد كبير من التهديدات المستترة المحتملة في الفن، على نطاق عالمي وبسرعة. ومع هذا، تدعي Meta أن قيمة "حرية الرأي" ذات أهمية قصوى. كما ذكر المجلس في قراره الصادر بشأن حالة "حزام وامبوم"، يعد الفن وسيلة مهمة وقوية بشكل خاص للتعبير عن "حرية الرأي"، لا سيّما بالنسبة إلى الأشخاص المنتمين إلى فئات مهمشة ممن يبدعون فنًا مستوحى من تجاربهم. ولم يكن لدى Meta معلومات كافية لتخلُص إلى أن هذا المحتوى يشكل خطرًا على "السلامة" يبرر منحها الأولوية على "حرية التعبير".
يشعر المجلس بالقلق من أنه عند الشك في مدى احتمال أن يتسبب المحتوى في حدوث ضرر جدّي، تقول Meta إنها تميل إلى "السلامة" أكثر من "حرية الرأي". وعند وجود شك، كما في هذه الحالة، نتيجة لعدم دقة المعلومات المقدمة من سلطات إنفاذ القانون بشأن أحد عناصر التعبير الفني، فإن هذا النهج لا يتفق مع القيم التي تقول Meta إنها تعتنقها. ويقر المجلس بأهمية الحفاظ على سلامة الأشخاص ضد العنف، وأن ذلك يحظى بأهمية خاصة في المجتمعات المتأثرة بشكل غير متناسب بهذا العنف. ويدرك المجلس أنه غالبًا ما يجب اتخاذ القرارات المتعلقة بالتهديدات المزعومة على وجه السرعة، حيث لا يسمح الوضع بالتفكير لفترة طويلة. ومع هذا، فقد يكون لأي قرائن ضد "حرية الرأي" تأثير غير متناسب على حرية الرأي لدى الأشخاص المهمشين. وقد يزيد ذلك، عند الممارسة العملية، بشكل كبير من قوة ونفوذ سلطات إنفاذ القانون، التي قد تدعي امتلاكها لمعارف يصعب التحقق من صحتها من أي مصادر أخرى.
8.3 الامتثال لمسؤوليات شركة Meta تجاه حقوق الإنسان
خلُص المجلس إلى أن Meta لم تفي بمسؤولياتها تجاه حقوق الإنسان كشركة عندما قررت إزالة هذا المنشور.
الحق في حرية التعبير مكفول لجميع الأشخاص دون تمييز (المادة 19، الفقرة 2، العهد الدولي الخاص بالحقوق المدنية والسياسية؛ المادة 2، الفقرة 1، العهد الدولي الخاص بالحقوق المدنية والسياسية). تشتمل هذه الحالة أيضًا على حق الأشخاص المنتمين إلى أقليات عرقية في التمتع بثقافتهم الخاصة في المجتمع مع باقي أعضاء مجموعتهم، (المادة 27، العهد الدولي الخاص بالحقوق المدنية والسياسية) والحق في المشاركة في الحياة الثقافية (المادة 15، العهد الدولي الخاص بالحقوق الاقتصادية والاجتماعية والثقافية). ويعد الحق في الوصول إلى سبل الانتصاف أحد العناصر الرئيسية للقانون الدولي لحقوق الإنسان (المادة 2، الفقرة 3، العهد الدولي الخاص بالحقوق المدنية والسياسية؛ التعليق العام رقم 31)، وتعد سبل الانتصاف هي الركيزة الثالثة لمبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان وأحد المجالات التي تركز عليها سياسة حقوق الإنسان لدى شركة Meta.
حرية التعبير (المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية؛ المادة 5، الاتفاقية الدولية للقضاء على جميع أشكال التمييز العنصري)
تتضمن المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية إشارة خاصة إلى حماية حرية التعبير عندما تأتي "في قالب فني." تعزز المعايير الدولية لحقوق الإنسان أهمية التعبير الفني (التعليق العام رقم 34، الفقرة 11؛ شين ضد جمهورية كوريا، اللجنة المعنية بحقوق الإنسان، البلاغ رقم 926/2000). تحمي الاتفاقية الدولية للقضاء على جميع أشكال التمييز العنصري (ICERD) ممارسة الحق في حرية التعبير دون تمييز على أساس العِرق (المادة 5). أكدت لجنة القضاء على التمييز العنصري على أهمية الحق في حرية التعبير لمساعدة "الفئات الضعيفة على تصحيح توازن القوى بين مكونات المجتمع" وتقديم "آراء ووجهات نظر بديلة" في المناقشات (لجنة القضاء على التمييز العنصري، التوصية العامة رقم 35، الفقرة 29). توفر موسيقى دريل للشباب، لا سيّما شباب مجتمع السود، وسيلة للتعبير الإبداعي.
غالبًا ما يكون الفن سياسيًا، وتعترف المعايير الدولية بدوره الفريد والقوي في تحدي الوضع الراهن (المقرر الخاص للأمم المتحدة في مجال الحقوق الثقافية، A/HRC/23/34، في الفقرتين 3 و4). يحظى الإنترنت ومنصات التواصل الاجتماعي مثل فيسبوك وInstagram على وجه الخصوص، بقيمة خاصة لدى الفنانين لأنها تساعدهم على الوصول إلى جماهير جديدة وزيادة الجماهير. وقد تعتمد سبل عيش الفنانين وحقوقهم الاجتماعية والاقتصادية على الوصول إلى منصات التواصل الاجتماعي التي تهيمن على الإنترنت. وتعتمد موسيقى دريل على ادعاءات تفاخرية بارتكاب أعمال عنف لزيادة النجاح التجاري للفنانين على وسائل التواصل الاجتماعي. وهذه الادعاءات والاستعراضات متوقعة كجزء من صميم هذا النوع الموسيقي. ونتيجة للإجراءات التي اتخذتها Meta في هذه الحالة، تم حذف حساب شينكس (OS) من Instagram نهائيًا، وهو ما أثر بشكل كبير في قدرته على الوصول إلى جمهوره وتحقيق النجاح التجاري.
تنص المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية على أنه عند فرض الدولة لقيود على حرية التعبير، يجب أن تفي تلك القيود بمتطلبات الشرعية والهدف المشروع والضرورة والتناسب (المادة 19، الفقرة 3، العهد الدولي الخاص بالحقوق المدنية والسياسية). وقد حث مقرر الأمم المتحدة الخاص المعني بحرية التعبير شركات وسائل التواصل الاجتماعي على الاسترشاد بهذه المبادئ عند الإشراف على أشكال التعبير على الإنترنت، مع الأخذ في الاعتبار أن تنظيم أشكال التعبير على نطاق واسع من قبل الشركات الخاصة قد يثير مخاوف خاصة بهذا السياق (A/HRC/38/35، الفقرتان 45 و70). قام المجلس بتوظيف الاختبار الثلاثي استنادًا إلى المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية في كل قراراته حتى الآن.
1. الشرعية (وضوح القواعد وسهولة الوصول إليها)
يقتضي مبدأ الشرعية أن تكون القوانين التي تقيد حرية التعبير واضحة ويسهل الوصول إليها، حتى يفهم الأشخاص الأمور المسموح بها وغير المسموح بها. علاوة على ذلك، يقتضي المبدأ أن تكون تلك القوانين محددة، لضمان عدم منح الأشخاص المسؤولين عن تنفيذها سلطة تقديرية مفرطة (التعليق العام رقم 34، الفقرة 25). ويطبق المجلس هذه المبادئ لتقييم وضوح القواعد التي تفرضها Meta بشأن المحتوى ومدى إمكانية الوصول إليها، والإرشادات المتوفرة للمراجعين لاتخاذ قرارات عادلة استنادًا إلى تلك القواعد.
يكرر المجلس المخاوف التي سبق أن أعرب عنها بشأن عدم وضوح العلاقة بين إرشادات مجتمع Instagram ومعايير مجتمع فيسبوك. في أغسطس 2022، تعهدت Meta بتنفيذ توصيات المجلس السابقة في هذا الشأن ( التحديث ربع السنوي الثاني لعام 2022 بشأن مجلس الإشراف) وموائمة معايير المجتمع وإرشادات المجتمع على المدى الطويل.
تعتبر أيضًا الاختلافات بين معيار المجتمع المعلن بشأن العنف والتحريض ومعايير التنفيذ الداخلية لدى Meta مصدرًا للقلق. وتستخدم Meta "الإشارات" لتحديد مدى تضمن المحتوى لتهديد مستتر. وقد تمت إضافة "الإشارات" إلى معايير المجتمع المعلنة للجمهور كنتيجة لتوصيات سابقة صادرة عن المجلس. ومع هذا، لا توضح معايير المجتمع أن Meta تقسّمها إلى إشارات أولية وإشارات ثانوية، أو أن وجود كل من الإشارات الأولية والثانوية ضروري للإقرار بمخالفة السياسة. وسيفيد توضيح هذا الأمر مقدمي الشكاوى بشأن المحتوى المنشور على المنصة، بما في ذلك الجهات الخارجية الموثوق بها وسلطات إنفاذ القانون. ويستحوذ الوضوح فيما يتعلق بالإشارات على أهمية خاصة، نظرًا لدور الإشارة الثانوية في تأكيد خطر وقوع ضرر بسبب المحتوى ليؤدي ذلك إلى اتخاذ قرار بإزالته. قد تشعر الجهات الخارجية التي تقدم إشارة أولية دون إشارة ثانوية بالإرباك عند عدم اتخاذ إجراء بشأن المحتوى الذي أبلغوا عنه.
2. الهدف المشروع
يجب أن تسعى القيود المفروضة على حرية التعبير إلى تحقيق هدف مشروع. يهدف معيار المجتمع بشأن العنف والتحريض جزئيًا لمنع وقوع الضرر على أرض الواقع. وبالتالي تخدم هذه السياسة الغرض المشروع المتمثل في حماية حقوق الآخرين (الحق في الحياة والأمن الشخصي لأولئك المستهدفين بالمنشور).
3. الضرورة والتناسب
يرى المجلس أن إزالة المحتوى لم تكن ضرورية لتحقيق غرض هذه السياسة.
تقتضي مبادئ الضرورة والتناسب أن تكون أي تقييدات يتم فرضها على حرية التعبير "مناسبة لتحقيق وظيفتها الحمائية، ويجب أن تكون أقل الوسائل تدخلاً مقارنة بغيرها من الوسائل التي يمكن أن تحقق النتيجة المنشودة؛ ويجب أن تكون متناسبة مع المصلحة التي ستحميها" (التعليق العام رقم 34، الفقرة 34). يجب أن يؤخذ شكل التعبير المعني، مثل التعبير في قالب فني، في الاعتبار (التعليق العام رقم 34، الفقرة 34).
لاحظ مقرر الأمم المتحدة الخاص المعني بحرية التعبير الصعوبات التي يواجهها الفنانون عند استخدام وسائل التواصل الاجتماعي، حيث تكون لهذا التعبير خصائص معقدة في أغلب الحالات ويمكن أن يتعارض بسهولة مع القواعد التي تفرضها المنصات، مع عدم كفاية سبل الانتصاف المتاحة (A/HRC/44/49/Add.2، الفقرات 44 - 46). وهذا يؤكد ما أبداه المقرر الخاص من ملاحظات أعم بشأن أوجه القصور التي تكتنف الإشراف السياقي على المحتوى بواسطة المنصات، بما في ذلك المشكلات التي تنطوي على فروق تاريخية أو ثقافية دقيقة (A/HRC/38/35، في الفقرة 29).
أكد مقرر الأمم المتحدة الخاص في مجال الحقوق الثقافية على تعقيد التعبير الفني (A/HRC/23/34، الفقرة 37):
يختلف العمل الفني عن الكتابات غير الخيالية، نظرًا لأنه يوفر نطاقًا أوسع بكثير لإضفاء معانٍ متعددة: بالتالي يكون إثبات الافتراضات حول الرسالة التي يحملها العمل الفني صعبًا للغاية، ولا تتطابق التفسيرات المتعلقة بالعمل الفني بالضرورة مع المعنى الذي يقصده مؤلفها. ولا تحمل أشكال التعبير والإبداع الفني دائمًا رسالة أو معلومات معينة، ولا ينبغي اختزالها في ذلك. وبالإضافة إلى ذلك، يجب فهم اللجوء إلى الخيال وما هو تصوري واحترامه باعتباره عنصرًا حاسمًا من عناصر الحرية التي لا غنى عنها للأنشطة الإبداعية وأشكال التعبير الفني: يجب عدم الخلط بين أشكال تمثيل ما هو حقيقي وبين الحقيقية... وبالتالي، ينبغي أن يكون بمقدور الفنانين استكشاف الجانب المظلم للبشرية، وتمثيل الجرائم... دون اتهامهم بالترويج لذلك.
لا تستبعد ملاحظات المقرر الخاص إمكانية استخدام الفن بهدف التسبب في حدوث ضرر وقد يحقق هذا الهدف. وبالنسبة لشركة في مكانة Meta، يشكّل إجراء هذه التقييمات بسرعة وعلى نطاق واسع وعالمي تحديًا. ويُظهر وضع Meta لسياسات "التصعيد فقط" التي تتطلب تحليلاً سياقيًا كاملاً لإزالة المحتوى احترامها لمبدأ الضرورة. وتقتضي مسؤوليات Meta تجاه حقوق الإنسان أن تعمل الشركة على منع وتخفيف حدة المخاطر التي تطال الحق في الحياة، والحق في الأمن الشخصي، لأولئك الذين قد يتعرضون للخطر من خلال المنشورات التي تنطوي على تهديدات مستترة. ومع هذا، وللأسباب الواردة في القسم 8.1 من هذا القرار، يتطلب هذا التحليل فحصًا أدق للعلاقة السببية ويجب أن يتسم بمزيد من الدقة في تقييمه للفن حتى يفي بمتطلبات مبدأ الضرورة. ولأن المجلس لم يجد أدلة تكفي لإثبات وجود تهديد حقيقي في هذه الحالة، تبين له أن الإزالة لم تكن ضرورية.
في هذا الصدد، تستخدم سياسة العنف والتحريض مصطلحات قد يتم تفسيرها على نحو يسمح بالإزالة المفرطة للمحتوى. إن التهديد "المحتمل" أو المحتوى الذي "قد" يؤدي إلى حدوث عنف في أي لحظة، مثل التهكم، كانت عامة للغاية في هذا القرار لدرجة أنها لم تلبي متطلبات مبدأ الضرورة. في الحالات السابقة، لم يطلب المجلس أن يكون خطر العنف المستقبلي وشيكًا للسماح بالإزالة (راجع، على سبيل المثال، حالة "كرتون كنين")، لأن مسؤوليات Meta تجاه حقوق الإنسان قد تختلف عن مسؤوليات الدولة التي تفرض عقوبات جنائية أو مدنية (راجع، على سبيل المثال، حالة "الإهانات في جنوب أفريقيا"). ومع هذا، فقد طلب المجلس أساسًا لإثبات وجود التهديد وجديته بشكل يفوق ما يظهر في هذه الحالة (راجع، على سبيل المثال، حالة "الاحتجاجات في الهند ضد فرنسا").
عدم التمييز والوصول إلى سبيل الانتصاف (المادة 2(1)، العهد الدولي الخاص بالحقوق المدنية والسياسية)
أوضحت اللجنة المعنية بحقوق الإنسان أن أي قيود على التعبير يجب أن تحترم مبدأ عدم التمييز (التعليق العام رقم 34، الفقرة 32). يعتبر هذا المبدأ أساسًا لتفسير المجلس لمسؤوليات Meta تجاه حقوق الإنسان (مقرر الأمم المتحدة الخاص المعني بحرية التعبير، A/HRC/38/35، الفقرة 48).
في تعليقها العام، قالت مؤسسة الحقوق الرقمية إنه في حين صوّر البعض موسيقى دريل على أنها دعوة حاشدة لعنف العصابات، فإنها تمثل وسيلة للشباب، لا سيّما من أصحاب البشرة السمراء والبنُية، للتعبير عن استيائهم من نظام يرسخ التمييز والإقصاء (PC-10618). استشهدت مؤسسة JUSTICE في تقريرها "التصدي للظلم العنصري: نظام عدالة الأطفال والشباب،" باستغلال سلطات إنفاذ القانون لموسيقى دريل في تأمين عمليات الإدانة كمثال على العنصرية الممنهجة. وكما اتضح للمجلس من خلال طلب حرية المعلومات، تضمنت كل الطلبات البالغ عددها 286 والتي قدمتها شرطة العاصمة إلى شركات وسائل التواصل الاجتماعي وخدمات البث لمراجعة المحتوى الموسيقي بين 1 يونيو 2021 و31 مايو 2022 مقاطع لموسيقى دريل. أسفر 255 من هذه الطلبات عن إزالة المحتوى من المنصة. وقد كان 21 من أصل 286 طلبًا على صلة بمنصة Meta، وتم اتخاذ إجراءات بشأن 14 منها من خلال عمليات الإزالة. وكما أوضحنا أعلاه، قد يُسفر طلبًا واحدًا عن أكثر من عملية إزالة للمحتوى. ويثير هذا التركيز المكثف على نوع موسيقي واحد من بين أنواع موسيقى متعددة تتضمن إشارة إلى العنف مخاوف جدية من الإفراط في مراقبة مجتمعات معينة. والمجلس غير مختص بتحديد ما إذا كانت هذه الطلبات تمثل إجراءً شرطيًا سليمًا أم لا، ولكن يقع على عاتق المجلس تقييم كيفية احترام Meta لقيمها ومسؤولياتها تجاه حقوق الإنسان عندما تستجيب لمثل هذه الطلبات. ووفقًا لذلك، وكما هو موضح أدناه، فإن استجابة Meta لطلبات سلطات إنفاذ القانون، إلى جانب تلبيتها للحد الأدنى من متطلبات الإثبات، يجب أن تكون منظمة بالقدر الكافي وأن تتسم بالتدقيق وتوفر الشفافية للمستخدمين المتأثرين والجمهور الأوسع، لتمكين الشركة والمجلس والآخرين من تقييم درجة التزام Meta بقيمها والوفاء بمسؤولياتها تجاه حقوق الإنسان.
عندما يكون لإحدى الجهات الحكومية دور في المساس بحرية تعبير الأفراد، كما في هذه الحالة، فإن الإجراءات القانونية والشفافية تمثلان عناصر أساسية لتمكين المستخدمين المتأثرين من تأكيد حقوقهم بل وتحدي هذه الجهة الحكومية. وينبغي على Meta التفكير فيما إذا كانت عملياتها الحالية تتيح ذلك أو تعرقله. ولا يمكن للشركة أن تسمح بأن يتسم تعاونها مع سلطات إنفاذ القانون بالغموض لدرجة أنه يخلق حاجزًا يحول دون وصول المستخدمين لسبل الانتصاف فيما يتعلق بانتهاكات حقوق الإنسان المحتملة.
ومن المهم أيضًا أن توفر Meta لمستخدميها إمكانات وصول كافية لسبل الانتصاف بالنسبة إلى القرارات التي تتخذها بشأن المحتوى والتي تؤثر في حقوق المستخدمين. وقد تناول مقرر الأمم المتحدة الخاص المعني بحرية التعبير مسؤوليات شركات وسائل التواصل الاجتماعي فيما يتعلق بالتعبير الفني (A/HRC/44/49/Add.2، الفقرة 41 وما بعدها). وتعتبر ملاحظاته بشأن توفر سبل الانتصاف للفنانات وثيقة الصلة بموقف الفنانين السود في المملكة المتحدة:
هناك تقارير عن تعرض الفنانين لإغلاق الصفحات الشخصية والمهنية على فيسبوك وTwitter... وقد تترك انتهاكات إرشادات المجتمع المبهمة الفنانين دون توفر أي إجراءات لتقديم "إشعار مضاد" يتيح لهم الاعتراض على إزالة أعمالهم الفنية. إن افتقار المستخدمين إلى الضمانات الإجرائية والوصول إلى سبل الانتصاف يحول دون وصول الفنانين إلى المنصة لعرض أعمالهم الفنية ودون مشاهدين للاستمتاع بفنهم. في بعض الحالات، تتعاون الدول مع الشركات لإحكام السيطرة على أنواع المحتوى المتاحة عبر الإنترنت. هذا التعاون الخطير له تأثير يتمثل في إسكات الفنانين ومنع الأفراد... من تلقي الفن كوسيلة للتعبير.
صرح مقرر الأمم المتحدة الخاص المعني بحرية التعبير أن عملية الإصلاح لشركات وسائل التواصل "ينبغي أن تشتمل على عملية شفافة يسهل الوصول إليها للطعن في قرارات المنصة، مع تقديم الشركات استجابة معللة ينبغي أن تكون متاحة للجمهور أيضًا" (A/74/486، الفقرة 53).
حتى المحتوى قيد المراجعة في هذه الحالة قد تم نشره بواسطة حساب Instagram لا يخص شينكس (OS)، حيث قام الفنان بنشر مقطع الفيديو ذاته على حسابه. وقد أزيل هذا المقطع في نفس توقيت إزالة المحتوى في هذه الحالة، مما أدى أولاً إلى تعطيل حسابه، ثم حذفه بعد ذلك. يُظهر ذلك كيف أن التعاون بين سلطات إنفاذ القانون وشركة Meta قد يسفر عن تقييد كبير لحرية التعبير لدى الفنانين، ويحرمهم جمهورهم من الوصول إلى الفن على المنصة. وكما يؤكد طلب حرية المعلومات المقدم من المجلس، يستهدف هذا التعاون بشكل محدد وحصري فناني موسيقى دريل، ومعظمهم من الشباب السود.
طلب المجلس من Meta إحالة إزالة المحتوى من حساب شينكس (OS) للمراجعة، وذلك ليتسنى فحصها جنبًا إلى جنب مع المحتوى في هذه الحالة. ولم يكن ذلك ممكنًا من الناحية الفنية لأن Meta قد حذفت الحساب. يثير ذلك مخاوف كبيرة بشأن الحق في الانتصاف، كما هو الحال مع حقيقة أن المستخدمين لا يمكنهم الطعن على القرارات التي يتم اتخاذها "عند التصعيد" إلى مجلس الإشراف. يتضمن ذلك قرارات مهمة وصعبة بشأن "السياق الإضافي لإنفاذ" السياسات، التي يتم اتخاذ قرارات بشأنها فقط "عند التصعيد". ويتضمن أيضًا كل الطلبات الحكومية لإزالة المحتوى (إلى جانب استخدام "الأداة داخل المنتج")، بما في ذلك المحتوى المشروع، المؤهل للمراجعة والذي يندرج ضمن النطاق بموجب اتفاقية مجلس الإشراف. ويعتبر الأمر الأخير مقلقًا بشكل خاص للأفراد الذين ينتمون إلى فئات تتعرض للتمييز، ممن يحتمل أن يواجهوا المزيد من العوائق أمام الوصول إلى العدالة بسبب خيارات تصميم المنتجات لدى Meta.
تضاف هذه المخاوف بشأن الحق في الانتصاف إلى تلك التي تمت إثارتها أثناء عمل المجلس على الرأي الاستشاري القادم بشأن السياسة والذي يتناول فيه التحقق الشامل. والتحقق الشامل عبارة عن نظام تستخدمه Meta للحد من أخطاء الإنفاذ عن طريق توفير طبقات إضافية من المراجعة البشرية لمنشورات معينة تقرر في البداية أنها تخالف قواعدها، وذلك قبل القيام بإزالة المحتوى. أخبرت Meta المجلس أنه، بين مايو ويونيو 2022، تعذر على المستخدمين تقديم طعون إلى المجلس بشأن ما يقرب من ثلث قرارات المحتوى في نظام التحقق الشامل. وستناول المجلس هذا الأمر بشكل أكبر في الرأي الاستشاري بشأن السياسة والذي يتناول فيه التحقق الشامل.
8.4 المحتوى المماثل في سياق موازٍ
يلاحظ المجلس أنه قد تمت إضافة هذا المحتوى إلى بنك خدمة مطابقة الوسائط لمعيار مجتمع Meta بشأن العنف والتحريض، وهو ما أدى إلى إزالة المحتوى المطابق تلقائيًا مع احتمال اتخاذ إجراءات إضافية على مستوى الحساب ضد حسابات أخرى. بعد هذا القرار، يجب على Meta التأكد من إزالة المحتوى من هذا البنك، واستعادة المحتوى المطابق الذي أزالته بالخطأ إن أمكن، وإلغاء أي إنذارات أو عقوبات فرضت على مستوى الحساب. وينبغي أن ترفع أي حظر يمنع شينكس (OS) من إعادة إنشاء حسابات على Instagram أو فيسبوك.
9. قرار مجلس الإشراف
ألغى مجلس الإشراف قرار Meta بإزالة المحتوى، وطلب استعادة المنشور.
10. البيان الاستشاري بشأن السياسة
أ. سياسة المحتوى
1. يجب تحديث وصف Meta لقيمة "حرية الرأي" ليعكس أهمية التعبير الفني والإبداعي. وسيعتبر المجلس أن هذه التوصية قد دخلت حيز التنفيذ عند تحديث قيم Meta.
2. يجب على Meta أن توضح أنه كي تتم إزالة المحتوى لاحتوائه على "تهديد مستتر" بموجب معيار المجتمع بشأن العنف والتحريض، يجب توفر إشارة أولية وإشارة ثانوية. وينبغي تقسيم قائمة الإشارات إلى إشارات أولية وإشارات ثانوية، تمشيًا مع معايير التنفيذ الداخلية. سيضفي ذلك سهولة على فهم سياسة Meta في التعامل مع هذا النوع من المحتوى، لا سيّما للأشخاص الذين يبلغون عن محتوى يحتمل أن يشكّل انتهاكًا. وسيعتبر المجلس أن هذه التوصية قد دخلت حيز التنفيذ عند تحديث صيغة معيار المجتمع بشأن العنف والتحريض.
ب. الإنفاذ
3. يجب أن تتيح Meta للمستخدمين فرصة تقديم طعون إلى مجلس الإشراف ضد أي قرارات تم اتخاذها من خلال عملية التصعيد الداخلية لدى Meta، بما في ذلك قرارات إزالة المحتوى أو تركه على المنصة. ويعد ذلك ضروريًا لتوفير إمكانية الوصول إلى سبل الانتصاف من خلال المجلس وتمكين المجلس من تلقي الطعون لقرارات الإنفاذ التي يتم اتخاذها من خلال "التصعيد فقط". ويجب أن يتضمن ذلك أيضًا الطعون ضد عمليات الإزالة التي تمت لانتهاك معايير المجتمع نتيجة تقديم "مُبلغ موثوق به" أو جهة حكومية لبلاغات خارج أدوات الإبلاغ داخل المنتجات. وسيعتبر المجلس أن هذه التوصية قد دخلت حيز التنفيذ عندما يتلقى طعون من المستخدمين بشأن قرارات تم اتخاذها من خلال التصعيد وعندما تشارك Meta بيانات مع المجلس توضح أنه بالنسبة لجميع قرارات التصعيد المؤهلة، يتلقى المستخدمون معرفات مرجعية لبدء تقديم الطعون.
4. يجب على Meta تنفيذ وضمان اتباع نهج عالمي موحد لتلقي طلبات إزالة المحتوى (خارج أدوات الإبلاغ داخل المنتجات) من الجهات الحكومية عن طريق إنشاء نموذج موحد لتلقي الطلبات يقتضي تقديم حد أدنى من المعايير، على سبيل المثال، خط السياسة التي تم انتهاكها، ولماذا يعتقد بأنه قد تم انتهاكها، وأساس إثباتي تفصيلي لهذا الاعتقاد، قبل اتخاذ إجراءات بشأن هذه الطلبات داخليًا في Meta. ويساهم ذلك في ضمان تجميع معلومات أكثر تنظيمًا لاستخدامها في تقارير الشفافية. وسيعتبر المجلس أن هذه التوصية قد دخلت حيز التنفيذ عندما تكشف Meta للمجلس وفي مركز الشفافية عن الإرشادات الداخلية التي توضح النظام الموحد لتلقي الطلبات.
5. يجب على Meta تمييز وحفظ أي محتوى وحسابات تم فرض عقوبات عليها أو تعطيلها بسبب نشر محتوى يخضع لتحقيق مفتوح بواسطة المجلس. وهو ما يحول دون حذف هذه الحسابات نهائيًا عندما يرغب المجلس في طلب إحالة المحتوى إليه لاتخاذ قرار بشأنه أو لضمان إمكانية تطبيق قراراته على كل المحتوى المطابق الذي له سياق موازٍ والذي يحتمل أنه قد أزيل عن طريق الخطأ. وسيعتبر المجلس أن هذه التوصية قد دخلت حيز التنفيذ عند قابلية تطبيق قراراته على الكيانات سالفة الذكر وعندما تكشف Meta عن عدد الكيانات المذكورة المتأثرة بكل قرار من قرارات المجلس.
ج. الشفافية
6. ينبغي على Meta إنشاء قسم في مركز الشفافية، إلى جانب "تقرير إنفاذ معايير المجتمع" و"تقرير الطلبات القانونية لتقييد المحتوى" لتوفير تقرير عن طلبات الجهات الحكومية لمراجعة المحتوى بداعي انتهاك معايير المجتمع. ويجب أن يتضمن هذا القسم تفاصيل عن عدد طلبات المراجعة والإزالة المقدمة من البلدان والوكالات الحكومية، وعدد المرات التي رفضت فيها Meta هذه الطلبات. وهو إجراء ضروري لتحسين الشفافية. وسيعتبر المجلس أن هذه التوصية قد دخلت حيز التنفيذ عندما تنشر Meta قسمًا منفصلاً في "تقرير إنفاذ معايير المجتمع" عن طلبات الجهات الحكومية التي أدت إلى إزالة المحتوى بسبب انتهاك السياسات.
7. يجب أن تراجع Meta بانتظام البيانات المتعلقة بقراراتها للإشراف على المحتوى الناتجة عن طلبات حكومية لمراجعة المحتوى للوقوف على وجود أي تحيزات منهجية. ويجب أن تنشئ Meta وسيلة رسمية لتلقي الملاحظات بهدف تصحيح أي تحيزات و/أو تأثيرات كبيرة ناشئة عن قراراتها بشأن إزالة المحتوى بموجب طلب حكومي. وسيعتبر المجلس أن هذه التوصية قد دخلت حيز التنفيذ عندما تنشر Meta بانتظام الرؤى العامة المستمدة من عمليات التدقيق هذه والإجراءات المتخذة لتخفيف حدة التحيزات المنهجية.
*ملاحظة إجرائية:
يتم إعداد قرارات مجلس الإشراف من قِبل لجان مكونة من خمسة أعضاء ويتم اعتمادها من أغلبية أعضاء المجلس. ولا يلزم بالضرورة أن تُعبّر قرارات المجلس عن وجهات النظر الشخصية لجميع الأعضاء.
بالنسبة إلى القرار المتخذ بشأن هذه الحالة، تم إجراء بحث مستقل نيابة عن المجلس. تلقى المجلس مساعدة من معهد أبحاث مستقل يقع مقره في جامعة جوتنبرج، والذي يعتمد على فريق مكون من أكثر من 50 عالم اجتماع من ست قارات، فضلاً عن أكثر من 3200 خبير محلي من جميع أنحاء العالم. وقد تلقى المجلس أيضًا مساعدة من شركة Duco Advisors، وهي شركة تركز على نقطة التقاء الجغرافيا السياسية والثقة والأمان والتكنولوجيا. تم توفير الخبرة اللغوية بواسطة شركة Lionbridge Technologies LLC، التي يتقن المتخصصون بها أكثر من 350 لغة ويعملون من 5000 مدينة في جميع أنحاء العالم.
العودة إلى قرارات الحالة والآراء الاستشارية المتعلقة بالسياسة