أسقط

علاج فيروس كورونا (كوفيد-١٩) المزعوم

ألغى مجلس الإشراف القرار الذي اتخذته فيسبوك بإزالة منشور زعمت أنه "يسهم في مخاطر حدوث ... أذى جسدي وشيك".

نوع القرار

معيار

السياسات والمواضيع

عنوان
سلامة، صحة، معلومات مضللة
معيار المجتمع
العنف والتحريض

المناطق/البلدان

موقع
فرنسا

منصة

منصة
Facebook

لقراءة هذا القرار باللغة الفرنسية، انقر هنا.
Pour lire l’intégralité de la décision en français, veuillez cliquer ici.

ملخص الحالة

ألغى مجلس الإشراف القرار الذي اتخذته فيسبوك بإزالة منشور زعمت أنه "يسهم في مخاطر حدوث ... أذى جسدي وشيك". وجد المجلس أن قاعدة فيسبوك المعنية بالمعلومات المضللة والضرر الوشيك (وهي تندرج تحت معيار العنف والتحريض ضمن معايير المجتمع) مُبهمة بشكل غير لائق، ومن ثم فقد قدم المجلس عدة توصيات من بينها إضافة معيار جديد إلى معايير المجتمع عن المعلومات الصحية المضللة.

حول هذه الحالة

في شهر أكتوبر 2020، نشر أحد المستخدمين مقطع فيديو ونصًا مصاحبًا باللغة الفرنسية داخل مجموعة عامة على فيسبوك حول فيروس كورونا (كوفيد-١٩). تضمن المنشور زعمًا بوجود فضيحة في الوكالة الوطنية لسلامة الأدوية (الوكالة الفرنسية المسؤولة عن تنظيم المنتجات الصحية)، والتي ترفض التصريح باستخدام هيدروكسي كلوروكوين جنبًا إلى جنب مع أزيثروميسين لعلاج فيروس كورونا (كوفيد-١٩)، ولكنها تسمح بعقار ريمديسفير وتروّجه. انتقد المستخدم عدم اتباع استراتيجية صحية في فرنسا وقال إن "علاج [ديدييه] راول" يُستخدم في أماكن أخرى لإنقاذ الأرواح. تساءل منشور المستخدم أيضًا عن الخسارة التي كان سيتعرض لها المجتمع حال السماح للأطباء بوصف "دواء غير ضار" في حالات الطوارئ عند ظهور الأعراض الأولى لفيروس كورونا (كوفيد-١٩).

عند إحالتها إلى مجلس الإشراف، استشهدت فيسبوك بهذه الحالة كمثال على التحديات التي تكتنف التعامل مع مخاطر حدوث ضرر على أرض الواقع نتيجة معلومات مضللة عن جائحة فيروس كورونا (كوفيد-١٩).

أهم النتائج

حذفت فيسبوك المحتوى بداعي انتهاك قاعدتها التي تتناول المعلومات المضللة والضرر الوشيك وتندرج تحت معيار العنف والتحريض ضمن معايير المجتمع، حيث وجدت أن المنشور قد أسهم في مخاطر حدوث أذى جسدي وشيك في ظل انتشار الجائحة العالمية. وقد أوضحت فيسبوك أنها أزالت المنشور لاحتوائه على مزاعم بوجود علاج لفيروس كورونا (كوفيد-١٩). وخلصت الشركة إلى أن مثل هذا المنشور قد يدفع الأشخاص إلى تجاهل الإرشادات الصحية أو محاولة علاج أنفسهم بأنفسهم.

لاحظ المجلس، في هذا المنشور، أن المستخدم كان يعارض سياسة حكومية ويهدف إلى تغيير تلك السياسة. ولا يتوفر مزيج الأدوية التي يزعم المنشور أنها تُشكّل علاجًا للفيروس دون وصفة طبية في فرنسا بالإضافة إلى أن المحتوى لا يُشجّع الأشخاص على الشراء أو تناول العقاقير دون وصفة طبية. مع أخذ ذلك في الاعتبار جنبًا إلى جنب مع العوامل السياقية الأخرى، لاحظ المجلس أن فيسبوك لم تثبت أن المنشور قد يرتقي إلى مستوى الضرر الوشيك، حسبما تقتضي قاعدتها في معايير المجتمع.

وجد المجلس أيضًا أن قرار فيسبوك لا يمتثل للمعايير الدولية لحقوق الإنسان التي تتناول تقييد حرية التعبير. ومع امتلاك فيسبوك لمجموعة من الأدوات للتعامل مع المعلومات المضللة، مثل توفير سياق إضافي للمستخدمين، فقد أخفقت الشركة في توضيح سبب عدم انتقاء خيار أقل تدخلاً من إزالة المحتوى.

وجد المجلس أيضًا أن قاعدة فيسبوك المعنية بالمعلومات المضللة والضرر الوشيك، التي قيل أن هذا المنشور ينتهكها، مُبهمة بشكل غير لائق وغير متسقة مع معايير حقوق الإنسان العالمية. وتتواجد مجموعة من السياسات في أجزاء مختلفة من موقع فيسبوك على الويب مما يصعب على المستخدمين تحديد المحتوى المحظور. وعلى الرغم من إعلان الشركة في غرفة أخبارها عن مجموعة من التغييرات على السياسات المتعلقة بفيروس كورونا (كوفيد-١٩)، فلم تنعكس تلك التغييرات دائمًا على معايير المجتمع التي تقرها الشركة، بل تبدو بعض هذه التغييرات متناقضة معها.

قرار مجلس الإشراف

ألغى مجلس الإشراف قرار فيسبوك بإزالة المحتوى وطلب استعادة المنشور

في بيان استشاري بشأن السياسة، أوصى المجلس فيسبوك بما يلي:

  • إضافة معيار جديد إلى معايير المجتمع يتعلق بالمعلومات الصحية المضللة، وتوضيح القواعد الحالية ودمجها في مكان واحد. وينبغي أن يتضمن ذلك تعريف المصطلحات الرئيسية مثل "المعلومات المضللة".
  • اعتماد وسائل أقل تدخلاً عند تطبيق سياسات المعلومات الصحية المضللة التي لا يبلغ المحتوى فيها حد فيسبوك للأذى الجسدي الوشيك.
  • زيادة الشفافية فيما يتعلق بطريقة الإشراف على المعلومات الصحية المضللة، بما في ذلك نشر تقرير شفافية عن طريقة تطبيق معايير المجتمع أثناء جائحة فيروس كورونا (كوفيد-١٩). وتستند هذه التوصية إلى التعليقات العامة التي تلقاها المجلس.

*توفر ملخصات الحالة نظرة عامة على الحالة ولا تُشكّل سابقة قانونية.

القرار الكامل للمجلس بشأن الحالة

1. ملخص القرار

ألغى مجلس الإشراف القرار الذي اتخذته فيسبوك بإزالة المحتوى الذي قررت أنه يندرج تحت فئة المعلومات الصحية المضللة باعتبار أنه "يسهم في مخاطر حدوث . . . أذى جسدي وشيك". وجد مجلس الإشراف أن قرار فيسبوك لا يمتثل لمعايير المجتمع التي تقرها الشركة، أو قيمها، أو المعايير الدولية لحقوق الإنسان.

2. وصف الحالة

في شهر أكتوبر 2020، نشر أحد المستخدمين مقطع فيديو ونصًا مصاحبًا باللغة الفرنسية داخل مجموعة فيسبوك عامة حول فيروس كورونا (كوفيد-١٩). زعم الفيديو والنص وجود فضيحة في الوكالة الوطنية لسلامة الأدوية (الوكالة الفرنسية المسؤولة عن تنظيم المنتجات الصحية) والتي ترفض التصريح باستخدام هيدروكسي كلوروكوين جنبًا إلى جنب مع أزيثروميسين لعلاج فيروس كورونا (كوفيد-١٩)، ولكنها تسمح بعقار ريمديسفير وتروّجه. انتقد المستخدم عدم اتباع استراتيجية صحية في فرنسا وقال إن "علاج [ديدييه] راول" يُستخدم في أماكن أخرى لإنقاذ الأرواح. ويشغل ديدييه راول (الذي ورد ذكره في المنشور) منصب أستاذ علم الأحياء الدقيقة بكلية الطب في مرسيليا، ويدير "معهد عدوى البحر المتوسط التابع لهيئة معاهد المستشفيات الجامعية" (IHU) في مرسيليا. تساءل منشور المستخدم أيضًا عن الخسارة التي كان سيتعرض لها المجتمع حال السماح للأطباء بوصف "دواء غير ضار" في حالات الطوارئ عند ظهور الأعراض الأولى لفيروس كورونا (كوفيد-١٩). وقد زعم الفيديو أن عقاريّ هيدروكسي كلوروكوين وأزيثروميسين كانا يصرفان معًا إلى المرضى في المراحل المبكرة من المرض وأشار ضمنيًا إلى أن الأمر لم يكن كذلك بالنسبة إلى عقار ريمديسيفير. وقد تمت مشاركة المنشور في مجموعة عامة تتناول فيروس كورونا (كوفيد-١٩) وتضم أكثر من 500 ألف عضو وقد حظي المنشور بنحو 50 ألف مشاهدة، وما بين 800 إلى 900 تفاعل (كان معظمها "أغضبني" ويليها "أعجبني")، ومن 200 إلى 300 تعليق بواسطة 100 إلى 200 شخص مختلف وتمت مشاركة المنشور بواسطة 500 إلى 600 شخص. أزالت فيسبوك المحتوى لانتهاك المعيار الذي يتناول العنف والتحريض ضمن معايير مجتمعها. عند إحالة قرارها إلى مجلس الإشراف، استشهدت فيسبوك بهذه الحالة كمثال على التحديات التي تكتنف التعامل مع مخاطر حدوث ضرر على أرض الواقع نتيجة معلومات مضللة عن جائحة فيروس كورونا (كوفيد-١٩).

3. السُلطة والنطاق

يتمتع المجلس بصلاحية مراجعة قرار فيسبوك بموجب المادة 2 (سلطة المراجعة) من اتفاقية المجلس ويجوز له تأييد هذا القرار أو إلغائه بموجب المادة 3، القسم 5 (إجراءات المراجعة: القرار، ضمن الاتفاقية). لم تقدم فيسبوك أسبابًا لاستبعاد المحتوى وفقًا للمادة 2، القسم 1.2.1 (المحتوى غير المتاح للمجلس مراجعته) من اللائحة الداخلية للمجلس، كذلك لم تشر فيسبوك إلى أنها تعتبر الحالة غير مؤهلة بموجب المادة 2، القسم 1.2.2 (الالتزامات القانونية) من اللائحة الداخلية. بموجب المادة 3، القسم 4 (إجراءات المراجعة: القرارات) من اتفاقية المجلس، قد يتضمن القرار النهائي بيانًا استشاريًا بشأن السياسة، والذي ستأخذه فيسبوك بعين الاعتبار للرجوع إليه لاحقًا كمرجع لوضع السياسات المستقبلية الخاصة بها.

4. المعايير ذات الصلة

أخذ مجلس الإشراف المعايير التالية في الاعتبار عند إصدار قراره:

1. معايير مجتمع فيسبوك:

تحتوي مقدمة معايير مجتمع فيسبوك على رابط بعنوان "فيروس كورونا (كوفيد-١٩): تحديثات بشأن معايير المجتمع وعمليات الحماية" ورد فيه:

نظرًا لما يمر به الأشخاص حول العالم من حالة الطوارئ الصحية العامة غير المسبوقة هذه، فإننا نريد التأكد من أن معايير مجتمعنا تحمي الأشخاص من المحتوى الضار والأنواع الجديدة من حالات سوء الاستخدام المتعلقة بفيروس كورونا (كوفيد-١٩). نحن نعمل على إزالة المحتوى الذي يُحتمل أن يسهم في إحداث ضرر فعلي على أرض الواقع، بما في ذلك من خلال سياساتنا التي تحظر التنسيق لإحداث ضرر، وبيع الكمامات الطبية والسلع ذات الصلة، والخطاب الذي يحض على الكراهية، والمضايقة والإساءة والمعلومات المضللة التي تسهم في مخاطر اندلاع أحداث عنف أو أذى جسدي وشيك.

وقد ذكرت فيسبوك أنها استندت تحديدًا إلى الحظر المفروض على "المعلومات المضللة أو الشائعات التي لا يمكن التحقق من صحتها والتي تسهم في مخاطر اندلاع أحداث عنف أو أذى جسدي وشيك،" والذي ورد ذكره في معايير المجتمع في القسم الذي يتناول العنف والتحريض (وسيشار إلى ذلك باسم "قاعدة المعلومات المضللة والأذى الجسدي الوشيك" من الآن فصاعدًا). وتظهر القاعدة ضمن مجموعة المعايير التي "تتطلب تقديم مزيد من المعلومات و/أو السياق لتطبيقها."

تبرر فيسبوك سياساتها التي تتناول العنف والتحريض بأنها تهدف إلى "منع أي أذى محتمل على أرض الواقع قد ينتج عن محتوى يتم نشره على فيسبوك." وتضيف فيسبوك أنها تُزيل المحتوى الذي "يحرض على العنف الحقيقي أو يمهد الطريق لحدوثه" و"عندما تعتقد بوجود تهديد فعلي ينطوي على إيذاء جسدي أو تهديدات مباشرة للسلامة العامة."

على الرغم من عدم اعتماد فيسبوك على معيار المجتمع الذي يتناول الأخبار الزائفة في هذه الحالة، فقد لاحظ المجلس نطاق خيارات الإنفاذ الأخرى التي يمكن اتباعها بخلاف الإزالة التي نصت عليها هذه السياسة.

2. قيم فيسبوك:

تشير مقدمة معايير المجتمع إلى أن "حرية الرأي" هي أهم قيمة لدى فيسبوك. وتصف معايير المجتمع هذه القيمة على النحو التالي:

يتمثل هدف معايير مجتمعنا دائمًا في توفير مكان لحرية الرأي يستطيع الأشخاص من خلاله إبداء وجهات نظرهم. [...] ونحن نريد أن يتمتع الأشخاص بالقدرة على التحدث بحرية عن القضايا التي تهمهم، حتى في حالة عدم اتفاق البعض أو اعتراضهم.

وعلى الرغم من هذا، قد تقيد المنصة "حرية الرأي" لصالح عدة قيم أخرى، بما في ذلك "السلامة". وتُعرِّف فيسبوك قيمة "السلامة" على النحو التالي:

نحن ملتزمون بجعل فيسبوك مكانًا آمنًا. ولا شك أن أشكال التعبير التي تحمل تهديدًا للأشخاص قد تتسبب في إخافة الآخرين أو استبعادهم أو إسكاتهم ونحن لا نسمح بذلك على فيسبوك.

3. معايير حقوق الإنسان ذات الصلة:

تُرسي مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان (UNGP)، التي أقرها مجلس حقوق الإنسان التابع للأمم المتحدة عام 2011، إطار عمل تطوعي لمسؤوليات الأنشطة التجارية فيما يتعلق بحقوق الإنسان. وقد استند تحليل المجلس في هذه الحالة إلى أحكام معاهدة الأمم المتحدة والتوجيهات الرسمية لآليات حقوق الإنسان التابعة للأمم المتحدة، بما في ذلك ما يلي:

  • المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية (ICCPR
  • التعليق العام رقم 34 للجنة المعنية بحقوق الإنسان حول حرية الرأي والتعبير (2011) (التعليق العام رقم 34
  • مقرر الأمم المتحدة الخاص المعني بحرية الرأي والتعبير، وتقرير الأمراض الجائحة وحرية الرأي والتعبير، A/HRC/44/49 ‏(2020)، الورقة البحثية 1/2019 عن الانتخابات والعصر الرقمي (2019)، والتقارير أرقام A/74/486 ‏(2019) وA/HRC/38/35 ‏(2018).

5. بيان المستخدم

أحالت فيسبوك هذه الحالة إلى مجلس الإشراف. وأكدت فيسبوك لمجلس الإشراف أن المنصة أرسلت إشعارًا إلى المستخدم لإخباره بإمكانية إرسال بيان بشأن هذه الحالة، لكنه لم يرسل أي بيان.

6. شرح قرار فيسبوك

أزالت فيسبوك المحتوى بدعوى مخالفة قاعدة المعلومات المضللة والأذى الوشيك التي تندرج تحت معيار العنف والتحريض ضمن معايير المجتمع. ووفقًا لفيسبوك، أسهم المنشور في مخاطر حدوث أذى جسدي وشيك أثناء الجائحة العالمية.

أوضحت فيسبوك أنها أزالت هذا المحتوى لهذه الأسباب (1) زعم المنشور وجود علاج لفيروس كورونا (كوفيد-١٩)، الأمر الذي دحضته منظمة الصحة العالمية (WHO) وغيرها من السُلطات الصحية الموثوق بها، و(2) أخبر خبراء بارزون فيسبوك أن المحتوى الذي يزعم وجود علاج أو علاج مضمون لفيروس كورونا (كوفيد-١٩) قد يدفع الأشخاص إلى تجاهل الإرشادات الصحية الوقائية أو محاولة علاج أنفسهم بأنفسهم. وقد أوضحت فيسبوك أن هذا هو ما يدفعها إلى عدم السماح بالمحتوى الذي يتضمن مزاعم زائفة عن علاجات فيروس كورونا (كوفيد-١٩).

أوضحت فيسبوك أنها تستشير منظمة الصحة العالمية والسُلطات الصحية الرائدة الأخرى في الحالات التي تنطوي على معلومات صحية مضللة. ومن خلال هذه الاستشارة، استطاعت فيسبوك تحديد فئات مختلفة من المعلومات الصحية المضللة بشأن فيروس كورونا (كوفيد-١٩)، مثل الادعاءات الزائفة عن المناعة (على سبيل المثال: "لا يمكن أن يصاب الأشخاص دون الثلاثين بالفيروس")، والادعاءات الزائفة عن الوقاية (على سبيل المثال: يمنحك شرب جالون من الماء البارد نحو ساعة من المناعة")، والادعاءات الزائفة عن الأدوية أو العلاجات (على سبيل المثال: "شُرب ملعقة كبيرة من المُبيض يُعالج من الفيروس").

اعتبرت فيسبوك هذه الحالة مهمة لأنها تتعلق بمنشور جرت مشاركته في مجموعة عامة كبيرة على فيسبوك ترتبط بفيروس كورونا (كوفيد-١٩)، وبالتالي يحتمل أن يصل إلى عدد كبير من الأشخاص الذين يتعرضون لخطر الإصابة بفيروس كورونا (كوفيد-١٩). اعتبرت فيسبوك أيضًا أن هذه الحالة صعبة لأنها تخلق شدًا وجذبًا بين قيمتي فيسبوك المتمثلتين في "حرية الرأي" و"السلامة". لاحظت فيسبوك ضرورة الاحتفاظ بالقدرة على مناقشة ومشاركة المعلومات المتعلقة بجائحة فيروس كورونا (كوفيد-١٩) ومناقشة فعّالية العلاجات المحتملة واستراتيجيات الحد من مضاعفاته مع ضرورة تقييد انتشار المعلومات الزائفة التي قد تؤدي إلى حدوث الضرر.

7. المعلومات المقدمة من جهات خارجية

تلقى المجلس ثمانية تعليقات عامة: تعليق من منطقة آسيا والمحيط الهادئ والأوقيانوس، وثلاثة من أوروبا وأربعة من الولايات المتحدة وكندا. وقد نُشر مع هذه الحالة سبعة من تلك التعليقات العامة، بينما لما يأذن صاحب التعليق الثامن بالنشر. وتناولت التعليقات المقدمة عددًا من الموضوعات، بما في ذلك أهمية الشفافية الهادفة والتدابير الأقل تدخلاً كبديل عن الإزالة؛ مع نقد عام للرقابة، والتحيز وطريقة تعامل فيسبوك للمعلومات المضللة المتعلقة بالجائحة، إلى جانب ملاحظات لتحسين عملية تقديم التعليقات العامة.

8. تحليل مجلس الإشراف

8.1 الامتثال لمعايير المجتمع

أزالت فيسبوك المحتوى على أساس انتهاكه لقاعدتها المعنية بمكافحة المعلومات المضللة والأذى الجسدي الوشيك. أشارت فيسبوك إلى أن المنشور يُشكّل معلومات مضللة لأنه يؤكد على وجود علاج لفيروس كورونا (كوفيد-١٩) رغم توصُل منظمة الصحة العالمية وأبرز خبراء الصحة إلى عدم وجود علاج. وأشار فيسبوك إلى أن أبرز الخبراء قد أخبروا المنصة بأن المعلومات المضللة حول فيروس كورونا (كوفيد-١٩) قد تؤدي إلى حدوث أضرار، لأنه إذا صدقها القراء، فقد يهملون الإرشادات الصحية الوقائية و/أو يحاولون علاج أنفسهم بأنفسهم. اعتمدت فيسبوك على هذه المشورة العامة من الخبراء لتأكيد أن المنشور المعني قد يُسهم في حدوث أذى جسدي وشيك. علاوة على ذلك، أشارت فيسبوك إلى موت أحد الأشخاص بعد ابتلاع مادة كيماوية تستخدم عادةً لمعالجة أحواض الأسماك بسبب معلومات مضللة عن فيروس كورونا (كوفيد-١٩).

وجد المجلس أن فيسبوك لم تثبت كيف أسهم منشور هذا المستخدم في حدوث أذى جسدي وشيك. بدلاً من ذلك، بدا أن الشركة قد اعتمدت على اعتبار أن أي معلومات مضللة عن أدوية أو علاجات فيروس كورونا (كوفيد-١٩) ترقى بالضرورة إلى مستوى الأذى الوشيك. وتنص معايير مجتمع فيسبوك على ضرورة توفر معلومات إضافية وسياق إضافي قبل أن تُزيل فيسبوك المحتوى بموجب قاعدة المعلومات المضللة والأذى الجسدي الوشيك. وعلى الرغم من ذلك، لا توضح معايير المجتمع العوامل السياقية التي يتم أخذها في الاعتبار ولم تناقش فيسبوك عوامل سياقية بعينها بالنسبة إلى هذه الحالة.

تحديد مدى إسهام المعلومات المضللة إلى معيار فيسبوك المعني بمنع حدوث أذى "وشيك" يتطلب تحليلاً لمجموعة متنوعة من العوامل السياقية، بما في ذلك حالة ومصداقية المتحدث، ومستوى وصول حديثه ودقة اللغة المستخدمة ومدى توفر كل الأدوية أو العلاجات المزعومة للجمهور الذي قد يتعرض لخطر بسبب الرسالة (مثل المعلومات المضللة التي ذكرتها فيسبوك عن اللجوء إلى المياه أو المُبيضات كوقاية أو علاج لفيروس كورونا (كوفيد-١٩)).

في هذه الحالة، يُشكّك المستخدم في سياسة حكومية ويروج لرأي طبي لطبيب معروف على نطاق واسع رغم أقلية من ينادي بهذا الرأي. يهدف المنشور إلى الضغط على وكالة حكومية لتغيير سياستها؛ ولا يبدو أن المنشور يُشجّع الأشخاص على شراء أو تناول عقاقير معينة دون وصفة طبية. ولا تزال الأسئلة المهمة عن دور المنشور في حدوث أذى وشيك بلا إجابة. وعلى الرغم من أن بعض الدراسات قد أشارت إلى ضرر الجمع بين أدوية علاج الملاريا والمضادات الحيوية التي يُزعم أنها تُشكّل علاجًا للفيروس، فقد أشار الخبراء الذين استشارهم المجلس إلى أن هذه الأدوية لا تُصرف دون وصفة طبية في فرنسا. علاوة على ذلك، لم يحصل العلاج المزعوم على موافقة السُلطات الفرنسية وبالتالي من غير الواضح لماذا سيميل قراء المنشور إلى تجاهل الاحتياطات الصحية من أجل علاج لا يمكنهم الوصول إليه. وأشار المجلس أيضًا إلى أن هذه المجموعة العامة على فيسبوك قد تضم في عضويتها متحدثين باللغة الفرنسية من خارج فرنسا. ولم تذكر فيسبوك العوامل السياقية المحددة التي تشير إلى احتمال حدوث أذى وشيك فيما يتعلق بهؤلاء المستخدمين. والمجلس يهتم بمكافحة المعلومات الصحية المضللة في فرنسا وفي غيرها (راجع توصية السياسة 2.ب). إجمالاً، على الرغم من إقرار المجلس بأن نشر المعلومات المضللة أثناء انتشار جائحة عالمية قد يؤدي إلى حدوث أضرار، فقد أخفقت فيسبوك في توفير أي عوامل سياقية لدعم ما توصلت إليه من أن هذا المنشور على وجه التحديد يندرج تحت معيار الأذى الوشيك من معايير المجتمع التي تقرها الشركة. وبالتالي لم يتوافق تصرف فيسبوك مع معايير مجتمعها.

وقد أشار المجلس أيضًا إلى أن هذه الحالة تطرح قضايا مهمة تتمثل في التفريق بين الرأي والحقيقة؛ إلى جانب السؤال عن متى يمكن اعتبار مسمى "المعلومات المضللة" (التي لم يرد تعريفها في معايير المجتمع) توصيفًا مناسبًا. كما تثير تساؤلاً عما إذا كان من المفترض أن يؤدي ادعاء مزعوم غير صحيح من الناحية الواقعية في منشور واسع النطاق ينتقد السياسة الحكومية إلى إزالة المنشور بالكامل. على الرغم من حاجتنا إلى أخذ هذه القضايا في الحسبان عندما نقرر ما إذا كانت تصرفات فيسبوك تتفق مع قاعدتها التي تتناول المعلومات المضللة والأذى الوشيك في هذه الحالة أم لا، فقد أشار المجلس إلى أن هذه القضايا قد تمثل أهمية محورية في تطبيق هذه القاعدة مستقبلاً.

8.2 الامتثال لقيم فيسبوك

وجد مجلس الإشراف أن قرار إزالة المحتوى لا يتفق مع قيم فيسبوك. ولم تبرهن الأسباب التي ساقتها فيسبوك على مدى خطورة هذا المنشور على قيمة "السلامة" بالقدر الكافي لترجيحها على قيمة "حرية الرأي" إلى الحد الذي يبرر إزالة هذا المنشور.

8.3 الامتثال لمعايير حقوق الإنسان المعنية بحرية التعبير

ينظر هذا القسم في مدى توافق قرار فيسبوك بإزالة المنشور من منصتها مع المعايير الدولية لحقوق الإنسان. تنص المادة 2 من اتفاقية المجلس أن علينا "إيلاء عناية خاصة لتأثير إزالة المحتوى في ضوء معايير حقوق الإنسان التي تحمي حرية التعبير." وبموجب المبادئ التوجيهية للأمم المتحدة، يتوقع من الشركات "احترام المعايير الدولية لحقوق الإنسان في عملياتها ومعالجة الآثار السلبية المتعلقة بحقوق الإنسان التي تشارك فيها" (المبدأ 11 من المبادئ التوجيهية للأمم المتحدة). يتم تعريف المعايير الدولية لحقوق الإنسان بالإحالة إلى صكوك الأمم المتحدة، بما في ذلك العهد الدولي الخاص بالحقوق المدنية والسياسية (ICCPR) (المبدأ 12 من المبادئ التوجيهية للأمم المتحدة). علاوة على ذلك، تحدد المبادئ التوجيهية للأمم المتحدة أن آليات التظلم غير القضائية (مثل مجلس الإشراف) يجب أن تُسفر عن نتائج متماشية مع حقوق الإنسان المعترف بها دوليًا (المبدأ 31 من المبادئ التوجيهية للأمم المتحدة). عند توضيح أسباب إزالتها للمحتوى، أقرت فيسبوك بإمكانية تطبيق المبادئ التوجيهية للأمم المتحدة والعهد الدولي للحقوق المدنية والسياسية على قرارها الإشرافي بشأن المحتوى.

تنص الفقرة 2 من المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية على ضرورة توفير حماية واسعة النطاق "لمختلف ضروب" حرية التعبير. أكدت لجنة الأمم المتحدة المعنية بحقوق الإنسان أن قيمة حرية التعبير عالية لا سيّما عند مناقشة الأمور ذات الاهتمام العام (التعليق العام رقم 34، الفقرات رقم 13 و20 و38). ويمثل المنشور الذي بين أيدينا نقدًا مباشرًا للسياسة الحكومية ويهدف كما يبدو إلى لفت انتباه الوكالة الوطنية لسلامة الأدوية. ويطرح المستخدم مسألة تحظى باهتمام عام، حتى وإن كان ذلك من خلال الاحتجاج برأي الأقلية داخل المجتمع الطبي ونشر ذلك الرأي. علاوة على ذلك، فإن كون الرأي يعبر عن الأقلية لا يجعله أقل جدارة بالحماية. ويستفسر المستخدم عن عدم السماح للأطباء بوصف عقار معين في المواقف الطارئة ولا يدعو العامة إلى التصرف بشكل مستقل استنادًا إلى رأي راول الذي يمثل رأي الأقلية.

مع ذلك، فإن المادة 19، الفقرة 3 من العهد الدولي الخاص بالحقوق المدنية والسياسية تسمح بفرض قيود على حرية التعبير شريطة أن تستطيع الجهات التنظيمية للكلام إثبات تحقق ثلاثة شروط. في هذه الحالة، ينبغي على فيسبوك إظهار أن قرارها بإزالة المحتوى قد استوفى شروط الشرعية والمشروعية والضرورة. ويراجع المجلس إزالة فيسبوك لمنشور المستخدم في ضوء هذا الاختبار الثلاثي.

1. الشرعية

أي تقييد لحرية التعبير يجب أن يوفر للأفراد، بما فيهم الأشخاص المسؤولين عن تنفيذ هذه القيود، إشعارًا مناسبًا عن الأمور المحظورة. (راجع التعليق العام رقم 34، الفقرة رقم 25). في هذه الحالة، يتطلب اختبار الشرعية تقييم ما إذا كانت قاعدة المعلومات المضللة والأذى الوشيك مُبهمة بشكل غير لائق. للبدء، لا تحتوي هذه القاعدة على تعريف "المعلومات المضللة". كما ورد في مقرر الأمم المتحدة الخاص المعني بحرية الرأي والتعبير، فإن "المصطلحات المُبهمة والذاتية للغاية - مثل "لا أساس له من الصحة" و"متحيز" و "كاذب" و"مزيف" - لا تصف المحتوى المحظور بشكل كافٍ" (ورقة بحث 1/2019، ص 9). كما أنها توفر للسُلطات "صلاحيات واسعة للرقابة على حرية التعبير عن الآراء غير الشعبية أو المثيرة للجدل أو آراء الأقلية" (ورقة بحث 1/2019، ص 9). علاوة على ذلك، فإن عمليات الحظر المُبهمة هذه تمنح السُلطات "القدرة على تحديد مصداقية أو زيف المحتوى الذي يندرج تحت مظلة المجال العام والسياسي" و "تحفيز الرقابة الذاتية" (ورقة بحث 1/2019، ص 9). أشار المجلس أيضًا إلى أن هذه السياسة تندرج تحت عنوان ينص على أن المعلومات و/أو السياق الإضافي ضروري لتحديد الانتهاكات، دون أن يشار إلى نوع المعلومات/السياق الإضافي المناسب لهذا التقييم.

علاوة على ذلك، أعلنت فيسبوك عن إجراء عدة تغييرات على السياسة المتعلقة بفيروس كورونا (كوفيد-١٩) من خلال غرفة أخبارها ولكن تلك التغييرات لم تنعكس في معايير المجتمع الحالية. وللأسف يبدو أن الأمور التي يُعلن عنها في غرفة الأخبار قد تتعارض أحيانًا مع نص معايير المجتمع. على سبيل المثال، في منشور غرفة الأخبار "مكافحة المعلومات المضللة بشأن فيروس كورونا (كوفيد-١٩) على تطبيقاتنا" (25 مارس 2020) حددت فيسبوك أنها سوف "تُزيل المعلومات المضللة المتعلقة بفيروس كورونا (كوفيد-١٩) التي يمكن أن تسهم في حدوث أذى جسدي وشيك"، لتوحي بحد جديد بخلاف قاعدة المعلومات المضللة والأذى الوشيك، والتي تتناول المعلومات المضللة التي "تسهم" في حدوث الأذى الوشيك. في مقالة مركز المساعدة التي نُشرت في منتصف ديسمبر 2020، "تحديثات على السياسة بشأن فيروس كورونا (كوفيد-١٩) ووسائل الحماية منه"، صرحت فيسبوك أنها سوف:

تُزيل المعلومات المضللة التي تسهم في مخاطر اندلاع أحداث عنف أو أذى جسدي وشيك. في سياق جائحة مثل فيروس كورونا (كوفيد-١٩)، ينطبق ذلك على (...) الادعاءات بوجود "علاج" لفيروس كورونا (كوفيد-١٩)، إلا إذا تم تأكيد هذا العلاج بواسطة منظمة الصحة العالمية أو غيرها من المنظمات الصحية الرائدة. ولا يمنع ذلك الأشخاص من مناقشة التجارب أو الدراسات الطبية أو التجارب المتناقلة عن سبل التداوي والعلاج للأعراض المعروفة لفيروس كورونا (كوفيد-١٩) (على سبيل المثال، الحمى والسعال وصعوبات التنفس).

يعكس هذا الإعلان (الذي تم بعد إزالة المنشور المعني) الطبيعة دائمة التغير للمواقف العلمية والحكومية تجاه القضايا الصحية. مع هذا، لم يتم تضمين ذلك في معايير المجتمع.

بالنظر إلى هذه المجموعة المتفرقة من القواعد والسياسات التي توجد في أجزاء مختلفة من موقع فيسبوك على الويب، وعدم وجود تعريف للمصطلحات الرئيسية مثل "المعلومات المضللة"، والمعايير المختلفة المتعلقة بما إذا كان المنشور "يمكن أن يسهم" أو يسهم فعليًا في حدوث أذى وشيك، فإنه يصعب على المستخدمين فهم المحتوى المحظور. وجد المجلس أن القاعدة التي تم تطبيقها في هذه الحالة مُبهمة على نحو غير لائق. وبالتالي لم يتم استيفاء اختبار الشرعية.

2. الهدف المشروع

يقتضي اختبار المشروعية أن تخدم إزالة فيسبوك للمنشور هدفًا مشروعًا ومحددًا يصب في المصلحة العامة بموجب المادة 19، الفقرة 3 من العهد الدولي الخاص بالحقوق المدنية والسياسية (التعليق العام رقم 34، الفقرات من 28 إلى 32). وقد ورد هدف حماية الصحة العامة تحديدًا في هذه المادة. وقد وجدنا أن غرض فيسبوك المتمثل في حماية الصحة العامة خلال الجائحة العالمية قد استوفى شروط هذا الاختبار.

3. الضرورة والتناسب

فيما يتعلق باختبار الضرورة، يجب أن تثبت فيسبوك أنها اختارت أقل الوسائل تدخلاً للتعامل مع هدف المصلحة العامة المشروعة (التعليق العام رقم 34، الفقرة 34).

يجب أن تبرهن فيسبوك على ثلاثة أمور:

(1) عدم القدرة على تحقيق هدف المصلحة العامة من خلال إجراءات لا تنتهك حرية التعبير.

(2) اختيار الأقل تدخلاً من بين الإجراءات التي تنتهك حرية التعبير.

(3) أن يساعد الإجراء المحدد فعليًا على تحقيق الهدف وألا يفتقد إلى الفعّالية أو يتسبب في حدوث نتائج عكسية (A/74/486، الفقرة 52).

لدى فيسبوك مجموعة من الخيارات المتاحة للتعامل مع المحتوى الصحي الزائف أو الذي قد يتسبب في وقوع أضرار. سأل المجلس فيسبوك عما إذا كان من الممكن استخدام وسيلة أقل تدخلاً للتعامل مع هذه الحالة. وقد أجابت فيسبوك أنه بالنسبة إلى حالات الأذى الوشيك، يكون إجراء التطبيق الوحيد هو الإزالة، ولكن بالنسبة إلى المحتوى الذي تم تقييمه بواسطة شركاء خارجيين باعتباره زائفًا (دون أن يرتبط بالأذى الوشيك)، تقوم الشركة بتنفيذ مجموعة من خيارات الإنفاذ ليس من بينها إزالة المحتوى. أعادت هذه الاستجابة بشكل أساسي توضيح الطريقة التي تعمل بها معايير المجتمع ولكنها لم تفسر سبب كون الإزالة هي أقل الوسائل تدخلاً لحماية الصحة العامة.

كما ورد في معايير المجتمع بشأن الأخبار الزائفة، تتضمن أدوات فيسبوك للتعامل مع مثل هذا النوع من المحتوى تثبيط الحوافز الاقتصادية للأشخاص والصفحات التي تروّج المعلومات المضللة؛ وخفض معدلات انتشار المحتوى المصنف بواسطة جهات تدقيق حقائق مستقلة كمحتوى زائف؛ والقدرة على مواجهة المعلومات المضللة من خلال تزويد المستخدمين بسياق ومعلومات إضافية عن المنشور المعني، بما في ذلك من خلال مركز معلومات فيروس كورونا (كوفيد-١٩) التابع لفيسبوك. يعلم المجلس بسياسة الأخبار الزائفة في فيسبوك - ليس للإيحاء بأنه ينبغي استخدامها للحكم على الآراء، ولكن للإشارة إلى امتلاك فيسبوك لعدد من خيارات الإنفاذ بخلاف إزالة المحتوى عند التعامل مع المعلومات المضللة.

لم توضح فيسبوك كيف تم اعتبار إزالة المحتوى في هذه الحالة أقل الوسائل تدخلاً لحماية الصحة العامة لأنها، على سبيل المثال لا الحصر، لم توضح مدى ارتباط المنشور بالأذى الوشيك؛ وإنما أكدت على الأذى الوشيك فقط لتبرير الإزالة. وبالتالي فإن إزالة المنشور قد أخفقت في استيفاء متطلبات اختبار الضرورة.

9. قرار مجلس الإشراف

9.1 القرار بشأن المحتوى

قرر مجلس الإشراف إلغاء قرار فيسبوك بإزالة المنشور المعني.

9.2 البيانات الاستشارية بشأن السياسة

1. ينبغي على فيسبوك توضيح معايير المجتمع التي تقرها فيما يتعلق بالمعلومات الصحية المضللة، لا سيّما تلك المتعلقة بفيروس كورونا (كوفيد-١٩).

يوصي المجلس فيسبوك بتحديد معيار مجتمع واضح ويسهل الوصول إليه بشأن المعلومات الصحية المضللة، ودمج وتوضيح القواعد الحالية في مكان واحد (بما في ذلك تعريف المصطلحات الرئيسية مثل المعلومات المضللة). ينبغي أن يصاحب إعداد هذه القاعدة "حالات افتراضية مفصلة وشاملة توضح الفوارق الدقيقة في تفسير وتطبيق [تلك] القواعد" لتوفير مزيد من التوضيح للمستخدمين (راجع التقرير A/HRC/38/35، الفقرة 46 ‏(2018)). ينبغي على فيسبوك إجراء تقييم لتأثير حقوق الإنسان بالتعاون مع أصحاب المصلحة المعنيين كجزء من عملية تعديل القاعدة (المبدأ 18 والمبدأ 19 من المبادئ التوجيهية للأمم المتحدة).

2. ينبغي على فيسبوك تبني إجراءات إنفاذ أقل تدخلاً في السياسات ذات الصلة بالمعلومات الصحية المضللة.

أ.) لضمان أن تمثل إجراءات إنفاذ القاعدة على المعلومات الصحية المضللة أقل وسائل حماية الصحة العامة تدخلاً، يوصي المجلس فيسبوك بما يلي:

  • توضيح الأضرار المحددة التي ترغب في منعها والتحلي بالشفافية فيما يتعلق بكيفية تقييم الأذى المحتمل الناجم عن محتوى بعينه؛
  • إجراء تقييم لمجموعة الأدوات المتوفرة لديها للتعامل مع المعلومات الصحية المضللة؛
  • مراعاة إمكانية تطوير أدوات أخرى أقل تدخلاً من إزالة المحتوى؛
  • نشر مجموعة خيارات الإنفاذ داخل معايير المجتمع، وتصنيفها من الأقل تدخلاً وذلك استنادًا إلى مدى انتهاكها لحرية التعبير،
  • توضيح العوامل، بما في ذلك المعايير القائمة على الأدلة، التي ستستخدمها المنصة عند تحديد الخيار الأقل تدخلاً عند تطبيق معايير المجتمع لحماية الصحة العامة؛ و
  • توضيح خيار الإنفاذ الذي يسري على كل قاعدة وذلك داخل معايير المجتمع.

ب.) في الحالات التي ينشر فيها المستخدمون معلومات عن علاجات لفيروس كورونا (كوفيد-١٩) تناقض النصائح المحددة الصادرة عن السُلطات الصحية وعند وجود احتمال لحدوث أذى جسدي محدد ولكن غير وشيك، يوصي المجلس فيسبوك بشدة بتبني مجموعة إجراءات أقل تدخلاً. قد يتضمن ذلك وضع تسميات تحذر المستخدمين من طبيعة محتوى المنشور غير المتفق عليها وتوفر روابط إلى وجهات نظر منظمة الصحة العالمية والسُلطات الصحية الوطنية. في مواقف معينة، قد يلزم زيادة صعوبة الوصول إلى منشور ما - على سبيل المثال، من خلال منع التفاعلات أو المشاركة، وذلك لتقليل معدلات الانتشار المجاني الذي يعتمد على الخوارزميات. يمكن أيضًا النظر في خفض ترتيب المحتوى، لمنع ظهوره في آخر الأخبار لدى المستخدمين الآخرين. ينبغي إبلاغ المستخدمين بوضوح بكل إجراءات الإنفاذ، بما في ذلك إضافة التسميات أو طرق زيادة الصعوبة الأخرى، وأن يتاح للمستخدمين إمكانية الطعن على تلك الإجراءات.

3. ينبغي أن تزيد فيسبوك من شفافية إشرافها على المحتوى الذي يتضمن معلومات صحية مضللة.

يوصي المجلس فيسبوك بتحسين تقارير الشفافية ذات الصلة بالإشراف على محتوى المعلومات الصحية المضللة والاستفادة من التعليقات العامة الواردة إليها:

  • نشر تقرير شفافية يتناول طريقة إنفاذ معايير المجتمع خلال الأزمة الصحية العالمية الناجمة عن فيروس كورونا (كوفيد-١٩). يجب أن يتضمن ذلك التقرير ما يلي:
    • بيانات بالأرقام والنسب المئوية لعدد عمليات الإزالة، بالإضافة إلى بيانات عن إجراءات الإنفاذ الأخرى، ومعايير المجتمع المحددة التي تم الإنفاذ بموجبها، بما في ذلك النسبة التي اعتمدت كليًا على الأتمتة؛
    • تقسيم حسب أنواع المحتوى التي تم إنفاذ القاعدة عليها (بما في ذلك المنشورات والحسابات والمجموعات المحددة)؛
    • تقسيم حسب مصدر الاكتشاف (بما في ذلك الأتمتة، وبلاغات المستخدمين، والشركاء الموثوق بهم، وسُلطات إنفاذ القانون)؛
    • تقسيم حسب المنطقة واللغة؛
    • أدوات قياس عن فعّالية الإجراءات الأقل تدخلاً (على سبيل المثال: تأثير وضع التسميات أو خفض الترتيب)؛
    • بيانات عن مدى توفر الطعون طوال الأزمة، بما في ذلك إجمالي عدد الحالات التي تم فيها سحب الطعن بالكامل، والنسبة المئوية للطعون التلقائية؛
    • الاستنتاجات والدروس المستفادة، بما في ذلك معلومات التغييرات التي تجريها فيسبوك لضمان تحقيق معدلات امتثال أكبر لمسؤولياتها في مجال حقوق الإنسان مستقبلاً.

*ملاحظة إجرائية:

يتم إعداد قرارات مجلس الإشراف من قِبل لجان مكونة من خمسة أعضاء ويجب أن يوافق عليها أغلبية المجلس. ولا يلزم بالضرورة أن تُعبّر قرارات المجلس عن وجهات النظر الشخصية لجميع الأعضاء.

بالنسبة إلى القرار المتخذ بشأن هذه الحالة، تم إجراء بحث مستقل نيابة عن المجلس. وقد توافرت الخبرة اللازمة في السياق الاجتماعي والسياسي والثقافي عن طريق معهد أبحاث مستقل يقع مقره في جامعة جوتنبرج ويعتمد على فريق مكون من أكثر من 50 عالم اجتماع من ست قارات، فضلاً عن أكثر من 3200 خبير محلي من جميع أنحاء العالم.

العودة إلى قرارات الحالة والآراء الاستشارية المتعلقة بالسياسة