قرار قضية متعددة
قواعد التصويت لهيئة الانتخابات الأسترالية
تم النشر بتاريخ 9 أَيّار 2024
أيد مجلس الإشراف قرارات Meta بإزالة منشورين منفصلين على فيسبوك يحتوي كل منهما على لقطة الشاشة ذاتها والتي تضمنت معلومات نشرتها هيئة الانتخابات الأسترالية على منصة X، قبل استفتاء صوت السكان الأصليين في البرلمان الأسترالي.
2 تم تضمين من الحالات في هذه الحزمة
FB-0TGD816L
حالة بشأن تنسيق أنشطة ضارة وترويج ارتكاب جرائم على فيسبوك
FB-8ZQ78FZG
حالة بشأن تنسيق أنشطة ضارة وترويج ارتكاب جرائم على فيسبوك
الملخص
أيد مجلس الإشراف قرارات Meta بإزالة منشورين منفصلين على فيسبوك يحتوي كل منهما على لقطة الشاشة ذاتها والتي تضمنت معلومات نشرتها هيئة الانتخابات الأسترالية (AEC) على منصة X، قبل استفتاء صوت السكان الأصليين في البرلمان الأسترالي. وقد شكّل كلا المنشورين انتهاكًا لقاعدة معيار المجتمع بشأن تنسيق الأنشطة الضارة وترويج ارتكاب الجرائم والتي تحظر المحتوى الذي يدعو إلى المشاركة غير القانونية في عملية تصويت. وتوضح هاتان الحالتان كيف تؤثر المعلومات التي تخرج عن سياقها في حق الأشخاص في التصويت. ويوصي المجلس Meta بأن توضح قواعدها المتعلقة باحتيال التصويت و/أو الإحصاء السكاني بشكل أكبر من خلال عرض تعريفها "للتصويت غير القانوني" بشكل علني.
حول الحالات
في 14 أكتوبر 2023، أجرت أستراليا استفتاء صوت السكان الأصليين في البرلمان. وقبل بضعة أيام من ذلك، نشر أحد مستخدمي فيسبوك في إحدى المجموعات لقطة شاشة لمنشور من منصة X من الحساب الرسمي لهيئة الانتخابات الأسترالية. وتضمنت المعلومات المعروضة ما يلي: "في حال تصويت أحد الأشخاص في مكاني اقتراع مختلفين داخل دائرته الانتخابية، ووضع صوته الرسمي في صندوق الاقتراع في كل مركز اقتراع، يتم احتساب صوته." علاوة على ذلك، أوضح تعليق آخر استمده المستخدم من نفس سلسلة المنشورات على منصة X أن سرية الاقتراع تمنع هيئة الانتخابات الأسترالية من "الربط بين الشخص وبطاقة الاقتراع التي أدلى بها"، وفي الوقت ذاته تشير إلى أن "عدد الأصوات المزدوجة التي تم تلقيها منخفض للغاية". غير أن لقطة الشاشة لا تعرض جميع المعلومات التي تشاركها هيئة الانتخابات الأسترالية، ومن ضمنها أن التصويت عدة مرات يُعد جريمة. وقد جاء في الشرح التوضيحي للمنشور: "صوّتوا مبكرًا، وصوّتوا كثيرًا، وصوّتوا بلا".
وتضمن منشور ثانٍ شاركه مستخدم مختلف على فيسبوك لقطة الشاشة نفسها ولكنه تضمن نصًا مكتوبًا فوق الصورة يقول: "بهذا، يمكنكم التصويت عدة مرات. إنهم يهيئوننا لعملية "تزوير" ... حطموا مراكز الاقتراع ... إنها لا، لا، لا، لا، لا".
كان استفتاء الصوت يطلب من الأستراليين تحديد ما إذا كان ينبغي تعديل الدستور الأسترالي لمنح تمثيل أكبر في البرلمان لسكان أستراليا الأصليين وسكان جزر مضيق توريس.
التصويت في أستراليا إلزامي، حيث تشير هيئة الانتخابات الأسترالية إلى أن نسبة إقبال الناخبين بلغت حوالي 90% في جميع الانتخابات والاستفتاءات منذ عام 1924. والتصويت المتعدد غير قانوني ويشكّل نوعًا من الاحتيال الانتخابي.
بعد اكتشاف أنظمة Meta التلقائية لكلا المنشورين، قام المراجعون البشريون بإزالتهما لانتهاكهما سياسة Meta بشأن تنسيق الأنشطة الضارة وترويج ارتكاب الجرائم. وتقدم كلا المستخدمين بطعن على القرار.
أهم النتائج
يخلُص المجلس إلى أن كلا المنشورين انتهكا قاعدة تنسيق الأنشطة الضارة وترويج ارتكاب الجرائم التي تحظر المحتوى الذي ينطوي على "تأييد أو تقديم إرشادات أو إبداء نية صريحة للمشاركة بشكل غير قانوني في عملية التصويت أو الإحصاء السكاني". في الحالة الأولى، فإن عبارة "صوّتوا كثيرًا"، إلى جانب معلومات هيئة الانتخابات الأسترالية بشأن احتساب الأصوات المتعددة، هي دعوة واضحة للانخراط في التصويت بشكل غير قانوني. ويعد التصويت مرتين نوعًا من "التصويت بشكل غير قانوني"، وفقًا للإرشادات الداخلية لشركة Meta. وفي الحالة الثانية، يمكن فهم استخدام عبارة "حطموا مراكز الاقتراع"، إلى جانب بقية النص المكتوب فوق الصورة، على أنه يدعو الأشخاص إلى إغراق مراكز الاقتراع بأصوات متعددة. ولا يستفيد أي من المنشورين من استثناءات السياسة التي يتم منحها في سياق الإدانة، أو تعزيز الوعي، أو تقديم التقارير الإخبارية، أو السياقات الفكاهية أو الساخرة. وعلى وجه التحديد، فيما يتعلق بتعزيز الوعي، لا يندرج المنشوران تحت هذا الاستثناء لأنهما يتجاوزان نطاق مناقشة منشور هيئة الانتخابات الأسترالية على منصة X وينتزعان، بدلاً من ذلك، المعلومات من سياقها للإيحاء بأن هيئة الانتخابات الأسترالية تقول إن التصويت أكثر من مرة مسموح به.
يشكّل منع المستخدمين من دعوة الآخرين إلى الانخراط في الاحتيال الانتخابي هدفًا مشروعًا لحماية الحق في التصويت. وينظر المجلس إلى الخطاب السياسي كعنصر حيوي في العمليات الديمقراطية. في هاتين الحالتين، كان كلا المستخدمين يشاركان مباشرة في النقاش العام الذي أثاره الاستفتاء، لكن قيامهما بدعوة الآخرين للانخراط في سلوك غير قانوني أثرت في الحقوق السياسية للأشخاص المقيمين في أستراليا، وخاصة حق هؤلاء الأشخاص في التصويت. لذلك، في حين أن الدعوات إلى "التصويت بلا" هي خطاب سياسي يتمتع بالحماية، فإن عبارات "صوّتوا كثيرًا" و"حطموا مراكز الاقتراع" تشكّل مسألة مختلفة. يرى المجلس أن Meta كانت محقة في حماية العمليات الديمقراطية من خلال منع محاولات الاحتيال الانتخابي من الانتشار على منصاتها، بالنظر إلى الادعاءات المتكررة بأن "استفتاء الصوت" تم تزويره.
يقر المجلس بالجهود التي بذلتها Meta فيما يتعلق باستفتاء الصوت. وقد حددت الشركة استباقيًا المحتوى الذي يحتمل أن يشكّل انتهاكًا لقواعد التدخل في التصويت بموجب معايير المجتمع بشأن تنسيق الأنشطة الضارة وترويج ارتكاب الجرائم. وكانت عبارتا "التصويت المزدوج" و"التصويت عدة مرات" هي الكلمات الأساسية التي أدت إلى تفعيل نظام الكشف القائم على الكلمات الأساسية الخاص بالشركة في هذه الحالة. ووفقًا لشركة Meta، تتم مواءمة النظام ليتناسب مع السياقات المحلية. واستنادًا إلى المعلومات التي شاركتها الشركة، يشير المجلس إلى أنه ينبغي تطبيق مثل هذه المبادرات بشكل متسق في جميع أنحاء العالم، في البلدان التي تشهد إجراء انتخابات، وهذا على الرغم من حث Meta على تطوير أدوات قياس النجاح لتقييم مدى فعّالية عمليات الاكتشاف استنادًا إلى الكلمات الأساسية.
أخيرًا، يرى المجلس أن القواعد المعلنة لعامة الجمهور من معيار المجتمع بشأن تنسيق الأنشطة الضارة وترويج ارتكاب الجرائم ليست واضحة بما فيه الكفاية. فهي لا تتضمن المعلومات المتوفرة للمراجعين في إرشادات Meta الداخلية، وتحديدًا تعريفات الشركة لمصطلح "التصويت بشكل غير قانوني". ونظرًا لأن من الضروري أن يتمكن المستخدمون من التواصل عبر وسائل التواصل الاجتماعي لمناقشة القضايا التي تحظى باهتمام عام بشأن الأحداث الديمقراطية، يتعين على Meta عرض القواعد بوضوح للمستخدمين.
قرار مجلس الإشراف
أيد مجلس الإشراف القرار الذي اتخذته شركة Meta بإزالة المحتوى في الحالتين.
يوصي المجلس Meta بما يلي:
- تضمين تعريفها لمصطلح "التصويت بشكل غير قانوني" في الصيغة المعلنة لعامة الجمهور في سياسة تنسيق الأنشطة الضارة وترويج ارتكاب الجرائم التي تحظر المحتوى الذي ينطوي على "تأييد أو تقديم إرشادات أو إبداء نية صريحة للمشاركة بشكل غير قانوني في عملية التصويت أو الإحصاء السكاني، إلا إذا تمت المشاركة بهدف الإدانة أو تعزيز الوعي أو تقديم تقارير إخبارية أو في السياقات الفكاهية أو الساخرة".
* توفر ملخصات الحالة نظرة عامة على الحالات ولا تُشكّل سابقة قانونية.
القرار الكامل للمجلس بشأن الحالة
1. ملخص القرار
يؤيد مجلس الإشراف قرارات Meta بإزالة منشورين منفصلين على فيسبوك يحتويان على لقطة شاشة لمنشور من هيئة الانتخابات الأسترالية على منصة X، المعروفة سابقًا باسم Twitter. تضمنت لقطات شاشة منشور هيئة الانتخابات الأسترالية التي نشرها مستخدما فيسبوك العبارة التالية: "في حال تصويت أحد الأشخاص في مكاني اقتراع مختلفين داخل دائرته الانتخابية، ووضع صوته الرسمي في صندوق الاقتراع في كل مركز اقتراع، يتم احتساب صوته." في المنشور الأول على فيسبوك، كانت لقطة الشاشة مصحوبة بشرح توضيحي يقول "صوّتوا مبكرًا، وصوّتوا كثيرًا، وصوّتوا بلا". وفي منشور فيسبوك الثاني، كُتب على لقطة الشاشة نصًا تضمّن ما يلي: "بهذا، يمكنكم التصويت عدة مرات ... إنهم يهيئوننا لعملية "تزوير" ... حطموا مراكز الاقتراع...إنها لا، لا، لا، لا، لا". تضمن الشرح التوضيحي أيضًا الرمز التعبيري "توقف" متبوعًا بعبارة "هيئة الانتخابات الأسترالية".
يخلُص المجلس إلى أن كلا المنشورين انتهكا معيار المجتمع بشأن تنسيق الأنشطة الضارة وترويج ارتكاب الجرائم، والذي يحظر "تأييد أو تقديم إرشادات أو إبداء نية صريحة للمشاركة بشكل غير قانوني في عملية التصويت أو الإحصاء السكاني، إلا إذا تمت المشاركة بهدف الإدانة أو تعزيز الوعي أو تقديم تقارير إخبارية أو في السياقات الفكاهية أو الساخرة". ويخلُص المجلس إلى أنه لا ينطبق أي من الاستثناءات في هاتين الحالتين.
تثير هاتان الحالتان مخاوف أوسع حول مشاركة معلومات مجردة من سياقها في سياق العمليات الديمقراطية، مثل الانتخابات والاستفتاءات، مع احتمال تأثيرهما على حق الأشخاص في التصويت. ويوصي المجلس Meta بأن توضح بشكل أكبر خطوط السياسة المتعلقة بالاحتيال الانتخابي و/أو الإحصاء السكاني بموجب معيار المجتمع بشأن تنسيق الأنشطة الضارة وترويج ارتكاب الجرائم لتوضيح ما يمثل "مشاركة بشكل غير قانوني في عملية التصويت أو الإحصاء السكاني".
2. وصف الحالة ومعلومات أساسية عنها
في 14 أكتوبر 2023، أجرت أستراليا استفتاء صوت السكان الأصليين في البرلمان (المشار إليه فيما يلي باسم "استفتاء الصوت"). وقبل التصويت بعدة أيام، قام مستخدم على فيسبوك في مجموعة يديرها بمشاركة منشور يتضمن لقطة شاشة لمنشور على منصة X من الحساب الرسمي لهيئة الانتخابات الأسترالية. وكان منشور هيئة الانتخابات الأسترالية على منصة X يتضمن النص التالي: "في حال تصويت أحد الأشخاص في مكاني اقتراع مختلفين داخل دائرته الانتخابية، ووضع صوته الرسمي في صندوق الاقتراع في كل مركز اقتراع، يتم احتساب صوته." وتعرض لقطة الشاشة أيضًا تعليقًا آخر من نفس سلسلة المنشورات على منصة X، يوضح أن سرية الاقتراع تمنع هيئة الانتخابات الأسترالية من "الربط بين الشخص وبطاقة الاقتراع التي أدلى بها"، وفي الوقت ذاته تُطمئن الأشخاص أيضًا إلى أن "عدد الأصوات المزدوجة التي تم تلقيها منخفض للغاية". غير أن لقطة الشاشة لا تعرض جميع المعلومات التي تشاركها هيئة الانتخابات الأسترالية، ومن ضمنها أن التصويت عدة مرات يُعد جريمة في أستراليا. وقد رافق المنشور الأول على فيسبوك شرحًا توضيحيًا يقول "صوّتوا مبكرًا، وصوّتوا كثيرًا، وصوّتوا بلا".
في اليوم التالي، قام مستخدم مختلف على فيسبوك بمشاركة منشور آخر يحتوي على نفس لقطة الشاشة لمنشور هيئة الانتخابات الأسترالية على منصة X على حسابه الشخصي. وقد كُتب على لقطة الشاشة نصًا تضمّن العبارة التالية: "بهذا يمكنكم التصويت عدة مرات. إنهم يهيئوننا لعملية "تزوير" ... حطموا مراكز الاقتراع ... إنها لا، لا، لا، لا، لا". تضمن الشرح التوضيحي أيضًا الرمز التعبيري "توقف" متبوعًا بعبارة "هيئة الانتخابات الأسترالية".
تم اكتشاف كلا المنشورين بشكل استباقي من قبل Meta. وكانت عبارتا "التصويت المزدوج" و"التصويت عدة مرات" هي الكلمات الأساسية التي أدت إلى تفعيل "مبادرة المسار القائم على الكلمات الأساسية" الخاصة بالشركة في هذه الحالة. ويعد هذا النهج القائم على الكلمات الأساسية إجراءً منهجيًا تستعين به Meta لاكتشاف المحتوى الذي يحتمل أن يشكّل انتهاكًا لمعاييرها، بما في ذلك، على سبيل المثال لا الحصر، المحتوى المتعلق بالتدخل في التصويت والإحصاء السكاني." وبعد ذلك، تم وضع المنشورين تلقائيًا في قائمة انتظار للمراجعة البشرية. وعقب إجراء المراجعة البشرية، تمت إزالة المنشورين لانتهاك سياسة تنسيق الأنشطة الضارة وترويج ارتكاب الجرائم. وطبقت Meta أيضًا إنذارًا قياسيًا وتقييدًا للميزات لمدة 30 يومًا على كلا الملفين الشخصيين للمستخدمين، مما منعهما من النشر أو التعليق في مجموعات فيسبوك أو إنشاء مجموعات إخبارية أو الانضمام إلى غرف Messenger.
أخذ المجلس في حسبانه السياق التالي عند التوصل إلى قراراته بشأن هاتين الحالتين:
كان استفتاء الصوت يطرح سؤالاً على المواطنين عما إذا كان ينبغي تعديل دستور أستراليا للاعتراف بالسكان الأصليين في أستراليا "من خلال إنشاء هيئة تسمى صوت السكان الأصليين وسكان جزر مضيق توريس"، والتي كانت ستتمكن من "التحدث أمام البرلمان والحكومة التنفيذية للكومنولث بشأن المسائل المتعلقة بالسكان الأصليين وسكان جزر مضيق توريس". وتتضمن المعلومات الأساسية ذات الصلة حول استفتاء الصوت حقيقة أن السكان الأصليين وسكان جزر مضيق توريس في أستراليا من بين أكثر الفئات حرمانًا اجتماعيًا واقتصاديًا في البلاد، حيث يعانون من ارتفاع معدلات البطالة، وانخفاض المشاركة في التعليم العالي، وسوء النتائج الصحية ( الجسدية والعقلية)، وقصر متوسط العمر المتوقع مقارنة بالأستراليين الآخرين، وارتفاع معدلات الإيداع بالسجون. ويواجه السكان الأصليون وسكان جزر مضيق توريس التمييز ويتأثرون بشكل غير متناسب بالعنف القائم على الجنس وعنف الشرطة.
أطلق رئيس الوزراء أنتوني ألبانيز حملة لصالح التعديل الدستوري (تدعم التصويت "بنعم")، في حين قام ائتلاف المعارضة الرئيسي في أستراليا بإطلاق حملة ضدها (تدعم التصويت "بلا"). وقد تم رفض الاقتراح على المستوى الوطني وبأغلبية في جميع الولايات الست، وبالتالي لم يحصل على الأغلبية المزدوجة اللازمة لتعديل الدستور الأسترالي.
التصويت إلزامي في أستراليا، وتفيد هيئة الانتخابات الأسترالية بأن إقبال الناخبين بلغ حوالي 90% في كل الانتخابات العامة والاستفتاءات التي تمت منذ عام 1924. ويعد التصويت أكثر من مرة نوعًا من أنواع الاحتيال الانتخابي على مستوى الولاية وعلى المستوى الفيدرالي، استنادًا إلى قانون الانتخابات لعام 1918 في الكومنولث وقانون الاستفتاء (الأحكام الخاصة بالآليات) لعام 1984. وردًا على مزاعم تعدد التصويت في "استفتاء الصوت"، نشرت هيئة الانتخابات الأسترالية سلسلة من التغريدات الطويلة على منصة X، ذكرت فيها أن التصويت أكثر من مرة "نادر للغاية" وأبرزت التدابير التي تتخذها هيئة الانتخابات الأسترالية لمنع هذه الممارسة. وتوضح هيئة الانتخابات الأسترالية على موقعها الإلكتروني أنه لمكافحة التصويت المزدوج، يتم إصدار قوائم معتمدة متطابقة بجميع الناخبين في كل دائرة إلى كل مركز اقتراع. وعندما يتم إصدار مجموعة بطاقات اقتراع للناخبين، يتم وضع علامة على أسمائهم في القائمة المعتمدة الموجودة في نقطة الإصدار تلك. وإذا ذهب ناخب إلى نقطة إصدار أخرى للإدلاء بصوت عادي آخر، فستكون النتيجة هي وضع علامة على نسخة أخرى من القائمة المعتمدة لتلك الدائرة للإشارة إلى أنه تم إصدار بطاقات اقتراع لهذا الشخص. وفور انتهاء يوم التصويت، يتم فحص كافة القوائم المعتمدة المتطابقة لكل دائرة للتحقق من عدم وجود أكثر من علامة أمام الاسم الواحد. وبعد ذلك، تقوم هيئة الانتخابات الأسترالية بالتحقيق ومراسلة أي ناخب يشتبه في تصويته عدة مرات. ويقود الرد إلى حل المشكلة حيث يتبين أنها ترجع لأسباب مثل "خطأ مسؤول الاقتراع"، أو تفسيرات مثل "صعوبات اللغة أو القراءة والكتابة" أو أن الشخص "مسن ومرتبك وصوّت أكثر من مرة بسبب نسيان أنه أدلى بصوته بالفعل". وعندما يتعذر حل المشكلة، تقوم هيئة الانتخابات الأسترالية بإجراء مزيد من التحقيق في الحالات المتبقية والتي قد يتم إحالتها إلى الشرطة الفيدرالية الأسترالية للنظر فيها.
في عام 2019، ذكرت هيئة الانتخابات الأسترالية أن التصويت المتعدد مثّل "مشكلة صغيرة للغاية"، حيث كانت 0.03% فقط من نسبة إقبال الناخبين التي بلغت 91.9% عبارة عن علامات متعددة، وكانت غالبية حالات التصويت المتعدد أخطاء من قبل ناخبين مسنين أو ذوي مهارات قراءة وكتابة ضعيفة أو لديهم فهم محدود للعملية الانتخابية. وأكدت هيئة الانتخابات الأسترالية مرة أخرى على أن معدل حدوث التصويت المتعدد في أستراليا كان "ضئيلاً" في تعليقها العام المقدم إلى المجلس. ووفقًا لهيئة الانتخابات الأسترالية، تمت إحالة 13 حالة فقط من حالات التصويت المتعدد الواضحة من إجمالي 15.5 مليون صوت إلى الشرطة الفيدرالية الأسترالية لمزيد من التحقيق في سياق الانتخابات الفيدرالية لعام 2022، (التعليق العام رقم PC-25006؛ راجع أيضًا التعليق العام رقم PC-25007).
وفقًا للخبراء الذين استشارهم المجلس، كانت الادعاءات بأن "استفتاء الصوت" قد تم تزويره متكررة، حيث كانت بعض المنشورات مصحوبة بعلامتي الهاشتاج #StopTheSteal و#RiggedReferendum. وبالمثل، سلطت التقارير الصحفية الضوء على أن ادعاءات الاحتيال الانتخابي في سياق "استفتاء الصوت" كانت شائعة. واستنادًا إلى أدوات مراقبة وسائل التواصل الاجتماعي التي استعان بها الخبراء الذين استشارهم المجلس، وحتى فبراير 2024، تمت مشاركة لقطات شاشة من منشورات لهيئة الانتخابات الأسترالية على منصة X على منصات Meta أكثر من 475 مرة، وحصلت على آلاف التفاعلات وما لا يقل عن 30000 مشاهدة.
3. سُلطة ونطاق مجلس الإشراف
يتمتع المجلس بسلطة مراجعة قرار شركة Meta بعد تلقي طعن من الشخص الذي تعرض المحتوى الخاص به إلى الإزالة (المادة 2، القسم 1 من اتفاقية المجلس؛ المادة 3، القسم 1 من اللائحة الداخلية).
يجوز للمجلس تأييد قرار شركة Meta أو إلغائه (المادة 3، القسم 5 من اتفاقية المجلس)، ويكون قراره بهذا الشأن ملزمًا للشركة (المادة 4 من اتفاقية المجلس). يجب على شركة Meta أيضًا تقييم جدوى تطبيق قرارها على أي محتوى مماثل له سياق موازٍ (المادة 4 من اتفاقية المجلس). وقد تتضمن قرارات المجلس توصيات غير مُلزِمة يجب على شركة Meta الاستجابة لها (المادة 3، القسم 4 من اتفاقية المجلس؛ المادة 4). وعندما تلتزم Meta بتنفيذ التوصيات، يراقب المجلس هذا التنفيذ. عندما يحدد المجلس حالات تثير مشكلات مشابهة، فقد يتم توجيهها بشكل مجمّع لإحدى اللجان للتداول بشأنها في وقت واحد. ويتم اتخاذ قرار مُلزم بشأن كل عنصر من عناصر المحتوى.
4. مصادر السُلطة والإرشادات
استند تحليل المجلس في هاتين الحالتين إلى المعايير والسوابق التالية:
1. قرارات مجلس الإشراف
2. سياسات المحتوى لدى شركة Meta
تنص مبادئ سياسة Meta بشأن تنسيق الأنشطة الضارة وترويج ارتكاب الجرائم على أنها تهدف إلى "منع وإعاقة حدوث السلوكيات الضارة والمقلَّدة خارج الإنترنت" من خلال حظر المحتوى الذي ينطوي على "تسهيل أو تنظيم أو ترويج أو الإقرار ببعض الأنشطة الإجرامية أو الضارة التي تستهدف الأشخاص أو الأنشطة التجارية أو الممتلكات أو الحيوانات". تحظر السياسة على المستخدمين نشر عناصر المحتوى التي تنطوي على "تأييد أو تقديم إرشادات أو إبداء نية صريحة للمشاركة بشكل غير قانوني في عملية التصويت أو الإحصاء السكاني، إلا إذا تمت المشاركة بهدف الإدانة أو تعزيز الوعي أو تقديم تقارير إخبارية أو في السياقات الفكاهية أو الساخرة".
هناك أيضًا أنواع من المحتوى الذي ينطوي على تدخل في الانتخابات أو الإحصاء السكاني يمكن إزالتها بموجب السياسة بشرط وجود سياق إضافي لتبرير ذلك. ويشمل ذلك "الدعوات للتدخل المنظم الذي من شأنه التأثير في قدرة الشخص على المشاركة في الإحصاء السكاني أو الانتخابات"، بالإضافة إلى "التهديدات بالذهاب إلى موقع الاقتراع لمراقبة أو مشاهدة الناخبين أو أنشطة مسؤولي الانتخابات إذا صاحب ذلك إشارة إلى التخويف".
تهدف سياسة Meta بشأن العنف والتحريض إلى منع "أي ضرر محتمل على أرض الواقع" قد يكون مرتبطًا بمنصات Meta. وتحظر "التهديدات التي قد تفضي إلى الموت (والأشكال الأخرى من العنف شديد الخطورة)" وكذلك "التهديدات باستخدام أو جلب أسلحة إلى موقع أو اقتحام موقع" مثل "أماكن الاقتراع أو الأماكن المخصصة لفرز الأصوات وإدارة الانتخابات". وتحظر أيضًا التهديدات بالعنف "ذات الصلة بالتصويت أو تسجيل الناخبين أو إدارة الانتخابات أو نتيجتها، حتى في حالة عدم وجود شخص أو كيان مستهدف".
توضح سياسة Meta بشأن المعلومات المضللة كيفية تعامل الشركة مع المعلومات المضللة بمختلف فئاتها. وتزيل Meta، بموجب واحدة من هذه الفئات، "في سياق الجهود التي تبذلها لتعزيز نزاهة الانتخابات والإحصاء السكاني"، "المعلومات المضللة التي يرجّح أن تسهم بشكل مباشر في مخاطر التدخل في قدرة الأشخاص على المشاركة في هذه العمليات [السياسية]". ويتضمن ذلك "المعلومات المضللة بشأن الأشخاص الذين يحق لهم التصويت أو الشروط المؤهلة للتصويت أو شروط احتساب الأصوات أو المعلومات أو المواد التي يجب توفيرها للمشاركة في التصويت".
3. مسؤوليات شركة Meta تجاه حقوق الإنسان
تُرسي مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان (UNGP)، التي أقرها مجلس حقوق الإنسان التابع للأمم المتحدة عام 2011، إطار عمل تطوعي لمسؤوليات الأنشطة التجارية الخاصة فيما يتعلق بحقوق الإنسان. في عام 2021، أعلنت شركة Meta عن سياسة حقوق الإنسان الخاصة بالشركة، والتي أعادت التأكيد من خلالها على الالتزام باحترام حقوق الإنسان على نحو يتفق مع مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان. استند تحليل المجلس لمسؤوليات شركة Meta تجاه حقوق الإنسان في هذه الحالة إلى المعايير الدولية التالية:
- الحق في حرية التعبير: المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية (ICCPR)؛ التعليق العام رقم 34، اللجنة المعنية بحقوق الإنسان 2011؛ تقارير مقرر الأمم المتحدة الخاص المعني بحرية الرأي والتعبير: A/HRC/38/35 (2018) وA/74/486 (2019).
- الحق في التصويت والمشاركة في الشؤون العامة: المادة 25 من العهد الدولي الخاص بالحقوق المدنية والسياسية؛ التعليق العام رقم 25، اللجنة المعنية بحقوق الإنسان 1996.
5. المعلومات المقدَّمة من المستخدمين
زعم المستخدمون، في بياناتهم إلى المجلس، أنهم كانوا يشاركون فقط المعلومات التي نشرتها هيئة الانتخابات الأسترالية. كما أكد المستخدم الذي أنشأ المنشور الثاني أن منشوره كان بمثابة "تحذير للآخرين" بأن "الانتخابات قد تكون مزورة" لأنها تسمح بالتصويت المتعدد نظرًا لأنه "لا يتعين على الأشخاص إظهار بطاقة الهوية" لوضع علامة على أسمائهم في القائمة.
6. المعلومات المقدَّمة من Meta
قررت Meta أن كلا المنشورين انتهكا خط السياسة الذي يحظر المحتوى الذي ينطوي على "تأييد أو تقديم إرشادات أو إبداء نية صريحة للمشاركة بشكل غير قانوني في عملية التصويت أو الإحصاء السكاني" من معيار المجتمع بشأن تنسيق الأنشطة الضارة وترويج ارتكاب الجرائم. واستنادًا إلى إرشادات Meta الداخلية لمراجعي المحتوى، تنطبق سياسات الشركة بشأن التدخل في الانتخابات على كل من الانتخابات والاستفتاءات الرسمية التي تنظمها سلطة وطنية محددة". ويشمل مصطلح "التصويت بشكل غير قانوني"، على سبيل المثال لا الحصر"، ما يلي: "(أ) التصويت مرتين؛ (ب) تلفيق معلومات التصويت بهدف التصويت في مكان لا يحق لك التصويت فيه؛ (ج) تلفيق أهليتك للتصويت؛ (د) سرقة بطاقات الاقتراع".
فيما يتعلق بالمنشور الأول، أكدت Meta على أن عبارة "صوّتوا كثيرًا" "تُفهم عادة على أنها تعني التصويت بشكل غير قانوني أكثر من مرة في انتخابات ما". ووجدت الشركة أيضًا أن العبارة لم تكن تهدف إلى الفكاهة أو السخرية، حيث كان المستخدم يدعو الأشخاص إلى التصويت بـ "لا"، وهو ما اعتبرته Meta محاولة جادة لتعزيز التفضيل السياسي للمستخدم. وقد أخبرت الشركة المجلس أيضًا أنه عند مراجعة المحتوى المتعلق بالانتخابات على نطاق واسع، فإنها لا تستطيع دائمًا تقييم نية المستخدمين الذين ينشرون عناصر محتوى يحتمل أن تكون ساخرة.
فيما يتعلق بالمنشور الثاني، وجدت Meta أن عبارة "حطموا مراكز الاقتراع" تنتهك سياساتها. وأوضحت الشركة أن دعوة المستخدم "يمكن قراءتها على أنها دعوة لإغراق الانتخابات بالأصوات المكررة"، وهو ما يحظره خط سياسة تنسيق الأنشطة الضارة وترويج ارتكاب الجرائم بشأن "الدعوة إلى المشاركة على نحو غير قانوني في عملية التصويت أو الإحصاء السكاني".
وفقًا لشركة Meta، إذا فسرنا العبارة حرفيًا على أنها دعوة لتدمير مباني مراكز الاقتراع، فإنها ستنتهك سياسة العنف والتحريض، نظرًا لأنها تحظر ما يلي: (1) التهديدات بارتكاب أعمال عنف شديد الخطورة ضد إحدى البنايات مما قد يؤدي إلى وفاة أي شخص موجود في المكان المستهدف أو تعريضه إلى إصابة خطيرة؛ و(2) التهديدات بارتكاب أعمال عنف "ذات صلة بالتصويت أو تسجيل الناخبين أو إدارة الانتخابات أو نتيجتها، حتى في حالة عدم وجود شخص أو كيان مستهدف". واستنادًا إلى إرشادات Meta الداخلية لمراجعي المحتوى، يجب التعبير عن التهديدات التي تستهدف الأماكن "بمصطلحات صريحة"، مثل "تفجير" أو "حرق" أو "إطلاق نار"، بالإضافة إلى المصطلحات العامة مثل "هجوم" و"كمين" و"تدمير" حتى يعتبر المحتوى منتهكًا لهذه السياسة.
نشرت Meta جهود الشركة للحفاظ على نزاهة "استفتاء الصوت" في منشور مدونة في يوليو 2023. وأخبرت Meta المجلس أيضًا أنها شكّلت فريقًا متعدد الوظائف لبدء التحضير للاستفتاء في أبريل 2023. وقد تألف الفريق من فرق يقع مقرها في آسيا والمحيط الهادئ، وفقًا للممارسات القياسية للانتخابات الوطنية. وقد شكّلت Meta أيضًا مركزًا افتراضيًا للعمليات والمنتجات والنزاهة (IPOC) خلال الأسبوع الأخير من الحملة الانتخابية وقبل التصويت للتركيز على الاستفتاء خلال فترة من المرجح أن تشهد توترات متزايدة. وضم مركز العمليات والمنتجات والنزاهة فرق عمليات إضافية للاستجابة السريعة للتصعيدات والمخاطر الجسيمة التي نشأت في الفترة التي سبقت يوم التصويت. ولم تطبق Meta بروتوكول سياسة الأزمات أو أي أدوات سياسة أخرى على "استفتاء الصوت".
أوضحت Meta "أيضًا "مبادرة المسار القائم على الكلمات الأساسية" الخاصة بالشركة، والتي تحدد تلقائيًا المحتوى الذي يحتمل أن ينتهك القواعد ويحتوي على كلمات أساسية، سواء في النص أو الصور مثل لقطات الشاشة، وتضعه في قائمة انتظار المراجعة البشرية من خلال مسار رقمي متخصص يبحث عن كلمات أساسية معينة". وأخبرت Meta المجلس أن القائمة تشمل العديد من الكلمات والعبارات التي وضعتها فرق المعلومات المضللة والفرق الإقليمية في الشركة. وتتمثل الوظيفة الأساسية لنظام الكشف القائم على الكلمات الأساسية هذا في "ضمان نزاهة" الانتخابات والاستفتاءات من خلال "التحديد المنهجي للمحتوى ذي الصلة ومراجعة المحتوى يدويًا". وقد تم تفعيل نظام الكشف القائم على الكلمات الأساسية في هذه الحالة بسبب مركز العمليات والمنتجات والنزاهة الافتراضي الذي تم إعداده من أجل "استفتاء الصوت". وتنفذ Meta هذه المبادرة على مستوى العالم. ولا تقتصر على دول أو مناطق بعينها وإنما يتم تكييفها وفقًا للسياقات المحلية. ووفقًا لشركة Meta، فإن قائمة الكلمات الأساسية "ديناميكية"، وعرضة للتغيير، و"ترتبط بطبيعة كل حدث".
تسعى المبادرة إلى الإنفاذ النشط للجانبين التاليين من معايير مجتمع Meta: (1) سياسة تنسيق الأنشطة الضارة وترويج ارتكاب الجرائم التي تتناول "الاحتيال الانتخابي و/أو الإحصاء السكاني، بما في ذلك عروض شراء أو بيع الأصوات بهدايا نقدية، والعبارات التي تدعو أو ترشد إلى المشاركة غير القانونية في عمليات التصويت أو الإحصاء السكاني"؛ و(2) سياسة المعلومات المضللة التي تركز على التدخل في الانتخابات أو الإحصاء السكاني، بما في ذلك "المعلومات المضللة حول تواريخ التصويت أو الإحصاء السكاني، والمواقع، والأوقات، والطرق، وشروط المشاركة في الانتخابات، وفرز الأصوات، ومواد التصويت المطلوبة". لم يُصمم نظام الكشف القائم على الكلمات الأساسية الخاص "باستفتاء الصوت" بشكل فعّال لإنفاذ سياسات المحتوى الأخرى بشأن الانتخابات أو التصويت، مثل سياسات معيار المجتمع بشأن العنف والتحريض. ومع ذلك، إذا انتهك المحتوى الذي تم تحديده من خلال هذه المبادرة معايير أخرى من معايير المجتمع، فإنه يخضع أيضًا للإنفاذ عند المراجعة البشرية.
فيما يتعلق بمحتوى هذه الحالة، فإن عبارتا "التصويت المزدوج" و"التصويت عدة مرات" هي الكلمات الأساسية التي أدت إلى تفعيل نظام الكشف الخاص بشركة Meta. ولم يتم استخدام مصطلح "التصويت المزدوج" مباشرةً في منشورات فيسبوك ولكنه ظهر في لقطة شاشة منشور هيئة الانتخابات الأسترالية على منصة X. ويتم "تلقائيًا وضع علامة على أي محتوى يتضمن هذه الكلمات الأساسية، سواء في النص أو في الصور مثل لقطات الشاشة، ووضعه في قائمة انتظار المراجعة البشرية لمراقبة الخطاب الذي ينطوي على قمع الناخبين بشكل استباقي".
طرح المجلس 12 سؤالاً كتابيًا على Meta. تناولت الأسئلة سياسات Meta بشأن المحتوى الذي ينطوي على تدخل في الانتخابات، ونظام الكشف القائم على الكلمات الأساسية، والبروتوكولات التي اعتمدتها الشركة لمراجعة المحتوى المتعلق باستفتاء الصوت. وقد أجابت Meta عن جميع الأسئلة.
7. التعليقات العامة
تلقى مجلس الإشراف خمسة تعليقات عامة استوفت شروط إرسال التعليقات. تم تقديم ثلاثة تعليقات من منطقة آسيا والمحيط الهادئ والأوقيانوس (جميعها من أستراليا)، وتعليق من الولايات المتحدة وكندا، وتعليق من أوروبا. للاطلاع على التعليقات العامة المقدمة مع موافقة على النشر، يرجى النقر هنا.
تناولت التعليقات الموضوعات التالية: السياق الاجتماعي والتاريخي الذي أدى إلى "استفتاء الصوت"، وتاريخ الاحتيال الانتخابي في أستراليا، وانتشار المعلومات المضللة والمجردة من السياق خلال "استفتاء الصوت"، وسياسات المحتوى لدى شركة Meta وممارسات الإنفاذ فيما يتعلق بالمعلومات المضللة بشكل أكثر عمومية.
8. تحليل مجلس الإشراف
نظر المجلس فيما إذا كانت إزالة هذين المنشورين ضرورية من خلال تحليل سياسات المحتوى لدى شركة Meta، وقيم الشركة ومسؤولياتها تجاه حقوق الإنسان. كما أجرى المجلس تقييمًا للآثار التي تمثلها هذه الحالة فيما يتعلق بنهج Meta الأوسع في إدارة المحتوى.
اختار مجلس الإشراف هاتين الحالتين لفحص سياسات الإشراف على المحتوى وممارسات الإنفاذ لدى شركة Meta فيما يتعلق بمعلومات التصويت المضللة أو المعلومات الانتخابية المجردة من سياقها والاحتيال الانتخابي، وذلك بالنظر إلى العدد التاريخي للانتخابات التي سيتم إجراؤها خلال عام 2024. وتندرج هاتان الحالتان ضمن الأولوية الاستراتيجية لدى المجلس والمتمثلة في "الانتخابات والساحة المدنية".
8.1 الامتثال لسياسات المحتوى لدى Meta
1. قواعد المحتوى
يخلُص المجلس إلى أن كلا المنشورين انتهكا سياسة تنسيق الأنشطة الضارة وترويج ارتكاب الجرائم، والتي تحظر الدعوة إلى المشاركة غير القانونية في عملية التصويت أو الإحصاء السكاني. وتشكّل عبارة "صوّتوا كثيرًا" في المنشور الأول، عند مشاركتها مع منشور هيئة الانتخابات الأسترالية على منصة X بشأن احتساب الأصوات المتعددة، دعوة واضحة للانخراط في هذه الممارسة. وعملاً بإرشادات Meta الداخلية لمراجعي المحتوى، يعد "التصويت مرتين" أحد أشكال "التصويت بشكل غير قانوني".
ينتهك المنشور الثاني أيضًا سياسة تنسيق الأنشطة الضارة وترويج ارتكاب الجرائم. فقد احتوى على لقطة شاشة من منشور على منصة X كُتب عليها: "بهذا يمكنكم التصويت عدة مرات." وقال للأشخاص: "حطموا مراكز الاقتراع" مشجعًا لهم على ذلك. قد يكون المستخدم يحاول ببساطة التعبير عن خيبة أمله من هيئة الانتخابات الأسترالية لسماحها للأشخاص على ما يبدو "بالتصويت عدة مرات". ومع ذلك، عندما تُقرأ العبارة مع بقية النص المكتوب على لقطة الشاشة والذي يدعي أن هيئة الانتخابات الأسترالية تتغاضى عن التصويت المتعدد ويتهمها بالتحضير لعملية "تزوير"، يمكن فهمها بشكل معقول على أنها تدعو الآخرين إلى إغراق مركز الاقتراع بأصوات متعددة. وفي سياق الانتخابات الأسترالية، حيث يكون التصويت إلزاميًا وتتجاوز نسبة الإقبال 90%، فإن دعوة الأشخاص إلى التصويت مرة واحدة هي تفسير غير محتمل لعبارة "حطموا مراكز الاقتراع"، خاصة عندما تأتي هذه الدعوة بعد ادعاء أنه يمكن للأشخاص "التصويت عدة مرات". ومما يدعم ذلك أيضًا أن المستخدم طلب من الأشخاص التصويت بـ "لا" بشكل متكرر ("لا، لا، لا، لا، لا"). وعند قراءة العبارة ككل وفي سياق الانتخابات الأسترالية، يتبين أن المنشور يشكّل دعوة للتصويت مرتين، وهو ما يعادل "التصويت بشكل غير قانوني"، وهو أمر تحظره سياسة تنسيق الأنشطة الضارة وترويج ارتكاب الجرائم.
يسلّم المجلس بأنه على الرغم من احتمال أن تكون السخرية هي ما دفعت إلى إنشاء هذه المنشورات، فإن نية السخرية لم تكن واضحة. ولا يعتقد المجلس أن المنشورات كانت ساخرة بشكل ضمني استنادًا إلى صيغة الشروح التوضيحية، والنص المكتوب على الصور. وعلى الرغم من اختلاف درجة اليقين في دعوة المنشورين إلى اتخاذ إجراء، ينطوي كل منهما على حث الأشخاص على المشاركة في التصويت المتعدد - وبالتالي التصويت بشكل "غير قانوني". ونظرًا للمخاطر المرتبطة بمحاولات الاحتيال الانتخابي في السياقات الانتخابية، يعتقد المجلس أنه ينبغي، في مثل هذه الظروف، أن يقتصر تطبيق استثناء Meta بشأن الفكاهة أو السخرية على المحتوى الساخر بشكل صريح. لذلك، لا يفي أي من المنشورين بمتطلبات تطبيق هذا الاستثناء.
لا يفي المنشوران أيضًا بمتطلبات استثناء تعزيز الوعي بموجب سياسة تنسيق الأنشطة الضارة وترويج ارتكاب الجرائم. فقد تم تصميم لقطات الشاشة ومعظم المحتوى الذي أنشأه المستخدم لتوجيه الانتباه إلى إمكانية الاحتيال الانتخابي استنادًا إلى بيان هيئة الانتخابات الأسترالية. ومع ذلك، فقد ذهبت إلى ما هو أبعد من ذلك وشجعت الآخرين بشكل حثيث على المشاركة بشكل غير قانوني في "استفتاء الصوت" من خلال التصويت المتعدد، بدلاً من مجرد مناقشة منشورات هيئة الانتخابات الأسترالية على منصة X. لم يتضمن المنشوران السياق الإضافي الذي قدمته هيئة الانتخابات الأسترالية، في نفس سلسلة الرسائل على منصة X، والذي يفيد بأن التصويت عدة مرات يعد جريمة في أستراليا. ولذلك، بدلاً من تعزيز الوعي باحتمال التصويت المتعدد، أخرج المنشوران رسالة هيئة الانتخابات الأسترالية عن سياقها للإيحاء بأن الهيئة تقول إنه من المسموح التصويت أكثر من مرة.
على عكس Meta، لا يعتقد المجلس أن اتباع نهج حرفي مفرط في قراءة كلمة "حطموا" (التي تعني تدمير المباني) يصلح في هذه الحالة، نظرًا لعدم وجود إشارات تشير إلى ذلك (مثل سياق النزاع أو التوترات المتصاعدة مع التداول الواسع النطاق لعناصر المحتوى التي تحرض على العنف بشكل مباشر). لذلك، يخلُص المجلس إلى أن المنشور الثاني لا ينتهك سياسة Meta بشأن العنف والتحريض.
أجرى المجلس أيضًا تقييمًا لعنصري المحتوى في إطار سياسة Meta بشأن المعلومات المضللة، نظرًا لأنهما يخرجان رسالة هيئة الانتخابات الأسترالية عن سياقها. ومع ذلك، فقد خلُص المجلس إلى أن معيار المجتمع بشأن تنسيق الأنشطة الضارة وترويج ارتكاب الجرائم هو السياسة المطبقة في هذه الحالة لأن كلا المستخدمين يشجعان الآخرين على الانخراط في الاحتيال الانتخابي.
2. إجراء الإنفاذ
يُقر المجلس بالجهود التي بذلتها Meta للحفاظ على نزاهة "استفتاء الصوت"، بما في ذلك نظام الكشف القائم على الكلمات الأساسية الذي اعتمدته الشركة. وقد أوضحت الشركة أنه قد تمت الاستعانة بالنظام للكشف بشكل استباقي عن المحتوى الذي يحتمل أن يشكّل انتهاكًا لخطوط سياسة التدخل في التصويت بموجب معايير المجتمع بشأن تنسيق الأنشطة الضارة وترويج ارتكاب الجرائم. ووفقًا لشركة Meta، يتم تكييف نظام الكشف القائم على الكلمات الأساسية ليتناسب مع السياقات المحلية ويتضمن مصطلحات خاصة بالسوق. واستنادًا إلى المعلومات التي شاركتها Meta مع المجلس حول كيفية عمل المبادرة، يقدّر المجلس توظيف نظام الكشف القائم على الكلمات الأساسية ويبدو أنه نجح في هذه الحالة. ويتعين تطبيق المبادرات المماثلة باستمرار في جميع أنحاء العالم، في جميع البلدان التي تشهد إجراء انتخابات وعمليات ديمقراطية أخرى. ويعتقد المجلس أنه ينبغي أن تشمل هذه المبادرة سياسة التدخل في الانتخابات والسياسات ذات الصلة ضمن إطار معيار المجتمع بشأن العنف والتحريض.
نظرًا للقيود التي يفرضها النهج القائم على الكلمات الأساسية للكشف عن المحتوى الضار، سيواصل المجلس تقييم فعّالية نظام Meta في الحالات الأخرى المتعلقة بالانتخابات. وفي هذا الصدد، يشجع المجلس Meta على تطوير أدوات قياس النجاح لتقييم مدى فعّالية نظام الكشف القائم على الكلمات الأساسية، إلى جانب جهودها الأخرى للحفاظ على نزاهة الانتخابات، في تحديد المحتوى الذي يحتمل أن ينتهك القواعد المنصوص عليها في السياسات ذات الصلة بالانتخابات. وسيتماشى ذلك مع توصية المجلس في قرار خطاب الجنرال البرازيلي والذي أوصى فيها شركة Meta "بتطوير إطار عمل لتقييم الجهود التي تبذلها في مجال نزاهة الانتخابات".
8.2 الامتثال لمسؤوليات شركة Meta تجاه حقوق الإنسان
حرية التعبير (المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية)
تنص المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية على ضرورة توفير حماية واسعة النطاق "لمختلف ضروب" حرية التعبير. يتضمن هذا الحق "حرية التماس المعلومات والأفكار بمختلف أنواعها وتلقيها وتداولها". أكدت لجنة الأمم المتحدة المعنية بحقوق الإنسان أن قيمة حرية التعبير عالية لا سيّما عندما تناقش القضايا السياسية والمرشحين والممثلين المنتخبين (التعليق العام رقم 34، الفقرة 13). ويشمل ذلك التعبير الذي يعتبر "مسيئًا للغاية"، وناقدًا للمؤسسات العامة والآراء التي قد تكون خاطئة (التعليق العام رقم 34، الفقرات 11 و38 و49).
أكدت لجنة الأمم المتحدة المعنية بحقوق الإنسان على أن حرية التعبير ضرورية لإدارة الشؤون العامة وممارسة الحق في التصويت بشكل فعّال (التعليق العام رقم 34، الفقرة 20). وتذكر اللجنة كذلك أن حرية نقل المعلومات والأفكار حول القضايا العامة والسياسية بين المواطنين هو أمر ضروري ليتمتع الفرد بالحق في المشاركة في إدارة الشؤون العامة والحق في التصويت، المادة 25 من العهد الدولي الخاص بالحقوق المدنية والسياسية (التعليق العام رقم 25، الفقرة 25). في هذه الحالة، كان كلا المستخدمين يشاركان في الاستفتاء، وهو أمر يحظى باهتمام عام، وذلك لمشاركة وجهات نظرهما حول الشكل الذي ينبغي أن تكون عليه النتيجة، وبالتالي فإنهما يشاركان بشكل مباشر في النقاش العام الذي أثارته عملية الاستفتاء.
عند فرض الدولة لقيود على حرية التعبير، يجب أن تفي تلك القيود بمتطلبات الشرعية والهدف المشروع والضرورة والتناسب (الفقرة 3، المادة 19، العهد الدولي الخاص بالحقوق المدنية والسياسية). وتتم الإشارة إلى هذه المتطلبات غالبًا باسم "الاختبار الثلاثي". يستخدم المجلس إطار العمل هذا لتفسير التزامات Meta الطوعية تجاه حقوق الإنسان، سواء فيما يتعلق بقرارات المحتوى الفردي التي تخضع للمراجعة وما يعكسه ذلك عن نهج Meta الأوسع تجاه إدارة المحتوى. كما في الحالات السابقة (على سبيل المثال، الأرمن في أذربيجان، ومقطع فيديو لأسرى حرب أرمينيين)، يتفق المجلس مع المقرر الخاص للأمم المتحدة المعني بحرية التعبير على أنه على الرغم من أن "الشركات لا تتحمل التزامات الحكومات، لكن تأثيرها من النوع الذي يتطلب منها تقييم نفس النوع من الأسئلة المتعلقة بحماية حقوق مستخدميها في حرية التعبير" ( A/74/486، الفقرة 41). من خلال القيام بذلك، يحاول المجلس أن ينظر بحساسية إلى الطرق التي قد تختلف بها مسؤوليات حقوق الإنسان لدى شركات وسائل التواصل الاجتماعي الخاصة عن حكومة تقوم بتنفيذ التزاماتها تجاه حقوق الإنسان.
1. الشرعية (وضوح القواعد وسهولة الوصول إليها)
يجب أن تكون القواعد التي تقيّد حرية التعبير واضحة ومعلنة، سواء بالنسبة إلى الذين يطبقونها والذين يتأثرون بها (التعليق العام رقم 34، الفقرة 25). يجب أن يتمكن المستخدمون من التنبؤ بعواقب نشر المحتوى على فيسبوك وInstagram. سلّط مقرر الأمم المتحدة الخاص المعني بحرية التعبير الضوء على الحاجة إلى "الوضوح والتحديد" في سياسات الإشراف على المحتوى ( A/HRC/38/35، الفقرة 46).
لا تتسم الصيغة المعلنة من معيار المجتمع بشأن تنسيق الأنشطة الضارة وترويج ارتكاب الجرائم بالوضوح الكافي للمستخدمين. ونظرًا لأهمية قدرة المستخدمين على التفاعل على وسائل التواصل الاجتماعي لمناقشة القضايا التي تحظى باهتمام عام في سياق الأحداث الديمقراطية، يتعين على Meta التأكد من أن المستخدمين على علم واضح بالقواعد المعمول بها. سيساعد ذلك المستخدمين على توقع ما إذا كان المحتوى الذي ينشرونه ينتهك القواعد أم لا. وفي هذا الصدد، يرى المجلس ضرورة تضمين التوضيح الوارد في الإرشادات الداخلية لما يمثله "التصويت بشكل غير قانوني" في الصيغة المعلنة من معيار المجتمع بشأن تنسيق الأنشطة الضارة وترويج ارتكاب الجرائم.
2. الهدف المشروع
يجب أن تسعى القيود المفروضة على حرية التعبير إلى تحقيق هدف مشروع (المادة 19، الفقرة 3، العهد الدولي الخاص بالحقوق المدنية والسياسية)، بما في ذلك حماية "النظام العام" و"حقوق الآخرين".
تهدف سياسة تنسيق الأنشطة الضارة وترويج ارتكاب الجرائم إلى "منع وإعاقة حدوث السلوكيات الضارة والمقلَّدة خارج الإنترنت" من خلال إزالة المحتوى الذي ينطوي على "تسهيل أو تنظيم أو ترويج أو الإقرار ببعض الأنشطة الإجرامية أو الضارة".
تشكّل حماية الحق في التصويت والمشاركة في إدارة الشؤون العامة هدفًا يمكن أن تسعى سياسة Meta بشأن تنسيق الأنشطة الضارة وترويج ارتكاب الجرائم لتحقيقه بشكل مشروع، خاصة في سياق الانتخابات (المادة 25 من العهد الدولي الخاص بالحقوق المدنية والسياسية). ويرى المجلس أن منع المستخدمين من دعوة الآخرين إلى الانخراط في الاحتيال الانتخابي يشكّل هدفًا مشروعًا لحماية الحق في التصويت. وينص التعليق العام رقم 25 بشأن الحق في التصويت على أنه "وينبغي أن تدقق جهات مستقلة في عملية الاقتراع وفرز الأصوات" "لضمان ثقة الناخبين بأمانة الاقتراع وفرز الأصوات" (الفقرة 20). بالإضافة إلى ذلك، "ينبغي أن يطبق المبدأ الآخذ بالصوت الواحد للشخص الواحد"، وهو ما يعني ضرورة أن "يساوي بين أصوات جميع الناخبين" (الفقرة 21). ويلاحظ المجلس أيضًا أن السياسة تساعد في الحفاظ على "النظام العام" من خلال حماية مراكز الاقتراع والعمليات الديمقراطية ضد التدخل في الانتخابات بشكل أعم.
3. الضرورة والتناسب
بموجب المادة 19، الفقرة 3 من العهد الدولي الخاص بالحقوق المدنية والسياسية، تقتضي مبادئ الضرورة والتناسب أن تكون أي تقييدات يتم فرضها على حرية التعبير "مناسبة لتحقيق وظيفة الحماية المنوطة بها، ويجب أن تكون متناسبة مع المصلحة التي ستحميها"، (التعليق العام رقم 34، الفقرة 34). وكجزء من مسؤولياتها تجاه حقوق الإنسان، ينبغي على شركات وسائل التواصل الاجتماعي التفكير في نطاق الطرق الممكنة للتعامل مع المحتوى المثير للمشاكل بخلاف الحذف لضمان صياغة القيود بدقة ( A/74/486، الفقرة 51).
يرى المجلس أن إزالة Meta للمنشورين من فيسبوك تمتثل إلى متطلبات الضرورة والتناسب. ويلاحظ المجلس أن المحتوى تم نشره قبل أيام من استفتاء قادم يمثل لحظة دستورية مهمة في أستراليا، خاصة بالنسبة للسكان الأصليين وسكان جزر مضيق توريس. فمن ناحية، يعد الخطاب السياسي مكونًا حيويًا للعمليات الديمقراطية وكان كلا المستخدمين مشاركين بشكل مباشر في النقاش العام الذي أثارته عملية الاستفتاء. ومن الناحية الأخرى، تركت الدعوات التي وجهها المستخدمان للآخرين للانخراط في السلوك غير القانوني في سياق الاستفتاء تأثيرًا على الحقوق السياسية للأشخاص الذين يعيشون في أستراليا، وخاصة الحق في التصويت والمشاركة في إدارة الشؤون العامة.
بتطبيق هذه المعايير على محتوى الحالة، تشكّل الدعوات إلى "التصويت بلا" في كلا المنشورين بلا شك خطابًا سياسيًا يتمتع بالحماية. ومع ذلك، فإن عبارة "صوّتوا كثيرًا" في المنشور الأول وعبارة "حطموا مراكز الاقتراع" في المنشور الثاني هي مسألة مختلفة، وذلك بالنظر إلى أنهما شجعتا الآخرين بشكل حثيث على المشاركة بشكل غير قانوني في "استفتاء الصوت" من خلال التصويت المتعدد، كما هو موضح بمزيد من التفصيل في القسم 8.1 أعلاه. ولاحظ الخبراء الذين استشارهم المجلس أن الادعاءات بأن الاستفتاء تم تزويره كانت متكررة، في حين سلطت التقارير الصحفية الضوء على أن ادعاءات الاحتيال الانتخابي كانت شائعة. لذلك، يرى المجلس أن Meta كانت محقة في الميل إلى حماية العمليات الديمقراطية من خلال منع انتشار محاولات الاحتيال الانتخابي على منصات Meta (التعليق العام رقم 25). قد يؤدي انتشار المحتوى المتعلق بالاحتيال الانتخابي إلى خلق بيئة تتعرض فيها نزاهة العمليات الانتخابية للخطر. ومع ذلك، ترى أقلية من أعضاء المجلس أن إزالة المنشور الذي تضمن عبارة "حطموا مراكز الاقتراع" لا يفي باختبار الضرورة والتناسب، نظرًا لفشل Meta في إثبات وجود "ارتباط مباشر وفوري بين التعبير والتهديد"، (التعليق العام رقم 34، الفقرة 35). وبالنسبة إلى هذه الأقلية، ونظرًا لأن دعوة المستخدم الأشخاص بالقول "حطموا مراكز الاقتراع" هي دعوة غامضة للأشخاص للتصويت عدة مرات، فإن الارتباط بتهديد الاحتيال الانتخابي لم يكن مباشرًا وفوريًا.
يعتقد المجلس أن نهج Meta الذي يتوقع الوضوح من المستخدمين عند تطبيق الاستثناءات هو نهج معقول لتقييم ما إذا كان المحتوى قد تمت مشاركته في سياق الإدانة أو تعزيز الوعي أو نشر التقارير الإخبارية أو الفكاهة أو السخرية. ولم تشتمل المنشورات التي حللها المجلس على مؤشرات واضحة تفيد بأن عبارتي "صوّتوا كثيرًا" و"حطموا مراكز الاقتراع" كانتا عبارات مجازية وليست دعوات صريحة للتصويت المتعدد - وهو إجراء يعرض نزاهة "استفتاء الصوت" للخطر. لذلك، كانت عمليتا الإزالة ضروريتين ومتناسبتين من جانب Meta.
بالإضافة إلى ذلك، لا تقتنع أقلية من أعضاء المجلس بأن إزالة المحتوى شكلت أقل الوسائل تدخلاً لدى شركة Meta لمواجهة الخطاب المتعلق بالاحتيال الانتخابي، وترى أن فشل Meta في إثبات خلاف ذلك لا يفي بمتطلبات الضرورة والتناسب. ذكر المقرر الخاص أنه "مثلما ينبغي للدول تقييم ما إذا كان فرض قيود على الخطاب هو النهج الأقل تقييدًا، ينبغي للشركات كذلك إجراء هذا النوع من التقييم. وعند إجراء التقييم، ينبغي أن تتحمل الشركات عبء إثبات الضرورة والتناسب علنًا".( A/74/486، الفقرة 51). وبالنسبة لهذه الأقلية، كان على Meta أن تثبت علنًا لماذا تعتبر إزالة مثل هذه المنشورات هي أقل الوسائل تدخلاً من بين الأدوات العديدة المتاحة لها لتجنب الأضرار المحتملة على المدى القريب، مثل الاحتيال الانتخابي. وإذا لم تتمكن من تقديم مثل هذا المبرر، يجب على Meta أن تتحلى بالشفافية في الاعتراف بأن قواعد الخطاب لديها تختلف عن معايير حقوق الإنسان لدى الأمم المتحدة وتقديم مبرر علني للقيام بذلك. وتعتقد الأقلية أن المجلس سيكون في وضع يسمح له حينها بالنظر في مبرر Meta المعلن وسيتبع ذلك حوار عام دون المخاطرة بتشويه معايير حقوق الإنسان الحالية للأمم المتحدة.
9. قرار مجلس الإشراف
أيد مجلس الإشراف القرار الذي اتخذته شركة Meta بإزالة عنصري المحتوى.
10. التوصيات
سياسة المحتوى
1. لضمان اطلاع المستخدمين بشكل كامل على أنواع المحتوى المحظورة بموجب قسم "الاحتيال الانتخابي و/أو الإحصاء السكاني" في معيار المجتمع بشأن تنسيق الأنشطة الضارة وترويج ارتكاب الجرائم، يجب على Meta تضمين تعريفها لمصطلح "التصويت بشكل غير قانوني" في الصيغة المعلنة لعامة الجمهور من السياسة التي تحظر: "المحتوى الذي ينطوي على "تأييد أو تقديم إرشادات أو إبداء نية صريحة للمشاركة بشكل غير قانوني في عملية التصويت أو الإحصاء السكاني، إلا إذا تمت المشاركة بهدف الإدانة أو تعزيز الوعي أو تقديم تقارير إخبارية أو في السياقات الفكاهية أو الساخرة".
وسيعتبر المجلس أن هذه التوصية قد دخلت حيز التنفيذ عندما تقوم Meta بتحديث الصيغة المعلنة من معيار مجتمعها بشأن تنسيق الأنشطة الضارة وترويج ارتكاب الجرائم بحيث تعكس هذا التغيير.
*ملاحظة إجرائية:
تتولى لجان من خمسة أعضاء مسؤولية إعداد قرارات مجلس الإشراف وتعتمدها أغلبية أعضاء المجلس. ولا يلزم بالضرورة أن تُعبّر قرارات المجلس عن وجهات النظر الشخصية لجميع الأعضاء.
بالنسبة إلى القرار المتخذ بشأن هذه الحالة، تم إجراء بحث مستقل نيابة عن المجلس. وقد تلقى المجلس مساعدة من شركة Duco Advisors، وهي شركة تركز على نقطة التقاء الجغرافيا السياسية والثقة والأمان والتكنولوجيا. وقد تم تقديم تحليلات أيضًا بواسطة Memetica، وهي مؤسسة متخصصة في الأبحاث مفتوحة المصدر عن اتجاهات وسائل التواصل الاجتماعي.
العودة إلى قرارات الحالة والآراء الاستشارية المتعلقة بالسياسة