सही ठहराया

राया कोबो में कथित अपराध

ओवरसाइट बोर्ड इथियोपिया के अम्हारा क्षेत्र में हुए अत्याचारों में टिग्रे जनजाति के लोगों की भागीदारी होने का आरोप लगाने वाली पोस्ट को हटाने के Meta के मूल फ़ैसले का समर्थन करता है.

निर्णय का प्रकार

मानक

नीतियां और विषय

विषय
अभिव्यक्ति की स्वतंत्रता, युद्ध और मतभेद
सामुदायिक मानक
नफ़रत फ़ैलाने वाली भाषा

क्षेत्र/देश

जगह
इथियोपिया

प्लैटफ़ॉर्म

प्लैटफ़ॉर्म
Facebook

यह फ़ैसला अम्हेरिक और टिग्रिन्या भाषा में भी उपलब्ध है.

ሙሉ ውሳኔውን በአማርኛ ለማንበብ፣ እዚህ ይጫኑ

ብትግርኛ እተገብረ ውሳነ ምሉእ ከተንብቦ እንተ ደሊኻ ኣብዚ ጠውቕ

केस का सारांश

नोट: 28 अक्टूबर 2021 को Facebook ने घोषणा की थी कि वह अपनी कंपनी का नाम बदलकर Meta कर रहा है. इस टेक्स्ट में, कंपनी को Meta कहा गया है और Facebook नाम का उपयोग अब भी Facebook ऐप से जुड़े प्रोडक्ट और पॉलिसी के लिए किया जा रहा है.

ओवरसाइट बोर्ड इथियोपिया के अम्हारा क्षेत्र में हुए अत्याचारों में टिग्रे जनजाति के लोगों की भागीदारी होने का आरोप लगाने वाली पोस्ट को हटाने के Meta के मूल फ़ैसले का समर्थन करता है. हालाँकि, यूज़र द्वारा बोर्ड से अपील करने के बाद Meta ने पोस्ट को रीस्टोर कर दिया, लेकिन कंपनी को फिर से प्लेटफ़ॉर्म से कंटेंट को हटाना चाहिए.

केस की जानकारी

जुलाई 2021 के अंत में, इथियोपिया के Facebook यूज़र ने अम्हारी भाषा में पोस्ट की. पोस्ट में आरोप लगाए गए थे कि टिग्रे पीपल्स लिबरेशन फ़्रंट (TPLF) ने महिलाओं और बच्चों का बलात्कार करके उन्हें मौत के घाट उतार दिया और इथियोपिया के अम्हारा क्षेत्र के राया कोबो और अन्य शहर के लोगों की संपत्तियाँ लूट लीं. उस यूज़र ने यह भी दावा किया कि टिग्रे जनजाति के लोगों ने इन अत्याचारों में TPLF का साथ दिया. उस यूज़र ने पोस्ट में यह दावा किया है कि उसे यह जानकारी राया कोबो के निवासियों से मिली. उस यूज़र ने अपनी पोस्ट के अंत में यह कहा कि “हम अपने संघर्ष के ज़रिए अपनी स्वतंत्रता पाएँगे.”

Meta के ऑटोमेटिक अम्हारी भाषा सिस्टम ने पोस्ट को फ़्लैग किया तो कंटेंट मॉडरेटर ने तय किया कि कंटेंट ने Facebook के नफ़रत फैलाने वाली भाषा से जुड़े कम्युनिटी स्टैंडर्ड का उल्लंघन किया है और उसने इसे हटा दिया. जब यूज़र ने Meta के सामने इस फ़ैसले के खिलाफ़ अपील की तो दूसरे कंटेंट मॉडरेटर ने भी कन्फ़र्म किया कि पोस्ट ने Facebook कम्युनिटी स्टैंडर्ड का उल्लंघन किया है. दोनों मॉडरेटर Meta की अम्हारी भाषा की कंटेंट रिव्यू टीम से हैं.

इसके बाद यूज़र ने एक अपील ओवरसाइट बोर्ड को सबमिट की. बोर्ड द्वारा केस को चुनने के बाद, Meta ने पोस्ट हटाने के अपने मूल फ़ैसले को गलत बताया और 27 अगस्त को इसे रीस्टोर कर दिया. Meta ने बोर्ड को कहा कि यह आमतौर पर यूज़र को कंटेंट रीस्टोर होने की सूचना उसी दिन दे देता है जब यह रीस्टोर हुआ हो. हालाँकि, मानवीय गलती के कारण Meta ने इस यूज़र को 30 सितंबर को – एक महीने बाद उनकी पोस्ट रीस्टोर करने की सूचना दी. यह नोटिफ़िकेशन तब दिया गया जब ओवरसाइट बोर्ड ने Meta से पूछा कि क्या उसने यूज़र को कंटेंट रीस्टोर किए जाने की सूचना दी.

मुख्य निष्कर्ष

बोर्ड ने यह निष्कर्ष निकाला है कि कंटेंट ने Facebook के हिंसा और उकसावे से जुड़े कम्युनिटी स्टैंडर्ड का उल्लंघन किया है.

Meta ने पहले पोस्ट को नफ़रत फैलाने वाली भाषा से जुड़े कम्युनिटी स्टैंडर्ड का उल्लंघन करने के लिए हटाया था, लेकिन बोर्ड द्वारा केस चुनने के बाद कंपनी ने कंटेंट को रीस्टोर कर दिया, क्योंकि Meta ने दावा किया कि पोस्ट ने टिग्रे जनजाति को निशाना नहीं बनाया और यूज़र के आरोपों में नफ़रत फैलाने वाली भाषा शामिल नहीं हैं. बोर्ड का मानना है कि कंटेंट रीस्टोर करने के इस स्पष्टीकरण में विवरण की कमी है और यह गलत है.

इसके बजाए, बोर्ड ने इस पोस्ट पर Facebook के हिंसा और उकसावे से जुड़े कम्युनिटी स्टैंडर्ड को लागू किया. यह स्टैंडर्ड “ऐसी गलत जानकारी और गैर-सत्यापित अफ़वाहों पर रोक लगाता है, जिनसे हिंसा भड़कने या किसी को शारीरिक नुकसान पहुँचने का ख़तरा पैदा होता है.” बोर्ड को पता चला है कि इस केस में कंटेंट में, Meta की शर्त की परिभाषा के अनुसार एक गैर-सत्यापित अफ़वाह है. वैसे तो यूज़र का दावा है कि उसके स्रोत पिछली अनाम रिपोर्ट्स हैं और मौके पर मौजूद लोग हैं, लेकिन उन्होंने अपने आरोपों के समर्थन में परिस्थितिजन्य प्रमाण तक नहीं दिए हैं. कोई जनजाति समूह सामूहिक अत्याचार के अपराध का हिस्सा है ऐसे आरोप लगाने वाली अफवाहें, जो इस पोस्ट में मिली, ये ख़तरनाक हैं और हिंसा भड़कने के जोख़िम को बहुत ज़्यादा बढ़ाती हैं.

बोर्ड को यह भी पता चला कि पोस्ट को हटाना बतौर बिज़नेस Meta की मानव अधिकारों से जुड़ी ज़िम्मेदारियों के साथ संगत है. किसी उत्तेजनापूर्ण और जारी विवाद में गैर-सत्यापित अफ़वाहों के कारण घोर अत्याचार हो सकते हैं, जैसा म्यांमार के मामले में हुआ था. 2020-003-FB-UA फ़ैसले में, बोर्ड ने कहा कि “खासतौर से सैन्य टकराव की स्थितियों में, प्लेटफ़ॉर्म पर घृणास्पद, हीन बताने की अभिव्यक्तियाँ इकट्ठी होती और फैलती हैं, जिसके कारण ऐसी ऑफ़लाइन कार्रवाइयाँ होती हैं, जिनसे व्यक्ति की सुरक्षा के अधिकार पर और संभावित तौर पर जीवन पर काफ़ी ज़्यादा गंभीर असर पड़ता है. संचयी प्रभाव के परिणाम “धीरे-धीरे प्रभाव बढ़ने” के समान हो सकते हैं, जैसा कि रवांडा नरसंहार में हुआ था.

बोर्ड ने अभिव्यक्ति की आजादी की सुरक्षा करने और सांप्रदायिक विवाद के ख़तरे को कम करने के बीच के तनाव को समझकर ही यह फ़ैसला लिया. बोर्ड को इथियोपिया के कई हिस्सों में हो रहे अत्याचारों में नागरिकों की भागीदारी की जानकारी है, लेकिन राया कोबो के बारे में ऐसी कोई जानकारी नहीं है और तथ्य यह है कि Meta कंटेंट पोस्ट होने के समय उसमें लगाए गए आरोपों को सत्यापित नहीं कर पाया था. बोर्ड को यह भी ज्ञात है कि अत्याचारों से जुड़ी सही रिपोर्ट से विवादित क्षेत्रों में जीवन बचाए जा सकते हैं, जबकि नागरिकों के अपराधी होने के संबंध में किए गए निराधार दावों के कारण भविष्य में हिंसा होने का जोख़िम बढ़ने की संभावना रहती है.

ओवरसाइट बोर्ड का फ़ैसला

ओवरसाइट बोर्ड ने Meta के पोस्ट को हटाने के मूल फ़ैसले को कायम रखा है. चूँकि यूज़र द्वारा बोर्ड से अपील करने के बाद Meta ने पोस्ट को रीस्टोर कर दिया, लेकिन कंपनी को फिर से प्लेटफ़ॉर्म से कंटेंट हटाना चाहिए.

पॉलिसी से जुड़े सुझाव देते हुए बोर्ड ने कहा कि Meta:

  • इसके “सुरक्षा” के मान को फिर से लिखकर दर्शाएँ कि ऑनलाइन अभिव्यक्ति से डराने-धमकाने, बहिष्कार करने और आवाज़ दबाने के जोख़िम के साथ ही लोगों की जान की सुरक्षा और जीने के अधिकार के लिए ख़तरा पैदा हो सकता है.
  • Facebook कम्युनिटी स्टैंडर्ड में दर्शाएँ कि युद्ध और हिंसक विवाद के संदर्भ में असत्यापित अफ़वाहों से जीने के अधिकार और लोगों की जान की सुरक्षा को बड़ा ख़तरा हो सकता है. इसे मॉडरेशन प्रोसेस के सभी स्तरों पर दर्शाना चाहिए.
  • इस बारे में मानव अधिकारों के संबंध में जाँच-पड़ताल के साथ स्वतंत्र मूल्यांकन का आदेश दें कि इथियोपिया में हिंसा के जोख़िम को बढ़ाने वाली नफ़रत फैलाने वाली भाषा और असत्यापित अफ़वाहों के प्रसार के लिए Facebook और Instagram का उपयोग कैसे किया गया था. इस मूल्यांकन में Meta द्वारा इथियोपिया में इसके प्रोडक्ट तथा सेवाओं के गलत उपयोग को रोकने के लिए किए गए उपायों की सफलता का रिव्यू किया जाना चाहिए. इस मूल्यांकन में Meta द्वारा इथियोपिया में मानव अधिकारों के उल्लंघन पर संपुष्ट और सार्वजनिक हित के लिए रिपोर्टिंग को सक्षम करने के लिए किए गए उपायों की सफलता का रिव्यू भी किया जाना चाहिए. मूल्यांकन में इथियोपिया में Meta की भाषा से जुड़ी क्षमताओं के साथ ही इस बात का मूल्यांकन होना चाहिए कि ये क्षमताएँ इसके यूज़र्स के अधिकारों की सुरक्षा के लिए पर्याप्त हैं या नहीं. मूल्यांकन में 1 जून, 2020 से लेकर वर्तमान अवधि को शामिल करना चाहिए. कंपनी को इन सुझावों पर प्रतिक्रिया देने के छ: महीनों के भीतर मूल्यांकन पूरा करना चाहिए. मूल्यांकन सविस्तार प्रकाशित किया जाना चाहिए.

*केस के सारांश से केस का ओवरव्यू पता चलता है और आगे के किसी फ़ैसले के लिए इसको आधार नहीं बनाया जा सकता है.

केस का पूरा फ़ैसला

1. फ़ैसले का सारांश

ओवरसाइट बोर्ड ने Meta का कंटेंट को हटाने का मूल फ़ैसला कायम रखा है. पोस्ट में इथियोपिया के अम्हारा क्षेत्र के लोगों पर हो रहे अत्याचारों में टिग्रे जनजाति के लोगों की भागीदारी के आरोप लगाए गए हैं. Meta ने पहले Facebook से पोस्ट को हटाने के लिए नफ़रत फैलाने वाली भाषा से जुड़े कम्युनिटी स्टैंडर्ड लागू किए, लेकिन बोर्ड द्वारा केस चुनने के बाद इसे रीस्टोर कर दिया. बोर्ड का मानना है कि Meta के कंटेंट रीस्टोर करने के स्पष्टीकरण में विवरण की कमी है और यह गलत है. बोर्ड को पता चला है कि कंटेंट में हिंसा और उकसावे से जुड़े कम्युनिटी स्टैंडर्ड के अंतर्गत असत्यापित अफ़वाहों पर लगे प्रतिबंधों का उल्लंघन हुआ है.

2. केस का विवरण

जुलाई 2021 के अंत में एक Facebook यूज़र ने अपनी टाइमलाइन पर अम्हारी भाषा में यह दावा करते हुए पोस्ट डाली कि टिग्रे पीपल्स लिबरेशन फ़्रंट (TPLF) ने महिला और बच्चों का बलात्कार करके उन्हें मौत के घाट उतार दिया, साथ ही इथियोपिया के अम्हारा क्षेत्र के राया कोबो और अन्य शहर के लोगों की संपत्तियाँ लूट लीं. यूज़र ने यह दावा भी किया कि टिग्रे जनजाति के लोगों ने इन अत्याचारों में TPLF का सहयोग किया (विशेष अनुवाद और अम्हारी भाषा में पोस्ट का मतलब देखने के लिए नीचे अनुभाग 6 देखें). उस यूज़र ने अपनी पोस्ट के अंत में यह कहा कि “हम अपने संघर्ष के ज़रिए अपनी स्वतंत्रता पाएँगे.” उस यूज़र ने पोस्ट में यह दावा किया है कि उसे यह जानकारी राया कोबो के निवासियों से मिली.

उस पोस्ट को तक़रीबन 5,000 बार देखा गया था, उसे 35 से कम कमेंट और 140 से ज़्यादा रिएक्शन मिले थे. उसे 30 से ज़्यादा बार शेयर किया गया था. वह पोस्ट Facebook पर करीब एक दिन तक मौजूद रही. अम्हारी भाषा में किए गए कमेंट में कुछ कथन थे, जिनका बोर्ड के भाषा विशेषज्ञों ने अनुवाद किया, इनमें कहा गया है: “[o](आपके पास एकमात्र विकल्प बदले के लिए एक साथ खड़ा होना है) ur only option is to stand together for revenge” और “(भाइयों और बहनों, क्या आप इस मसले को सुलझाने के लिए तैयार हैं) are you ready, brothers and sisters, to settle this matter?” Meta के अनुसार उस कंटेंट को जिस अकाउंट से पोस्ट किया गया था, उसका यूज़र इथियोपिया का रहने वाला है, न कि टिग्रे या अम्हारा क्षेत्रों का. यूज़र के प्रोफ़ाइल फ़ोटो में एक हैशटैग है, जो TPLF को अस्वीकार करने की ओर इशारा करता है. बोर्ड के पास उपलब्ध जानकारी के आधार पर, युवक ने ख़ुद को इथियोपिया के राया क्षेत्र में रहने वाला व्यक्ति बताया.

Meta के अम्हारी भाषा के लैंग्वेज ऑटोमेटेड सिस्टम (क्लासिफ़ायर) ने पोस्ट को संभावित रूप से इसकी पॉलिसी का उल्लंघन करने वाला माना है. Meta मशीन लर्निंग क्लासिफ़ायर का संचालन करता है, जो Facebook कम्युनिटी स्टैंडर्ड के संभावित उल्लंघनों का अपने आप पता लगाने के लिए प्रशिक्षित हैं. Meta ने घोषणा की थी कि यह “इस तकनीक का उपयोग अम्हारी और ओरोमो भाषा के साथ वैश्विक रूप से 40 से ज़्यादा अन्य भाषाओं में नफ़रत फैलाने वाली भाषा की सक्रिय रूप से पहचान करने के लिए कर रहा है.” बोर्ड यह समझता है कि इथियोपिया एक बहुभाषीय देश है, यहाँ ओरोमो, अम्हारी, सोमाली और तिन्ग्रिया भाषा सबसे ज़्यादा बोली जाने वाली भाषाएँ हैं. Meta ने यह भी रिपोर्ट किया कि यह ऐसे मॉडरेटर की भर्ती करता है, जो अम्हारी, ओरोमो, तिग्रीन्या और सोमाली भाषा के कंटेंट को रिव्यू कर सकते हैं.

Meta “नमूना लेने के पक्षपातपूर्ण” तरीके का उपयोग करता है जिसमें अम्हारी भाषा के क्लासिफ़ायर की क्वालिटी को बेहतर बनाने के लिए कंटेंट के नमूने लिए जाते हैं. इसका यह मतलब है कि कम और ज़्यादा संभावित मैच स्कोर वाले, दोनों तरह के अम्हारी भाषा के कंटेंट के लगातार नमूने लिए जाते हैं और क्लासिफ़ायर के प्रदर्शन में सुधार लाने के लिए इनका एक-एक करके इंसानों द्वारा रिव्यू किया जाता है.” इस कंटेंट को सुधार की प्रक्रिया के हिस्से के रूप में इंसान द्वारा रिव्यू करने के लिए चुना गया था. Meta ने यह भी बताया कि इसके ऑटोमेटेड सिस्टम ने तय किया था कि इस कंटेंट को “ज़्यादा संभावित व्यूज़” मिले थे और इसने पोस्ट को “उल्लंघन के मामले में कम स्कोर दिया था.” उल्लंघन के मामले में कम स्कोर मिलने का यह मतलब है कि कंटेंट Meta के ऑटोमेटेड सिस्टम द्वारा ऑटो-रिमूवल के लिए ज़रूरी सीमा तक नहीं पहुँच पाया है.

अम्हारी भाषा की कंटेंट रिव्यू टीम के कंटेंट मॉडरेटर ने तय किया कि पोस्ट ने Facebook के नफ़रत फैलाने वाली भाषा से जुड़े कम्युनिटी स्टैंडर्ड का उल्लंघन किया है और उसने इसे हटा दिया. यह स्टैंडर्ड किसी व्यक्ति या लोगों के समूह को उनकी नस्ल, जाति या राष्ट्रीय मूल के आधार पर निशाना बनाने वाले ऐसे कंटेंट को प्रतिबंधित करता है जिसमें “हिंसा फैलाने वाली भाषा” शामिल होती है. Meta ने कहा कि इसने यूज़र को सूचना दी कि उनकी पोस्ट में Facebook के नफ़रत फैलाने वाली भाषा से जुड़े कम्युनिटी स्टैंडर्ड का उल्लंघन हुआ है, लेकिन यह नहीं बताया कि किस विशेष नियम का उल्लंघन हुआ था. फिर यूज़र ने Meta से फ़ैसले के बारे में अपील की, और अम्हारी भाषा की कंटेंट रिव्यू टीम के दूसरे मॉडरेटर द्वारा दूसरा रिव्यू किए जाने के बाद Meta ने कन्फ़र्म किया कि पोस्ट में Facebook की पॉलिसी का उल्लंघन हुआ है.

इसके बाद यूज़र ने एक अपील ओवरसाइट बोर्ड को सबमिट की. बोर्ड द्वारा इस केस को चुने जाने की वजह से Meta ने कंटेंट को हटाने के अपने फ़ैसले को “एन्फ़ोर्समेंट से जुड़ी गलती” माना और 27 अगस्त को इसे रीस्टोर कर दिया. Meta ने कहा कि यह आमतौर पर यूज़र को कंटेंट रीस्टोर होने की सूचना उसी दिन दे देता है. हालाँकि, मानवीय गलती के कारण, Meta ने यूज़र को कंटेंट रीस्टोर होने की सूचना 30 सितंबर को दी. यह नोटिफ़िकेशन तब दिया गया जब ओवरसाइट बोर्ड ने Meta से पूछा कि क्या यूज़र को उनका कंटेंट रीस्टोर किए जाने की सूचना दे दी गई है.

यह केस इन असत्यापित आरोपों से संबंधित है कि राया कोबो में रहने वाले टिग्रे जनजाति के लोग अम्हारा जनजाति समूह के साथ बलात्कार करने सहित अन्य अत्याचार करने में TPLF का साथ दे रहे थे. ये आरोप इथियोपिया में चल रहे गृहयुद्ध के दौरान Facebook पर पोस्ट किए गए थे, जो 2020 में टिग्रे क्षेत्र के बलों और इथियोपिया की संघीय सरकार के बलों और सेना तथा इसके साथियों (International Crisis Group) के बीच भड़का था, इथियोपिया का गृहयुद्ध: रक्तपात रोकने के लिए समझौता 26 अक्टूबर, 2021).

बोर्ड को मिले विशेषज्ञों के विवरणों के अनुसार, इथियोपिया में Facebook कम्युनिकेशन का महत्वपूर्ण, प्रभावी और लोकप्रिय ऑनलाइन माध्यम है. विशेषज्ञों के विवरणों से यह भी पता चला है कि इथियोपियाई मीडिया में विवाद से प्रभावित क्षेत्रों को बहुत कम या कोई कवरेज नहीं मिलता है, और इथियोपिया की जनता विवाद के बारे में जानकारी शेयर करने और पाने के लिए Facebook का उपयोग करती है.

इसके हालिया इतिहास में, इथियोपिया में जनजातियों के बीच बार-बार विवाद होते रहे हैं, जिनमें अन्य समूहों के साथ ही टिग्रे जनजाति के समूह भी शामिल हैं (ACCORD, Ethnic federalism and conflict in Ethiopia, 2017). बोर्ड को मौजूदा विवाद में शामिल पक्षों द्वारा टिग्रे क्षेत्र और अफ़ार, अम्हारा, ओरोमो और सोमाली क्षेत्रों सहित देश के अन्य हिस्सों में मानव अधिकारों और मानवीय कानूनों के गंभीर उल्लंघनों के बारे में जानकारी है ( इथियोपिया में स्थिति के लगातार बिगड़ने पर नरसंहार की रोकथाम पर संयुक्त राष्ट्र के विशेष सलाहकार का कथन, 30 जुलाई, 2021; संयुक्त राष्ट्र मानवाधिकार उच्चायुक्त कार्यालय (UN OHCHR), E thiopia: टिग्रे के बढ़ते संघर्ष को देखते हुए बैचले ने अंधाधुंध युद्ध को समाप्त करने का आग्रह किया, 3 नवंबर, 2021). इसके अलावा, इथियोपियन ह्युमन राइट्स कमीशन (EHRC) और UN OHCHR की हाल ही में प्रकाशित हुई संयुक्त जाँच के अनुसार, 2020 के अंत में हुए मानव अधिकारों के उल्लंघनों में टिग्रे और अम्हारा क्षेत्रों के लोग शामिल थे. हालाँकि, जाँच के दायरे में यूज़र की पोस्ट में बताए गए क्षेत्रों में जुलाई 2021 के दौरान के उल्लंघन शामिल नहीं किए गए थे (EHRC और UN OHCHR की रिपोर्ट, इथियोपिया के संघीय लोकतांत्रिक गणराज्य के टिग्रे क्षेत्र में सभी संघर्षकारी पक्षों द्वारा प्रतिबद्ध अंतर्राष्ट्रीय मानवाधिकार, मानवीय और शरणार्थी कानून के कथित उल्लंघन की संयुक्त जांच, 3 नवंबर, 2021).

Reuters की रिपोर्ट के अनुसार, अम्हारा क्षेत्र के स्थानीय अधिकारियों ने दावा किया कि टिग्रे बलों ने 1 और 2 सितंबर को अम्हारा क्षेत्र में एक गाँव में 120 नागरिकों को मार दिया ( Reuters, 8 सितंबर). बाद में टिग्रे बलों ने कथन जारी करके इसे अस्वीकार कर दिया, उन्होंने इसे अम्हारा की क्षेत्रीय सरकार का “झूठा आरोप” बताया. ये आरोप स्वतंत्र रूप से कन्फ़र्म नहीं किए जा सके. बोर्ड को इन आरोपों की जानकारी भी है कि टिग्रे जनजाति के लोगों का जातीय आधार पर वर्णन किया जाता है, उनका शोषण होता है और वे नफ़रत फैलाने वाली भाषा के शिकार ज़्यादा बनते हैं ( इथियोपिया पर किए गए सवालों के जवाब में UN हाई कमिश्नर द्वारा ह्युमन राइट्स मिशेल बेचेलेट द्वारा की गई टिप्पणियाँ, 9 दिसंबर, 2020; गैर सरकारी संगठनों ने टिग्रे पर संयुक्त राष्ट्र मानवाधिकार परिषद के प्रस्ताव का आह्वान किया, 11 जून, 2021).

3. प्राधिकार और दायरा

बोर्ड को उस यूज़र के अपील करने के बाद Meta के फ़ैसले का रिव्यू करने का अधिकार है, जिसकी पोस्ट हटा दी गई थी (चार्टर अनुच्छेद 2, सेक्शन 1). बोर्ड उस फ़ैसले को बरकरार रख सकता है या उसे बदल सकता है और उसका फ़ैसला Meta पर बाध्यकारी है (चार्टर अनुच्छेद 3, सेक्शन 5 और अनुच्छेद 4). बोर्ड के फ़ैसलों में गैर-बाध्यकारी सलाहों के साथ पॉलिसी से जुड़े सुझाव हो सकते हैं, जिन पर Meta को जवाब देना होगा (चार्टर अनुच्छेद 3, सेक्शन 4). अपने चार्टर के अनुसार, ओवरसाइट बोर्ड एक स्वतंत्र संस्था है, जिसे कंटेंट के कुछ महत्वपूर्ण हिस्सों के बारे में सैद्धांतिक और निष्पक्ष फ़ैसले लेकर अभिव्यक्ति की स्वतंत्रता को सुरक्षित रखने के लिए बनाया गया है. यह गैर-पक्षपाती धारणा रखकर और निष्पक्ष तौर पर फ़ैसले करके पारदर्शी रूप से काम करता है.

4. प्रासंगिक स्टैंडर्ड

ओवरसाइट बोर्ड ने इन स्टैंडर्ड पर विचार करते हुए अपना फ़ैसला दिया है:

I. Facebook के कम्युनिटी स्टैंडर्ड

Facebook द्वारा नफ़रत फैलाने वाली भाषा से जुड़े कम्युनिटी स्टैंडर्ड के लिए पॉलिसी बनाने के बारे में Meta ने कहा है कि इस प्लेटफ़ॉर्म पर नफ़रत फैलाने वाली भाषा का उपयोग करने की अनुमति नहीं है, "क्योंकि इससे डराने-धमकाने और बहिष्कार का माहौल बनता है और कुछ मामलों में इससे सचमुच में हिंसा भड़क सकती है." कम्युनिटी स्टैंडर्ड नफ़रत फैलाने वाली भाषा को इस प्रकार परिभाषित करता है "विचारधाराओं या संस्थानों पर नहीं बल्कि लोगों पर इन सुरक्षित विशिष्टताओं के आधार पर सीधा हमला: जातीयता, नस्ल, राष्ट्रीयता, अक्षमता, धार्मिक मान्यता, जाति, यौन रुचि, लिंग, लैंगिक पहचान और गंभीर बीमारी." यह विवरण हमले को “हिंसक या अमानवीय भाषा, नुकसानदायक रूढ़िवादिता, हीन भावना महसूस करवाने वाले बयान, अवमानना, घृणा या खारिज करने के भाव, कोसने, और बहिष्कार अथवा अलग-थलग करने की माँग के रूप में परिभाषित करते हैं." Facebook का नफ़रत फैलाने वाली भाषा से जुड़ा कम्युनिटी स्टैंडर्ड हमलों की तीन श्रेणियों का वर्णन करता है. श्रेणी 1 के अंतर्गत, Facebook कम्युनिटी स्टैंडर्ड इसे प्रतिबंधित करते हैं “ऊपर बताई गई संरक्षित विशेषताओं के आधार पर 'अमानवीय भाषा' के ज़रिए किसी व्यक्ति या लोगों के समूह को (हिंसक या यौन अपराधों को अंजाम देने वाले लोगों को छोड़कर सभी सबसेट शामिल हैं) निशाना बनाने वाला कंटेंट.” ऐसी भाषा से उन लोगों के “हिंसक और यौन अपराधी” या “अन्य अपराधी” होने का सामान्यकरण हो सकता है या ये उनके लिए भी कथन बन सकते हैं जिनमें समान सुरक्षित विशिष्टताएँ हैं लेकिन जिनका व्यवहार ऐसा नहीं रहा है.

Facebook के हिंसा और उकसावे से जुड़े कम्युनिटी स्टैंडर्ड का तर्काधार यह है कि Meta का “लक्ष्य ऐसे संभावित ऑफ़लाइन नुकसान को रोकना है, जो ऐसे कंटेंट से संबंधित हो सकता है” जो प्लेटफ़ॉर्म पर मौजूद है. ख़ासतौर से, Meta ऐसे कंटेंट को प्रतिबंधित करता है जिसमें “ऐसी गलत जानकारी और गैर-सत्यापित अफ़वाहें हैं, जिनसे हिंसा भड़कने या किसी को शारीरिक नुकसान पहुँचने का ख़तरा पैदा होता है.” अपने आतंरिक क्रियान्वयन स्टैंडर्ड के हिस्से के रूप में Meta गैर-सत्यापित अफ़वाह को ऐसी जानकारी मानता है, जिसमें जानकारी के स्रोत का पता लगाना बहुत मुश्किल या नामुमकिन होता है, या सार्थक अवधि में यह कन्फ़र्म नहीं हो पाता या इसका खुलासा नहीं हो पाता, क्योंकि जानकारी के स्रोत का पता लगाना बहुत मुश्किल या नामुमकिन होता है. Meta ऐसी जानकारी पर भी ध्यान देता है जिसमें ऐसी पर्याप्त विशेषता ना हो, जिससे दावे के गैर-सत्यापित अफ़वाह होने का ख़ुलासा हो. Meta मानता है कि Facebook के हिंसा और उकसावे से जुड़े कम्युनिटी स्टैंडर्ड में मौजूद इस पॉलिसी को लागू करने के लिए अतिरिक्त संदर्भ की ज़रूरत होती है.

II. Meta के मूल्य

Meta के मूल्यों के बारे में Facebook के कम्युनिटी स्टैंडर्ड के परिचय सेक्शन में बताया गया है. “अभिव्यक्ति” के महत्व को “सर्वोपरि” बताया गया है:

हमारे कम्युनिटी स्टैंडर्ड का लक्ष्य हमेशा एक ऐसा प्लेटफ़ॉर्म बनाना रहा है, जहाँ लोग अपनी बात रख सकें और अपनी भावनाओं को व्यक्त कर सकें. […] हम चाहते हैं कि लोग अपने लिए महत्व रखने वाले मुद्दों पर खुलकर बातें कर सकें, भले ही कुछ लोग उन बातों पर असहमति जताएँ या उन्हें वे बातें आपत्तिजनक लगें.

Meta "अभिव्यक्ति” को चार अन्य मूल्यों के मामले में सीमित करता है, जिनमें से दो यहाँ प्रासंगिक हैं.

“सुरक्षा”: हम Facebook को एक सुरक्षित जगह बनाने के लिए प्रतिबद्ध हैं. धमकी भरी अभिव्यक्ति से लोगों में डर, अलगाव की भावना आ सकती या दूसरों के विचार दब सकते हैं और Facebook पर इसकी परमिशन नहीं है.

“गरिमा” : हमारा मानना है कि सभी लोगों को एक जैसा सम्मान और एक जैसे अधिकार मिलने चाहिए. हम उम्मीद करते है कि लोग एक-दूसरे की गरिमा का ध्यान रखेंगे और दूसरों को परेशान नहीं करेंगे या नीचा नहीं दिखाएँगे.

III. मानवाधिकार स्टैंडर्ड

बिज़नेस और मानवाधिकारों के बारे में संयुक्त राष्ट्र संघ के मार्गदर्शक सिद्धांत (UNGP), जिन्हें 2011 में संयुक्त राष्ट्र संघ की मानवाधिकार समिति ने स्वीकृति दी है, वे प्राइवेट बिज़नेस की मानवाधिकार से जुड़ी ज़िम्मेदारियों का स्वैच्छिक ढांचा तैयार करते हैं. 2021 में, Meta ने अपनी मानवाधिकारों से जुड़ी कॉर्पोरेट पॉलिसी की घोषणा की, जिसमें उसने UNGP के अनुसार मानवाधिकारों का ध्यान रखने की अपनी प्रतिज्ञा को दोहराया. इस केस में बोर्ड ने इन मानवाधिकार स्टैंडर्ड को ध्यान में रखते हुए विश्लेषण किया:

  • अभिव्यक्ति की स्वतंत्रता: अनुच्छेद 4 और 19, सिविल एवं राजनैतिक अधिकारों संबंधी अंतरराष्ट्रीय प्रतिज्ञापत्र ( ICCPR); मानव अधिकार समिति, सामान्य टिप्पणी सं. 34, 2011 ( सामान्य टिप्पणी 34); विचार और अभिव्यक्ति की स्वतंत्रता के अधिकार के प्रोत्साहन और सुरक्षा पर UN का विशेष प्रतिवेदक, ऑनलाइन कंटेंट रेग्युलेशन, A/HRC/38/35.
  • जीवन का अधिकार: ICCPR अनुच्छेद 6; जैसे कि इसकी व्याख्या सामान्य कमेंट नं 36, मानव अधिकार समिति ने की (2018) ( सामान्य कमेंट 36); मानवाधिकार और अंतरराष्ट्रीय निगम और अन्य व्यावसायिक उद्यम के मुद्दे पर संयुक्त राष्ट्र संघ का कार्यकारी समूह, बिज़नेस, मानवाधिकार और विवादों से प्रभावित क्षेत्र: बढ़ा-चढ़ाकर लिए गए एक्शन की रिपोर्ट को लेकर ( A/75/212).

5. यूज़र का कथन

यूज़र ने बोर्ड से की गई अपनी अपील में कहा कि उन्होंने अपनी कम्युनिटी की सुरक्षा के लिए यह कंटेंट पोस्ट किया जो ख़तरे में है और Meta को युद्ध क्षेत्र में फंसी कम्युनिटी की मदद करना चाहिए. उन्होंने कहा कि उस पोस्ट में नफ़रत फैलाने वाली भाषा नहीं है, “but is truth” (बल्कि यह सच्चाई है). उन्होंने यह भी कहा कि TPLF ने दस लाख लोगों वाले उनके समुदाय को निशाना बनाकर उन्हें भोजन, पानी और बुनियादी ज़रूरतों के बिना उनके हाल पर छोड़ दिया है. यूज़र को लगता है कि उनकी पोस्ट की रिपोर्ट “by members and supporters of that terrorist group” (उस आतंकवादी समूह के लोगों और समर्थकों ने ही की होगी), साथ ही यूज़र ने “know well most of the rules” (अधिकतर नियमों की जानकारी होने) का दावा किया है और यह भी कि उन्होंने “never broken any rules of Facebook” (कभी भी Facebook का कोई नियम नहीं तोड़ा है).

6. Meta के फ़ैसले का स्पष्टीकरण

Meta ने अपने विवरण में स्पष्ट किया कि कंटेंट को मूल रूप से Facebook के नफ़रत फैलाने वाली भाषा से जुड़े कम्युनिटी स्टैंडर्ड के अंतर्गत हमले के तौर पर, ख़ासतौर से इसकी उस पॉलिसी के उल्लंघन के लिए हटाया गया था, जो ऐसी “हिंसा फैलाने वाली भाषा” को प्रतिबंधित करती है, जिसका उपयोग करके टिग्रे जनजाति के लोगों को उनकी जाति के आधार पर निशाना बनाया गया था. Meta ने बोर्ड को जानकारी दी कि उसके मॉडरेटर सिर्फ़ उस कम्युनिटी स्टैंडर्ड की ओर संकेत करते हैं जिसका उल्लंघन किया गया, कंटेंट को हटाने के उनके कारणों को रिकॉर्ड नहीं करते. इसलिए, Meta ने यह कन्फ़र्म नहीं किया कि पोस्ट को पहले रिव्यू करने वाले और अपील के बाद रिव्यू करने वाले मॉडरेटर्स ने पोस्ट को हटाने के लिए Facebook की नफ़रत फैलाने वाली भाषा से जुड़ी पॉलिसी में मौजूद एक ही नियम को लागू किया था.

Meta ने अपने कारण विवरण में कहा कि बोर्ड द्वारा केस चुनने के परिणामस्वरुप कंपनी ने तय किया कि इसका “फ़ैसला गलत था” और पोस्ट को रीस्टोर कर दिया. Meta ने यह भी कहा कि कंटेंट में इसके नियमों का उल्लंघन नहीं हुआ क्योंकि उसमें टिग्रे जनजाति के लोगों को निशाना नहीं बनाया गया और यूज़र द्वारा TPLF या टिग्रे जनजाति के लोगों पर लगाए गए आरोप नफ़रत फैलाने वाली भाषा के स्तर तक नहीं पहुँचे.

Meta ने बोर्ड द्वारा पूछे गए सवाल के जवाब में यह कन्फ़र्म किया कि इसके अम्हारी भाषा के ऑटोमेटेड सिस्टम अच्छे से काम करते हैं और इन्हें हर छह महीनों में ऑडिट तथा रीफ़्रेश किया जाता है. Meta ने यह भी बताया कि चूँकि मूल टेक्स्ट अम्हारी भाषा में था इसलिए ऑटोमेटेड सिस्टम ने कंटेंट को संभावित रूप से उल्लंघन करने वाला बताया. इसी तरह, Meta ने कन्फ़र्म किया कि दोनो कंटेंट मॉडरेटर अम्हारी भाषा बोलना जानते थे और उन्होंने अम्हारी भाषा के मूल टेक्स्ट के आधार पर अपना रिव्यू किया.

Meta ने अपने सबमिशन में बताया कि इस अपील के लिए केस फ़ाइल तैयार करने में इसकी स्थानीय टीम ने सांस्कृतिक और भाषाई संदर्भ प्रदान किया. जैसे, Meta द्वारा बोर्ड के सामने प्रस्तुत किया गया फ़ैसले का कारण, स्थानीय टीम द्वारा किए गए कंटेंट के अनुवाद पर आधारित है. Meta की स्थानीय टीम ने यूज़र की पोस्ट के कथित रूप से उल्लंघन करने वाले हिस्से का इस तरह अनुवाद किया “Tigrean” teachers, health professionals and merchants “are leading the way for the rebel TPLF forces to get women raped and loot properties” ("टिग्रे जनजाति” के शिक्षक, स्वास्थ्यकर्मी और व्यापारी “महिलाओं का बलात्कार करने और संपत्ति लूटने के लिए बागी TPLF बलों का नेतृत्व कर रहे हैं").

बोर्ड ने अपने भाषा विशेषज्ञों से अनुरोध करके टेक्स्ट का अतिरिक्त अंग्रेज़ी अनुवाद प्राप्त किया और Meta ने अपने बाहरी भाषा वेंडर द्वारा किया गया टेक्स्ट का अतिरिक्त अनुवाद उपलब्ध कराया. दोनों वर्जन से यह कन्फ़र्म हुआ कि टेक्स्ट का प्रचलित अर्थ इस ओर संकेत करता है कि टिग्रे जनजाति के लोगों ने TPLF द्वारा किए गए अत्याचारों में उनकी मदद की. इस फ़ैसले के उद्देश्यों के लिए बोर्ड Meta के बाहरी वेंडर द्वारा दिए गए वर्ज़न पर ध्यान देता है. उस वर्जन में यह लिखा गया है: “As reported previously and per information obtained from people living in the area who make a living as teachers, as health professionals, as merchants, as daily labour workers, and low [wage] workers, we are receiving direct reports that the Tigreans, who know the area very well, are leading the rebel group door-to-door exposing women to rape and looting property” (जैसा कि पहले रिपोर्ट किया गया और उस क्षेत्र में रहने वाले उन लोगों से मिली जानकारी के अनुसार, जो शिक्षक, स्वास्थ्यकर्मी, व्यापारी, रोज कमाने वाले मजदूर और कम आमदनी वाले कर्मचारी के रूप में जीवन यापन करते हैं, हमें सीधे रिपोर्ट मिल रही हैं कि टिग्रे समुदाय के लोग, जो उस क्षेत्र के बारे में बहुत अच्छे से जानते हैं, वे महिलाओं का बलात्कार करने और संपत्ति लूटने के लिए घर-घर जाने में बागी समूह का नेतृत्व कर रहे हैं). इसके अलावा, पोस्ट में अम्हारी भाषा में की गई टिप्पणियों में कहा गया कि: “[o](आपके पास एकमात्र विकल्प बदले के लिए एक साथ खड़े होना है) ur only option is to stand together for revenge” और “(भाइयों और बहनों, क्या आप इस मसले को सुलझाने के लिए तैयार हैं) are you ready, brothers and sisters, to settle this matter?”

Meta ने बोर्ड के सवाल के जवाब में यह कन्फ़र्म किया है कि इथियोपिया को “टियर 1 के जोखिम वाले देश के रूप में नामित किया गया है.” Meta के अनुसार, यह जोख़िम का उच्चतम स्तर है. Meta ने बताया कि इसने इथियोपिया को इसकी कंटेंट पॉलिसी और अखंडता से जुड़े कार्य के लिए “संकट वाली जगह” के रूप में नामित किया है. इसी तरह, इसने इथियोपिया के जून 2021 के चुनावों के लिए “उच्च-स्तरीय” इंटीग्रिटी प्रोडक्ट ऑपरेशन्स सेंटर (IPOC) स्थापित किया और सितंबर में चुनाव के बाद की गतिविधि की निगरानी के लिए दूसरा IPOC स्थापित किया. दोनों IPOC उसी महीने में ख़त्म हुए जिसमें वे सेट किए गए थे. Meta ने यह भी कहा कि इसकी ऑपरेशन, पॉलिसी और प्रोडक्ट टीम द्वारा इथियोपिया को “उच्च-स्तरीय संकट” माना जा रहा था. Meta के कहा कि इथियोपिया पर ध्यान केंद्रित करने वाली इसकी “क्राइसिस रिस्पॉन्स क्रॉस-फ़ंक्शनल टीम” मौजूदा जोख़िम को समझने और कम करने के लिए साप्ताहिक रूप से बैठक करती है. Meta ने आगे कहा कि इस काम के कारण, उस कंटेंट के रिव्यू का तरीका नहीं बदलता जो ऐसा जोख़िम पैदा नहीं करता, और काम के कारण इस मामले में इसका निर्धारण प्रभावित नहीं हुआ.

बोर्ड के सवाल के जवाब में, Meta ने बताया कि इसके भरोसेमंद पार्टनर ने पोस्ट को गलत जानकारी और नुकसान से जुड़ी पॉलिसी के उल्लंघनों के लिए अतिरिक्त रिव्यू के लिए आगे नहीं भेजा. Meta ने यह भी ध्यान दिलाया कि कोई थर्ड पार्टी फ़ैक्ट-चेक नहीं हुआ था, ऐसा “कोई सबूत नहीं था जिससे पता चले कि पोस्ट में किए गए दावे गलत थे या ये गैर-सत्यापित अफ़वाहें थी.”

7. थर्ड पार्टी सबमिशन

इस केस के संबंध में, ओवरसाइट बोर्ड को लोगों की ओर से 23 कमेंट मिले. उनमें से तीन कमेंट सब-सहारा अफ़्रीका, मुख्य रूप से इथियोपिया से किए गए थे, एक मध्य पूर्व और उत्तरी अफ़्रीका से किया गया था, एक एशिया पैसिफ़िक और ओशिनिया से किया गया था, पाँच यूरोप और 10 कमेंट अमेरिका और कनाडा से आए थे. बोर्ड को मिले कमेंट में शैक्षणिक समुदायों, अलग-अलग लोगों और सामाजिक संगठनों सहित अन्य स्टेकहोल्डर के कमेंट शामिल थे, जो इथियोपिया में अभिव्यक्ति की स्वतंत्रता और नफ़रत फैलाने वाली भाषा को लेकर किए गए थे. सबमिशन में शामिल किए गए विषयों में कंटेंट को प्लेटफ़ॉर्म पर रहना चाहिए या नहीं, TPLF की आलोचना को टिग्रे जनजाति के लोगों के खिलाफ़ नफ़रत फैलाने वाली भाषा से अलग करने में आने वाली मुश्किलों और Meta में इथियोपिया की भाषाएँ बोलने वाले कंटेंट मॉडरेटर की कमी होने सहित अन्य विषय शामिल हैं.

इस केस को लेकर लोगों की ओर से सबमिट किए गए कमेंट देखने के लिए कृपया यहाँ पर क्लिक करें.

8. ओवरसाइट बोर्ड का विश्लेषण

यह केस हिंसक जातीय विवादों के इतिहास वाले क्षेत्र में चल रहे गृह और जातीय युद्ध के दौरान लगाए गए आरोपों पर आधारित है. अभिव्यक्ति की आजादी की सुरक्षा करने और सांप्रदायिक विवाद के ख़तरे को कम करने के बीच तनाव की स्थिति है. इस तनाव का हल केवल ऐसे विवाद से जुड़ी महत्वपूर्ण बातों पर ध्यान देकर ही निकाला जा सकता है. बोर्ड को इथियोपिया के कई हिस्सों में हो रहे अत्याचारों में नागरिकों की भागीदारी की जानकारी है, लेकिन राया कोबो के बारे में ऐसी कोई जानकारी नहीं है (इथियोपिया में विवाद का प्रासंगिक संदर्भ ऊपर सेक्शन 2 में देखें). Meta ने कहा कि इसके पास इस बात का कोई सबूत नहीं था कि कंटेंट गलत या गैर-सत्यापित अफ़वाह नहीं था. बोर्ड इस बात पर ध्यान देता है कि कंटेंट पोस्ट होने के समय Meta सक्रिय रूप से आरोपों को सत्यापित नहीं कर पाया और असमर्थ रहा. अम्हारा क्षेत्र में कम्युनिकेशन ब्लैकआउट होने के कारण आरोपों को सत्यापित करना मुमकिन नहीं था. अम्हारा की स्थिति के बारे में जानना अंतर्राष्ट्रीय समीक्षकों और पत्रकारों की पहुँच से बाहर था. बोर्ड को यह भी पता है कि अत्याचारों से जुड़ी सही रिपोर्ट के ज़रिए संभावित पीड़ितों के बारे में संभावित अपराधियों को बताने से ये रिपोर्ट विवादित क्षेत्रों में कई जानें बचा सकती हैं. लेकिन, किसी जारी हिंसक विवाद में नागरिकों को अपराधी बताने के संबंध में किए गए अप्रमाणित दावों से भविष्य में हिंसा होने का ख़तरा बढ़ जाता है.

8.1. कम्युनिटी स्टैंडर्ड का अनुपालन

Meta ने कंटेंट को इसलिए रीस्टोर किया क्योंकि इसने यह निष्कर्ष निकाला कि कंटेंट में नफ़रत फैलाने वाली भाषा नहीं है (ऊपर सेक्शन 6 देखें). बोर्ड का मानना है कि स्पष्टीकरण में जानकारी की कमी है और यह गलत है. बोर्ड को हिंसा और उकसावे से जुड़े कम्युनिटी स्टैंडर्ड इस केस के लिए प्रासंगिक लगे. बोर्ड ने यह निष्कर्ष निकाला है कि पोस्ट में हिंसा और उकसावे से जुड़ी पॉलिसी द्वारा “तात्कालिक हिंसा या शारीरिक जान और माल के नुकसान के जोख़िम को बढ़ाने वाली गलत जानकारी और गैर-सत्यापित अफ़वाहों” पर लगाए गए प्रतिबंध का उल्लंघन किया गया है (“गैर-सत्यापित अफ़वाह” की परिभाषा के लिए, सेक्शन 4 देखें).

कंटेंट Meta के आतंरिक क्रियान्वयन स्टैंडर्ड में दी गई गैर-सत्यापित अफ़वाह की परिभाषा के अंतर्गत आता है (“गैर-सत्यापित अफ़वाह” की परिभाषा के लिए, सेक्शन 4 देखें). बोर्ड ने यह पाया है कि सामूहिक अत्याचारों में किसी जातीय समूह के सहअपराधी होने के आरोप लगाने वाली अफ़वाहें ख़तरनाक होती हैं और इनसे वर्तमान में इथियोपिया में चल रहे हिंसक विवाद जैसे जारी विवादों के दौरान तात्कालिक हिंसा का ख़तरा बहुत बढ़ जाता है. बोर्ड यह समझता है कि इथियोपिया में टिग्रे जनजाति के लोगों को अन्य जातीय समूहों की तरह पहले से ही तात्कालिक और कुछ मामलों में वास्तविक हिंसा तथा जान और माल के नुकसान का सामना करना पड़ता है.

8.2. Meta के मूल्यों का अनुपालन

बोर्ड ने यह पाया है कि Meta का कंटेंट को रीस्टोर करने का फ़ैसला "गरिमा" और "सुरक्षा" के इसके मूल्यों से संगत नहीं था. बोर्ड यह समझता है कि “वॉइस” Meta का सबसे अहम मूल्य है, लेकिन दुर्व्यवहार तथा ऑनलाइन व ऑफ़लाइन नुकसान के अन्य रूपों को रोकने के लिए कंपनी सीमित अभिव्यक्ति की अनुमति देती है.

इस केस के संदर्भ में, मानव अधिकारों के उल्लंघनों का पर्दाफाश करने वाली “वॉइस” सबसे ज़्यादा महत्वपूर्ण है. हालाँकि, किसी हिंसक विवाद के बीच किस रूप में अभिव्यक्ति होती है, यह भी महत्वपूर्ण है. मानव आधिकारों के कथित उल्लंघनों की ओर ध्यान आकर्षित करती हुई प्रतीत हो रही अभिव्यक्ति में जब किसी जारी हिंसक विवाद के दौरान ऐसे असत्यापित दावे किए जाते हैं कि कोई जातीय समूह अत्याचारों में सहअपराधी है, तो यह जोख़िम पैदा होता है कि इससे बदला लेने की हिंसा पनपेगी या उसे बढ़ावा मिलेगा. यह मौजूदा हालात में ख़ासतौर से इथियोपिया में संगत है.

8.3. Meta की मानवाधिकारों से जुड़ी ज़िम्मेदारियों का अनुपालन

बोर्ड ने यह पाया है कि इस केस में कंटेंट को हटाना UNGP सिद्धांत 13 के अंतर्गत बिज़नेस के रूप में Meta की मानवाधिकारों से जुड़ी ज़िम्मेदारियों के साथ संगत है, जिसके अनुसार कंपनियों की “अपनी गतिविधियों के ज़रिए मानव अधिकारों से जुड़े गलत प्रभाव नहीं पड़ने चाहिए या इसे इनमें योगदान नहीं देना चाहिए.” किसी हिंसक या जारी विवाद में, गैर-सत्यापित अफ़वाहों के कारण गंभीर अत्याचार हो सकते हैं, म्यांमार के अनुभव से ऐसा संकेत मिला है. ऐसे जोख़िम को कम करने के लिए गैर-सत्यापित अफ़वाहों के लिए पॉलिसी सहित विवादित क्षेत्र में कंटेंट को मॉडरेट करने के लिए पारदर्शी सिस्टम होना ज़रूरी है.

अभिव्यक्ति की स्वतंत्रता और ICCPR का अनुच्छेद 19

ICCPR का अनुच्छेद 19 किसी भी मीडिया के ज़रिए और किसी भी सीमा के बावजूद अभिव्यक्ति की आजादी के लिए अधिक सुरक्षा प्रदान करता है. हालाँकि, यह अनुच्छेद इस अधिकार को कुछ सीमित शर्तों के अंतर्गत प्रतिबंधित करने की अनुमति देता है, इन्हें वैधानिकता (स्पष्टता), वैधता और अनिवार्यता के तीन-हिस्सों वाला टेस्ट कहते हैं, जिसमें समानुपात का मूल्यांकन भी शामिल है. हालाँकि ICCPR के प्रति Meta के राज्यों की तरह दायित्व नहीं हैं, लेकिन Meta UNGP में निर्धारित मानवाधिकारों का सम्मान करने के लिए प्रतिबद्ध है. इस प्रतिबद्धता में अन्य कानूनी दस्तावेजों सहित ICCPR द्वारा तय किए गए अंतररार्ष्ट्रीय रूप से मान्य मानवाधिकार शामिल हैं. विचार और अभिव्यक्ति की स्वतंत्रता पर UN के विशेष प्रतिवेदक में यह सुझाया गया है कि ICCPR का अनुच्छेद 19, पैरा. 3 प्लेटफ़ॉर्म पर कंटेंट मॉडरेशन से जुड़े तरीकों के मार्गदर्शन के लिए उपयोगी संरचना प्रदान करता है ( A/HRC/38/35, पैरा. 6)

I. वैधानिकता (नियमों की स्पष्टता और सुलभता)

वैधानिकता की शर्त की यह माँग है कि अभिव्यक्ति की आजादी पर किसी भी प्रतिबंध: (a) की पहुँच पर्याप्त रूप से आसान हो ताकि लोगों को इस बात का पर्याप्त संकेत मिले कि कानून कैसे उनके अधिकारों को सीमित करता है; और (b) कानून पर्याप्त स्पष्टता के साथ तैयार होना चाहिए ताकि सभी अपने आचरण को नियंत्रित कर सकें. इसके अतिरिक्त, कानून इसका कार्यान्वयन करने वाले लोगों पर अभिव्यक्ति की स्वतंत्रता के प्रतिबंध के लिए निरंकुश निर्णय नहीं लेने दे सकता है ( सामान्य कमेंट 34, पैरा. 25).

“गैर-सत्यापित अफ़वाह” की परिभाषा आम जनता के लिए उपलब्ध कम्युनिटी स्टैंडर्ड में नहीं दी गई है. जब Meta मुख्य शब्दों के अर्थ के साथ ही यह स्पष्ट नहीं कर पाता है कि इसकी पॉलिसी कैसे लागू होती हैं तो यूज़र के लिए यह समझना मुश्किल हो जाता है कि उनका कंटेंट Facebook कम्युनिटी स्टैंडर्ड का उल्लंघन करता है या नहीं. हालाँकि, जैसा कि इस केस के तथ्यों पर लागू होता है, जिसमें जारी हिंसक विवाद के बीच में गैर-सत्यापित आरोप लगाया गया था, बोर्ड को यह पता चला है कि उसमें शब्द “असत्यापित अफ़वाह” पर्याप्त स्पष्टता प्रदान करता है. उस अफ़वाह को ना Meta सत्यापित कर पाया था और ना ही राया कोबो में मौजूद यूज़र. अंतरराष्ट्रीय समीक्षक और पत्रकार भी जारी विवाद और कम्युनिकेशन ब्लैकआउट के कारण अफ़वाह को सत्यापित नहीं कर सके. ऐसी परिस्थितियों में यूज़र यह अनुमान लगा लेते हैं कि ऐसी पोस्ट प्रतिबंध के अंतर्गत आती है.

II. वैधानिक लक्ष्य

अभिव्यक्ति की स्वतंत्रता पर लगने वाले प्रतिबंधों का एक वैधानिक लक्ष्य होना चाहिए, जिनमें अन्य लक्ष्यों सहित दूसरों के अधिकारों की सुरक्षा करना शामिल है. मानवाधिकार समिति ने ICCPR तथा और सामान्य रूप से अंतरराष्ट्रीय मानवाधिकार कानून में मानवाधिकारों को मान्य रूप में शामिल करने के लिए “अधिकार” शब्द की व्याख्या की सामान्य कमेंट 34, पैरा. 28). हिंसा और उकसावे से जुड़े Facebook कम्युनिटी स्टैंडर्ड ऐसे ऑफ़लाइन नुकसान को रोकने के लिए आंशिक रूप से मौजूद है जो Facebook पर मौजूद कंटेंट से संबंधित है. इसलिए प्रतिबंध आधारित यह पॉलिसी जीने के अधिकार की सुरक्षा के वैधानिक लक्ष्य को पूरा करती है.

III. आवश्यकता और आनुपातिकता

अंतरराष्ट्रीय मानवाधिकार कानून के तहत आवश्यकता और अनुपातिकता के सिद्धांत के अनुसार यह ज़रूरी है कि अभिव्यक्ति की स्वतंत्रता से संबंधित प्रतिबंध "उनके सुरक्षात्मक कार्य को सही तरीके से पूरा करने वाले होने चाहिए; उनसे उन लोगों के अधिकारों के साथ कम से कम हस्तक्षेप होना चाहिए, जिन्हें उन प्रतिबंधों से होने वाले सुरक्षात्मक कार्यों का लाभ मिल सकता है; जिन हितों की सुरक्षा की जानी है, उसके अनुसार ही सही अनुपात में प्रतिबंध लगाए जाने चाहिए" ( सामान्य कमेंट 34, पैरा. 34). आनुपातिकता का सिद्धांत विचारधीन अभिव्यक्ति के स्वरूप पर विचार करने की माँग करता है ( सामान्य कमेंट 34, पैरा. 34).

यह आकलन करने के लिए कि क्या यूज़र की अभिव्यक्ति पर लगा प्रतिबंध Meta की मानवाधिकार ज़िम्मेदारियों के अनुसार अपने उद्देश्य को पूरा करने में सफल रहा, बोर्ड ने इथियोपियन संघर्ष के दौरान Meta द्वारा जीवन के जोखिम को रोकने और कम करने के लिए, पार्टियों के बारे में गैर-सत्यापित अफ़वाहों को फैलने से रोकने के लिए किए गए काम पर विचार किया (इथियोपिया में Meta के काम के विवरण के लिए, ऊपर दिया गया सेक्शन 6 देखें).

यूज़र ने आरोप लगाया कि टिग्रे बलों द्वारा किए गए गंभीर अत्याचारों में टिग्रे नागरिकों ने भी सहयोग दिया था. यूज़र का दावा है कि उसके स्रोत पिछली अनाम रिपोर्ट्स और मौके पर मौजूद सोर्स हैं, लेकिन उन्होंने अपने आरोपों के समर्थन में परिस्थितिजन्य प्रमाण तक नहीं दिए हैं, जिन्हें वे अपने स्त्रोत को जोखिम में डाले बिना जोड़ सकते थे.

बोर्ड संघर्ष की स्थिति में मानवाधिकारों के उल्लंघन के बारे में जानकारी देने के महत्व को अच्छे से समझता है. अत्याचारों पर रिपोर्ट करना एक महत्वपूर्ण एक्टिविटी है जो दूसरों को सूचित किए जाने के अधिकार के बारे में बताती है. "पत्रकारिता लोगों की एक विस्तृत रेंज द्वारा शेयर किया जाने वाला एक माध्यम है ... [इसमें ये शामिल हैं] ब्लॉगर्स और अन्य लोग जो खुद प्रकाशन की तरह काम करते हैं ... इंटरनेट पर ...") ( सामान्य कमेंट 34, पैरा. 44). जो खुद के प्रकाशन की तरह काम करते हैं, वे संरक्षक की भूमिका से संबंधित ज़िम्मेदारियों को शेयर करते हैं और मानवाधिकारों पर रिपोर्ट करते समय उन्हें सटीकता के मानकों को पूरा करना चाहिए. इसके अलावा, अत्याचारों की जानकारी लोगों की जान बचा सकती है, खासकर जहाँ सोशल मीडिया सूचना का मुख्य सोर्स है. हालाँकि, ऊपर बताई गई क्वालिटी यूज़र की पोस्ट में नहीं हैं क्योंकि इसमें जीवन के वास्तविक खतरे के बारे में जानकारी नहीं दी गई है. इसमें कोई खास जानकारी भी शामिल नहीं है जिसका उपयोग मानव अधिकारों के उल्लंघन के डॉक्यूमेंट के तौर पर किया जा सके. जिस तरह से तैयार किया गया है, कंटेंट से जातीय नफ़रत पैदा हो सकती थी. जातीय संघर्ष की स्थितियों में इस बात की गहराई से जाँच-पड़ताल की ज़रूरत होती है कि लोगों को संघर्ष के लिए पार्टियों द्वारा किए गए मानवाधिकारों के उल्लंघन की रिपोर्ट कैसे करनी चाहिए और उन पर चर्चा कैसे करनी चाहिए. ये विचार Facebook पोस्ट के लिए लागू होते हैं, जिनका उपयोग गैर-सत्यापित अफ़वाहों को तेज़ी से फैलाने के लिए किया जा सकता है.

बोर्ड मानता है कि कुछ इथियोपियाई सरकारी अधिकारियों ने टिग्रे के खिलाफ नफ़रत फैलाने वाली भाषा के उपयोग के लिए उकसाया है या उसे फैलाया है (उदाहरण के लिए, एमनेस्टी इंटरनेशनल, इथियोपिया देखें: टिग्रे संघर्ष बढ़ने के साथ ही व्यापक आपातकालीन शक्तियाँ और ऑनलाइन नफ़रत फैलाने वाली भाषा में खतरनाक वृद्धि, DW 2020 report). इस बात का कोई सबूत नहीं है कि यह पोस्ट मतभेद फैलाने के लिए इस तरह की जानबूझकर की गई कोशिशों का हिस्सा है, लेकिन मौजूदा कंटेंट पर उन रिपोर्टों को ध्यान में रखते हुए विचार किया जाना चाहिए कि कुछ इथियोपियाई सरकारी अधिकारियों और सार्वजनिक हस्तियों ने उकसाया या नफ़रत फैलाने वाली भाषा का प्रसार किया. सार्वजनिक मुद्दों के मामलों पर सद्भावपूर्ण पोस्ट या जानकारी से संवेदनशील लोग बेहतर ढंग से अपनी सुरक्षा कर सकते हैं. साथ ही, महत्वपूर्ण ईवेंट के बारे में बेहतर समझ जवाबदेही तय करने में मदद कर सकती है. हालाँकि, असत्यापित अफ़वाहें नफ़रत फैलाने वाले नैरटिव का कारण बन सकती हैं और उनकी स्वीकृति में सहयोग कर सकती हैं, खास तौर पर जब जवाबी भाषा का उपयोग न किया गया हो.

बोर्ड ने यह निष्कर्ष निकाला है कि जिस देश में सशस्त्र संघर्ष चल रहा है और जहाँ अंतरराष्ट्रीय कानून के तहत अपने मानवाधिकार दायित्वों को पूरा करने के लिए सरकारी संस्थानों की अक्षमता सामने आई है, Meta अभिव्यक्ति की स्वतंत्रता को प्रतिबंधित कर सकता है जो अन्यथा वह कभी नहीं करता (सार्वजनिक आपातकालीन स्थिति के समय अल्पीकरण के बारे में ICCPR अनुच्छेद 4 देखें). आनुपातिकता के सिद्धांत को "विचारधीन अभिव्यक्ति के स्वरूप और साथ ही इसके प्रसार के साधन" पर विचार करना चाहिए ( सामान्य कमेंट 34, पैरा. 34). अपने आप में, एक गैर सत्यापित अफ़वाह से सीधे तौर पर और तुरंत नुकसान नहीं होता है. हालाँकि, जब इस तरह का कंटेंट एक महत्वपूर्ण, प्रभावशाली और लोकप्रिय सोशल मीडिया प्लेटफ़ॉर्म पर एक जारी संघर्ष के दौरान दिखाई देता है, तो जोखिम और नुकसान की संभावना ज़्यादा स्पष्ट हो जाती है. बोर्ड 2020-003-FB-UA के निर्णय में इसी तरह के निष्कर्ष पर पहुँचा था. वहाँ, बोर्ड इस निष्कर्ष पर पहुँचा कि “खासतौर से सैन्य टकराव की स्थितियों में, प्लेटफ़ॉर्म पर घृणास्पद, हीन बताने की अभिव्यक्तियाँ इकट्ठी होती और फैलती हैं, जिसके कारण ऐसी ऑफ़लाइन कार्रवाइयाँ होती हैं, जिनसे व्यक्ति की सुरक्षा के अधिकार पर और संभावित तौर पर जीवन पर काफ़ी ज़्यादा गंभीर असर पड़ता है.” इसके अलावा, संचयी प्रभाव एक "क्रमिक प्रभाव के निर्माण" के ज़रिये कारण के रूप में हो सकता है, जैसा कि रवांडा में हुआ था, जहाँ नरसंहार के आह्वान को दोहराया गया था (नहिमाना केस देखें, केस नंबर ICTR-99-52-T, पैरा 436, 478, और 484-485). इस केस में पोस्ट में हिंसा का सीधा आह्वान नहीं किया गया है, हालाँकि "हमारे संघर्ष" का संदर्भ दिया गया है.” इसके अलावा, कंटेंट को हज़ारों अम्हारी बोलने वाले लोगों ने उन 24 घंटों में देखा, जब यह ऑनलाइन रहा. उनमें से कुछ ने कमेंट किया जिनमें बदला लेने के लिए आह्वान किया गया है (ऊपर दिया गया सेक्शन 2 देखें).

जीवन जीने का अधिकार अपने साथ उचित सकारात्मक उपाय की प्रक्रिया की ज़िम्मेदारी साथ लाता है, जो निजी व्यक्तियों और संस्थाओं से उत्पन्न होने वाले जीवन के लिए संभावित खतरों के जवाब में, अभिव्यक्ति की स्वतंत्रता पर अधिक बोझ नहीं डालता है, जिनके आचरण के लिए राज्य ज़िम्मेदार नहीं होता है. उन संवेदनशील लोगों (जातीय और धार्मिक अल्पसंख्यकों के सदस्यों) की सुरक्षा के खास उपाय किए जाने चाहिए, जिनका जीवन किसी विशेष खतरे या हिंसा के पहले से मौजूद पैटर्न के कारण जोखिम में है ( सामान्य कमेंट 36, पैरा. 21 और 23). संबंधित मतभेदों पर विचार करने के साथ, ये विचार मानव अधिकारों की रक्षा के Meta के उत्तरदायित्वों के लिए प्रासंगिक हैं, क्योंकि बिज़नेस को "प्रतिकूल मानव अधिकारों के प्रभावों को रोकने या कम करने की आवश्यकता है जो सीधे [उसके] ऑपरेशन, प्रोडक्ट या सेवाओं से संबंधित हैं" (UNGP, सिद्धांत 13).

मानवाधिकारों और अंतर्राष्ट्रीय निगमों तथा अन्य बिज़नेस एंटरप्राइज़ के विषय पर काम करने वाले संयुक्त राष्ट्र के ग्रुप ने घोषित किया कि UNGP बिज़नेस पर एक संघर्ष भरे माहौल में सम्यक तत्परता की बड़ी ज़िम्मेदारी डालते हैं ("व्यापार, मानवाधिकार और संघर्ष-प्रभावित क्षेत्र: बढ़ा-चढ़ाकर लिए गए एक्शन को लेकर," A/75/212, पैरा. 41-54). परिणामस्वरूप, दूसरों के जीवन के अधिकार की रक्षा करने के वैधानिक लक्ष्य का मतलब है कि वर्तमान संघर्ष सेटिंग में Meta की ज़िम्मेदारी बहुत बड़ी है. बोर्ड अपने आनुपातिकता विश्लेषण में इस पर विचार करेगा.

बोर्ड ने इथियोपिया में Meta द्वारा अब तक उठाए गए कदमों को नोट किया है. कंटेंट को पहले हटा दिया गया था. हालाँकि, Meta के ऑटोमेटेड सिस्टम ने पाया कि इस कंटेंट का "कम उल्लंघन करने वाला स्कोर" था, इस तरह Meta ने अपने आप पोस्ट को नहीं हटाया. भले ही खास कंटेट को मूल रूप से हटा दिया गया था, Meta ने अंततः पाया किया कि हटाना एन्फ़ोर्समेंट की एक गलती थी. Meta ने बोर्ड को यह भी बताया कि इथियोपिया का टियर 1 के जोखिम वाले देश के रूप में व्यवहार क्लासिफ़ायर प्रदर्शन या संभावित उल्लंघन के रूप में कंटेंट की पहचान करने की उसकी क्षमता को प्रभावित नहीं करता है. इसलिए बोर्ड ने निष्कर्ष निकाला है कि अतिरिक्त कदम उठाए बिना, Meta अपने मानवाधिकारों की ज़िम्मेदारियों को ठीक से पूरा नहीं कर सकता. यह तथ्य कि Meta ने कंटेट को रीस्टोर किया, इस चिंता की पुष्टि करता है.

वर्तमान केस में कंटेंट सशस्त्र संघर्ष के दौरान पोस्ट किया गया था. ऐसी स्थितियों में Meta को जीवन के अधिकार की रक्षा के लिए और ज़्यादा ज़रूरी कदम उठाने पड़ते हैं. असत्यापित अफ़वाहें जीवन के लिए तात्कालिक खतरे से सीधे जुड़ी हुई हैं और Meta को यह साबित करना होगा कि इथियोपिया में इसकी पॉलिसी और संघर्ष से संबंधित खास उपायों से जीवन की रक्षा करने और अत्याचारों को रोकने की संभावना है (इथियोपियाई संघर्ष पर Meta की प्रतिक्रिया के लिए सेक्शन 6 देखें). ऐसे उपायों के न होने से, बोर्ड को यह फैसला देना होगा कि कंटेंट को हटा दिया जाना चाहिए. अस्त्यापित अफ़वाहों के ज़रिये उस नरेटिव को प्रसारित करने वाली बेशुमार पोस्ट को रोकने के लिए, इस केस में चल रहे हिंसक जातीय संघर्ष के दौरान उन्हें हटाना ही ज़रूरी और उचित उपाय है.

बोर्ड के एक अल्पसंख्यक ने इस निर्णय की सीमित प्रकृति को लेकर अपनी समझ पर प्रकाश डाला. चल रहे हिंसक संघर्ष के संदर्भ में, अन्य नागरिकों के खिलाफ जातीय कारणों से प्रेरित नागरिकों द्वारा हिंसा के बारे में अस्त्यापित अफ़वाह फैलाने वाली पोस्ट पहले से ही हिंसक हो रही स्थिति को बढ़ाने का गंभीर खतरा पैदा करती है, खासकर जहाँ Meta सही समय पर अफ़वाह को सत्यापित करने में असमर्थ हो. इस तरह के बढ़े हुए जोखिमों ने Meta के मानवाधिकारों की ज़िम्मेदारी को संघर्ष में शामिल कंटेंट मॉडरेशन के संबंध में ज़रूरी कदम उठाने के लिए प्रेरित किया. हालाँकि इसमें कई तरह के हाई अलर्ट थे, Meta ने कन्फ़र्म किया कि इस तरह के सिस्टम ने इस केस में इसके निर्धारण को प्रभावित नहीं किया, जिसे तात्कालिक हिंसा के जोखिम को देखते हुए समझ पाना मुश्किल है. जैसा कि बोर्ड के पिछले निर्णय ( 2021-001-FB-FBR) में बताया गया है, यह आकलन करना मुश्किल है कि क्या कंटेंट को हटाने से कमतर उपायों से यूज़र की अभिव्यक्ति पर एक वैधानिक लक्ष्य पाने के लिए कम से कम बोझ होगा, जब Meta इस बारे में प्रासंगिक जानकारी प्रदान नहीं करता कि क्या उसके खुद के बनाए गए निर्णयों और पॉलिसी ने संभावित नुकसान पहुँचाने वाली अभिव्यक्ति को बढ़ावा दिया है.

9. ओवरसाइट बोर्ड का फ़ैसला

ओवरसाइट बोर्ड ने Meta का कंटेंट को हटाने का मूल फ़ैसला कायम रखा है. यह देखते हुए कि Meta ने बाद में बोर्ड से यूज़र की अपील के बाद कंटेंट को रीस्टोर कर दिया, अब उसे एक बार फिर से कंटेंट को प्लेटफ़ॉर्म से हटा देना चाहिए.

10. पॉलिसी से जुड़ी सलाह का कथन

कंटेंट पॉलिसी

1. Meta को अपनीे “सुरक्षा” की वैल्यू को फिर से लिखकर बताना चाहिए कि ऑनलाइन अभिव्यक्ति से डराने-धमकाने, बहिष्कार करने और आवाज़ दबाने के जोख़िम के साथ ही लोगों की जान की सुरक्षा और जीने के अधिकार के लिए ख़तरा पैदा हो सकता है.

2. Facebook के कम्युनिटी स्टैंडर्ड ये दर्शाएँ कि युद्ध और हिंसक विवाद के संदर्भ में अस्त्यापित अफ़वाहों से जीने के अधिकार और लोगों की जान की सुरक्षा को बड़ा ख़तरा हो सकता है. इसे मॉडरेशन प्रोसेस के सभी स्तरों पर दर्शाना चाहिए.

पारदर्शिता

3. Meta को इस बारे में मानव अधिकारों के संबंध में जाँच-पड़ताल के साथ स्वतंत्र मूल्यांकन का आदेश देना चाहिए कि इथियोपिया में हिंसा के जोख़िम को बढ़ाकर नफ़रत फैलाने वाली भाषा और अस्त्यापित अफ़वाहों के प्रसार के लिए Facebook और Instagram का उपयोग कैसे किया गया था. इस मूल्यांकन में Meta द्वारा इथियोपिया में इसके प्रोडक्ट तथा सेवाओं के गलत उपयोग को रोकने के लिए किए गए उपायों की सफलता का रिव्यू किया जाना चाहिए. इस मूल्यांकन में Meta द्वारा इथियोपिया में मानव अधिकारों के उल्लंघन पर संपुष्ट और सार्वजनिक हित के लिए रिपोर्टिंग को सक्षम करने के लिए किए गए उपायों की सफलता का रिव्यू भी किया जाना चाहिए. मूल्यांकन में इथियोपिया में Meta की भाषा से जुड़ी क्षमताओं के साथ ही इस बात का मूल्यांकन होना चाहिए कि ये क्षमताएँ इसके यूज़र्स के अधिकारों की सुरक्षा के लिए पर्याप्त हैं या नहीं. मूल्यांकन में 1 जून, 2020 से लेकर वर्तमान अवधि को शामिल करना चाहिए. कंपनी को इन सुझावों पर प्रतिक्रिया देने के छ: महीनों के भीतर मूल्यांकन पूरा करना चाहिए. मूल्यांकन सविस्तार प्रकाशित किया जाना चाहिए.

*प्रक्रिया संबंधी नोट:

ओवरसाइट बोर्ड के फ़ैसले पाँच सदस्यों के पैनल द्वारा लिए जाते हैं और बोर्ड के अधिकांश सदस्य इन पर सहमति देते हैं. ज़रूरी नहीं है कि बोर्ड के फ़ैसले उसके हर एक मेंबर की निजी राय को दर्शाएँ.

इस केस के फ़ैसले के लिए, बोर्ड की ओर से स्वतंत्र शोध को अधिकृत किया गया. एक स्वतंत्र शोध संस्थान जिसका मुख्यालय गोथेनबर्ग यूनिवर्सिटी में है और छह महाद्वीपों के 50 से भी ज़्यादा समाजशास्त्रियों की टीम के साथ ही दुनिया भर के देशों के 3,200 से भी ज़्यादा विशेषज्ञों ने सामाजिक-राजनैतिक और सांस्कृतिक संदर्भ में विशेषज्ञता मुहैया कराई है. Lionbridge Technologies, LLC कंपनी ने भाषा संबंधी विशेषज्ञता की सेवा दी, जिसके विशेषज्ञ 350 से भी ज़्यादा भाषाओं में अपनी सेवाएँ देते हैं और वे दुनिया भर के 5,000 शहरों से काम करते हैं. Duco Advisers, जो भौगोलिक-राजनैतिक, विश्वास और सुरक्षा तथा टेक्नोलॉजी के आपसी संबंध पर काम करने वाली एक एडवाइज़री फ़र्म है, ने भी रिसर्च डेटा दिया.

मामले के निर्णयों और नीति सलाहकार राय पर लौटें