ओवरसाइट बोर्ड ने Facebook से ज़्यादा पारदर्शिता की माँग की

पिछले कई हफ़्तों में, मीडिया रिपोर्टिंग ने Facebook के फ़ैसले लेने के असंगत लगने वाले तरीके पर और इस बात पर फिर से ध्यान खींचा है कि Facebook की ज़्यादा पारदर्शिता और स्वतंत्र निगरानी यूज़र्स के लिए इतनी महत्वपूर्ण क्यों है.

जनवरी में अपने शुरुआती फ़ैसलों को प्रकाशित करने के बाद ओवरसाइट बोर्ड ने Facebook से आग्रह किया है कि वह अपने काम करने के तरीके के बारे में और जानकारी दे तथा अपने यूज़र्स के साथ निष्पक्ष व्यवहार करे. हमने अब तक 20 महत्वपूर्ण केसों पर काम किया है और 17 केसों पर फ़ैसला सुनाया है, जिनमें नफ़रत फैलाने वाली भाषा से लेकर COVID-19 से जुड़ी गलत जानकारी तक के विषयों को कवर किया गया है. हमें दुनिया भर के लोगों से लगभग 10,000 पब्लिक कमेंट मिले हैं और हमने Facebook को 75 से ज़्यादा सुझाव भी दिए हैं.

पारदर्शिता को लेकर हमारी प्रतिबद्धता के तहत आज हम अपनी पहली तीन त्रैमासिक पारदर्शिता रिपोर्ट प्रकाशित कर रहे हैं.

इनमें 2020 की चौथी तिमाही के साथ ही 2021 की पहली और दूसरी तिमाही की रिपोर्ट शामिल हैं. इनमें यूज़र्स की ओर से हमें मिलने वाले केसों, हमारे द्वारा लिए गए फ़ैसलों और हमारी ओर से Facebook को दिए गए सुझावों से जुड़ी नई जानकारी दी गई है. अब से हम हर तिमाही के बाद जल्द से जल्द पारदर्शिता रिपोर्ट प्रकाशित करेंगे. हम वार्षिक रिपोर्ट भी प्रकाशित करेंगे, जिनमें इस बात का और विस्तार से गुणवत्तापूर्ण मूल्यांकन किया जाएगा कि Facebook बोर्ड के फ़ैसलों और सुझावों को किस तरह लागू कर रहा है.

आज की रिपोर्ट में यह निष्कर्ष निकाला गया है कि Facebook ने अपने उस 'क्रॉस-चेक' सिस्टम के संबंध में बोर्ड को पूरी तरह से स्पष्ट जानकारी नहीं दी है, जिसका उपयोग कंपनी हाई-प्रोफ़ाइल यूज़र्स से संबंधित कंटेंट के फ़ैसलों को रिव्यू करने के लिए करती है. बोर्ड ने यह घोषणा भी की है कि उसने पॉलिसी से संबंधित सलाह के तौर पर Facebook के उस अनुरोध को स्वीकार कर लिया है, जिसमें उसने बोर्ड से कहा है कि वह Facebook के क्रॉस-चेक सिस्टम का रिव्यू करके उसमेंं बदलाव करने के बारे मेंं सुझाव दे. इस रिव्यू के तहत, Facebook ने सहमति दी है कि वह बोर्ड के साथ क्रॉस-चेक सिस्टम से संबंधित दस्तावेज़ शेयर करेगा, जैसा कि Wall Street Journal में रिपोर्ट किया गया है.

बोर्ड की त्रैमासिक रिपोर्ट के छह हाइलाइट

1.पाँच लाख से ज़्यादा यूज़र अपील बोर्ड के समक्ष पेश की गईं

अक्टूबर 2020 से जून 2021 के अंत तक Facebook और Instagram यूज़र्स ने बोर्ड के समक्ष लगभग 524,000 केस पेश किए हैं. हर तिमाही में यूज़र्स द्वारा की गईं अपीलों की संख्या बढ़ी है, जिसमें 2020 की चौथी तिमाही में केसों की संख्या लगभग 114,000 थी, 2021 की पहली तिमाही में 203,000 और 2021 की दूसरी तिमाही में यह संख्या बढ़कर लगभग 207,000 हो गई.

2. ऐसी अपीलों में से, जिनमें यूज़र्स चाहते थे कि उनके कंटेंट को रीस्टोर कर दिया जाए, दो तिहाई अपीलें नफ़रत फैलाने वाली भाषा या धमकियों से संबंधित थीं.

हमारा अनुमान है कि जून 2021 के अंत तक बोर्ड के समक्ष पेश किए गए सभी केसों में से एक तिहाई से ज़्यादा केस (36%) Facebook के नफ़रत फैलाने वाली भाषा से जुड़े नियमों से संबंधित थे. हमारा अनुमान है कि पेश किए गए सभी केसों में से और एक तिहाई हिस्सा (31%) डराने-धमकाने और उत्पीड़न के केसों का था और बाकी के अधिकांश केस हिंसा और उकसावे (13%), वयस्क नग्नता और यौन गतिविधि (9%) तथा खतरनाक लोग और संगठनों (6%) से संबंधित थे. इन आँकड़ों में यूज़र्स द्वारा Facebook से कंटेंट को हटाने की अपीलें शामिल नहीं हैं, जो अप्रैल के मध्य से मिलनी शुरू हुईं.

3. लगभग आधी यूज़र अपीलें अमेरिका और कनाडा से की गई थीं

हमारा अनुमान है कि जून के अंत तक पेश किए गए लगभग आधे केस (46%) अमेरिका और कनाडा से आए, जबकि 22% केस यूरोप तथा 16% लैटिन अमेरिका और कैरिबियन से आए. हमारा अनुमान है कि 8% केस एशिया पैसिफ़िक ओशेनिया क्षेत्र, 4% मध्यपूर्व और उत्तरी अफ़्रीका, 2% मध्य और दक्षिण एशिया तथा 2% उप-सहारा अफ़्रीका से आए.

हमें नहीं लगता कि यह आँकड़े दुनिया भर में Facebook कंटेंट की समस्याओं के वास्तविक वितरण को दर्शाते हैं. जो भी हो, हमारे पास यह विश्वास करने का कारण है कि एशिया, उप-सहारा अफ़्रीका और मध्यपूर्व के यूज़र्स दुनिया के ज़्यादा अपीलों वाले हिस्सों की तुलना में Facebook पर ज़्यादा समस्याओं का सामना करते हैं.

हम इन क्षेत्रों में अपनी पहुँच बढ़ा रहे हैं ताकि यह सुनिश्चित किया जा सके कि हर जगह के यूज़र्स पर बोर्ड की निगरानी रहे तथा हमारा आग्रह है कि एशिया, उप-सहारा अफ़्रीका और मध्यपूर्व के यूज़र्स और नागरिक समाज संगठन हमारी चिंता पर ध्यान दें और अपने क्षेत्रों में Facebook द्वारा किए जाने वाले खराब कंटेंट मॉडरेशन के प्रभाव सामने आने पर अपील करें.

4. बोर्ड की व्यापक प्रक्रियाओं ने Facebook को अहम केसों से जुड़े 30 से ज़्यादा कंटेंट को रीस्टोर करने के लिए प्रेरित किया

बोर्ड की केसों को शॉर्टलिस्ट करने की प्रक्रिया के तहत हम Facebook से कहते हैं कि वह यह कन्फ़र्म करे कि केस उपनियमों के तहत रिव्यू किए जाने के लिए योग्य हों. इस प्रक्रिया के परिणामस्वरूप, जून के अंत तक Facebook ने शॉर्टलिस्ट किए गए ऐसे 38 केस पहचाने, जिनमें संबंधित कंटेंट को लेकर उसका शुरुआती फ़ैसला गलत था.

इनमें से 35 केसों में, Facebook ने कंटेंट पर एक्शन लिया, जबकि बाकी तीन केसों में वह ऐसा नहीं कर सका क्योंकि यूज़र ने उस कंटेंट को डिलीट कर दिया था.

ऐसे सभी केस जिनमें Facebook ने अपने शुरुआती फ़ैसले को गलत पाया, उनमें से लगभग आधे केस नफ़रत फैलाने वाली भाषा से जुड़े कम्युनिटी स्टैंडर्ड से संबंधित थे, जबकि लगभग एक तिहाई केस खतरनाक लोगों और संगठनों से जुड़े थे.

5. Facebook, बोर्ड के द्वारा पूछे गए अधिकांश सवालों के जवाब दे रहा है लेकिन सभी के नहीं

अपने फ़ैसले लेने में सहायता पाने के लिए और Facebook पर ज़्यादा से ज़्यादा पारदर्शी बने रहने का ज़ोर डालने के लिए हम Facebook को कुछ ख़ास केसों से संबंधित सवाल भेजते हैं. जून के अंत तक हमारे द्वारा प्रकाशित फ़ैसलों के बारे में Facebook को भेजे गए 156 सवालों में से उसने 130 के जवाब दिए, 12 के अधूरे जवाब दिए और 14 के जवाब देने से मना कर दिया.

किसी ख़ास चीज़ से संबंधित सवाल पूछकर और अपने अंतिम फ़ैसले में उसकी जानकारी शामिल करके हम आशा करते हैं कि यूज़र्स और रिसर्चर्स को इस बारे में ज़्यादा से ज़्यादा जानकारी मिलेगी कि कंपनी किस तरह काम करती है.

अपनी रिपोर्ट में हम उस तरह के सवालों के उदाहरण देते हैं, जिनके जवाब देने से Facebook ने मना कर दिया और उनमें ऐसा नहीं करने के पीछे कंपनी की ओर से बताए गए कारण भी होते हैं. जैसे कि कई मामलों में Facebook ने यूज़र के Facebook पर पिछले व्यवहार से जुड़े सवालों के जवाब देने से मना कर दिया और कंपनी ने इसका कारण यह बताया कि उसके अनुसार यह जानकारी चल रहे केस से किसी भी तरह संबंधित नहीं थी.

6. Facebook ने क्रॉस-चेक के संबंध में बोर्ड को पूरी तरह स्पष्ट जानकारी नहीं दी थी

Wall Street Journal में हाल ही में हुए खुलासे के बाद बोर्ड यह विचार करने के लिए प्रतिबद्ध हुआ कि क्या Facebook अपने उस क्रॉस-चेक सिस्टम के बारे में दिए गए जवाबों में स्पष्टवादी रहा है, जिसका उपयोग कंपनी हाई-प्रोफ़ाइल यूज़र्स से संबंधित कंटेंट के फ़ैसलों को रिव्यू करने के लिए करती है.

बोर्ड की नज़र में Facebook में जानकारी उपलब्ध करवाने का काम करने वाली टीम क्रॉस-चेक के बारे में पूरी तरह स्पष्टवादी नहीं रही है. कुछ मामलों में Facebook, बोर्ड को प्रासंगिक जानकारी देने में विफल रहा, जबकि अन्य मामलों में, उसके द्वारा दी गई जानकारी अधूरी थी.

जब Facebook ने अमेरिका के पूर्व राष्ट्रपति ट्रंप से संबंधित केस के बारे में बोर्ड को बताया, तब उसने क्रॉस-चेक सिस्टम का उल्लेख नहीं किया था. यह देखते हुए कि रेफ़र किए गए केस में राजनीतिक नेताओं के लिए अकाउंट लेवल के एन्फ़ोर्समेंट से जुड़ा, पॉलिसी से संबंधित एक विशेष सवाल था, जिनमें से कई राजनीतिक नेताओं को बोर्ड के अनुसार क्रॉस-चेक द्वारा कवर किया गया था, यह चूक स्वीकार्य नहीं है. Facebook ने बोर्ड के सामने क्रॉस-चेक का उल्लेख केवल तभी किया जब हमने पूछा कि क्या पूर्व राष्ट्रपति ट्रंप का पेज या अकाउंट, कंटेंट मॉडरेशन की सामान्य प्रक्रियाओं के अधीन था.

बोर्ड को बाद में दिए गए अपने विवरण में Facebook ने स्वीकार किया कि उसे यह नहीं कहना चाहिए था कि क्रॉस-चेक केवल "कुछ ही फ़ैसलों" पर लागू होता है. Facebook ने नोट किया कि एक दिन में कंटेंट से जुड़े लाखों फ़ैसले लेने के लिए बड़े पैमाने पर काम करने वाली टीमों के लिए क्रॉस-चेक से जुड़ी संख्या अपेक्षाकृत कम लगती है, लेकिन उसने माना कि लोगों को इसका नाम भ्रामक लग सकता है.

हमने यह भी ध्यान दिया कि "शामिल करने के लिए चुने जाने वाले पेज और अकाउंट का निर्धारण करने के मानदंड सहित [क्रॉस-चेक] रिव्यू के तर्क, मानकों और प्रक्रियाओं को स्पष्ट रूप से बताने" के हमारे सुझाव को लेकर Facebook के जवाब में क्रॉस-चेक में शामिल करने के लिए चुने जा रहे अकाउंट या पेज के मानदंड के संबंध में कोई महत्वपूर्ण पारदर्शिता दिखाई नहीं दी.

ओवरसाइट बोर्ड की विश्वसनीयता, Facebook के साथ हमारे कामकाजी संबंध और केसों के संबंध में मज़बूती से फ़ैसला लेने की हमारी योग्यता जैसी सभी चीज़ें इस बात पर भरोसा कर पाने पर निर्भर करती हैं कि Facebook द्वारा हमें दी गई जानकारी कितनी सटीक और व्यापक है तथा उससे विचाराधीन मामले के बारे में कितनी विस्तृत जानकारी मिलती है. हम Facebook द्वारा दी जाने वाली जानकारी को ट्रैक और रिपोर्ट करते रहेंगे ताकि यह सुनिश्चित किया जा सके कि यह यथासंभव व्यापक और पूर्ण है.

आज बोर्ड ने यह घोषणा भी की है कि उसने पॉलिसी से संबंधित सलाह के तौर पर Facebook के उस अनुरोध को स्वीकार कर लिया है, जिसमें उसने बोर्ड से कहा है कि वह कंपनी के क्रॉस-चेक सिस्टम का रिव्यू करके उसमेंं बदलाव करने के बारे मेंं सुझाव दे.

ख़ास तौर पर, Facebook ने अन्य बातों के साथ ही इन पर भी मार्गदर्शन देने का अनुरोध किया: संदर्भ को ध्यान में रखते हुए क्रॉस-चेक रिव्यू में निष्पक्षता कैसे सुनिश्चित की जा सकती है; क्रॉस-चेक को नियंत्रित कैसे किया जाए और पारदर्शिता को बढ़ावा कैसे दिया जाए; तथा वह मानदंड जिसका उपयोग वह यह निर्धारित करने के लिए करता है कि क्रॉस-चेक में किसे शामिल किया जाए और यह सुनिश्चित करने का तरीका कि यह निष्पक्ष हो.

अब जब हमने Facebook के अनुरोध को स्वीकार कर लिया है, तो बोर्ड शिक्षाविदों और शोधकर्ताओं सहित दुनिया भर के नागरिक समाज के साथ जुड़ेगा और हम इस महत्वपूर्ण मुद्दे की जाँच करेंगे. इसमें पब्लिक कमेंट माँगे जाएँगे, जिसकी शुरुआत हम आने वाले दिनों में करेंगे. पूरी जानकारी के आधार पर अपना काम करने के लिए बोर्ड कई तरह के लोगों से संपर्क करता रहेगा, इसमें Facebook के ऐसे पूर्व कर्मचारी भी शामिल होंगे, जो हाल ही के महीनों में आगे आए हैं.

Facebook ने अब सहमति दी है कि वह बोर्ड के साथ क्रॉस-चेक से संबंधित दस्तावेज़ शेयर करेगा, जैसा कि Wall Street Journal में रिपोर्ट किया गया है. पॉलिसी के संबंध में अपनी सलाह देते समय बोर्ड इनका रिव्यू करेगा.

Facebook ने इस बात पर भी सहमति जताई है कि अब से वह ऐसे व्यापक संदर्भ के बारे में जानकारी देने के लिए प्रतिबद्ध है, जो बोर्ड के केस से जुड़े फ़ैसलों के लिए प्रासंगिक हो सकता है. इससे वह काम पूरी तरह समझ में आना चाहिए जो Facebook ने संबंधित विषय को लेकर पहले ही कर लिया है. हम आगे की अपनी पारदर्शिता रिपोर्टिंग में इससे संबंधित विश्लेषण शामिल करेंगे कि क्या Facebook इस प्रतिबद्धता को पूरा कर रहा है.

बोर्ड के द्वारा पॉलिसी से संबंधित इस सलाह पर विचार कर लेने और इसे स्वीकृति दे देने पर हम Facebook को अपने सुझाव देंगे. तब Facebook को 30 दिनों के भीतर जवाब देना होगा.

यूज़र्स Facebook के नियमों के बारे में अंदाज़ा लगाते रह गए

आज की रिपोर्ट में शामिल किए गए अधिकांश फ़ैसलों में और हमारे अब तक प्रकाशित फ़ैसलों में एक बात स्पष्ट रूप से सामने आई है: Facebook अपने प्लेटफ़ॉर्म का उपयोग करने वाले लोगों को स्पष्ट जानकारी नहीं दे रहा है. हमने लगातार देखा है कि यूज़र्स इस बारे में अंदाज़ा लगाते रह जाते हैं कि Facebook ने उनका कंटेंट क्यों हटाया होगा.

हमारे शुरुआती केसों में से एक में, Facebook ने किसी यूज़र के कंटेंट को हटा दिया, लेकिन उन्हें यह नहीं बताया कि उन्होंने किस कम्युनिटी स्टैंडर्ड का उल्लंघन किया था. दूसरे केस में, Facebook ने एक यूज़र के द्वारा बोर्ड में अपील करने से पहले तक उनकी अपील का रिव्यू नहीं किया. एक और केस में, Facebook ने बताया कि यूज़र ने खतरनाक लोगों से जुड़े नियमों का उल्लंघन किया था, लेकिन फिर पाया कि उसने तीन साल तक पॉलिसी से जुड़े एक ऐसे अपवाद पर ध्यान नहीं दिया, जिसके तहत उस यूज़र की पोस्ट की स्पष्ट रूप से परमिशन थी.

जून के अंत तक पाँच लाख से ज़्यादा अपीलें मिलने के बाद, हम समझ गए हैं कि यह तो एक छोटी सी संख्या है. इस समय, यह बात तो साफ़ है कि यूज़र्स के साथ पारदर्शिता नहीं रखकर Facebook उनके साथ निष्पक्ष व्यवहार नहीं कर रहा है.

कई लोग इस अनुभव से खुद को जोड़ सकते हैं कि उनके कंटेंट को इस बारे में ज़्यादा जानकारी दिए बिना ही निकाल दिया गया था कि उनसे क्या गलती हुई थी. बोर्ड, यूज़र्स पर पड़ने वाले प्रभाव और दुनिया भर में अभिव्यक्ति की स्वतंत्रता पर पड़ सकने वाले असर को लेकर बेहद चिंतित है.

Facebook को ज़्यादा पारदर्शिता की ओर बढ़ाना

पारदर्शिता, स्पष्ट रूप से एक ऐसा क्षेत्र है, जिसमें Facebook को तत्काल सुधार करना चाहिए और हम इसमें उसकी मदद करने के लिए तैयार हैं. हमारे सुझावों में Facebook से बार-बार यह आग्रह किया गया है कि वह पारदर्शिता के कुछ सबसे महत्वपूर्ण सिद्धांतों का पालन करे: अपने नियमों को अपने यूज़र्स की भाषाओं में आसानी से उपलब्ध करवाए; लोगों को जितना हो सके स्पष्ट रूप से बताए कि आप अपने फ़ैसले कैसे लेते हैं और उन्हें कैसे लागू करते हैं; और जब लोग आपके नियम तोड़ें, तो उन्हें सही बताए कि उनसे क्या गलती हुई है.

जब से Facebook ने इस साल की शुरुआत में हमारे सुझावों के शुरुआती जवाब प्रकाशित किए हैं, तब से हमने यूज़र्स के लिए पारदर्शिता बढ़ाने की संभावना वाली कंपनी की कुछ शुरुआती प्रतिबद्धताओं को पहले ही देख लिया है.

मई में, Facebook ने इस साल के अंत तक अपने कम्युनिटी स्टैंडर्ड का पंजाबी भाषा में अनुवाद करने का विश्वास दिलाया था, जिसे बोलने वाले लोगों की संख्या 13 करोड़ है. जून में, Facebook ने इस साल के अंत तक अपने कम्युनिटी स्टैंडर्ड में व्यंग्य से जुड़े अपने अपवाद को शामिल करने का संकल्प लिया था, जिसके बारे में यूज़र्स को पहले नहीं बताया गया था.

अगस्त में, Facebook, किसी सरकार द्वारा औपचारिक रिपोर्ट मिलने के बाद उसके कम्युनिटी स्टैंडर्ड का उल्लंघन करने के कारण हटाए गए कंटेंट के बारे में अपने ट्रांसपेरेंसी सेंटर में जानकारी देने पर सहमत हुआ, जिसमें उसे मिले अनुरोधों की संख्या की जानकारी भी शामिल थी. और इस महीने, Facebook ने कहा कि वह एक ऐसी निष्पक्ष संस्था के बारे में दिए गए हमारे सुझाव को “पूरी तरह लागू” करेगा जो इज़राइली-फ़िलिस्तीनी संघर्ष के किसी भी पक्ष से संबद्ध न हो, ताकि इस मामले की विस्तृत जाँच की जा सके कि ऑटोमेशन के उसके उपयोग सहित क्या हिब्रू और अरबी भाषाओं में उसके कंटेंट मॉडरेशन को पूर्वाग्रह के बिना लागू किया गया है.

हम मानते हैं कि यह शुरुआत भर है. इन और अन्य सुझावों के लिए हम निगरानी करेंगे कि क्या Facebook अपने वादों को पूरा कर रहा है और वह उन्हें किस तरह पूरा कर रहा है. हम मानते हैं कि समय के साथ हमारे सुझावों का मिला-जुला प्रभाव Facebook को ज़्यादा पारदर्शी बनने के लिए प्रेरित करेगा और इससे यूज़र्स को फ़ायदा होगा.

इसके बाद क्या होगा

Facebook को ज़्यादा पारदर्शी बनने, यूज़र्स के साथ निष्पक्ष व्यवहार करने और अपनी मानवाधिकार प्रतिबद्धताओं का सम्मान करने के लिए प्रेरित करना एक लंबे समय तक चलने वाली कोशिश है, जिसके लिए नीति-निर्माताओं और नियामकों, नागरिक समाज, शोधकर्ताओं और मीडिया की सहभागिता ज़रूरी है. ओवरसाइट बोर्ड इस पहल का हिस्सा है.

जिन क्षेत्रों में हमें लगेगा कि Facebook की ओर से कमी रह रही है, जैसे कि पारदर्शिता में, तो हम कंपनी को और बेहतर काम करने की चुनौती देते रहेंगे. हम अपने फ़ैसलों, सुझावों और नियमित पारदर्शिता रिपोर्टिंग के ज़रिए ऐसा करेंगे, जिनमें हमारी वार्षिक रिपोर्ट भी शामिल होगी, जिसे हम अगले साल प्रकाशित करेंगे.

कैटालिना बोटेरो-मरीनो, जमाल ग्रीन, माइकल मैककॉनेल, हेले थॉर्निंग-श्मिड

ओवरसाइट बोर्ड के सह-अध्यक्ष

संलग्नक

Quarterly transparency reports

समाचार पर लौटें