पलट जाना
अल जज़ीरा की शेयर की गई पोस्ट
14 सितम्बर 2021
ओवरसाइट बोर्ड इस बात से सहमत है कि Facebook अपने उस मूल फ़ैसले को बदलने के मामले में सही था जिसमें उसने Facebook पर मौजूद ऐसे कंटेंट को हटा दिया था जिसमें फ़िलिस्तीनी समूह हमास की सैन्य इकाई इज़ अल-दीन अल-क़ासम ब्रिगेड की ओर से हिंसा के खतरे के बारे में एक समाचार पोस्ट शेयर की गई थी.
कृपया ध्यान दें, यह फ़ैसला अरबी (इस स्क्रीन के सबसे ऊपर मौजूद मेनू से एक्सेस किए जाने वाले 'भाषा' टैब के ज़रिए) और हिब्रू (इस लिंक के ज़रिए), दोनों भाषाओं में उपलब्ध है.
לקריאת ההחלטה במלואה יש ללחוץ כאן.
केस का सारांश
ओवरसाइट बोर्ड इस बात से सहमत है कि Facebook अपने उस मूल फ़ैसले को बदलने के मामले में सही था जिसमें उसने Facebook पर मौजूद ऐसे कंटेंट को हटा दिया था जिसमें फिलिस्तीनी समूह हमास की सैन्य इकाई इज़ अल-दीन अल-क़ासम ब्रिगेड की ओर से हिंसा के खतरे के बारे में एक समाचार पोस्ट शेयर की गई थी. Facebook ने शुरूआत में खतरनाक लोग और संगठन से जुड़े कम्युनिटी स्टैंडर्ड के तहत कंटेंट को हटा दिया था और बोर्ड द्वारा रिव्यू के लिए इस केस को चुनने के बाद इसे रीस्टोर कर दिया था. बोर्ड ने निष्कर्ष निकाला कि कंटेंट को हटाने से ऑफ़लाइन नुकसान कम नहीं हुआ लेकिन सार्वजनिक हित के मुद्दे पर अभिव्यक्ति की स्वतंत्रता प्रतिबंधित हुई.
केस की जानकारी
10 मई 2021 को मिस्र के 15000 से ज़्यादा फ़ॉलोअर्स वाले एक Facebook यूज़र ने अल जज़ीरा अरेबिक नाम के वेरिफ़ाई किए गए पेज से एक पोस्ट शेयर की थी जिसमें अरबी भाषा में लिखा टेक्स्ट और एक फ़ोटो थी.
फ़ोटो में दो पुरुष सैन्य वर्दी पहने दिखाई दे रहे हैं, उनके चेहरे ढँके हुए हैं और उन्होंने अल-क़ासम ब्रिगेड के चिह्न वाले हेडबैंड पहने हुए हैं. टेक्स्ट में कहा गया है कि "The resistance leadership in the common room gives the occupation a respite until 18:00 to withdraw its soldiers from Al-Aqsa Mosque and Sheikh Jarrah neighborhood otherwise he who warns is excused. Abu Ubaida – Al-Qassam Brigades military spokesman." (कॉमन रूम में विरोधी लीडरशिप कब्ज़ा करने वाले पक्ष को अल-अक्सा मस्ज़िद और शेख़ जर्राह के आसपास के इलाकों से उसके सैनिक हटाने के लिए शाम 6 बजे की मोहलत देती है, अन्यथा अब चेतावनी दे दी गई है, और चेतावनी देने वाले की गलती नहीं मानी जाएगी. अबु ऊबैदा - अल-क़ासम ब्रिगेड सेना का प्रवक्ता.) यूज़र ने अल जज़ीरा की पोस्ट शेयर करते हुए उसके कैप्शन में अरबी भाषा में केवल एक शब्द “Ooh” (ओह) लिखा था. अल-क़ासम ब्रिगेड और उनके प्रवक्ता अबु ऊबैदा, दोनों को Facebook के खतरनाक लोग और संगठन से जुड़े कम्युनिटी स्टैंडर्ड के तहत खतरनाक के रूप में चिह्नित किया गया है.
Facebook ने इस पॉलिसी का उल्लंघन करने के कारण कंटेंट को हटा दिया, जिसके बाद यूज़र ने बोर्ड में केस की अपील की. बोर्ड द्वारा इस केस को चुनने के परिणामस्वरूप Facebook ने यह निष्कर्ष निकाला कि उसने गलती से कंटेंट को हटा दिया था और इसके बाद उसे रीस्टोर कर दिया.
मुख्य निष्कर्ष
बोर्ड द्वारा इस केस को चुनने के बाद, Facebook ने यह पाया कि कंटेंट से खतरनाक लोगों और संगठनों से जुड़े उसके नियमों का उल्लंघन नहीं हुआ था क्योंकि उसमें अल-क़ासम ब्रिगेड या हमास की प्रशंसा, समर्थन या प्रतिनिधित्व नहीं किया गया था. Facebook यह नहीं बता पाया कि दो ह्यूमन रिव्यूअर्स ने शुरुआत में यह फ़ैसला क्यों किया कि कंटेंट से इस पॉलिसी का उल्लंघन हुआ था, यह देखते हुए कि मॉडरेटर्स को कंटेंट से जुड़े अलग-अलग फ़ैसलों के लिए अपने तर्क को रिकॉर्ड करने की आवश्यकता नहीं है.
बोर्ड ने यह माना कि कंटेंट में तत्काल सार्वजनिक चिंता के मामले पर किसी वैध समाचार आउटलेट के एक समाचार का दोबारा प्रकाशन शामिल है. अल जज़ीरा की ओर से शेयर की गई ओरिजनल पोस्ट को कभी भी हटाया नहीं गया था और अल-क़ासम ब्रिगेड की हिंसा की धमकी को कहीं और व्यापक रूप से रिपोर्ट किया गया था. आमतौर पर, लोगों के पास समाचारों को फिर से पोस्ट करने का उतना ही अधिकार है, जितना कि मीडिया संगठनों के पास उन्हें सबसे पहले प्रकाशित करने का होता है.
इस केस में यूज़र ने बताया कि उनका उद्देश्य अपने फ़ॉलोअर्स को वर्तमान के महत्वपूर्ण मुद्दे पर अपडेट देना था और उनका "Ooh" (ओह) की अभिव्यक्ति जोड़ना निष्पक्ष दिखाई देता है. उसी तरह, बोर्ड ने पाया कि यूज़र के कंटेंट को हटाने से ऑफ़लाइन नुकसान में कोई कमी नहीं आई.
इन आरोपों पर प्रतिक्रिया देते हुए कि Facebook ने इज़राइली सरकार की माँगों के कारण फिलिस्तीनी कंटेंट को सेंसर कर दिया है, बोर्ड ने Facebook से सवाल किया कि क्या कंपनी को अप्रैल से मई के बीच हुए संघर्ष से संबंधित कंटेंट को हटाने के लिए इज़राइल की ओर से आधिकारिक और अनाधिकारिक अनुरोध मिले थे. Facebook ने जवाब दिया कि उसे इस केस में यूज़र के कंटेंट के संबंध में किसी सरकारी अधिकारी की ओर से वैध कानूनी अनुरोध नहीं मिला था, लेकिन उसने बोर्ड द्वारा माँगी गई अन्य जानकारी देने से इनकार कर दिया.
इस केस को लेकर सबमिट किए गए पब्लिक कमेंट में ये आरोप शामिल थे कि Facebook ने फिलिस्तीनी यूज़र्स के कंटेंट और अरबी भाषा के कंटेंट को असंगत तरीके से हटा दिया है या कम कर दिया है, ख़ास तौर पर इज़राइल में अरब-विरोधी या फिलिस्तीनी विरोधी हिंसा की धमकी देने वाली पोस्ट को प्रबंधित करने के उसके तरीके की तुलना में. साथ ही, इज़राइली नागरिकों के विरुद्ध हिंसा भड़काने वाले कंटेंट को हटाने के कड़े नियम नहीं बनाने के लिए Facebook की आलोचना की गई है. बोर्ड ने इन महत्वपूर्ण मुद्दों का निष्पक्ष रिव्यू करने के साथ ही सरकारी अनुरोधों के संबंध में ज़्यादा पारदर्शिता रखने का सुझाव दिया है.
ओवरसाइट बोर्ड का फ़ैसला
ओवरसाइट बोर्ड ने यह देखते हुए कंटेंट को रीस्टोर करने के Facebook के फ़ैसले को स्वीकार किया कि कंटेंट को हटाने के उसके मूल फ़ैसला उपयुक्त नहीं था.
पॉलिसी से जुड़े सुझाव के कथन में बोर्ड ने कहा कि Facebook:
- निष्पक्ष चर्चा, निंदा और समाचार रिपोर्टिंग के अपवादों की समझ बढ़ाने के लिए खतरनाक लोग और संगठनों से जुड़ी अपनी पॉलिसी में मानदंड और व्याख्या करने वाले उदाहरण जोड़े.
- यह सुनिश्चित करे कि कम्युनिटी स्टैंडर्ड में होने वाले अपडेट का सभी उपलब्ध भाषाओं में तेज़ी से अनुवाद हो.
- एक ऐसी निष्पक्ष संस्था को शामिल करे जो इज़राइली-फिलिस्तीनी संघर्ष के किसी भी पक्ष से संबद्ध न हो, ताकि यह निर्धारित करने के लिए विस्तृत जाँच की जा सके कि Facebook के ऑटोमेशन के उपयोग सहित क्या अरबी और हिब्रू भाषाओं में उसके कंटेंट मॉडरेशन को पूर्वाग्रह के बिना लागू किया गया है. इस जाँच में न केवल फिलिस्तीनी या फिलिस्तीनी समर्थन वाले कंटेंट को प्रबंधित करने के तरीके का बल्कि ऐसे कंटेंट का भी रिव्यू किया जाना चाहिए जो किसी भी संभावित लक्ष्य के विरुद्ध हिंसा को भड़काता है, चाहे उनकी राष्ट्रीयता, जाति, धर्म या आस्था अथवा राजनीतिक राय कुछ भी हो. इस रिव्यू में इज़राइल और फिलिस्तीनी अधिकृत क्षेत्रों में और उनके बाहर स्थित Facebook यूज़र्स द्वारा पोस्ट किया गया कंटेंट अच्छी तरह से देखा जाना चाहिए. इसकी रिपोर्ट और उसके निष्कर्षों को सार्वजनिक किया जाना चाहिए.
- इससे संबंधित एक पारदर्शी प्रक्रिया को औपचारिक रूप दे कि उसे कंटेंट को हटाने के सभी सरकारी अनुरोध कैसे मिलते हैं और वह उनके जवाब किस तरह देता है, तथा यह सुनिश्चित करे कि उन्हें पारदर्शिता रिपोर्टिंग में शामिल किया जाता है. पारदर्शिता रिपोर्टिंग में उन अनुरोधों के अलावा जिनके कारण कोई एक्शन नहीं लिया गया यह अंतर समझ में आना चाहिए कि वे सरकारी अनुरोध कौन-से हैं जिनके कारण कम्युनिटी स्टैंडर्ड का उल्लंघन करने के लिए कंटेंट को हटाया गया था और वे अनुरोध कौन-से हैं जिनके कारण स्थानीय कानून का उल्लंघन करने के लिए कंटेंट को हटाया या जिओ-ब्लॉक किया गया था.
*केस के सारांश से केस का ओवरव्यू पता चलता है और आगे के किसी फ़ैसले के लिए इसको आधार नहीं बनाया जा सकता है.
केस का पूरा फ़ैसला
1. फ़ैसले का सारांश
ओवरसाइट बोर्ड इस बात से सहमत है कि Facebook, 10 मई 2021 को लिए गए अपने उस मूल फ़ैसले को बदलने के मामले में सही था जिसमें उसने Facebook पर मौजूद ऐसे कंटेंट को हटा दिया था जिसमें फिलिस्तीनी समूह हमास की सैन्य इकाई इज़ अल-दीन अल-क़ासम ब्रिगेड की ओर से हिंसा के खतरे के बारे में एक समाचार पोस्ट शेयर की गई थी. अल-क़ासम ब्रिगेड को कई राज्यों द्वारा या तो हमास के हिस्से के रूप में या उनके अपने रूप में एक आतंकवादी संगठन के रूप में चिह्नित किया गया है. संबंधित यूज़र की अपील पर बोर्ड द्वारा इस केस को रिव्यू के लिए चुने जाने के बाद Facebook ने यह निष्कर्ष निकाला कि कंटेंट को गलती से हटा दिया गया था और उस पोस्ट को प्लेटफ़ॉर्म पर रीस्टोर कर दिया.
खतरनाक लोग और संगठन से जुड़ी पॉलिसी में बताया गया है कि Facebook द्वारा चिह्नित किसी खतरनाक संगठन की आधिकारिक बातचीत को शेयर करना वास्तविक समर्थन का एक रूप है. हालाँकि, पॉलिसी में समाचार रिपोर्टिंग और निष्पक्ष चर्चा से जुड़े अपवाद शामिल हैं. कंपनी ने अल जज़ीरा की पोस्ट पर समाचार रिपोर्टिंग से जुड़ा अपवाद लागू किया और गलती से निष्पक्ष चर्चा से जुड़े अपवाद को लागू करने में विफल रही, जिसे उसने बाद में ठीक किया. बोर्ड इस निष्कर्ष पर पहुँचा है कि इस केस में कंटेंट को हटाना आवश्यक नहीं था क्योंकि इससे ऑफ़लाइन नुकसान तो कम नहीं हुआ लेकिन इसके परिणामस्वरूप सार्वजनिक हित के मुद्दे पर अभिव्यक्ति की स्वतंत्रता पर एक अनुचित प्रतिबंध लगा.
2. केस का विवरण
10 मई को मिस्र के 15000 से ज़्यादा फ़ॉलोअर्स वाले एक Facebook यूज़र (संबंधित यूज़र) ने अल जज़ीरा अरेबिक नाम के वेरिफ़ाई किए गए पेज से एक पोस्ट शेयर की थी जिसमें अरबी भाषा में लिखा टेक्स्ट और एक फ़ोटो थी. फ़ोटो में सैन्य वर्दी पहने दो पुरुष, जिनके चेहरे ढँके हुए हैं और जिन्होंने अल-क़ासम ब्रिगेड के चिह्न वाले हेडबैंड पहने हुए हैं, एक फिलिस्तीनी सशस्त्र समूह और हमास के लड़ाकों की टुकड़ी दिखाई दे रही है. बोर्ड ने ध्याना दिया कि अल-क़ासम ब्रिगेड पर युद्ध अपराध करने का आरोप लगाया गया है (2014 गाज़ा संघर्ष के संयुक्त राष्ट्र स्वतंत्र जाँच आयोग की रिपोर्ट, A/HRC/29/CRP.4 और ह्यूमन राइट्स वॉच की रिपोर्ट Gaza: Apparent War Crimes During May Fighting (2021)).
फ़ोटो में शामिल टेक्स्ट में कहा गया है कि: "The resistance leadership in the common room gives the occupation a respite until 18:00 to withdraw its soldiers from Al-Aqsa Mosque and Sheikh Jarrah neighborhood in Jerusalem, otherwise he who warns is excused. Abu Ubaida – Al-Qassam Brigades military spokesman." (कॉमन रूम में विरोधी लीडरशिप कब्ज़ा करने वाले पक्ष को यरुशलम में अल-अक्सा मस्ज़िद और शेख़ जर्राह के आसपास के इलाकों से उसके सैनिक हटाने के लिए शाम 6 बजे की मोहलत देती है, अन्यथा अब चेतावनी दे दी गई है, और चेतावनी देने वाले की गलती नहीं मानी जाएगी. अबु ऊबैदा - अल-क़ासम ब्रिगेड सेना का प्रवक्ता.) अल जज़ीरा के कैप्शन में यह लिखा है: "'He Who Warns is Excused'. Al-Qassam Brigades military spokesman threatens the occupation forces if they do not withdraw from Al-Aqsa Mosque." (चेतावनी दे दी गई है, और चेतावनी देने वाले की गलती नहीं मानी जाएगी. अल-क़ासम ब्रिगेड के सैन्य प्रवक्ता ने कब्ज़ा करने वाले बलों को धमकाते हुए ये कहा कि अगर वे अल-अक्सा मस्ज़िद से कब्ज़ा नहीं हटाएँगे तो ये उनकी गलती होगी.) यूज़र ने अल जज़ीरा की पोस्ट शेयर करते हुए उसके कैप्शन में अरबी भाषा में केवल एक शब्द “Ooh” (ओह) लिखा था. अल-क़ासम ब्रिगेड और उनके प्रवक्ता अबु ऊबैदा, दोनों को Facebook के खतरनाक लोग और संगठन से जुड़े कम्युनिटी स्टैंडर्ड के तहत खतरनाक के रूप में चिह्नित किया गया है.
उसी दिन, मिस्र के एक दूसरे यूज़र ने कंटेंट की रिपोर्ट करने वाले लोगों को Facebook द्वारा दिए जाने वाले निश्चित कारणों की सूची से "आतंकवाद" को चुनकर पोस्ट की रिपोर्ट की थी. कंटेंट का मूल्यांकन उत्तरी अफ़्रीका के अरबी भाषा बोलने वाले एक मॉडरेटर ने किया था, जिसने खतरनाक लोग और संगठन से जुड़ी पॉलिसी का उल्लंघन करने के कारण पोस्ट को हटा दिया था. यूज़र ने इसकी अपील की और कंटेंट को दक्षिण-पूर्वी एशिया के एक दूसरे रिव्यूअर ने रिव्यू किया, जो अरबी नहीं बोलता था, लेकिन उसके पास कंटेंट के ऑटोमेटेड ट्रांसलेशन की एक्सेस थी. Facebook ने बताया कि ऐसा रूटिंग की एक गलती के कारण हुआ था, जिसे सुधारने को लेकर वह काम कर रहा है. दूसरे रिव्यूअर ने भी यह पाया कि खतरनाक लोग और संगठन से जुड़ी पॉलिसी का उल्लंघन हुआ था और यूज़र को एक नोटिफ़िकेशन मिला जिसमें बताया गया कि दूसरे रिव्यू में भी शुरुआती फ़ैसले को कायम रखा गया था. उल्लंघन के कारण, यूज़र के अकाउंट पर तीन दिनों तक 'केवल पढ़ने योग्य' का प्रतिबंध लगाया गया. Facebook ने 30 दिनों के लिए प्लेटफ़ॉर्म पर लाइवस्ट्रीम किए गए कंटेंट को ब्रॉडकास्ट करने और विज्ञापन देने से जुड़े प्रोडक्ट उपयोग करने की यूज़र की योग्यता को भी प्रतिबंधित कर दिया.
फिर संबंधित यूज़र ने ओवरसाइट बोर्ड के सामने अपील पेश की. बोर्ड द्वारा केस को रिव्यू के लिए चुनने के परिणामस्वरूप Facebook ने निर्धारित किया कि कंटेंट को गलती से हटा दिया गया था और इसके बाद उसे रीस्टोर कर दिया. Facebook ने बाद में बोर्ड को यह कन्फ़र्म किया कि अल जज़ीरा की ओरिजनल पोस्ट प्लेटफ़ॉर्म पर मौजूद रही और उसे कभी भी हटाया नहीं गया.
इस केस का कंटेंट मई 2021 में इज़राइली सेना और इज़राइल में फिलिस्तीनी आतंकवादी समूहों तथा हमास द्वारा शासित फिलिस्तीनी क्षेत्र गाज़ा के बीच हुए सशस्त्र संघर्ष से संबंधित है. यह संघर्ष यरुशलम में बढ़ते तनाव और विरोध प्रदर्शन के कई हफ़्तों बाद हुआ, जो पूर्वी यरुशलम में शेख़ जर्राह के आसपास के इलाकों में घरों के मालिकाना हक से जुड़े विवाद और विवादित संपत्तियों से चार फिलिस्तीनी परिवारों के नियोजित निष्कासन के संबंध में इज़राइली सुप्रीम कोर्ट के फ़ैसले से संबंधित था. इन तनावों ने आगे चलकर अरबी और यहूदी उपद्रवियों द्वारा किए गए कई सांप्रदायिक हमलों का रूप ले लिया. 10 मई को, इज़राइली सेना ने अल-अक्सा मस्ज़िद पर हमला कर दिया, जिसमें रमज़ान की नमाज़ अदा करने वाले सैकड़ों लोग घायल हो गए (संयुक्त राष्ट्र के स्वतंत्र विशेषज्ञों की इज़राइल की सरकार से हुई बातचीत के अनुसार, UA ISR 3.2021). इस हमले के बाद अल-क़ासम ब्रिगेड ने एक अल्टीमेटम जारी किया, जिसमें उन्होंने शाम 6 बजे तक मस्ज़िद और शेख़ जर्राह दोनों इलाकों से इज़राइली सैनिकों को हटाने की माँग की. समय-सीमा समाप्त होने के बाद, अल-क़ासम और गाज़ा के अन्य फिलिस्तीनी आतंकवादी समूहों ने यरुशलम के सिविलियन सेंटर पर रॉकेट दागे, जिससे 11 दिनों के सशस्त्र संघर्ष की शुरुआत हुई.
3. प्राधिकार और दायरा
बोर्ड को उस यूज़र के अपील करने के बाद Facebook के फ़ैसले का रिव्यू करने का अधिकार है, जिसकी पोस्ट हटा दी गई थी (चार्टर अनुच्छेद 2, सेक्शन 1; उपनियम अनुच्छेद 2, सेक्शन 2.1). बोर्ड उस फ़ैसले को कायम रख सकता है या उसे बदल सकता है (चार्टर अनुच्छेद 3, सेक्शन 5). केस के फ़ैसले 2020-004-IG-UA के अनुसार Facebook द्वारा किसी ऐसे केस का फ़ैसला बदल देने से, जिसकी संबंधित यूज़र ने बोर्ड में अपील की है, वह केस रिव्यू से बाहर नहीं हो जाता है.
बोर्ड के फ़ैसले बाध्यकारी होते हैं और उनमें पॉलिसी से जुड़ी सलाह के कथनों के साथ सुझाव भी शामिल हो सकते हैं. ये सुझाव बाध्यकारी नहीं होते हैं, लेकिन Facebook को उनका जवाब देना होगा (चार्टर अनुच्छेद 3, सेक्शन 4).
4. प्रासंगिक स्टैंडर्ड
ओवरसाइट बोर्ड ने इन स्टैंडर्ड पर विचार करते हुए अपना फ़ैसला दिया है:
I. Facebook के कम्युनिटी स्टैंडर्ड:
खतरनाक लोग और संगठन से जुड़े कम्युनिटी स्टैंडर्ड में बताया गया है कि Facebook “ऐसे किसी भी संगठन या व्यक्ति को Facebook पर मौजूद रहने की परमिशन नहीं देता है जो किसी हिंसक मिशन की घोषणा करता है या हिंसा में शामिल होता है.” Facebook इस पॉलिसी के तहत संस्थाओं को खतरनाक के रूप में चिह्नित करने की अपनी प्रक्रिया करता है जिसमें इसके दर्जे अक्सर आतंकवादियों की राष्ट्रीय सूचियों पर आधारित होते हैं.
22 जून को Facebook ने पॉलिसी को अपडेट करके इन दर्जों को तीन श्रेणियों में विभाजित कर दिया है. अपडेट में बताया गया है कि ये तीन श्रेणियाँ “कंटेंट एन्फ़ोर्समेंट के स्तर को दर्शाती हैं, श्रेणी 1 में सबसे व्यापक एन्फ़ोर्समेंट लागू होता है क्योंकि हमारा मानना है कि इन संस्थाओं का ऑफ़लाइन नुकसान से सबसे सीधा संबंध है.” श्रेणी 1 के दर्जे "गंभीर ऑफ़लाइन नुकसान में शामिल संस्थाओं" पर केंद्रित होते हैं, जैसे कि आतंकवादी समूह और इनके परिणामस्वरूप सबसे बड़े स्तर का कंटेंट एन्फ़ोर्समेंट होता है. Facebook श्रेणी 1 की संस्थाओं की प्रशंसा, वास्तविक समर्थन और वर्णन को तथा इनके लीडर, संस्थापकों और प्रमुख सदस्यों को भी हटा देता है.
II. Facebook के मूल्य:
“अभिव्यक्ति” के महत्व को “सर्वोपरि” बताया गया है:
हमारे कम्युनिटी स्टैंडर्ड का लक्ष्य हमेशा एक ऐसा प्लेटफ़ॉर्म बनाना रहा है, जहाँ लोग अपनी बात रख सकें और अपनी भावनाओं को व्यक्त कर सकें. […] हम चाहते हैं कि लोग अपने लिए महत्व रखने वाले मुद्दों पर खुलकर बातें कर सकें, भले ही कुछ लोग उन बातों पर असहमति जताएँ या उन्हें वे बातें आपत्तिजनक लगें.
Facebook "अभिव्यक्ति” को चार मूल्यों के मामले में सीमित करता है. इस केस में “सुरक्षा” सबसे प्रासंगिक है:
हम Facebook को एक सुरक्षित जगह बनाने के लिए प्रतिबद्ध हैं. धमकी भरी अभिव्यक्ति से लोगों में डर, अलगाव की भावना आ सकती या दूसरों की आवाज़ दब सकती है और Facebook पर इसकी परमिशन नहीं है.
III. मानवाधिकार स्टैंडर्ड:
बिज़नेस और मानवाधिकारों के बारे में संयुक्त राष्ट्र संघ के मार्गदर्शक सिद्धांत (UNGP), जिन्हें 2011 में संयुक्त राष्ट्र संघ की मानवाधिकार समिति का समर्थन मिला है, वे प्राइवेट बिज़नेस की मानवाधिकारों से जुड़ी ज़िम्मेदारियों का स्वैच्छिक ढांचा तैयार करते हैं. मार्च 2021 में Facebook नेमानवाधिकारों से जुड़ी अपनी कॉर्पोरेट पॉलिसी की घोषणा की, जिसमें उसने UNGP के अनुसार मानवाधिकारों का ध्यान रखने की अपनी प्रतिज्ञा को दोहराया. इस केस में बोर्ड ने इन मानवाधिकार स्टैंडर्ड को ध्यान में रखते हुए विश्लेषण किया:
- विचार और अभिव्यक्ति की स्वतंत्रता का अधिकार: अनुच्छेद 19, नागरिक और राजनीतिक अधिकार पर अंतर्राष्ट्रीय प्रतिज्ञापत्र ( ICCPR); मानवाधिकार समिति, सामान्य टिप्पणी संख्या 34, (2011); विचार और अभिव्यक्ति की स्वतंत्रता पर संयुक्त राष्ट्र का विशेष रैपर्टर, A/74/486 (2019); मानवाधिकार समिति, पत्रकारों की सुरक्षा का संकल्प, A/HRC/RES/45/18 (2020); 1967 से अधिकृत फिलिस्तीनी क्षेत्रों में मानवाधिकारों की स्थिति पर संयुक्त राष्ट्र का विशेष रैपर्टर, A/75/532 (2020);
- भेदभाव न किए जाने का अधिकार: ICCPR अनुच्छेद 2 और 26;
- जीवन का अधिकार: ICCPR अनुच्छेद 6; मानवाधिकार समिति, सामान्य टिप्पणी संख्या 36, (2018);
- व्यक्ति की सुरक्षा का अधिकार: ICCPR अनुच्छेद 9; जैसे कि इसकी व्याख्या सामान्य कमेंट सं. 35, पैरा. 9, मानवाधिकार समिति (2014) में की गई है.
5. यूज़र का कथन
बोर्ड को की गई अपनी अपील में यूज़र ने बताया कि उन्होंने चल रहे संकट के बारे में अपने फ़ॉलोअर्स को अपडेट करने के लिए अल जज़ीरा की पोस्ट शेयर की थी और यह महत्वपूर्ण मुद्दा था, जिसके बारे में ज़्यादा से ज़्यादा लोगों को जागरूक होना चाहिए. यूज़र ने इस बात पर ज़ोर दिया कि उनकी पोस्ट में मात्र अल जज़ीरा पेज का कंटेंट शेयर किया गया था और उनके कैप्शन में केवल “ooh” (ओह) लिखा था.
6. Facebook के फ़ैसले का स्पष्टीकरण
बोर्ड द्वारा की गई पूछताछ के जवाब में Facebook ने कहा कि वह यह नहीं बता पाया कि दो ह्यूमन रिव्यूअर्स ने यह फ़ैसला क्यों किया कि कंटेंट से खतरनाक लोग और संगठन से जुड़ी पॉलिसी का उल्लंघन हुआ था, यह देखते हुए कि मॉडरेटर्स को कंटेंट से जुड़े अलग-अलग फ़ैसलों के लिए अपने तर्क को रिकॉर्ड करने की आवश्यकता नहीं है. कंपनी ने स्पष्ट किया कि "इस केस में, कंटेंट रिव्यूअर्स के पास पूरे कंटेंट की एक्सेस थी, जिसमें ओरिजनल रूट पोस्ट का कैप्शन और फ़ोटो तथा कंटेंट क्रिएटर द्वारा पोस्ट के शेयर किए गए वर्जन में लिखा गया अतिरिक्त कैप्शन शामिल है." कंपनी ने आगे कहा कि "आमतौर पर, कंटेंट रिव्यूअर्स को पूरे कंटेंट को अच्छी तरह से देखने की ट्रेनिंग दी जाती है."
बोर्ड द्वारा इस केस को रिव्यू के लिए चुनने के परिणामस्वरूप, Facebook ने अपने फ़ैसले की दोबारा जाँच करके यह पाया कि कंटेंट में अल-क़ासम ब्रिगेड या हमास, उनकी गतिविधियों या उनके सदस्यों की प्रशंसा, वास्तविक समर्थन और प्रतिनिधित्व नहीं था. Facebook ने बताया कि उसने अपना फ़ैसला बदल दिया था क्योंकि अल जज़ीरा की पोस्ट से उल्लंघन नहीं हुआ था और यूज़र ने एक निष्पक्ष कैप्शन का उपयोग करके इसे शेयर किया था. खतरनाक लोग और संगठन से जुड़ी पॉलिसी के अनुसार, किसी चिह्नित संस्था की ओर से या किसी घटना को लेकर आधिकारिक बातचीत सहित जानकारी या संसाधनों को प्रसारित करना किसी खतरनाक संगठन और संस्था के निषिद्ध वास्तविक समर्थन का एक रूप है. हालाँकि, पॉलिसी में समाचार रिपोर्टिंग के हिस्से के रूप में प्रकाशित कंटेंट के लिए ख़ास तौर पर अपवाद शामिल किया गया है, लेकिन इसमें यह नहीं बताया गया है कि समाचार रिपोर्टिंग क्या होती है. पॉलिसी में निष्पक्ष चर्चा से जुड़ा अपवाद भी शामिल किया गया है. अल जज़ीरा की ओरिजनल पोस्ट, अल जज़ीरा अरेबिक Facebook पेज पर मौजूद रही और अभी भी देखी जा सकती है. Facebook ने इसे कभी नहीं हटाया.
Facebook ने बताया कि अल जज़ीरा का पेज क्रॉस-चेक सिस्टम के अधीन है, जो रिव्यू का एक अतिरिक्त स्तर है, जिसे Facebook एन्फ़ोर्समेंट में होने वाली गलतियों के जोखिम को कम करने के लिए कुछ हाई प्रोफ़ाइल अकाउंट पर लागू करता है. हालाँकि, किसी थर्ड पार्टी द्वारा शेयर किए गए कंटेंट की क्रॉस-चेकिंग तब तक नहीं की जाती है, जब तक कि उस थर्ड पार्टी का भी एक ऐसा हाई प्रोफ़ाइल अकाउंट न हो जो क्रॉस-चेक के अधीन होता है. इसलिए, इस केस में भले ही अल जज़ीरा की रूट पोस्ट क्रॉस-चेकिंग के अधीन थी, लेकिन मिस्र के यूज़र की पोस्ट इसके अधीन नहीं थी.
कंपनी ने कहा कि उसका पोस्ट को रीस्टोर करना, जानकारी माँगने, पाने और देने के अधिकार का सम्मान करने की उसकी ज़िम्मेदारी के अनुरूप है. Facebook ने यह निष्कर्ष निकाला कि यूज़र का कैप्शन निष्पक्ष था और प्रशंसा, वास्तविक समर्थन और प्रतिनिधित्व से जुड़ी परिभाषाओं के अंतर्गत नहीं आता था.
इन आरोपों पर प्रतिक्रिया देते हुए कि Facebook ने इज़राइली सरकार की माँगों के कारण फिलिस्तीनी कंटेंट को सेंसर कर दिया है, बोर्ड ने Facebook से सवाल किए कि:
क्या Facebook को अप्रैल से मई के बीच हुए संघर्ष से संबंधित कंटेंट को हटाने के लिए इज़राइल की ओर से आधिकारिक और अनाधिकारिक अनुरोध मिले हैं? Facebook को कितने अनुरोध मिले हैं? उसने कितने अनुरोध स्वीकार किए हैं? क्या कोई भी अनुरोध अल जज़ीरा अरेबिक या इसके पत्रकारों द्वारा पोस्ट की गई जानकारी से संबंधित था?
Facebook ने यह कहकर जवाब दिया कि: "Facebook को इस केस में यूज़र द्वारा पोस्ट किए गए कंटेंट के संबंध में किसी सरकारी अधिकारी की ओर से वैध कानूनी अनुरोध नहीं मिला है. Facebook माँगी गई अन्य जानकारी देने से इनकार करता है. ओवरसाइट बोर्ड उपनियम, सेक्शन 2.2.2 देखें."
ओवरसाइट बोर्ड के उपनियमों के सेक्शन 2.2.2 के तहत, Facebook "उस स्थिति में इन अनुरोधों को अस्वीकार कर सकता है जिसमें वह निर्धारित करता है कि चार्टर के उद्देश्य के अनुसार फ़ैसला लेने के लिए इस जानकारी की यथोचित आवश्यकता नहीं है; इसे देना तकनीकी तौर पर संभव नहीं है; यह वकील/ क्लाइंट सुविधा द्वारा संरक्षित है; और/या इसे कानूनी, प्राइवेसी, सुरक्षा या डेटा प्रोटेक्शन से जुड़े प्रतिबंधों या चिंताओं के कारण नहीं दिया जा सकता या नहीं दिया जाना चाहिए." कंपनी ने उपनियमों के तहत इनकार करने के विशिष्ट कारणों के बारे में नहीं बताया था.
7. थर्ड पार्टी सबमिशन
इस केस के संबंध में, ओवरसाइट बोर्ड को लोगों की ओर से 26 कमेंट मिले. इनमें से 15 कमेंट अमेरिका और कनाडा, सात यूरोप, तीन मध्य पूर्व व उत्तरी अफ़्रीका तथा एक कमेंट लैटिन अमेरिका और कैरिबियन से किया गया था.
इन सबमिशन में कई थीम शामिल थीं जैसे फिलिस्तीनियों के लिए सोशल मीडिया का महत्व, फिलिस्तीनी या फिलिस्तीनी समर्थन वाले कंटेंट के विरुद्ध Facebook के संभावित पूर्वाग्रह और उसके अत्यधिक मॉडरेशन से जुड़ी चिंताएँ, इज़राइल और Facebook के बीच कथित अपारदर्शी संबंधों से जुड़ी चिंताएँ और ये चिंताएँ कि चिह्नित आतंकवादी संगठनों को प्लेटफ़ॉर्म पर मैसेज करने की परमिशन दी गई थी.
इसके अलावा, बोर्ड को लोगों की ओर से ऐसे कई कमेंट मिले, जिनमें तर्क दिया गया कि इस तरह की धमकियों की रिपोर्टिंग के ज़रिए सशस्त्र समूहों द्वारा हमले किए जाने की चेतावनी भी दी जा सकती है, जिससे टार्गेट किए गए लोग खुद को सुरक्षित रखने के उपाय कर सकते हैं.
इस केस को लेकर लोगों की ओर से सबमिट किए गए कमेंट देखने के लिए कृपया यहाँ पर क्लिक करें.
8. ओवरसाइट बोर्ड का विश्लेषण
8.1 कम्युनिटी स्टैंडर्ड का अनुपालन
बोर्ड ने यह निष्कर्ष निकाला है कि कंटेंट को हटाने का Facebook का मूल फ़ैसला कंपनी के कम्युनिटी स्टैंडर्ड के अनुरूप नहीं था. इसलिए, बोर्ड द्वारा इस केस को चुने जाने के बाद Facebook का अपने फ़ैसले को बदलना सही था.
Facebook के अनुसार, अल जज़ीरा की रूट पोस्ट, जो इस अपील का विषय नहीं है, उससे कम्युनिटी स्टैंडर्ड का उल्लंघन नहीं हुआ था और इसे कभी भी प्लेटफ़ॉर्म से नहीं हटाया गया. किसी चिह्नित संस्था की आधिकारिक बातचीत को शेयर करना वास्तविक समर्थन का निषिद्ध रूप है, लेकिन खतरनाक लोग और संगठन से जुड़ी पॉलिसी में ऐसे कंटेंट को निंदा, निष्पक्ष चर्चा या समाचार रिपोर्टिंग के उद्देश्यों के लिए पोस्ट करने की परमिशन दी गई है. Facebook ने "वास्तविक समर्थन", "प्रशंसा" और "प्रतिनिधित्व" की पहले गोपनीय परिभाषाओं को सार्वजनिक करते हुए 22 जून 2021 को खतरनाक लोग और संगठन से जुड़ी पॉलिसी को अपडेट किया.
यूज़र ने केवल एक शब्द “Ooh” (ओह) के कैप्शन के साथ अल जज़ीरा की पोस्ट शेयर की थी. Facebook इस निष्कर्ष पर पहुँचा कि यह शब्द अभिव्यक्ति का एक निष्पक्ष रूप था. बोर्ड ने अरबी भाषा के जिन विशेषज्ञों से राय ली, उन्होंने बताया कि “ooh” (ओह) शब्द का अर्थ इसके उपयोग के आधार पर अलग-अलग हो सकता है, जिसकी एक व्याख्या निष्पक्ष विस्मयादिबोधक शब्द है.
खतरनाक लोग और संगठन से जुड़ी अपडेट की गई पॉलिसी में Facebook चाहता है कि खतरनाक लोगों या संगठनों के बारे में निष्पक्ष तौर पर चर्चा करने के लिए "लोग अपना इरादा साफ़ तौर पर बताएँ" और "अगर इरादा स्पष्ट नहीं होगा तो हम कंटेंट को हटा सकते हैं" (महत्व बताया गया है). यह 2020-005-FB-UA केस के फ़ैसले में बोर्ड की ओर से पूछे गए सवाल पर Facebook के जवाबों में बताई गई पिछली पॉलिसी से जुड़ा बदलाव है. उसमें Facebook ने बताया कि उसने “ऐसे कंटेंट को, जिसमें किसी चिह्नित खतरनाक व्यक्ति के उद्धरण हों या उसके नाम के उद्धरण (उनकी सटीकता पर ध्यान दिए बिना) शामिल हों, उस व्यक्ति के लिए समर्थन माना, जब तक कि संबंधित यूज़र अपना इरादा स्पष्ट करने के लिए अतिरिक्त संदर्भ नहीं देता.” (महत्व बताया गया है). उसने आगे कहा कि लोगों को ध्यान में रखकर बनाए गए कम्युनिटी स्टैंडर्ड में 22 जून को किए गए पॉलिसी अपडेट से पहले, कंटेंट मॉडरेटर्स के पास अस्पष्ट इरादे वाले कंटेंट को बनाए रखने की स्वतंत्रता कम थी, जबकि यूज़र्स को अपना इरादा स्पष्ट करने के महत्व के बारे में पता नहीं था.
यह समझ में आने वाली बात है कि समय के दवाब में काम करने वाले कंटेंट मॉडरेटर्स, ख़ास तौर पर कम्युनिटी स्टैंडर्ड के उस समय प्रभावी रहे वर्जन के तहत पोस्ट को उल्लंघन करने वाली क्यों मान सकते हैं. पोस्ट में किसी चिह्नित खतरनाक संगठन के प्रवक्ता की ओर से सीधा खतरा दिखाई पड़ता है और यूज़र द्वारा “ooh” (ओह) की अभिव्यक्ति जोड़ने से यूज़र का निष्पक्ष चर्चा में शामिल होने का इरादा "स्पष्ट" नहीं हुआ. हालाँकि, मुख्य तथ्य यह है कि यह तत्काल सार्वजनिक चिंता के मामले पर किसी वैध समाचार आउटलेट के एक समाचार का दोबारा प्रकाशन था. अल जज़ीरा की रूट पोस्ट को कभी भी उल्लंघन करने वाली नहीं माना गया और वह हमेशा उसके पेज पर मौजूद रही. आमतौर पर, लोगों के पास समाचार को फिर से पोस्ट करने का उतना ही अधिकार है, जितना कि समाचार मीडिया संगठनों के पास उसे सबसे पहले प्रकाशित करने का होता है. भले कुछ संदर्भों में किसी समाचार स्रोत की सामग्री के दोबारा प्रकाशन को उल्लंघन माना जा सकता है, लेकिन इस केस में यूज़र ने बताया है कि उनका उद्देश्य अपने फ़ॉलोअर्स को वर्तमान के महत्वपूर्ण मुद्दे पर अपडेट देना था और Facebook के निष्कर्ष (दोबारा जाँच करने के बाद) को बोर्ड के भाषा विशेषज्ञों द्वारा कन्फ़र्म किया गया है कि यूज़र द्वारा “ooh” (ओह) की अभिव्यक्ति जोड़ने के निष्पक्ष होने की ज़्यादा संभावना है.
22 जून को घोषित संबंधित कम्युनिटी स्टैंडर्ड के नए वर्जन के तहत पोस्ट स्पष्ट रूप से उल्लंघन करने वाली नहीं थी और Facebook ने उसे रीस्टोर करके कोई गलती नहीं की.
8.2 Facebook के मूल्यों का अनुपालन
बोर्ड ने यह निष्कर्ष निकाला है कि इस कंटेंट को रीस्टोर करने के फ़ैसले में Facebook के "अभिव्यक्ति" के मूल्य का पालन किया गया है और यह "सुरक्षा" के इसके मूल्य से असंगत नहीं है. बोर्ड यह बात जानता है कि Facebook के मूल्य कंपनी के पॉलिसी के विकास में अहम भूमिका निभाते हैं और मॉडरेटर्स यह तय करने के लिए इनका उपयोग नहीं करते हैं कि कंटेंट की परमिशन है या नहीं है.
Facebook ने “अभिव्यक्ति” के मूल्य को “सर्वोपरि” बताया है. बोर्ड की नज़र में, यह ऐसे संघर्ष के संदर्भ में ख़ास तौर पर सही है, जहाँ फिलिस्तीनियों और उनके समर्थकों सहित कई लोगों की अपने विचारों को व्यक्ति करने की क्षमता काफ़ी हद तक प्रतिबंधित है. जैसा कि बोर्ड के समक्ष लोगों की ओर से सबमिट किए गए कमेंट में ज़ोर दिया गया है, Facebook और ऐसे ही अन्य सोशल मीडिया ऐसे प्राथमिक साधन हैं जिनसे फिलिस्तीनी समाचार दे सकते हैं और अपनी राय रख सकते हैं तथा खुद के विचारों को किसी दबाव के बिना व्यक्त कर सकते हैं. फ़िलिस्तीनी प्राधिकरण और हमास द्वारा शासित क्षेत्रों में अभिव्यक्ति की स्वतंत्रता पर कड़ी सीमाएँ लागू हैं (A/75/532, पैरा. 25). इसके अलावा, इज़राइली सरकार पर राष्ट्रीय सुरक्षा के नाम पर अभिव्यक्ति को अनुचित रूप से प्रतिबंधित करने का आरोप लगा है (यूनिवर्सल पीरियोडिक रिव्यू पर काम करने वाला समूह, A/HRC/WG.6/29/ISR/2, पैरा. 36-37; इज़राइली संविधान पर ऑक्सफ़ोर्ड हैंडबुक, Freedom of Expression in Israel: Origins, Evolution, Revolution and Regression, (2021)). इसके अलावा, इस क्षेत्र के लोगों के लिए अधिक व्यापक रूप से इन घटनाओं के बारे में समाचार पाने और उसे शेयर करने की क्षमता "अभिव्यक्ति" का एक महत्वपूर्ण पहलू है.
बोर्ड रिव्यू के लिए केवल सीमित संख्या में अपीलों का चयन करता है, लेकिन बोर्ड ने ध्यान दिया कि इस केस में कंटेंट को हटाना ऐसी कई अपीलों में से एक था जो संघर्ष से जुड़े कंटेंट से संबंधित थीं.
दूसरी ओर, "सुरक्षा" का मूल्य इज़राइल और अधिकृत फिलिस्तीनी क्षेत्रों तथा इस क्षेत्र के अन्य देशों में महत्वपूर्ण चिंता का विषय भी है. यूज़र ने "सुरक्षा" के मूल्य की ओर इशारा करते हुए किसी मीडिया संगठन की ऐसी पोस्ट शेयर की थी जिसमें अल-क़ासम ब्रिगेड की ओर से हिंसा का स्पष्ट खतरा दिखाई दे रहा था. हालाँकि, यूज़र द्वारा शेयर किया गया कंटेंट Facebook पर और उसके बाहर दुनिया भर में व्यापक रूप से उपलब्ध था. रूट पोस्ट जो खतरे की समाचार मीडिया रिपोर्ट थी, Facebook से नहीं हटाई गई थी और वह अभी भी अल जज़ीरा के पेज पर मौजूद है. इसे कहीं और व्यापक रूप से रिपोर्ट भी किया गया था. बोर्ड ने पाया कि पोस्ट को शेयर करने से "सुरक्षा" के मूल्य के लिए कोई अतिरिक्त खतरा पैदा नहीं हुआ था.
8.3 Facebook की मानवाधिकार से जुड़ी ज़िम्मेदारियों का अनुपालन
अभिव्यक्ति की स्वतंत्रता (अनुच्छेद 19 ICCPR)
ICCPR के अनुच्छेद 19 में कहा गया है कि हर व्यक्ति को अभिव्यक्ति की स्वतंत्रता का अधिकार है, जिसमें जानकारी माँगने, पाने और देने की स्वतंत्रता शामिल है. इस अधिकार का आनंद आंतरिक रूप से स्वतंत्र, सेंसर नहीं किए गए और अबाधित प्रेस या अन्य मीडिया तक पहुँच से जुड़ा है (सामान्य कमेंट 34, पैरा. 13). बोर्ड इस बात से सहमत है कि मीडिया “लोगों को आतंकवादी गतिविधियों के बारे में बताने में महत्वपूर्ण भूमिका निभाता है और इसके काम करने की क्षमता को अनुचित रूप से प्रतिबंधित नहीं किया जाना चाहिए” (सामान्य कमेंट 34, पैरा. 46). बोर्ड यह भी जानता है कि आतंकवादी समूह उनकी गतिविधियों पर ख़बर बनाने के मीडिया के कर्तव्य और हितों का गलत फ़ायदा उठा सकते हैं.
हालाँकि, मीडिया की स्वतंत्रता को दबाने के लिए आतंकवाद और चरमपंथ विरोधी प्रयासों का उपयोग नहीं किया जाना चाहिए (A/HRC/RES/45/18). वास्तव में, कोई भी आतंकवादी गतिविधि होने के शुरुआती क्षणों में मीडिया एक महत्वपूर्ण भूमिका निभाता है, क्योंकि यह "अक्सर नागरिकों के लिए सूचना का पहला स्रोत होता है, इससे पहले कि लोक प्राधिकरण कोई बातचीत कर पाए" (UNESCO, Handbook on Terrorism and the Media, पृ. 27, 2017). सोशल मीडिया पारंपरिक मीडिया और गैर-मीडिया स्रोतों में प्रकाशित आतंकवाद के खतरों या कृत्यों के बारे में जानकारी के प्रसार में सहायता करके इस मिशन में योगदान देता है.
अभिव्यक्ति की स्वतंत्रता का अधिकार बुनियादी है, लेकिन यह संपूर्ण नहीं है. इसे प्रतिबंधित किया जा सकता है, लेकिन प्रतिबंधों के लिए वैधानिकता, वैधानिक लक्ष्य और आवश्यकता तथा समानता की शर्तों को पूरा करना ज़रूरी है (अनुच्छेद 19, पैरा. 3, ICCPR).
I. वैधानिकता (नियमों की स्पष्टता और सुलभता)
वैधता के परीक्षण को पूरा करने के लिए नियम (a) पर्याप्त सटीकता के साथ बनाया जाना चाहिए ताकि लोग उसके अनुसार अपना आचरण नियंत्रित कर सकें, और (b) सभी के लिए एक्सेस करने योग्य बनाया जाना चाहिए. विशिष्टता नहीं बताए जाने से नियमों का अर्थ अलग-अलग निकाला जा सकता है और इससे कारण उन्हें मनमाने तरीके से लागू किया जा सकता है (सामान्य कमेंट सं. 34, पैरा. 25).
बोर्ड ने कई केस में खतरनाक लोगों और संगठनों से संबंधित कम्युनिटी स्टैंडर्ड की अस्पष्टता की आलोचना की है और कंपनी से प्रशंसा, सहायता और प्रतिनिधित्व की परिभाषा तय करने के लिए कहा है. Facebook ने उसके बाद पॉलिसी में संशोधन किया और 22 जून को उसका अपडेट जारी किया है. इसमें पॉलिसी के कुछ प्रमुख शब्दों की परिभाषा या उदाहरण दिए गए, निर्धारित इकाई और ऑफ़लाइन नुकसान के बीच के संबंध के अनुसार तीन स्तर के एन्फ़ोर्समेंट के लिए इसके नियम व्यवस्थित किए गए और इसके अलावा इस बात के महत्व पर जोर दिया गया कि यूज़र्स खतरनाक लोगों और संगठनों से संबंधित कंटेंट पोस्ट करते समय अपना इरादा स्पष्ट करें. लेकिन पॉलिसी इस बारे में स्पष्टता से नहीं बताती है कि यूज़र्स अपने इरादों को स्पष्ट कैसे कर सकते हैं और ‘ख़बरों की रिपोर्टिंग,’ ‘तटस्थ चर्चा’ और ‘निंदा’ के अपवादों के उदाहरण पेश नहीं करती है.
इसके अलावा लगता है कि अपडेट की गई पॉलिसी उन मामलों में Facebook का अधिकार बढ़ाती है, जहाँ यूज़र का इरादा स्पष्ट नहीं होता है, जिसमें दिया गया है कि Facebook यूज़र्स को उस अधिकार के उपयोग की जानकारी देने वाली उस शर्त के बारे में कोई भी दिशानिर्देश दिए बिना उस कंटेंट को हटा “सकता” है. बोर्ड मानता है कि विस्तार से समझाए गए उदाहरणों सहित इन अपवादों का मूल्यांकन करने की शर्त यह समझने में यूज़र्स की मदद करेगी कि किन पोस्ट की अनुमति है. अतिरिक्त उदाहरण भी रिव्यूअर को स्पष्ट दिशानिर्देश देंगे.
इसके अलावा बोर्ड को यह चिंता है कि कम्युनिटी स्टैंडर्ड का यह संशोधन लगभग दो महीनों तक अमेरिकी अंग्रेज़ी के अलावा अन्य भाषाओं में अनुवादित नहीं किया गया था, जिससे अमेरिकी अंग्रेज़ी से बाहर के मार्केट में इन नियमों की एक्सेस सीमित थी. Facebook ने बताया कि वह पॉलिसी के बदलावों को दुनिया भर में लागू करता है, भले ही अनुवादों में देरी हो रही हो. बोर्ड को यह चिंता है कि अनुवादों में होने वाली देरी से ये नियम काफ़ी समय तक काफ़ी सारे यूज़र्स के लिए एक्सेस करने योग्य नहीं रहते हैं. Facebook जैसी संसाधनों से भरपूर कंपनी के लिए यह अस्वीकार्य है.
II. वैधानिक लक्ष्य
अभिव्यक्ति की स्वतंत्रता पर लगने वाले प्रतिबंधों का एक वैधानिक लक्ष्य होना चाहिए, जैसे कि राष्ट्रीय सुरक्षा या कानून व्यवस्था बनाए रखना या दूसरों के अधिकारों की सुरक्षा करना आदि. खतरनाक लोगों और संगठनों से संबंधित पॉलिसी दूसरों के अधिकारों को, जिसमें इस केस में जीने का और लोगों की सुरक्षा का अधिकार शामिल है, सुरक्षित रखने के वैधानिक अधिकारों का लक्ष्य लेकर वास्तविक नुकसान को रोकने या कम करने की कोशिश करती है.
III. आवश्यकता और आनुपातिकता
अपना वैधानिक लक्ष्य, जो इस केस में दूसरों की सुरक्षा करना है, हासिल करने के लिए प्रतिबंध ज़रूरी और आनुपातिक होने चाहिए. अभिव्यक्ति की स्वतंत्रता पर लगाए जाने वाले सभी प्रतिबंध "उनके सुरक्षात्मक कार्य को पूरा करने के लिए उपयुक्त होने चाहिए; वे अपने सुरक्षात्मक कार्य कर सकने वाले उपायों में से कम से कम हस्तक्षेप करने वाले उपाय होने चाहिए; उन्हें सुरक्षित रखे जाने वाले हित के अनुपात में होना चाहिए” (सामान्य कमेंट 34, पैरा. 34). आवश्यकता और आनुपातिकता से जुड़े सवालों के जवाब देने में संदर्भ का विशेष महत्व होता है.
बोर्ड इस पर भी ज़ोर देता है कि मानवाधिकारों पर पड़ने वाले बुरे प्रभावों को पहचानने, रोकने, कम करने और उनका उत्तरदायित्व लेने की ज़िम्मेदारी Facebook की है (UNGP, सिद्धांत 17). युद्धग्रस्त क्षेत्रों में जाँच-पड़ताल की यह ज़िम्मेदारी और बढ़ जाती है (A/75/212, पैरा. 13). बोर्ड के ध्यान दिया है कि Facebook ने यह सुनिश्चित करने के लिए कुछ कदम उठाए हैं कि कंटेंट अनावश्यक रूप से और गैर-आनुपातिक तरीके से न हटाया जाए, जैसा कि ख़बरों की रिपोर्टिंग वाले अपवाद में बताया गया है और जैसी कि केस 2021-006-IG-UA के फ़ैसले में मानवाधिकार की चिंताओं की चर्चा को अनुमति देने के लिए इसकी प्रतिबद्धता पर चर्चा की गई है.
बोर्ड ने निष्कर्ष निकाला कि इस केस में कंटेंट को हटाना आवश्यक नहीं था. बोर्ड मानता है कि पत्रकारों को किसी आतंकी संगठन के कथनों से संबंधित रिपोर्टिंग के संभावित खतरे तथा बदलती हुई व खतरनाक परिस्थितियों के बारे में लोगों को जानकारी देने के बीच संतुलन बनाए रखने में चुनौती का सामना करना पड़ता है. बोर्ड के कुछ सदस्यों ने चिंता जताई कि इस मामले में रिपोर्टिंग ने अल-कासम के कथनों के लिए या तो कम संपादकीय संदर्भ दिया था या बिल्कुल भी संपादकीय संदर्भ नहीं दिया था और इसलिए इसे अल-कासम की हिंसा की धमकी का मैसेज देने वाला माना जा सकता है. हालाँकि अल ज़ज़ीरा द्वारा पोस्ट किए गए कंटेंट को अन्य आउटलेट ने भी बहुत ज़्यादा रिपोर्ट किया था और यह दुनिया भर में व्यापक रूप से उपलब्ध था, जिसके साथ नई स्थितियाँ उभरने पर और संदर्भ दिया गया था. इस प्रकार, बोर्ड ने यह निष्कर्ष निकाला है कि इस यूज़र द्वारा अल जज़ीरा की रिपोर्ट के दोबारा प्रकाशन को हटाने से वह आतंकवादी प्रभाव कम नहीं हुआ था जिसे वह समूह संभावित तौर पर लाना चाहता था, बल्कि इसके बजाय इस यूज़र की आस-पास के देश में अपने रीडर्स और फ़ॉलोअर्स को इन घटनाओं का महत्व बताने की योग्यता प्रभावित हुई थी.
जैसा कि पहले ही "अभिव्यक्ति" के मूल्य के संबंध में उल्लेख किया गया है, कंटेंट को हटाने की आवश्यकता का रिव्यू करते में बोर्ड इस क्षेत्र में व्यापक मीडिया और सूचना के माहौल को महत्वपूर्ण मानता है. इज़राइली सरकार, फ़िलिस्तीनी प्राधिकरण और हमास बोलने की स्वतंत्रता को अनुचित रूप से प्रतिबंधित करते हैं, जिससे फिलिस्तीनी और अन्य लोगों की अभिव्यक्ति की स्वतंत्रता पर नकारात्मक प्रभाव पड़ता है.
राष्ट्रीयता, जाति, धर्म या आस्था अथवा राजनीतिक या अन्य विचार के आधार पर लगाए जाने वाले प्रतिबंधों सहित अभिव्यक्ति की स्वतंत्रता पर लगाए जाने वाले प्रतिबंध गैर-भेदभावपूर्ण होने चाहिए (अनुच्छेद 2, पैरा. 1 और अनुच्छेद 26, ICCPR). कम्युनिटी स्टैंडर्ड के भेदभावपूर्ण एन्फ़ोर्समेंट से अभिव्यक्ति की स्वतंत्रता के इस बुनियादी पहलू का उल्लंघन होता है. बोर्ड को लोगों की ओर से कमेंट मिले हैं और उसने यह आरोप लगाने वाली सार्वजनिक रूप से उपलब्ध जानकारी का रिव्यू किया है कि Facebook ने फ़िलिस्तीनी यूज़र्स के कंटेंट और अरबी भाषा के कंटेंट को असंगत तरीके से हटा दिया है या कम कर दिया है, ख़ास तौर पर इज़राइल में अरब-विरोधी या फिलिस्तीनी विरोधी हिंसा की धमकी देने या हिंसा भड़काने वाली पोस्ट को प्रबंधित करने के उसके तरीके की तुलना में. साथ ही, इज़राइली नागरिकों के विरुद्ध हिंसा भड़काने वाले कंटेंट को हटाने के कड़े नियम नहीं बनाने के लिए Facebook की आलोचना की गई है. नीचे, बोर्ड इन महत्वपूर्ण मुद्दों के स्वतंत्र रिव्यू का सुझाव देता है.
9. ओवरसाइट बोर्ड का फ़ैसला
ओवरसाइट बोर्ड ने इस बात से सहमत होकर कंटेंट को रीस्टोर करने के Facebook के फ़ैसले को स्वीकार किया कि पोस्ट को हटाने का मूल फ़ैसला गलती से लिया गया था.
10. पॉलिसी से जुड़ी सलाह का कथन
कंटेंट पॉलिसी
यूज़र्स को अपने नियम स्पष्ट करने के लिए, Facebook को ये काम करने चाहिए:
1. निष्पक्ष चर्चा, निंदा और समाचार रिपोर्टिंग के अपवादों की समझ बढ़ाने के लिए खतरनाक लोग और संगठनों से जुड़ी अपनी पॉलिसी में मानदंड और व्याख्या करने वाले उदाहरण जोड़े.
2. यह सुनिश्चित करे कि कम्युनिटी स्टैंडर्ड में होने वाले अपडेट का सभी उपलब्ध भाषाओं में तेज़ी से अनुवाद हो.
पारदर्शिता
वास्तविक या कथित सरकारी हस्तक्षेप के संबंध में होने सहित कंटेंट मॉडरेशन में संभावित पूर्वाग्रह से संबंधित सार्वजनिक चिंताओं को दूर करने के लिए, Facebook को ये काम करने चाहिए:
3. एक ऐसी निष्पक्ष संस्था को शामिल करे जो इज़राइली-फिलिस्तीनी संघर्ष के किसी भी पक्ष से संबद्ध न हो, ताकि यह निर्धारित करने के लिए विस्तृत जाँच की जा सके कि Facebook के ऑटोमेशन के उपयोग सहित क्या अरबी और हिब्रू भाषाओं में उसके कंटेंट मॉडरेशन को पूर्वाग्रह के बिना लागू किया गया है. इस जाँच में न केवल फिलिस्तीनी या फिलिस्तीनी समर्थन वाले कंटेंट को प्रबंधित करने के तरीके का बल्कि ऐसे कंटेंट का भी रिव्यू किया जाना चाहिए जो किसी भी संभावित लक्ष्य के विरुद्ध हिंसा को भड़काता है, चाहे उनकी राष्ट्रीयता, जाति, धर्म या आस्था अथवा राजनीतिक राय कुछ भी हो. इस रिव्यू में इज़राइल और फिलिस्तीनी अधिकृत क्षेत्रों में और उनके बाहर स्थित Facebook यूज़र्स द्वारा पोस्ट किया गया कंटेंट अच्छी तरह से देखा जाना चाहिए. इसकी रिपोर्ट और उसके निष्कर्षों को सार्वजनिक किया जाना चाहिए.
4. इससे संबंधित एक पारदर्शी प्रक्रिया को औपचारिक रूप दे कि उसे कंटेंट को हटाने के सभी सरकारी अनुरोध कैसे मिलते हैं और वह उनके जवाब किस तरह देता है, तथा यह सुनिश्चित करे कि उन्हें पारदर्शिता रिपोर्टिंग में शामिल किया जाता है. पारदर्शिता रिपोर्टिंग में उन अनुरोधों के अलावा जिनके कारण कोई एक्शन नहीं लिया गया यह अंतर समझ में आना चाहिए कि वे सरकारी अनुरोध कौन-से हैं जिनके कारण कम्युनिटी स्टैंडर्ड का उल्लंघन करने के लिए कंटेंट को हटाया गया था और वे अनुरोध कौन-से हैं जिनके कारण स्थानीय कानून का उल्लंघन करने के लिए कंटेंट को हटाया या जिओ-ब्लॉक किया गया था.
*प्रक्रिया संबंधी नोट:
ओवरसाइट बोर्ड के फ़ैसले पाँच सदस्यों के पैनल द्वारा लिए जाते हैं और बोर्ड के अधिकांश सदस्य इन पर सहमति देते हैं. ज़रूरी नहीं है कि बोर्ड के फ़ैसले उसके हर एक मेंबर की निजी राय को दर्शाएँ.
इस केस के फ़ैसले के लिए, बोर्ड की ओर से स्वतंत्र शोध को अधिकृत किया गया. एक स्वतंत्र शोध संस्थान जिसका मुख्यालय गोथेनबर्ग यूनिवर्सिटी में है और छह महाद्वीपों के 50 से भी ज़्यादा समाजशास्त्रियों की टीम के साथ ही दुनिया भर के देशों के 3,200 से भी ज़्यादा विशेषज्ञों ने सामाजिक-राजनैतिक और सांस्कृतिक संदर्भ में विशेषज्ञता मुहैया कराई है. Lionbridge Technologies, LLC कंपनी ने भाषा संबंधी विशेषज्ञता की सेवा दी, जिसके विशेषज्ञ 350 से भी ज़्यादा भाषाओं में अपनी सेवाएँ देते हैं और वे दुनिया भर के 5,000 शहरों से काम करते हैं.