पलट जाना

अल-शिफ़ा अस्पताल

बोर्ड ने Instagram से कंटेंट को हटाने के Meta के मूल फ़ैसले को पलट दिया. उसने पाया कि “परेशान करने वाले के रूप में चिह्नित” चेतावनी स्क्रीन के साथ कंटेंट को प्लेटफ़ॉर्म पर रीस्टोर करना, Meta की कंटेंट पॉलिसी, वैल्यू और मानवाधिकार से जुड़ी ज़िम्मेदारियों के अनुसार है.

निर्णय का प्रकार

Expedited

नीतियां और विषय

विषय
युद्ध और मतभेद, सुरक्षा, हिंसा
सामुदायिक मानक
हिंसक और आपत्तिजनक कंटेंट

क्षेत्र/देश

जगह
इज़राइल, फ़िलिस्तीनी क्षेत्र

प्लैटफ़ॉर्म

प्लैटफ़ॉर्म
Instagram

संलग्नक

Hebrew translation.pdf

इस फ़ैसले के प्रकाशन के बाद के कुछ हफ़्तों में, हम यहाँ हिब्रू भाषा का अनुवाद अपलोड करेंगे और अरबी भाषा का अनुवाद ‘भाषा’ टैब के ज़रिए उपलब्ध होगा जिसे इस स्क्रीन में सबसे ऊपर मौजूद मेनू से एक्सेस किया जा सकता है.

לקריאת החלטה זו בעברית יש ללחוץ כאן.

1. सारांश

इस केस में गाज़ा में अल-शिफ़ा अस्पताल पर या उसके पास हुए इज़राइल के ज़मीनी हमलों के बाद की घटनाओं का अत्यंत भावनात्मक वीडियो है जिसके कैप्शन में हमले की निंदा की गई है. Meta के ऑटोमेटेड सिस्टम्स ने कंपनी के हिंसक और आपत्तिजनक कंटेंट से जुड़े कम्युनिटी स्टैंडर्ड का उल्लंघन करने के कारण पोस्ट को हटा दिया था. Meta के साथ इस फ़ैसले पर असफल वाद-विवाद के बाद यूज़र ने ओवरसाइट बोर्ड को अपील की. बोर्ड द्वारा रिव्यू के लिए इस केस को चुने जाने के बाद, Meta ने अपने फ़ैसले को पलटते हुए चेतावनी स्क्रीन के साथ कंटेंट को रीस्टोर कर दिया. बोर्ड मानता है कि कंटेंट को हटाने का मूल फ़ैसला, Meta की कंटेंट पॉलिसी या कंपनी की मानवाधिकारों से जुड़ी ज़िम्मेदारियों के अनुसार नहीं था. बोर्ड ने चेतावनी स्क्रीन के साथ कंटेंट को रीस्टोर करने के फ़ैसले को स्वीकार किया, लेकिन कंटेंट के इससे संबंधित डिमोशन को अस्वीकार किया जिसके कारण कंटेंट को सुझावों में नहीं दिखाया जा रहा था. इज़राइल से बंधकों का अपहरण ( 2023-050-FB-UA) केस के साथ यह केस, ऐसे पहले केस हैं जिनका फ़ैसला बोर्ड की त्वरित रिव्यू प्रक्रियाओं के तहत किया गया है.

2. संदर्भ और Meta का जवाब

7 अक्टूबर, 2023 को हमास, जो Meta के खतरनाक संगठनों और लोगों से जुड़े कम्युनिटी स्टैंडर्ड में टियर 1 के तहत चिह्नित संगठन है, के नेतृत्व में गाज़ा से इज़राइल पर आतंकी हमले किए गए जिनमें 1200 लोग मारे गए और लगभग 240 लोगों को बंधक बना लिया गया ( विदेश मंत्रालय, इज़राइल सरकार). हमलों के जवाब में इज़राइल ने तुरंत गाज़ा में सैन्य कार्रवाई की. इज़राइल की सैन्य कार्रवाई में मध्य दिसंबर 2023 तक गाज़ा में 18000 से ज़्यादा लोग मारे जा चुके हैं (मानवतावादी मामलों के समन्यवय के लिए संयुक्त राष्ट्र कार्यालय, जो गाज़ा के स्वास्थ्य मंत्रालय से डेटा प्राप्त कर रहा है). इस संघर्ष में दोनों पक्ष एक-दूसरे पर अंतरराष्ट्रीय कानून के उल्लंघन का आरोप लगा रहे हैं. आतंकी हमले और उसके बाद इज़राइल की सैन्य कार्रवाइयाँ, पूरी दुनिया में प्रचार, चर्चा, छानबीन और बहस का विषय रही हैं जो अधिकांश रूप से Instagram और Facebook सहित सोशल मीडिया पर हुई हैं.

Meta ने अपनी खतरनाक संगठनों और लोगों से जुड़ी अपनी पॉलिसी के तहत 7 अक्टूबर की घटना को तुरंत एक आतंकी हमले के रूप में चिह्नित किया है. अपने कम्युनिटी स्टैंडर्ड के तहत, इसका मतलब है कि Meta ऐसे सभी कंटेंट को अपने प्लेटफ़ॉर्म से हटा देगा जिसमें 7 अक्टूबर की घटना या उसके दोषियों की “प्रशंसा, मौलिक समर्थन या प्रतिनिधित्व” किया जाता है.

आतंकी हमलों और सैन्य जवाब के बाद अपने प्लेटफ़ॉर्म पर भारी मात्रा में पोस्ट किए जा रहे हिंसक और आपत्तिजनक कंटेंट के जवाब में, Meta ने कई अस्थायी उपाय किए हैं जिनमें कंटेंट को पहचानने और हटाने के लिए अपने आपत्तिजनक और हिंसक कंटेंट को ऑटोमैटिक क्लासिफ़िकेशन सिस्टम (क्लासिफ़ायर) के लिए कॉन्फ़िडेंस थ्रेशोल्ड कम करना शामिल है. Meta ने बोर्ड को बताया कि ये उपाय इज़राइल और गाज़ा से आने वाले किसी भी भाषा के कंटेंट के लिए किए गए हैं. इन क्लासिफ़ायर में किए गए बदलावों के कारण, उन कंटेंट को हटाए जाने की संख्या बढ़ी है जहाँ Meta की पॉलिसी का उल्लंघन करने वाले कंटेंट के लिए कॉन्फ़िडेंस का स्कोर कम था. दूसरे शब्दों में, Meta ने ऐसे कंटेंट को हटाने के लिए अपने ऑटोमेटेड टूल्स का ज़्यादा कठोरता से उपयोग किया जो उसकी पॉलिसी का उल्लंघन कर सकता था. Meta ने 7 अक्टूबर के पहले के उच्च कॉन्फ़िडेंस थ्रेशोल्ड की तुलना में ज़्यादा कंटेंट हटाकर सुरक्षा की अपनी वैल्यू को प्राथमिकता देने के लिए ऐसा किया. इससे यह संभावना कम हुई कि Meta ऐसे कंटेंट को हटाने में विफल होगा जो पहचाने जाने से अन्यथा बच जाएगा या जहाँ ह्यूमन रिव्यू की क्षमता सीमित होगी, लेकिन इससे यह संभावना भी बढ़ गई कि Meta इस संघर्ष के संबंध में उल्लंघन न करने वाले कंटेंट को भी हटा देगा.

जब एस्केलेशन वाली टीमों ने अपने आकलन में कंटेंट को उसकी हिंसक और आपत्तिजनक कंटेंट, हिंसा और उकसावे और खतरनाक संगठन और लोगों से जुड़ी पॉलिसी का उल्लंघन करने वाला पाया, वहाँ Meta ने मैच करने वाले वीडियो को अपने आप हटाने के लिए मीडिया मैचिंग सेवा पर भरोसा किया. इस तरीके से एन्फ़ोर्समेंट के ज़रूरत से ज़्यादा उपयोग की चिंता सामने आई, जहाँ Meta की कंटेंट पॉलिसी के बार-बार उल्लंघन के कारण लोगों के अकाउंट पर प्रतिबंध लगा दिए गए या उन्हें सस्पेंड कर दिया गया (इसे कभी-कभी “Facebook जेल” भी कहा जाता है). इस चिंता को कम करने के लिए, Meta ने “ स्ट्राइक” लगाना बंद कर दिया जिसका उपयोग सामान्य तौर पर उस समय कंटेंट को हटाने के साथ किया जाता है जब मीडिया मैचिंग सर्विस बैंक के आधार पर उसे अपने आप हटाया जाता है (जैसी कि Meta ने अपनी न्यूज़रूम पोस्ट में घोषणा की है).

क्लासिफ़ायर कॉन्फ़िडेंस थ्रेशोल्ड और स्ट्राइक पॉलिसी में Meta द्वारा किया गया बदलाव, सिर्फ़ इज़राइल-गाज़ा संघर्ष तक सीमित है और कुछ समय के लिए किया गया है. 11 दिसंबर, 2023 तक Meta ने अपने कॉन्फ़िडेंस थ्रेशोल्ड को 7 अक्टूबर के पहले के लेवल पर रीस्टोर नहीं किया था.

3. केस का विवरण

इस केस में विचाराधीन कंटेंट में Instagram पर पोस्ट किया गया एक वीडियो शामिल है जिसे नवंबर के दूसरे हफ़्ते में पोस्ट किया गया था. इस वीडियो में गाज़ा पट्टी के उत्तर में अल-शिफ़ा अस्पताल पर या उसके पास इज़राइल के ज़मीनी हमलों के बाद की घटनाएँ दिखाई देती हैं. इस केस की Instagram पोस्ट में दिखाया गया है कि बच्चों समेत कई लोग ज़मीन पर बेजान या घायल पड़े हैं और रो रहे हैं. एक बच्चा मृत दिखाई पड़ता है जिसके सिर पर गंभीर चोट है. वीडियो के नीचे अरबी और अंग्रेज़ी भाषा के कैप्शन में लिखा है कि अस्पताल को "usurping occupation" (कब्ज़ा करने वालों) ने निशाना बनाया है. इन शब्दों के ज़रिए इज़राइल की सेना की ओर इशारा किया गया है. इस कैप्शन में मानवाधिकार और समाचार संगठनों को टैग भी किया गया है.

Meta का हिंसक और आपत्तिजनक कंटेंट से जुड़ा कम्युनिटी स्टैंडर्ड, जो Facebook और Instagram पर लागू होता है, “गैर-चिकित्सीय स्थिति में ऐसे लोगों या मृतकों के वीडियो प्रतिबंधित करता है जिनके आंतरिक अंग दिखाई दे रहे हों.” पोस्ट करते समय, पॉलिसी के तहत “ऐसी इमेजरी को परमिशन दी गई थी जिसमें दुर्घटना या हत्या द्वारा किसी व्यक्ति की हिंसक मृत्यु दिखाई गई हो,” बशर्ते ऐसे कंटेंट को “परेशान करने वाले के रूप में चिह्नित” चेतावनी स्क्रीन के साथ दिखाया गया हो और वह सिर्फ़ 18 वर्ष से बड़े लोगों को दिखाई देता हो. इस नियम को 29 नवंबर को, इस केस के कंटेंट को रीस्टोर किए जाने के बाद, यह स्पष्ट करने के लिए अपडेट किया गया कि नियम “मृत्यु के पल या उसके बाद की घटनाओं” पर लागू होता है और साथ ही उस इमेजरी पर लागू होता है जिसमें “कोई व्यक्ति जानलेवा स्थिति का अनुभव कर रहा हो.”

Meta के ऑटोमेटेड सिस्टम्स ने हिंसक और आपत्तिजनक कंटेंट से जुड़े कम्युनिटी स्टैंडर्ड का उल्लंघन करने के कारण इस केस के कंटेंट को हटा दिया. फ़ैसले के खिलाफ़ यूज़र की अपील को अपने आप अस्वीकार कर दिया गया क्योंकि Meta के क्लासिफ़ायर्स ने बताया कि कंटेंट से “उच्च कॉन्फ़िडेंस लेवल” का उल्लंघन हुआ है. यूज़र ने फिर Meta के फ़ैसले के खिलाफ़ ओवरसाइट बोर्ड को अपील की.

बोर्ड द्वारा यह केस चुने जाने के बाद, Meta इस अंतिम निष्कर्ष पर नहीं पहुँच सका कि वीडियो में आंतरिक अंग दिखाए गए थे या नहीं. इसलिए Meta इस नतीजे पर पहुँचा कि उसे इस कंटेंट को हटाना नहीं चाहिए था. हालाँकि कंटेंट उल्लंघन करने के बिल्कुल “करीब” था. Meta ने आगे कहा कि भले ही आंतरिक अंग दिखाई दे रहे थे, इस पोस्ट को “परेशान करने वाले के रूप में चिह्नित” चेतावनी स्क्रीन के साथ बनाए रखा जाना चाहिए था क्योंकि उसे जागरूकता फैलाने के लिए शेयर किया गया था. कंपनी ने दोहराया कि आपत्तिजनक और हिंसक कंटेंट की पॉलिसी बनाने के कारण के अनुसार, ऐसे कंटेंट को उस स्थिति में परमिशन दी जाती है जब उसे “मानवाधिकार हनन, सशस्त्र संघर्ष या आतंकवादी कृत्यों जैसे ज़रूरी मुद्दों” के बारे में जागरूकता फैलाने के लिए शेयर किया जाए.

Meta ने इसलिए अपना मूल फ़ैसला पलट दिया और कंटेंट को चेतावनी स्क्रीन के साथ रीस्टोर कर दिया. चेतावनी स्क्रीन, यूज़र्स को बताती है कि कंटेंट परेशान करने वाला हो सकता है. वयस्क यूज़र्स इस चेतावनी को क्लिक करके पोस्ट देख सकते हैं, लेकिन Meta इन पोस्ट को 18 वर्ष से कम उम्र के Instagram यूज़र्स की फ़ीड से हटा देता है और उन्हें वयस्क Instagram यूज़र्स को दिए जाने वाले सुझावों से भी हटा देता है. Meta ने इसी वीडियो की एक अलग कॉपी को मीडिया मैचिंग सर्विस बैंक में भी जोड़ा, ताकि ऐसे अन्य वीडियो पर अपने आप एक चेतावनी स्क्रीन लगा दी जाए और वह सिर्फ़ 18 वर्ष से ज़्यादा उम्र वाले लोगों को दिखाई दे.

4. त्वरित रिव्यू के लिए अधिकार-क्षेत्र

ओवरसाइट बोर्ड के उपनियमों में “असाधारण परिस्थितियों में त्वरित रिव्यू करने का प्रावधान है. असाधारण परिस्थितियों में ऐसी परिस्थितियाँ शामिल होती हैं, जिनमें किसी कंटेंट से असली दुनिया पर जल्दी ही कोई असर पड़ सकता है” और ये फ़ैसले Meta के लिए बाध्यकारी होते हैं (चार्टर, आर्टिकल 3, सेक्शन 7.2; उपनियम, आर्टिकल 2, सेक्शन 2.1.2). त्वरित प्रोसेस में गहन रिसर्च, बाहरी परामर्श या सार्वजनिक कमेंट के वे लेवल शामिल नहीं होते जो सामान्य समय में केसों के रिव्यू किए जाते समय पूरे किए जाते हैं. केस का फ़ैसला, बोर्ड को विचार-विमर्श के समय उपलब्ध जानकारी के आधार पर किया जाता है और बोर्ड के पूर्ण वोट के बिना पाँच सदस्यों के पैनल द्वारा किया जाता है.

ओवरसाइट बोर्ड ने इस केस और एक अन्य केस, इज़राइल से बंधकों का अपहरण (2023-050-FB-UA), का चयन किया क्योंकि संघर्ष की स्थितियों में अभिव्यक्ति की आज़ादी महत्वपूर्ण होती है और इज़राइल-हमास संघर्ष की स्थिति में इस पर संकट है. दोनों केस उन अपीलों के प्रतिनिधि हैं जिन्हें क्षेत्र के यूज़र्स 7 अक्टूबर के हमलों और उसके बाद इज़राइल की सैन्य कार्रवाई के सिलसिले में बोर्ड को सबमिट करते आ रहे हैं. दोनों केस बोर्ड की संकट और संघर्ष की स्थितियों से जुड़ी प्राथमिकता के तहत आते हैं. दोनों केसों में Meta के फ़ैसले, त्वरित रिव्यू के औचित्य के लिए “असली दुनिया पर पड़ने वाले अत्यावश्यक परिणामों” के स्टैंडर्ड को पूरा करते हैं और इसके अनुसार बोर्ड और Meta ने मिलकर बोर्ड की त्वरित प्रक्रिया के तहत आगे बढ़ना तय किया.

बोर्ड को अपने सबमिशन में, Meta ने यह माना कि “यह फ़ैसला करना कठिन है कि इस कंटेंट से कैसे व्यवहार किया जाए और इसमें आपस में प्रतिस्पर्धा करने वाली वैल्यू और दुविधाएँ शामिल हैं.” उसने बोर्ड से इस मुद्दे पर राय माँगी.

5. यूज़र सबमिशन

पोस्ट के लेखक ने अपनी अपील में बोर्ड से कहा कि उन्होंने हिंसा को उकसावा नहीं दिया, बल्कि यह दिखाने के लिए कंटेंट शेयर किया कि बच्चों सहित फ़िलिस्तीन के लोगों को कैसी पीड़ा झेलनी पड़ रही है. यूज़र ने कहा कि कंटेंट को हटाना, फ़िलिस्तीन के लोगों की पीड़ा के साथ पक्षपात है. यूज़र को यह सूचना दी गई थी कि बोर्ड उनकी अपील का रिव्यू कर रहा है.

6. फ़ैसला

बोर्ड के सदस्य आपस में इज़राइल की सैन्य प्रतिक्रया और उसके औचित्य पर सहमत नहीं थे, लेकिन वे इस बात पर पूरी तरह सहमत थे कि Meta के लिए उन लोगों के अभिव्यक्ति की आज़ादी के अधिकार और अन्य मानवाधिकारों और इस संकट में कम्युनिकेट कर पाने की उनकी क्षमता का सम्मान करना ज़रूरी है जो इन घटनाओं से प्रभावित हुए हैं.

बोर्ड ने Instagram से कंटेंट को हटाने के Meta के मूल फ़ैसले को पलट दिया. उसने पाया कि “परेशान करने वाले के रूप में चिह्नित” चेतावनी स्क्रीन के साथ कंटेंट को प्लेटफ़ॉर्म पर रीस्टोर करना, Meta की कंटेंट पॉलिसी, वैल्यू और मानवाधिकार से जुड़ी ज़िम्मेदारियों के अनुसार है. हालाँकि, बोर्ड इस नतीजे पर भी पहुँचा कि रीस्टोर किए गए कंटेंट को Meta द्वारा डिमोट करना, ताकि उसे सुझावों में दिखाए जाने की संभावना न हो, अभिव्यक्ति की आज़ादी का सम्मान करने की कंपनी की ज़िम्मेदारियों के अनुसार नहीं है.

6.1 Meta की कंटेंट पॉलिसी का अनुपालन

बोर्ड, Meta की इस बात से सहमत है कि वीडियो के बारे में यह तय करना मुश्किल है कि उसमें “आंतरिक अंग दिखाई दे रहे हैं या नहीं.” इस केस के संदर्भ को देखते हुए, जिसमें जानकारी की एक्सेस की रक्षा करने और संघर्ष के असर के बारे में जागरूकता फैलाने के तरीके उपलब्ध कराने का अत्यधिक जनहित शामिल था, ऐसे कंटेंट को हटाया नहीं जाना चाहिए था जो हिंसक और आपत्तिजनक कंटेंट से जुड़ी पॉलिसी का उल्लंघन करने की “बॉर्डरलाइन पर” है. चूँकि कंटेंट में ऐसी इमेजरी शामिल है जिसमें सिर पर खून से लथपथ चोट से एक व्यक्ति की हिंसक मृत्यु दिखाई गई है, इसलिए Meta को अपनी पॉलिसी के अनुसार इस पर एक चेतावनी स्क्रीन लगानी चाहिए थी और इसे सिर्फ़ उन लोगों को दिखाया जाना चाहिए था जिनकी उम्र 18 वर्ष से ज़्यादा है.

बोर्ड, Meta द्वारा बाद में किए गए इस निर्धारण से भी सहमत है कि भले ही इस वीडियो में आंतरिक अंग दिखाई दे रहे थे, पोस्ट की भाषा में हिंसा की निंदा की गई थी और उसके खिलाफ़ जागरूकता फैलाई गई थी. इसका मतलब है कि इसे “परेशान करने वाले के रूप में चिह्नित” चेतावनी स्क्रीन के साथ बनाए रखा जाना चाहिए था और इसे 18 वर्ष से कम उम्र के लोगों को दिखाया नहीं जाना चाहिए था. लागू पॉलिसी लाइन के संबंध में कम्युनिटी स्टैंडर्ड में चेतावनी स्क्रीन की जानकारी नहीं दी गई है (“चिकित्सीय स्थिति में लोगों या मृत शरीरों के वीडियो, अगर उनमें आंतरिक अंग दिखाई दे रहे हों”). सूडान का आपत्तिजनक वीडियो केस में, बोर्ड ने बताया कि Meta अपने रिव्यूअर्स को यह निर्देश देता है कि वे उसकी “यह कंटेंट पोस्ट न करें” पॉलिसीज़ की लिखित भाषा का पालन करें. पॉलिसी बनाने के कारण में कहा गया है कि “मानवाधिकार हनन, सशस्त्र संघर्ष और आतंकवादी कृत्य जैसे महत्वपूर्ण मुद्दों पर चर्चा के संदर्भ में, हम आपत्तिजनक कंटेंट की परमिशन देते हैं (कुछ सीमाओं के साथ) ताकि लोग इन स्थितियों की निंदा कर सकें और उनके बारे में जागरूकता फैला सकें.” हालाँकि, कम्युनिटी स्टैंडर्ड नियम गैर-चिकित्सीय संदर्भ में ऐसे सभी वीडियो को प्रतिबंधित करता है जिनमें “आंतरिक अंग दिखाई देते हैं.” उसमें रिव्यूअर्स को उन स्थितियों में चेतावनी स्क्रीन जोड़ने का विकल्प नहीं दिया गया है जहाँ पॉलिसी बनाने के कारण से जुड़ी छूट लागू होती है. Meta के ऑटोमेटेड सिस्टम्स उन स्थितियों में चेतावनी स्क्रीन लगाने के लिए कॉन्फ़िगर किए गए नहीं लगते हैं जहाँ वीडियो में आपत्तिजनक कंटेंट दिखाया गया है लेकिन उनका संदर्भ हिंसा की निंदा करना या उसके खिलाफ़ जागरूकता फैलाना है. यह भी स्पष्ट नहीं है कि जहाँ यह संदर्भ मौजूद होता है, वहाँ लागू क्लासिफ़ायर आगे के आकलन के लिए कंटेंट को ह्यूमन रिव्यूअर्स के पास भेज पाएँगे या नहीं.

6.2 Meta की मानवाधिकारों से जुड़ी ज़िम्मेदारियों का अनुपालन

मानवाधिकारों से जुड़ी अपनी ज़िम्मेदारियों के अनुसार, हिंसक और आपत्तिजनक कंटेंट का मॉडरेशन करते समय Meta को अभिव्यक्ति की आज़ादी का सम्मान करना चाहिए, जिसमें जानकारी माँगने, पाने और देने की आज़ादी शामिल है (आर्टिकल 19, पैरा. 2, नागरिक और राजनीतिक अधिकार पर अंतरराष्ट्रीय प्रतिज्ञापत्र (ICCPR)). जैसा कि बोर्ड ने आर्मेनिया के युद्धबंदियों का वीडियो केस में कहा, नागरिक और राजनीतिक अधिकार पर अंतरराष्ट्रीय प्रतिज्ञापत्र (ICCPR) के आर्टिकल 19 के तहत अभिव्यक्ति की आज़ादी के सुरक्षा उपाय, “सशस्त्र संघर्ष की स्थिति में भी लागू होते हैं और Meta को अपनी मानवाधिकार संबंधी ज़िम्मेदारियों में इनकी मदद लेते रहना चाहिए. ये सुरक्षा उपाय ऐसे संघर्षों के दौरान लागू होने वाले अंतरराष्ट्रीय मानवतावादी कानून के परस्पर सुदृढ़ बनाने वाले और पूरक नियमों के साथ लागू किए जाते हैं.” बिज़नेस और मानवाधिकारों के बारे में संयुक्त राष्ट्र के मार्गदर्शक सिद्धांत, किसी संघर्ष वाले माहौल में काम करने वाले बिज़नेस को ज़्यादा ज़िम्मेदार बनाते हैं (“बिज़नेस, मानवाधिकार और संघर्ष से प्रभावित क्षेत्र: बड़े स्तर की कार्रवाई की ओर,” A/75/212).

बोर्ड ने पुराने केसों में इस बात पर ज़ोर दिया है कि Facebook और Instagram जैसे सोशल मीडिया प्लेटफ़ॉर्म, न्यूज़ रिपोर्टिंग सहित हिंसक घटनाओं के बारे में रियल-टाइम जानकारी प्रसारित करने के महत्वपूर्ण साधन हैं (जैसे कि न्यूज़ रिपोर्टिंग में तालिबान का उल्लेख केस देखें). वे सशस्त्र संघर्ष के संदर्भ में ख़ास तौर पर एक महत्वपूर्ण भूमिका निभाते हैं, जहाँ पत्रकारों के लिए विशेष रूप से जाना मुश्किल होता है. इसके अलावा, हिंसक हमले और मानवाधिकार हनन दिखाने वाले कंटेंट में लोगों की अत्यधिक दिलचस्पी होती है (सूडान का आपत्तिजनक वीडियो देखें).

जहाँ कोई देश, अभिव्यक्ति पर प्रतिबंध लगाता है, वहाँ अंतरराष्ट्रीय मानवाधिकार कानून के अनुसार प्रतिबंधों को वैधानिकता, वैधानिक लक्ष्य और आवश्यकता तथा आनुपातिकता की शर्तों को पूरा करना चाहिए (अनुच्छेद 19, पैरा. 3, ICCPR). इन आवश्यकताओं को अक्सर “तीन भागों वाला परीक्षण” कहा जाता है. Meta की स्वैच्छिक मानवाधिकार प्रतिबद्धताओं को समझने के लिए बोर्ड इस फ़्रेमवर्क का उपयोग करता है - रिव्यू में मौजूद कंटेंट से जुड़े व्यक्तिगत फ़ैसले के लिए और यह जानने के लिए कि कंटेंट गवर्नेंस के प्रति Meta के व्यापक नज़रिए के बारे में यह क्या कहता है. ऐेसा करते समय, बोर्ड इस बारे में संवेदनशील बने रहने की कोशिश करता है कि उन अधिकारों को प्राइवेट सोशल मीडिया कंपनी पर लागू करना उन्हें किसी सरकार पर लागू करने से किस तरह अलग हो सकता है. इसके बावजूद, जैसा कि अभिव्यक्ति की आज़ादी के बारे में संयुक्त राष्ट्र के खास रैपर्टर में कहा गया है कि भले ही कंपनियों का सरकारों के प्रति कोई दायित्व नहीं है, लेकिन “उनका प्रभाव इस तरह का है जो उनके लिए अभिव्यक्ति की आज़ादी के अपने अधिकार की रक्षा के बारे में इस तरह के सवालों का आकलन करना ज़रूरी बनाता है” (रिपोर्ट A/74/486, पैरा. 41).

वैधानिकता के अनुसार यह ज़रूरी है कि अभिव्यक्ति की आज़ादी का कोई भी प्रतिबंध एक्सेस योग्य होना चाहिए और उसे यह स्पष्ट मार्गदर्शन देना चाहिए कि किन बातों की परमिशन है और किनकी नहीं. बोर्ड पहले यह चिंता जता चुका है कि हिंसक और आपत्तिजनक कंटेंट से जुड़े कम्युनिटी स्टैंडर्ड के नियम, पूरी तरह पॉलिसी बनाने के कारण के अनुसार नहीं हैं, जो पॉलिसी के लक्ष्य तय करते हैं (सूडान का आपत्तिजनक वीडियो और नाइजीरिया के चर्च पर हुए हमले के बाद का वीडियो देखें). बोर्ड ने सूडान का आपत्तिजनक वीडियो केस में दिए गए सुझाव सं. 1 और 2 का महत्व दोहराया, जिनमें Meta से कहा गया था कि वह हिंसक और आपत्तिजनक कंटेंट से जुड़े कम्युनिटी स्टैंडर्ड में बदलाव करके लोगों या मृत शरीरों के वीडियो को तब परमिशन दे जब उन्हें जागरूकता फैलाने या मानवाधिकार हनन को डॉक्यूमेंट करने के उद्देश्य से शेयर किया गया हो (उस केस में स्पष्ट अंग-भंग दिखाई दे रहा था.) इन सुझावों के जवाब में Meta ने एक पॉलिसी निर्माण प्रोसेस शुरू की और वह बोर्ड को भेजे जाने वाले अगले तिमाही अपडेट में अपनी प्रगति रिपोर्ट करने का इरादा रखता है. बोर्ड की नज़र में, यह सुझाव उन वीडियो के नियमों पर लागू किया जाना चाहिए जिनमें आंतरिक अंग दिखाई देते हैं और अगर जागरूकता फैलाने (तथ्यात्मक रिपोर्टिंग सहित) और निंदा करने से जुड़ा अपवाद लागू होता है, तो एन्फ़ोर्समेंट के उपाय के रूप में चेतावनी स्क्रीन ख़ास तौर पर लगाई जानी चाहिए.

ICCPR के अनुच्छेद 19, पैरा. 3 के तहत, कारणों की एक परिभाषित और सीमित लिस्ट के अनुसार अभिव्यक्ति को प्रतिबंधित किया जा सकता है. बोर्ड ने पहले पाया था कि हिंसक और आपत्तिजनक कंटेंट से जुड़ी पॉलिसी, अन्य लोगों के मानवाधिकारों की रक्षा करने के वैधानिक लक्ष्य को पूरा करती है, जिसमें दिखाए गए लोगों के प्राइवसी भी शामिल है (सूडान का आपत्तिजनक वीडियो और नाइजीरिया के चर्च पर हुए हमले के बाद का वीडियो देखें). इसके अलावा, मौजूदा केस दिखाता है कि 18 वर्ष से कम उम्र के लोगों के लिए कंटेंट की एक्सेस को प्रतिबंधित करने से नाबालिगों के स्वास्थ्य के अधिकार के वैधानिक लक्ष्य की पूर्ति होती है (बाल अधिकारों पर समझौता, आर्टिकल 24).

आवश्यकता और आनुपातिकता के सिद्धांत के अनुसार यह ज़रूरी है कि अभिव्यक्ति की आज़ादी से संबंधित प्रतिबंध "रक्षा करने के उनके कार्य को सही तरीके से पूरा करने वाले होने चाहिए; उनसे उन लोगों के अधिकारों में कम से कम हस्तक्षेप होना चाहिए, जिन्हें उन प्रतिबंधों से होने वाले रक्षात्मक कार्यों का लाभ मिल सकता है [और] जिन हितों की सुरक्षा की जानी है, उसके अनुसार ही सही अनुपात में प्रतिबंध लगाए जाने चाहिए" (सामान्य टिप्पणी सं. 34, पैरा. 34).

जैसा कि बोर्ड ने हिंसक और आपत्तिजनक कंटेंट के संबंध में पहले पाया था, चेतावनी स्क्रीन से “उन लोगों पर अकारण बोझ नहीं पड़ता जो कंटेंट देखना चाहते हैं. इससे अन्य लोगों को कंटेंट की प्रकृति की जानकारी मिलती है और वे तय कर सकते हैं कि इसे देखना है या नहीं” (सूडान का आपत्तिजनक वीडियो देखें). चेतावनी स्क्रीन से यूज़र, संभावित रूप से परेशान करने वाले कंटेंट को बिना चाहे देखने से बच जाते हैं. पीड़ितों के अधिकारों की आगे रक्षा Meta की उस पॉलिसी द्वारा भी की जाती है जिसमें किसी व्यक्ति की हिंसक मृत्यु (या उसके तत्काल बाद की घटनाओं) के वीडियो और फ़ोटो को तब हटा दिया जाता है जब उनके परिवार के किसी व्यक्ति द्वारा ऐसी रिक्वेस्ट की जाती है. इस केस के कंटेंट को रूसी कविता केस से अलग माना जा सकता है. उस केस में एक मृत शरीर को दूर से ज़मीन पर पड़ा दिखाया गया था और उसमें पीड़ित का चेहरा दिखाई नहीं दे रहा था. उसमें हिंसा का कोई स्पष्ट संकेत भी दिखाई नहीं दे रहा था. उस केस में चेतावनी स्क्रीन लगाना, रिव्यूअर्स के लिए Meta के मार्गदर्शन के अनुरूप नहीं था और न ही वह अभिव्यक्ति पर आवश्यक या आनुपातिक प्रतिबंध था. इस केस के कंटेंट की समानता नाइजीरिया के चर्च पर हुए हमले के बाद का वीडियो फ़ैसले में शामिल कंटेंट से ज़्यादा है, जिसमें मृत और घायल लोगों को काफ़ी पास से दिखाया गया था और हिंसा के संकेत भी बहुत स्पष्ट दिखाई पड़ रहे थे.

इस केस में घायल और बेजान बच्चों का चित्रण, वीडियो को ख़ास तौर पर कष्टप्रद बनाता है. इस तरह की परिस्थितियों में, यूज़र्स को परेशान करने वाला कंटेंट देखने या न देखने का विकल्प देना एक आवश्यक और आनुपातिक उपाय है (आर्मेनिया के युद्धबंदियों का वीडियो भी देखें).

बोर्ड ने पाया कि मानवाधिकारों के संभावित हनन और युद्ध या संघर्ष के कानूनों के उल्लंघन या आतंकवादी कृत्यों के बारे में जागरूकता फैलाने वाले कंटेंट को वयस्कों को दिए जाने वाले कंटेंट के सुझावों में न दिखाना, ऐसे कंटेंट में लोगों की अत्यधिक दिलचस्पी को देखते हुए अभिव्यक्ति की आज़ादी पर आवश्यक या आनुपातिक प्रतिबंध नहीं है. चेतावनी स्क्रीन और सुझावों से हटाने की कार्रवाई के अलग-अलग उद्देश्य हैं और कुछ मामलों में उन्हें अलग-अलग रखा जाना चाहिए, ख़ास तौर पर संकट की स्थितियों में. Instagram पर सुझाव ऑटोमेटेड सिस्टम्स द्वारा जेनरेट किए जाते हैं, जो यूज़र्स को उनकी अनुमानित दिलचस्पी के आधार पर कंटेंट का सुझाव देते हैं. कंटेंट को सुझाव देने वाले सिस्टमों से हटाने का मतलब है उस पहुँच को कम करना, जो इस कंटेंट को अन्यथा प्राप्त होती. बोर्ड ने पाया कि यह आचरण, अभिव्यक्ति की आज़ादी में अनुपातहीन रूप से रुकावट डालता है, यह देखते हुए कि कंटेंट की पहुँच पहले ही वयस्क यूज़र्स तक सीमित है और यह कि इसे हिंसक संघर्ष के घटनाक्रम जैसे लोगों की दिलचस्पी के मुद्दों के बारे में जागरूकता फैलाने, निंदा करने या रिपोर्ट करने के लिए पोस्ट किया गया है.

बोर्ड मानता है कि किसी संकट पर तत्काल प्रतिक्रिया देने के लिए अनोखे अस्थायी उपायों की ज़रूरत हो सकती है और यह कि कुछ संदर्भों में सुरक्षा संबंधी चिंताओं को प्राथमिकता देना और अभिव्यक्ति की आज़ादी पर कुछ समय के लिए और आनुपातिक रूप से ज़्यादा प्रतिबंध लगाना विधिसम्मत है. इनमें से कुछ को, उदाहरण के लिए, “आतंकवादी और हिंसक चरमपंथी कंटेंट” से निपटने के लिए क्राइस्टचर्च कॉल में स्थापित प्रतिबद्धताओं में शामिल किया गया है. हालाँकि, बोर्ड ने नोट किया कि क्राइस्टचर्च कॉल में ऐसे कंटेंट पर मानवाधिकार और बुनियादी आज़ादी के अनुसार प्रतिक्रिया देने पर ज़ोर दिया गया है. बोर्ड मानता है कि सुरक्षा संबंधी चिंताओं का मतलब यह नहीं है कि ऐसे आपत्तिजनक कंटेंट को हटा दिया जाए जिसका उद्देश्य संभावित युद्ध अपराधों, मानवता के खिलाफ़ अपराधों या मानवाधिकारों के गंभीर उल्लंघन के खिलाफ़ जागरूकता फैलाना या उनकी निंदा करता है. ऐसे प्रतिबंधों से तो उन लोगों की सुरक्षा के लिए ज़रूरी जानकारी के फैलाव में रुकावट आ सकती है जो उन संघर्षों के स्थानों पर मौजूद हैं.

स्ट्राइक न लगाने जैसे उपाय, संघर्ष की स्थितियों के दौरान कंटेंट को हटाने के लिए कॉन्फ़िडेंस थ्रेशोल्ड को कम करने जैसे आपातकालीन उपायों के कारण होने वाली एन्फ़ोर्समेंट की गलतियों के संभावित रूप से अनुपातहीन और बुरे प्रभावों को कम करने में मदद नहीं करेंगे. हालाँकि वे ऐसे कंटेंट को शेयर करने की यूज़र की योग्यता की रक्षा करने के लिए पर्याप्त नहीं हैं जो मानवाधिकारों के संभावित हनन और मानवतावादी कानून के उल्लंघनों के खिलाफ़ जागरूकता फैलाता है या संघर्ष की स्थितियों में अन्य महत्वपूर्ण जानकारियाँ देता है.

बोर्ड ने बार-बार संकट के समय और संघर्ष के क्षेत्रों में कंटेंट मॉडरेशन के लिए एक सैद्धांतिक और पारदर्शी फ़्रेमवर्क बनाने की ज़रूरत हाइलाइट की है (हैती के पुलिस स्टेशन का वीडियो और टिग्रे कम्युनिकेशन अफ़ेयर्स ब्यूरो देखें). यह संघर्ष की स्थिति में बार-बार होने वाले बदलावों का समय होता है जब बड़ी सोशल मीडिया कंपनियों को यह सुनिश्चित करने के लिए ज़रूरी रिसोर्स लगाने चाहिए कि अभिव्यक्ति की आज़ादी पर अनावश्यक पाबंदी न लगे. ऐसे समय में, पत्रकारिता के लोगों को अक्सर शारीरिक और अन्य हमलों का जोखिम होता है, जिससे सोशल मीडिया पर सामान्य नागरिकों द्वारा न्यूज़ की रिपोर्टिंग ख़ास तौर पर ज़रूरी हो जाती है.

बोर्ड ने पहले यह भी देखा है कि युद्ध या राजनैतिक अशांति की स्थिति में, यूज़र जागरूकता फैलाने या दुर्व्यवहार को डॉक्यूमेंट करने के लिए ज़्यादा मात्रा में आपत्तिजनक और हिंसक कंटेंट कैप्चर करेंगे और प्लेटफ़ॉर्म पर शेयर करेंगे (सूडान का आपत्तिजनक वीडियो देखें). इज़राइल-गाज़ा संघर्ष जैसे संदर्भों में, जहाँ भारी संख्या में नागरिक मारे गए या घायल हुए हैं जिनमें बच्चों की संख्या भी काफ़ी ज़्यादा है, मानवता पर गहराते संकट के बीच इस तरह की छूटें ख़ास तौर पर महत्वपूर्ण हैं. Meta की हिंसक और आपत्तिजनक कंटेंट से जुड़ी पॉलिसी पर जारी पॉलिसी निर्माण प्रक्रिया को स्वीकार करते हुए, बोर्ड यह आशा करता है कि Meta इस तरह के कंटेंट को चेतावनी स्क्रीन के साथ परमिशन देने के लिए तुरंत अस्थायी उपाय करने के लिए तैयार रहेगा और इसे सुझावों से नहीं हटाएगा.

बोर्ड ने नोट किया कि कंटेंट को पोस्ट किए जाते समय गाज़ा की स्थिति में Meta के लिए वही चैलेंज शामिल नहीं थे जो 7 अक्टूबर के हमलों के समय थे. गाज़ा में, स्थानीय लोगों से जानकारी पाने में मुश्किलें आ रही हैं क्योंकि क्षेत्र में पत्रकार बहुत कम संख्या में पहुँच पा रहे हैं और इंटरनेट कनेक्टिविटी में रुकावट आ रही है. इसके अलावा, 7 अक्टूबर के हमलों के तुरंत बाद के नतीजों के विपरीत, इस केस में आतंकवादी अपने अत्याचारों का प्रसारण करने के लिए सोशल मीडिया का उपयोग नहीं कर रहे थे. इसके विपरीत, सशस्त्र संघर्ष के संदर्भ में, Meta को यह सुनिश्चित करना चाहिए कि उसकी कार्रवाइयाँ लोगों के लिए ऐसा कंटेंट शेयर करना और मुश्किल न बनाए जो नागरिकों को हो रहे नुकसानों के बारे में जागरूकता फैलाता हो और जो यह तय करने के लिए प्रासंगिक हो कि क्या अंतरराष्ट्रीय मानवतावादी कानून और अंतरराष्ट्रीय मानवाधिकार कानून का उल्लंघन हुआ है. ऐसे कंटेंट का आकलन करते समय रिव्यूअर्स के लिए शुरुआती बिंदु यह देखना होना चाहिए कि क्या कंटेंट को ज़मीनी घटनाओं के बारे में जागरूकता फैलाने या उनकी निंदा करने के लिए शेयर किया गया है. साथ ही Meta के ऑटोमेटेड सिस्टम्स को इस तरह डिज़ाइन किया जाना चाहिए कि वे ऐसे कंटेंट को न हटाएँ जिसे लागू छूटों का फ़ायदा मिलना चाहिए.

इस केस से आगे यह भी पता चलता है कि किसी संकट पर प्रतिक्रिया के संदर्भ में अगर ऑटोमेटेड मॉडरेशन की पर्याप्त मानवीय निगरानी नहीं की जाती है, तो उसके परिणास्वरूप ऐसी अभिव्यक्ति का गलत निष्कासन हो सकता है जो अत्यंत जनहित की हो सकती है. इस कंटेंट को हटाने का शुरुआती फ़ैसला और यूज़र की अपील को अस्वीकार करना, दोनों घटनाएँ एक क्लासिफ़ायर स्कोर के आधार पर अपने आप हुई थीं और उसमें ह्यूमन रिव्यू शामिल नहीं था. 7 अक्टूबर के हमलों के बाद हिंसक और आपत्तिजनक कंटेंट से जुड़ी पॉलिसी के तहत कंटेंट को हटाने के थ्रेशोल्ड को कम करने की Meta की संकटकालीन प्रतिक्रिया से यह स्थिति शायद अप्रत्यक्ष रूप से और बिगड़ी है. इसका मतलब है कि भले ही क्लासिफ़ायर, उल्लंघन की संभावना को सामान्य रूप से ज़रूरी की अपेक्षा कम स्कोर दे, Meta उस कंटेंट को हटा देगा.

Meta के ऑटोमेटेड सिस्टम्स, मानवाधिकारों से जुड़ी उसकी प्रतिबद्धताओं के अनुसार काम करें, इसके लिए बोर्ड ने Meta को कोलंबियाई पुलिस का कार्टून केस की सुझाव सं. 1 की याद दिलाई. उस केस में, बोर्ड ने Meta से यह सुनिश्चित करने के लिए कहा था कि अगर किसी कंटेंट की ज़्यादा बार अपील होती है और उसकी अपील ज़्यादा बार सफल होती है, तो उसका फिर से आकलन करके उसे मीडिया मैचिंग सर्विस बैंक से हटाने पर विचार किया जाए. इस सुझाव के जवाब में Meta ने एक नामित कार्य समूह बनाया जो उसके मीडिया मैचिंग सर्विस बैंक के सुधारों की निगरानी के लिए प्रतिबद्ध है (इस बारे में Meta के सबसे नए अपडेट यहाँ देखें). बोर्ड ने नोट किया कि इस समूह के लिए सशस्त्र संघर्षों के संदर्भ में मीडिया मैचिंग सर्विस के उपयोग पर ध्यान देना ख़ास तौर पर ज़रूरी है. ब्रेस्ट कैंसर के लक्षण और नग्नता केस (सुझाव सं. 3 और 6) में बोर्ड ने सुझाव दिया था कि अगर यूज़र के कंटेंट पर एन्फ़ोर्समेंट करने के लिए ऑटोमेशन का उपयोग किया जाता है, तो Meta को यूज़र को इसकी सूचना देनी चाहिए. साथ ही उसे लोगों को यह डेटा दिखाना चाहिए कि हर कम्युनिटी स्टैंडर्ड के तहत ऑटोमेटेड निष्कासन के कितने फ़ैसले हुए हैं और उनमें से कितने फ़ैसलों को उसका ह्यूमन रिव्यू होने पर पलट दिया गया. यह ख़ास तौर पर तब महत्वपूर्ण है जब उल्लंघन की संभावना वाले कंटेंट के लिए कॉन्फ़िडेंस थ्रेशोल्ड को कथित रूप से काफ़ी कम कर दिया जाता है. बोर्ड ने Meta से कहा कि वह सुझाव सं. 6 के क्रियान्वयन के काम को आगे बढ़ाए और सुझाव सं. 3 के क्रियान्वयन के संबंध में बोर्ड के साथ प्रमाण शेयर करे.

राष्ट्रीयता, जाति, धर्म या आस्था अथवा राजनीतिक या अन्य विचार के आधार पर लगाए जाने वाले प्रतिबंधों सहित अभिव्यक्ति की आज़ादी पर लगाए जाने वाले प्रतिबंध गैर-भेदभावपूर्ण होने चाहिए (अनुच्छेद 2, पैरा. 1 और अनुच्छेद 26, ICCPR). कम्युनिटी स्टैंडर्ड के भेदभावपूर्ण एन्फ़ोर्समेंट से अभिव्यक्ति की आज़ादी का यह बुनियादी पक्ष कमज़ोर होता है. अल जज़ीरा की शेयर की गई पोस्ट केस में, बोर्ड ने गंभीर चिंताएँ जताते हुए कहा कि इज़राइल और अधिकृत फ़िलिस्तीनी क्षेत्र में कंटेंट मॉडरेशन में Meta द्वारा की गई गलतियाँ संभावित रूप से असमान हैं और बोर्ड ने उससे इसकी स्वतंत्र जाँच करवाने के लिए कहा (अल जज़ीरा की शेयर की गई पोस्ट का फ़ैसला, सुझाव सं. 3). बिज़नेस फ़ॉर सोशल रिस्पॉन्सिबिलिटी (BSR) मानवाधिकार प्रभाव आकलन, जो उस सुझाव के जवाब में Meta द्वारा करवाया गया था, में पाया गया कि “पक्षपात की ऐसी कई अनचाही घटनाएँ हुई हैं जिनमें Meta की पॉलिसी और व्यवहारों ने व्यापक बाहरी डायनेमिक के साथ मिलकर फ़िलिस्तीनी और अरबी बोलने वाले यूज़र्स के मानवाधिकारों पर अलग-अलग असर डाला." बोर्ड ने Meta को प्रोत्साहित किया कि वह BSR रिपोर्ट के जवाब में की गई प्रतिबद्धताएँ पूरी करे.

अंत में, यह Meta की ज़िम्मेदारी है कि वह मानवाधिकारों के संभावित उल्लंघनों और अंतरराष्ट्रीय मानवतावादी कानून के संभावित उल्लंघनों के सबूतों की रक्षा करे, जैसा कि BSR रिपोर्ट (सुझाव 21) में भी सुझाव दिया गया है और नागरिक समाज समूहों द्वारा भी कहा गया है. Meta के प्लेटफ़ॉर्म से कंटेंट हटा दिए जाने पर भी, भावी जवाबदेही तय करने के संदर्भ में ऐसे सबूतों की रक्षा करना ज़रूरी है (सूडान का आपत्तिजनक वीडियो और आर्मेनिया के युद्धबंदियों का वीडियो देखें). Meta ने बताया कि वह ऐसे सभी कंटेंट को एक वर्ष तक अपने पास रखता है जो उसके कम्युनिटी स्टैंडर्ड का उल्लंघन करता है, लेकिन बोर्ड ने कहा कि संभावित युद्ध अपराधों, मानवता के विरुद्ध अपराधों और मानवाधिकार के गंभीर उल्लंघनों से ख़ास तौर पर संबंधित कंटेंट को दीर्घकालिक जवाबदेही के उद्देश्यों के लिए पहचाना और ज़्यादा टिकाऊ और एक्सेस लायक तरीके से संरक्षित किया जाना चाहिए. बोर्ड ने नोट किया कि Meta ने आर्मेनिया के युद्धबंदियों का वीडियो केस में सुझाव सं. 1 को लागू करने की सहमति दी है. इसमें Meta से कहा गया है कि वह अत्याचार से जुड़े अपराधों या मानवाधिकार के गंभीर उल्लंघनों की जाँच और उनका निदान करने या उनके संबंध में मुकदमा चलाने में मदद करने वाली जानकारी के संरक्षण के लिए प्रोटोकॉल बनाए और जहाँ उपयुक्त हो वहाँ सक्षम प्राधिकारियों से शेयर करे. Meta ने बोर्ड से कहा कि वह “क्रूरता के अपराधों और अंतरराष्ट्रीय मानवाधिकार कानून के गंभीर उल्लंघनों के संभावित सबूतों को अपने पास रखने के एकरूप तरीके” के निर्माण के अंतिम चरण में है और उसे आशा है कि वह बोर्ड को इस तरीके के बारे में जल्दी ही जानकारी उपलब्ध कराएगा. बोर्ड यह आशा करता है कि Meta उपरोक्त सुझाव को पूरी तरह लागू करेगा.

*प्रक्रियात्मक नोट:

ओवरसाइट बोर्ड के त्वरित फ़ैसले पाँच सदस्यों की पैनल द्वारा तैयार किए जाते हैं और उन पर बोर्ड के बहुसंख्यक सदस्यों की स्वीकृति ज़रूरी नहीं है. ज़रूरी नहीं है कि बोर्ड के फ़ैसले, सभी सदस्यों की निजी राय दर्शाएँ.

मामले के निर्णयों और नीति सलाहकार राय पर लौटें