पलट जाना
श्रीलंका में हिंसक हमले पर रिपोर्ट
2 अकतूबर 2025
एक यूज़र ने Meta की उस Facebook पोस्ट को हटाने के फ़ैसले के खिलाफ़ अपील की, जिसमें श्रीलंका के एक चर्च में गनमैन के गोलीबारी करने के बारे में समाचार लेख के लिंक शामिल थे.
संक्षिप्त फ़ैसलों में उन केस का परीक्षण किया जाता है जिनमें बोर्ड द्वारा कंटेंट पर Meta का ध्यान आकर्षित करने के बाद कंपनी ने कंटेंट के बारे में अपने मूल फ़ैसले को पलटा है और इसमें Meta द्वारा मानी गई गलतियों की जानकारी होती है. उन्हें पूरे बोर्ड के बजाय, बोर्ड के किसी सदस्य द्वारा स्वीकृत किया जाता है, उनमें पब्लिक कमेंट शामिल नहीं होते और उन्हें बोर्ड द्वारा आगे के फ़ैसलों के लिए आधार नहीं बनाया जा सकता. संक्षिप्त फ़ैसले, Meta के फ़ैसलों में सीधे बदलाव लाते हैं, इन सुधारों के बारे में पारदर्शिता देते हैं और साथ ही यह बताते हैं कि Meta अपने एन्फ़ोर्समेंट में कहाँ सुधार कर सकता है.
सारांश
एक यूज़र ने Meta की उस Facebook पोस्ट को हटाने के फ़ैसले के खिलाफ़ अपील की, जिसमें श्रीलंका के एक चर्च में गनमैन के गोलीबारी करने के बारे में समाचार लेख के लिंक शामिल थे. जब बोर्ड ने Meta का ध्यान अपील पर आकर्षित किया, तो कंपनी ने अपना मूल फ़ैसला पलट दिया और पोस्ट को रीस्टोर कर दिया.
मामले की जानकारी
अप्रैल 2025 में, एक Facebook यूज़र ने श्रीलंका के एक चर्च में गनमैन द्वारा गोलीबारी करने के बारे में अंग्रेज़ी में समाचार लेख का लिंक पोस्ट किया. यह लेख एक ऐसे ग्रुप में शेयर किया गया था, जो खुद को संघर्ष और शांति स्थापना पर “समाचार और चर्चा” के लिए समर्पित बताता है. इस लिंक ने एक पॉप अप हेडलाइन और कैप्शन ऑटो-जेनरेट किया, जिसमें ईस्टर पर हुए बम विस्फोट के छह साल बाद देश के हाई अलर्ट पर होने का विवरण शामिल था. उस बम विस्फोट में सैकड़ों लोग मारे गए थे. इसमें अप्रैल 2019 में नेगोंबो के सेंट. सेबेस्टियन चर्च में हुए बम विस्फोट के बाद के घटनाक्रम की एक इमेज भी शामिल थी.
शुरुआत में Meta ने इस कंटेंट को हिंसक और आपत्तिजनक कंटेंट से जुड़े कम्युनिटी स्टैंडर्ड के तहत हटा दिया था. बाद में कंपनी ने स्पष्ट किया कि इस कंटेंट को हटाने के पीछे की सही पॉलिसी हिंसा और उकसावा से जुड़ा कम्युनिटी स्टैंडर्ड है. इस पॉलिसी के तहत, कंपनी “अलग-अलग टार्गेट के खिलाफ़ हिंसा की धमकियों” को हटाती है, जिन्हें “किसी टार्गेट पर हिंसा का इरादा, महत्त्वाकांक्षा या आह्वान करने वाले कथन या विज़ुअल” के तौर पर परिभाषित किया गया है. हालाँकि, Meta ऐसी धमकियों को परमिशन देता है जो “जागरूकता फैलाने या निंदा करने के संदर्भ में शेयर” की जाती हैं.
बोर्ड की गई अपनी अपील में यूज़र ने बताया कि जिस ग्रुप में लेख को पोस्ट किया गया था, उसे दुनियाभर के संघर्षों के बढ़ने और कम होने के बारे में लोगों को जानकारी देने के लिए बनाया गया है, ताकि शांति स्थापित और समाधान करने में मदद की जा सके.
बोर्ड द्वारा इस केस को Meta के ध्यान में लाए जाने के बाद, कंपनी ने पाया कि कंटेंट को हटाना नहीं चाहिए था. Meta ने हाइलाइट किया कि हिंसा और उकसावा की पॉलिसी के तहत दूसरों द्वारा हिंसा के खतरे के बारे में जागरूकता फैलाने वाले कंटेंट को परमिशन दी जाती है. इस मामले में, कंपनी ने माना कि पोस्ट जागरूकता फैला रही थी क्योंकि इसका कंटेंट ऐसी समाचार रिपोर्ट का लिंक था, जिसमें श्रीलंका में पूजा स्थल पर गोलीबारी करने वाले गनमैन के बारे में खबर थी. Meta ने यह भी बताया कि खबर के लिंक को घटना के अगले दिन Facebook पेज पर शेयर किया गया था, जिससे पता चलता है कि इसका मकसद अन्य लोगों को इस घटना के बारे में जानकारी देना था. कंपनी ने फिर कंटेंट को Facebook पर रीस्टोर कर दिया.
बोर्ड का प्राधिकार और दायरा
बोर्ड को उस यूज़र के अपील करने के बाद Meta के फ़ैसले का रिव्यू करने का अधिकार है, जिसका कंटेंट हटा दिया गया था (चार्टर अनुच्छेद 2, सेक्शन 1; उपनियम अनुच्छेद 3, सेक्शन 1).
जहाँ बोर्ड द्वारा रिव्यू किए जा रहे केस में Meta यह स्वीकार करता है कि उससे गलती हुई है और वह अपना फ़ैसला पलट देता है, वहाँ बोर्ड उस केस का चुनाव संक्षिप्त फ़ैसले के लिए कर सकता है (उपनियम अनुच्छेद 2, सेक्शन 2.1.3). बोर्ड, कंटेंट मॉडरेशन प्रोसेस के बारे में ज़्यादा जानकारी पाने, गलतियों में कमी लाने और Facebook, Instagram और Threads के यूज़र्स के लिए निष्पक्षता बढ़ाने के लिए मूल फ़ैसले का रिव्यू करता है.
मामले की सार्थकता
यह मामला Meta के हिंसा और उकसावे से जुड़े कम्युनिटी स्टैंडर्ड के ज़रूरत से ज़्यादा एन्फ़ोर्समेंट को हाइलाइट करता है. कंपनी के कंटेंट मॉडरेशन सिस्टम जागरूकता फैलाने के संदर्भ को नहीं पहचान सके, जिससे श्रीलंका के पूजा स्थलों पर हुए हमलों के बारे जानकारी शेयर करने की यूज़र की क्षमता पर सीधा असर पड़ा. बोर्ड ने पाया कि यूज़र ने जिस ग्रुप पर लेख पोस्ट किया था, उसका विवरण से पता चलता है कि वह शांतिपूर्ण संघर्ष समाधान से जुड़े समाचार और चर्चा का फ़ोरम है. सिस्टम की विफलता से इस जानकारी को एक्सेस करने की अन्य यूज़र की क्षमता पर भी असर पड़ा.
बोर्ड ने पहले भी ऐसे सुझाव दिए हैं, जिनका मकसद Meta की हिंसा और उकसावा पॉलिसी के अपवादों से जुड़ी एन्फ़ोर्समेंट सटीकता, ट्रैकिंग और पारदर्शिता को बढ़ाना है. सबसे पहले, बोर्ड ने यह सुझाव दिया कि Meta, “बोर्ड को वह डेटा दे, जिसका उपयोग वह पॉलिसी एन्फ़ोर्समेंट की सटीकता का आकलन करने के लिए करता है,” ताकि “भविष्य के लिए हिंसा और उकसावा पॉलिसी से जुड़े आकलन और सुझाव बताए जा सकें” ( अमेरिका में, गर्भपात पर चर्चा करने वाली पोस्ट, सुझाव सं. 1). इस सुझाव का क्रियान्वयन अभी जारी है. अपनी H2 2024 रिपोर्ट में, Meta ने बताया, “बोर्ड के साथ गोपनीय रूप से शेयर करने के लिए कम्युनिटी स्टैंडर्ड एन्फ़ोर्समेंट डेटा के ओवरव्यू को कंपाइल करने की प्रोसेस जारी है. इस डॉक्यूमेंट से वे डेटा पॉइंट पता चलेंगे, जो हिंसा और उकसावा पॉलिसी समेत अन्य पॉलिसी की एन्फ़ोर्समेंट सटीकता को मापते हैं.”
बोर्ड ने यह सुझाव भी दिया कि Meta को “हिंसा और उकसावे से जुड़े अपने कम्युनिटी स्टैंडर्ड की लोगों को दिखाई देने वाली भाषा में यह जोड़ना चाहिए कि कंपनी के अनुसार पॉलिसी में ‘किसी कार्रवाई या परामर्शी चेतावनी के संभावित परिणाम के निष्पक्ष रेफ़रेंस’ के कथनों वाले कंटेंट और ‘हिंसक धमकियों की निंदा करने या उनके खिलाफ़ जागरूकता फैलाने’ वाले कंटेंट की परमिशन है” ( रूसी कविता, सुझाव सं. 1). इस सुझाव का आंशिक क्रियान्वयन, प्रकाशित जानकारी द्वारा दिखाया गया था. Meta ने यह शामिल करने के लिए अपनी हिंसा और उकसावा पॉलिसी (Meta की 2023 की चौथी तिमाही की रिपोर्ट देखें) को अपडेट किया है, “हम तब धमकियों को प्रतिबंधित नहीं करते हैं, जब उसे जागरूकता फैलाने या निंदा करने के संदर्भ में शेयर किया जाता है, जब लड़ाई वाले खेलों के संदर्भ में कम गंभीर धमकियाँ दी जाती हैं या जब आतंकवादी ग्रुप जैसे हिंसक लोगों के खिलाफ़ धमकियाँ दी जाती हैं.” हालाँकि, Meta ने 2023 की तीसरी तिमाही कि रिपोर्ट में बताया है कि कंपनी ने “जहाँ पोस्टर कोई हिंसक धमकी नहीं दे रहा है, वहाँ किसी कार्रवाई या परामर्श वाली चेतावनी के संभावित परिणाम के निष्पक्ष रेफ़रेंस” के संबंध में खास भाषा को न जोड़ने का फ़ैसला लिया है, क्योंकि यह “आमतौर पर पॉलिसी बनाने के कारण और धमकी की परिभाषा और फ़्रेमिंग में शामिल होता है.”
इसके अलावा, बोर्ड ने सुझाव दिया कि “यूज़र्स को बेहतर तरीके से यह बताने के लिए पॉलिसी से जुड़े अपवाद कब दिए जा सकते हैं, Meta को हर कम्युनिटी स्टैंडर्ड में एक नया सेक्शन बनाकर उसमें लागू होने वाले अपवादों और छूटों की जानकारी देनी चाहिए. अगर Meta के पास कुछ ऐसे खास अपवादों की परमिशन न देने के कारण हैं जो अन्य पॉलिसी पर लागू होते हैं (जैसे न्यूज़ रिपोर्टिंग या जागरूकता फैलाना), तो Meta को कम्युनिटी स्टैंडर्ड के इस सेक्शन में वे कारण शामिल करने चाहिए” ( पाकिस्तान में बाल दुर्व्यवहार से जुड़ी न्यूज़ डॉक्यूमेंट्री, सुझाव सं. 1). इस सुझाव का क्रियान्वयन अभी जारी है. 2024 में बोर्ड को दिए अपने शुरुआती जवाब में Meta ने बताया कि कंपनी “[अपने] कम्युनिटी स्टैंडर्ड को अपडेट करने पर विचार करेगी, जिसके तहत उन प्रासंगिक छूटों के बारे में और स्पष्टता दी जा सके जो कुछ खास पॉलिसी सेक्शन और कारणों पर लागू हो सकते हैं कि वे क्यों और क्यों नहीं लागू होंगे.” Meta ने यह भी बताया कि सुझाव के “व्यापक और जटिल दायरे” को देखते हुए, क्रियान्वयन में समय लगेगा.
Meta की हिंसा और उकसावा पॉलिसी का बार-बार ज़रूरत से ज़्यादा एन्फ़ोर्समेंट, हिंसक हमलों के बारे में समाचार रिपोर्टिंग और जानकारी शेयर करने की यूज़र की क्षमता को कमज़ोर बनाता है. बोर्ड का मानना है कि अमेरिका में, गर्भपात पर चर्चा करने वाली पोस्ट मामले के सुझाव सं. 1 के पूरी तरह क्रियान्वयन से Meta की एन्फ़ोर्समेंट सटीकता की कमियों को पहचानने और उन्हें दूर करने की क्षमता बेहतर होगी, जिससे एन्फ़ोर्समेंट गलतियों की संख्या कम होगी. इसके अलावा, हिंसा और उकसावा पॉलिसी के अपवादों से जुड़ी पारदर्शिता पर मिले सुझावों के पूरी तरह क्रियान्वयन से पॉलिसी के अपवादों के बारे में यूज़र और कंटेंट रिव्यूअर दोनों की जागरूकता बढ़ेगी, जिससे गलती से हटाने की प्रक्रिया से बचा जा सकेगा और ऐसे फ़ैसलों को पलटा जा सकेगा.
फ़ैसला
बोर्ड ने संबंधित कंटेंट को हटाने के Meta के मूल फ़ैसले को पलट दिया. बोर्ड द्वारा इस केस को कंपनी के ध्यान में लाए जाने के बाद, Meta द्वारा मूल फ़ैसले की गलती में किए गए सुधार को बोर्ड ने स्वीकार किया.