पलट जाना
Report on Violent Attack in Sri Lanka
2 अकतूबर 2025
A user appealed Meta’s decision to remove a Facebook post consisting of a link to a news article about a gunman firing at a church in Sri Lanka.
संक्षिप्त फ़ैसलों में उन केस का परीक्षण किया जाता है जिनमें बोर्ड द्वारा कंटेंट पर Meta का ध्यान आकर्षित करने के बाद कंपनी ने कंटेंट के बारे में अपने मूल फ़ैसले को पलटा है और इसमें Meta द्वारा मानी गई गलतियों की जानकारी होती है. उन्हें पूरे बोर्ड के बजाय, बोर्ड के किसी सदस्य द्वारा स्वीकृत किया जाता है, उनमें पब्लिक कमेंट शामिल नहीं होते और उन्हें बोर्ड द्वारा आगे के फ़ैसलों के लिए आधार नहीं बनाया जा सकता. संक्षिप्त फ़ैसले, Meta के फ़ैसलों में सीधे बदलाव लाते हैं, इन सुधारों के बारे में पारदर्शिता देते हैं और साथ ही यह बताते हैं कि Meta अपने एन्फ़ोर्समेंट में कहाँ सुधार कर सकता है.
सारांश
एक यूज़र ने Meta की उस Facebook पोस्ट को हटाने के फ़ैसले के खिलाफ़ अपील की, जिसमें श्रीलंका के एक चर्च में गनमैन के गोलीबारी करने के बारे में समाचार लेख के लिंक शामिल थे. जब बोर्ड ने Meta का ध्यान अपील पर आकर्षित किया, तो कंपनी ने अपना मूल फ़ैसला पलट दिया और पोस्ट को रीस्टोर कर दिया.
मामले की जानकारी
अप्रैल 2025 में, एक Facebook यूज़र ने श्रीलंका के एक चर्च में गनमैन द्वारा गोलीबारी करने के बारे में अंग्रेज़ी में समाचार लेख का लिंक पोस्ट किया. यह लेख एक ऐसे ग्रुप में शेयर किया गया था, जो खुद को संघर्ष और शांति स्थापना पर “समाचार और चर्चा” के लिए समर्पित बताता है. इस लिंक ने एक पॉप अप हेडलाइन और कैप्शन ऑटो-जेनरेट किया, जिसमें ईस्टर पर हुए बम विस्फोट के छह साल बाद देश के हाई अलर्ट पर होने का विवरण शामिल था. उस बम विस्फोट में सैकड़ों लोग मारे गए थे. इसमें अप्रैल 2019 में नेगोंबो के सेंट. सेबेस्टियन चर्च में हुए बम विस्फोट के बाद के घटनाक्रम की एक इमेज भी शामिल थी.
शुरुआत में Meta ने इस कंटेंट को हिंसक और आपत्तिजनक कंटेंट से जुड़े कम्युनिटी स्टैंडर्ड के तहत हटा दिया था. बाद में कंपनी ने स्पष्ट किया कि इस कंटेंट को हटाने के पीछे की सही पॉलिसी हिंसा और उकसावा से जुड़ा कम्युनिटी स्टैंडर्ड है. इस पॉलिसी के तहत, कंपनी “अलग-अलग टार्गेट के खिलाफ़ हिंसा की धमकियों” को हटाती है, जिन्हें “किसी टार्गेट पर हिंसा का इरादा, महत्त्वाकांक्षा या आह्वान करने वाले कथन या विज़ुअल” के तौर पर परिभाषित किया गया है. हालाँकि, Meta ऐसी धमकियों को परमिशन देता है जो “जागरूकता फैलाने या निंदा करने के संदर्भ में शेयर” की जाती हैं.
बोर्ड की गई अपनी अपील में यूज़र ने बताया कि जिस ग्रुप में लेख को पोस्ट किया गया था, उसे दुनियाभर के संघर्षों के बढ़ने और कम होने के बारे में लोगों को जानकारी देने के लिए बनाया गया है, ताकि शांति स्थापित और समाधान करने में मदद की जा सके.
बोर्ड द्वारा इस केस को Meta के ध्यान में लाए जाने के बाद, कंपनी ने पाया कि कंटेंट को हटाना नहीं चाहिए था. Meta ने हाइलाइट किया कि हिंसा और उकसावा की पॉलिसी के तहत दूसरों द्वारा हिंसा के खतरे के बारे में जागरूकता फैलाने वाले कंटेंट को परमिशन दी जाती है. इस मामले में, कंपनी ने माना कि पोस्ट जागरूकता फैला रही थी क्योंकि इसका कंटेंट ऐसी समाचार रिपोर्ट का लिंक था, जिसमें श्रीलंका में पूजा स्थल पर गोलीबारी करने वाले गनमैन के बारे में खबर थी. Meta ने यह भी बताया कि खबर के लिंक को घटना के अगले दिन Facebook पेज पर शेयर किया गया था, जिससे पता चलता है कि इसका मकसद अन्य लोगों को इस घटना के बारे में जानकारी देना था. कंपनी ने फिर कंटेंट को Facebook पर रीस्टोर कर दिया.
बोर्ड का प्राधिकार और दायरा
बोर्ड को उस यूज़र के अपील करने के बाद Meta के फ़ैसले का रिव्यू करने का अधिकार है, जिसका कंटेंट हटा दिया गया था (चार्टर अनुच्छेद 2, सेक्शन 1; उपनियम अनुच्छेद 3, सेक्शन 1).
जहाँ बोर्ड द्वारा रिव्यू किए जा रहे केस में Meta यह स्वीकार करता है कि उससे गलती हुई है और वह अपना फ़ैसला पलट देता है, वहाँ बोर्ड उस केस का चुनाव संक्षिप्त फ़ैसले के लिए कर सकता है (उपनियम अनुच्छेद 2, सेक्शन 2.1.3). बोर्ड, कंटेंट मॉडरेशन प्रोसेस के बारे में ज़्यादा जानकारी पाने, गलतियों में कमी लाने और Facebook, Instagram और Threads के यूज़र्स के लिए निष्पक्षता बढ़ाने के लिए मूल फ़ैसले का रिव्यू करता है.
मामले की सार्थकता
यह मामला Meta के हिंसा और उकसावे से जुड़े कम्युनिटी स्टैंडर्ड के ज़रूरत से ज़्यादा एन्फ़ोर्समेंट को हाइलाइट करता है. कंपनी के कंटेंट मॉडरेशन सिस्टम जागरूकता फैलाने के संदर्भ को नहीं पहचान सके, जिससे श्रीलंका के पूजा स्थलों पर हुए हमलों के बारे जानकारी शेयर करने की यूज़र की क्षमता पर सीधा असर पड़ा. बोर्ड ने पाया कि यूज़र ने जिस ग्रुप पर लेख पोस्ट किया था, उसका विवरण से पता चलता है कि वह शांतिपूर्ण संघर्ष समाधान से जुड़े समाचार और चर्चा का फ़ोरम है. सिस्टम की विफलता से इस जानकारी को एक्सेस करने की अन्य यूज़र की क्षमता पर भी असर पड़ा.
बोर्ड ने पहले भी ऐसे सुझाव दिए हैं, जिनका मकसद Meta की हिंसा और उकसावा पॉलिसी के अपवादों से जुड़ी एन्फ़ोर्समेंट सटीकता, ट्रैकिंग और पारदर्शिता को बढ़ाना है. सबसे पहले, बोर्ड ने यह सुझाव दिया कि Meta, “बोर्ड को वह डेटा दे, जिसका उपयोग वह पॉलिसी एन्फ़ोर्समेंट की सटीकता का आकलन करने के लिए करता है,” ताकि “भविष्य के लिए हिंसा और उकसावा पॉलिसी से जुड़े आकलन और सुझाव बताए जा सकें” ( अमेरिका में, गर्भपात पर चर्चा करने वाली पोस्ट, सुझाव सं. 1). इस सुझाव का क्रियान्वयन अभी जारी है. अपनी H2 2024 रिपोर्ट में, Meta ने बताया, “बोर्ड के साथ गोपनीय रूप से शेयर करने के लिए कम्युनिटी स्टैंडर्ड एन्फ़ोर्समेंट डेटा के ओवरव्यू को कंपाइल करने की प्रोसेस जारी है. इस डॉक्यूमेंट से वे डेटा पॉइंट पता चलेंगे, जो हिंसा और उकसावा पॉलिसी समेत अन्य पॉलिसी की एन्फ़ोर्समेंट सटीकता को मापते हैं.”
बोर्ड ने यह सुझाव भी दिया कि Meta को “हिंसा और उकसावे से जुड़े अपने कम्युनिटी स्टैंडर्ड की लोगों को दिखाई देने वाली भाषा में यह जोड़ना चाहिए कि कंपनी के अनुसार पॉलिसी में ‘किसी कार्रवाई या परामर्शी चेतावनी के संभावित परिणाम के निष्पक्ष रेफ़रेंस’ के कथनों वाले कंटेंट और ‘हिंसक धमकियों की निंदा करने या उनके खिलाफ़ जागरूकता फैलाने’ वाले कंटेंट की परमिशन है” ( रूसी कविता, सुझाव सं. 1). इस सुझाव का आंशिक क्रियान्वयन, प्रकाशित जानकारी द्वारा दिखाया गया था. Meta ने यह शामिल करने के लिए अपनी हिंसा और उकसावा पॉलिसी (Meta की 2023 की चौथी तिमाही की रिपोर्ट देखें) को अपडेट किया है, “हम तब धमकियों को प्रतिबंधित नहीं करते हैं, जब उसे जागरूकता फैलाने या निंदा करने के संदर्भ में शेयर किया जाता है, जब लड़ाई वाले खेलों के संदर्भ में कम गंभीर धमकियाँ दी जाती हैं या जब आतंकवादी ग्रुप जैसे हिंसक लोगों के खिलाफ़ धमकियाँ दी जाती हैं.” हालाँकि, Meta ने 2023 की तीसरी तिमाही कि रिपोर्ट में बताया है कि कंपनी ने “जहाँ पोस्टर कोई हिंसक धमकी नहीं दे रहा है, वहाँ किसी कार्रवाई या परामर्श वाली चेतावनी के संभावित परिणाम के निष्पक्ष रेफ़रेंस” के संबंध में खास भाषा को न जोड़ने का फ़ैसला लिया है, क्योंकि यह “आमतौर पर पॉलिसी बनाने के कारण और धमकी की परिभाषा और फ़्रेमिंग में शामिल होता है.”
इसके अलावा, बोर्ड ने सुझाव दिया कि “यूज़र्स को बेहतर तरीके से यह बताने के लिए पॉलिसी से जुड़े अपवाद कब दिए जा सकते हैं, Meta को हर कम्युनिटी स्टैंडर्ड में एक नया सेक्शन बनाकर उसमें लागू होने वाले अपवादों और छूटों की जानकारी देनी चाहिए. अगर Meta के पास कुछ ऐसे खास अपवादों की परमिशन न देने के कारण हैं जो अन्य पॉलिसी पर लागू होते हैं (जैसे न्यूज़ रिपोर्टिंग या जागरूकता फैलाना), तो Meta को कम्युनिटी स्टैंडर्ड के इस सेक्शन में वे कारण शामिल करने चाहिए” ( पाकिस्तान में बाल दुर्व्यवहार से जुड़ी न्यूज़ डॉक्यूमेंट्री, सुझाव सं. 1). इस सुझाव का क्रियान्वयन अभी जारी है. 2024 में बोर्ड को दिए अपने शुरुआती जवाब में Meta ने बताया कि कंपनी “[अपने] कम्युनिटी स्टैंडर्ड को अपडेट करने पर विचार करेगी, जिसके तहत उन प्रासंगिक छूटों के बारे में और स्पष्टता दी जा सके जो कुछ खास पॉलिसी सेक्शन और कारणों पर लागू हो सकते हैं कि वे क्यों और क्यों नहीं लागू होंगे.” Meta ने यह भी बताया कि सुझाव के “व्यापक और जटिल दायरे” को देखते हुए, क्रियान्वयन में समय लगेगा.
Meta की हिंसा और उकसावा पॉलिसी का बार-बार ज़रूरत से ज़्यादा एन्फ़ोर्समेंट, हिंसक हमलों के बारे में समाचार रिपोर्टिंग और जानकारी शेयर करने की यूज़र की क्षमता को कमज़ोर बनाता है. बोर्ड का मानना है कि अमेरिका में, गर्भपात पर चर्चा करने वाली पोस्ट मामले के सुझाव सं. 1 के पूरी तरह क्रियान्वयन से Meta की एन्फ़ोर्समेंट सटीकता की कमियों को पहचानने और उन्हें दूर करने की क्षमता बेहतर होगी, जिससे एन्फ़ोर्समेंट गलतियों की संख्या कम होगी. इसके अलावा, हिंसा और उकसावा पॉलिसी के अपवादों से जुड़ी पारदर्शिता पर मिले सुझावों के पूरी तरह क्रियान्वयन से पॉलिसी के अपवादों के बारे में यूज़र और कंटेंट रिव्यूअर दोनों की जागरूकता बढ़ेगी, जिससे गलती से हटाने की प्रक्रिया से बचा जा सकेगा और ऐसे फ़ैसलों को पलटा जा सकेगा.
फ़ैसला
बोर्ड ने संबंधित कंटेंट को हटाने के Meta के मूल फ़ैसले को पलट दिया. बोर्ड द्वारा इस केस को कंपनी के ध्यान में लाए जाने के बाद, Meta द्वारा मूल फ़ैसले की गलती में किए गए सुधार को बोर्ड ने स्वीकार किया.