सूडान के संघर्ष से जुड़ी ‘हथियारों वाली पोस्ट’ के केस में ओवरसाइट बोर्ड ने Meta के फ़ैसले को कायम रखा

ओवरसाइट बोर्ड ने बंदूक के काट्रिज की फ़ोटो वाली एक पोस्ट को हटाने के Meta के फ़ैसले को कायम रखा है, जिसके कैप्शन में पेट्रोल बम बनाने और फेंकने के तरीके बताए गए थे. बोर्ड ने पाया कि उस पोस्ट में Facebook के हिंसा और उकसावे से संबंधित कम्युनिटी स्टैंडर्ड का उल्लंघन किया गया था और उससे तुरंत ही ऐसा नुकसान हो सकता था, जिससे सूडान में चल रही हिंसा और भड़क सकती थी. इस केस ने हथियारों से जुड़े निर्देशों वाले कंटेंट को सशस्त्र संघर्षों के दौरान शेयर किए जाने के बारे में Meta की मानवाधिकारों से जुड़ी ज़िम्मेदारियों के बारे में कई तरह के सवाल खड़े किए हैं. इन ज़िम्मेदारियों को पूरा करने के लिए, Meta को यह पक्का करना चाहिए कि उसके हिंसा और उकसावे के नियमों से जुड़े अपवादों में स्पष्टता हो. इसके अलावा, जब Meta अपने यूज़र्स को इसका गलत नोटिफ़िकेशन भेज दे कि उनके कंटेंट में किस कम्युनिटी स्टैंडर्ड का उल्लंघन हुआ है, तो इस तरह की गलतियों को सुधारने के लिए उसे टूल्स डेवलप करने चाहिए.

केस की जानकारी

जून 2023 में, एक Facebook यूज़र ने बंदूक के काट्रिज की फ़ोटो पोस्ट की, जिसमें उसके अलग-अलग हिस्सों के नाम अरबी भाषा में लिखे हुए थे. पोस्ट के कैप्शन में उन हिस्सों का उपयोग करके पेट्रोल बम बनाने का तरीका बताया गया था और पेट्रोल बम फेंकते समय हेलमेट पहनने की सलाह दी गई थी. पोस्ट के अंत में सूडानी लोगों और सूडानी सशस्त्र बलों (SAF) की जीत की कामना की गई थी.

इस कंटेंट के पोस्ट होने से दो महीने पहले, सूडान में SAF और रैपिड सपोर्ट फ़ोर्स (RSF) के बीच संघर्ष शुरू हो गया था. रैपिड सपोर्ट फ़ोर्स एक ऐसा अर्धसैनिक बल है, जिसे अगस्त 2023 में Meta ने खतरनाक घोषित किया था. सूडान का सशस्त्र संघर्ष काफ़ी समय से जारी है और पूरे देश में फैल गया है और इसमें दोनों ही पक्ष नागरिकों की घनी आबादी वाले क्षेत्रों में विस्फोटक हथियारों का उपयोग कर चुके हैं.

Meta के ऑटोमेटेड सिस्टम ने इस कंटेंट का पता लगाया और यह पाया कि इसमें Facebook के हिंसा और उकसावे से संबंधित कम्युनिटी स्टैंडर्ड का उल्लंघन हुआ था. Meta ने इस पोस्ट को हटा दिया और यूज़र की प्रोफ़ाइल पर सामान्य प्रतिबंध लगा दिए. यूज़र ने तुरंत इसके खिलाफ़ अपील की. इसके बाद Meta के एक ह्यूमन रिव्यूवर ने पाया कि इस पोस्ट में प्रतिबंधित सामान और सेवाओं से संबंधित पॉलिसी का उल्लंघन किया गया था. इसके बाद यूज़र ने बोर्ड से अपील की, जिसके बाद Meta ने यह माना कि इस कंटेंट को हटाया तो जाना चाहिए था, लेकिन इसे Meta के हिंसा और उकसावे से संबंधित कम्युनिटी स्टैंडर्ड के तहत हटाया जाना चाहिए था, जैसा कि Meta ने अपने शुरुआती फ़ैसले में बताया था.

मुख्य निष्कर्ष

बोर्ड ने पाया कि इस पोस्ट में हिंसा और उकसावे से जुड़ी पॉलिसी का दो तरह से उल्लंघन हुआ था. सबसे पहले तो फ़ोटो और कैप्शन के मिले-जुले असर से उस नियम का उल्लंघन हुआ, जिसके अनुसार “इस तरह के शब्दों में हथियार बनाने या उनका उपयोग करने के निर्देश देने की मनाही है, जिनमें यह स्पष्ट बताया गया हो कि उनका उद्देश्य लोगों को गंभीर रूप से घायल करना या मारना है.” पोस्ट बनाने वाले व्यक्ति का इरादा चाहे जो भी रहा हो, पेट्रोल बम बनाने के तरीके को विस्तार से बताने वाली गाइड और “हेलमेट का उपयोग करने” की सलाह यह बताती है कि कंटेंट में लोगों से उन निर्देशों का पालन करने का आह्वान किया गया है. दूसरी बात यह है कि सशस्त्र संघर्ष जारी रहने के दौरान SAF के समर्थन में हिंसा का सहारा लेने का संबंध किसी अहिंसक उद्देश्य से नहीं है. हिंसा और उकसावे से जुड़ी पॉलिसी के तहत हथियार बनाने के निर्देश देना प्रतिबंधित है, बशर्ते कि “ऐसा कोई संदर्भ मौजूद हो कि वह कंटेंट किसी अहिंसक उद्देश्य के लिए है.”

जो नियम हथियार बनाने और उनका उपयोग करने के निर्देशों को प्रतिबंधित करता है, उसमें ऐसे कंटेट को छूट मिली हुई है, जिसे “शौकिया आत्मरक्षा, सैन्य प्रशिक्षण के उद्देश्यों, कमर्शियल वीडियो गेम्स या न्यूज़ कवरेज के संदर्भ में शेयर किया गया हो.” जिन स्टेकहोल्डर्स के साथ बोर्ड ने विचार-विमर्श किया, उन्होंने और कई न्यूज़ रिपोर्ट ने दावा किया है कि Meta कुछ सशस्त्र संघर्षों में आत्मरक्षा के लिए ऐसे निर्देशों को परमिशन देता है. Meta ने बताया कि यह सच नहीं है. बोर्ड इन एक समान दावों की सच्चाई का पता लगाने की स्थिति में नहीं है.

लेकिन सबसे ज़रूरी बात यह है कि ऐसे महत्वपूर्ण मुद्दे को लेकर Meta के नियम स्पष्ट हैं और हमेशा सख्ती से लागू किए जाते हैं. संघर्ष के दौरान, लड़ाकों और नागरिकों ने आत्मरक्षा के लिए हथियारों के उपयोग से जुड़ी जानकारी या हिंसक कंटेंट को शेयर करने के लिए जिस तरह से Meta के प्लेटफ़ॉर्म का उपयोग किया, उसे देखते हुए Meta को यह स्पष्ट करना चाहिए कि "शौकिया आत्मरक्षा" और "सैन्य प्रशिक्षण" अपवादों का मतलब क्या है. बोर्ड, Meta की इस बात से सहमत नहीं है कि हिंसा और उकसावे से संबंधित कम्युनिटी स्टैंडर्ड की आम भाषा में इन शब्दों का "मतलब स्पष्ट" है. ज़्यादा स्पष्टता के लिए, Meta को साफ़ तौर पर यह बताना चाहिए कि किन लोगों को "सैन्य प्रशिक्षण" से फ़ायदा हो सकता है और यह अपवाद किन स्थितियों में लागू होता है. इसके अलावा, हथियार या विस्फोटक बनाने या उनका उपयोग करने के निर्देशों से संबंधित पॉलिसी की आम भाषा में यह स्पष्ट रूप से नहीं बताया गया है कि सशस्त्र संघर्षों के दौरान आत्मरक्षा के संदर्भों पर विचार नहीं किया जाता है.

इस केस में हिंसा और उकसावे से संबंधित कम्युनिटी स्टैंडर्ड के एक और अस्पष्ट अपवाद को भी हाइलाइट किया गया है, जो आतंकवादियों और अन्य हिंसक लोगों को धमकी देने की परमिशन देता है. इसमें पर्याप्त स्पष्टता नहीं है, क्योंकि इसमें Meta ने यह साफ़ तौर पर नहीं बताया है कि क्या यह उन सभी संगठनों और लोगों पर लागू होता है, जिन्हें वह अपनी अलग से बनाई गई ‘खतरनाक संगठनों और लोगों से संबंधित पॉलिसी’ के तहत खतरनाक मानता है. यह इस केस के लिए प्रासंगिक है, क्योंकि RSF को 2023 में प्रासंगिक अवधि के लिए खतरनाक माना गया था. लेकिन यूज़र्स के लिए यह पता लगाना असंभव है कि इस आधार पर उनकी पोस्ट को हटाया जा सकता है या नहीं, क्योंकि चिह्नित संगठनों और लोगों की सूची सार्वजनिक रूप से उपलब्ध नहीं है. बोर्ड पहले भी हमारे हैती के पुलिस स्टेशन के वीडियो से संबंधित फ़ैसले में ऐसी अस्पष्टता के बारे में चिंता जता चुका है.

बोर्ड को इस बात की भी चिंता है कि Meta का नोटिफ़िकेशन सिस्टम, कंपनी को उस स्थिति में अपनी गलतियाँ ठीक नहीं करने देता है, जब वह यूज़र को सही ढंग से यह नहीं बताता है कि यूज़र ने किस कम्युनिटी स्टैंडर्ड का उल्लंघन किया है. निष्पक्षता सुनिश्चित करने के लिए, यूज़र्स को उनके उल्लंघन के बारे में सही जानकारी देना बहुत ज़रूरी होता है. गलत नोटिफ़िकेशन से यूज़र की अपील करने और समाधान पाने की क्षमता कम हो आती है. इस केस में, यूज़र को यह गलत सूचना दी गई थी कि उनकी पोस्ट में नफ़रत फैलाने वाली भाषा होने के कारण उसे हटाया गया है, जबकि उस पोस्ट में हिंसा और उकसावे से संबंधित कम्युनिटी स्टैंडर्ड का उल्लंघन होने के कारण उसे हटाया गया था. इसलिए बोर्ड, Meta को तकनीकी रूप से संभव ऐसे तरीकों का पता लगाने के लिए प्रोत्साहित करता है, जिनसे वह यूज़र्स को भेजे जाने वाले नोटिफ़िकेशन में सुधार कर सके.

ओवरसाइट बोर्ड का फ़ैसला

ओवरसाइट बोर्ड ने पोस्ट को हटाने के Meta के फ़ैसले को कायम रखा है.

बोर्ड ने सुझाव दिया है कि Meta:

  • हिंसा और उकसावे से जुड़ी अपनी पॉलिसी में बदलाव करके “शौकिया आत्मरक्षा” और “सैन्य प्रशिक्षण” की परिभाषा को उन नियमों के अपवाद के रूप में जोड़े, जो यूज़र्स को हथियार बनाने या उनका उपयोग करने के निर्देश देने पर रोक लगाते हैं और यह स्पष्ट करे कि ऐसे निर्देशों के लिए वह सशस्त्र संघर्ष के संदर्भ में आत्मरक्षा के किसी भी अपवाद को परमिशन नहीं देता है.
  • यूज़र्स को मैसेज भेजते समय होने वाली अपनी गलतियों को सुधारने के लिए ऐसे टूल्स डेवलप करे, जो यूज़र्स को उनके द्वारा उल्लंघन किए गए कम्युनिटी स्टैंडर्ड के बारे में बताएँ, ताकि वे ठीक से समझ सकें कि उनके कंटेंट से किन पॉलिसी का उल्लंघन हुआ है.

ज़्यादा जानकारी के लिए

इस केस का पूरा फ़ैसला पढ़ने के लिए यहाँ क्लिक करें.

इस केस में लोगों की ओर से आए कमेंट का सारांश पढ़ने के लिए, कृपया यहाँ क्लिक करें.

समाचार पर लौटें