पलट जाना

अफ़गानिस्तान में लड़कियों की शिक्षा

एक यूज़र ने Facebook से ऐसी पोस्ट हटाने के Meta के फ़ैसले के खिलाफ़ अपील की जिसमें अफ़गानिस्तान में लड़कियों की शिक्षा के महत्व की चर्चा की गई थी.

निर्णय का प्रकार

सारांश

नीतियां और विषय

विषय
बच्चें / बच्चों के अधिकार, भेदभाव, लैंगिक समानता
सामुदायिक मानक
ख़तरनाक लोग और संगठन

क्षेत्र/देश

जगह
अफ़गानिस्तान

प्लैटफ़ॉर्म

प्लैटफ़ॉर्म
Facebook

यह संक्षिप्त फ़ैसला है. संक्षिप्त फ़ैसलों में उन केसों का परीक्षण किया जाता है जिनमें बोर्ड द्वारा कंटेंट पर Meta का ध्यान आकर्षित के बाद कंपनी ने कंटेंट के बारे में अपने मूल फ़ैसले को पलटा है. इन फ़ैसलों में वह जानकारी भी शामिल है जिनमें Meta ने अपनी गलतियाँ मानीं. उन्हें बोर्ड के सदस्यों की पैनल द्वारा स्वीकार किया गया है, न कि पूरे बोर्ड द्वारा. उनमें सार्वजनिक कमेंट प्रोसेस शामिल नहीं होती और बोर्ड आगे के फ़ैसलों के लिए उन्हें आधार भी नहीं बनाता है. संक्षिप्त फ़ैसले, Meta के सुधारों के बारे में पारदर्शिता देते हैं और यह बताते हैं कि पॉलिसी के एन्फ़ोर्समेंट के संबंध में कंपनी कहाँ सुधार कर सकती है.

केस का सारांश

एक यूज़र ने Facebook से ऐसी पोस्ट हटाने के Meta के फ़ैसले के खिलाफ़ अपील की जिसमें अफ़गानिस्तान में लड़कियों की शिक्षा के महत्व की चर्चा की गई थी. यह केस कंपनी की खतरनाक संगठनों और व्यक्तियों से जुड़ी पॉलिसी के कंपनी द्वारा एन्फ़ोर्समेंट में की गई गलती हाइलाइट करता है. जब बोर्ड ने Meta का ध्यान अपील पर आकर्षित किया, तो कंपनी ने अपना मूल फ़ैसला पलट दिया और पोस्ट को रीस्टोर कर दिया.

केस की जानकारी और बैकग्राउंड

जुलाई 2023 में, अफ़गानिस्तान के एक Facebook यूज़र ने पश्तो भाषा में एक टेक्स्ट पोस्ट किया जिसमें अफ़गानिस्तान में लड़कियों की शिक्षा के महत्व की चर्चा की गई थी. यूज़र ने लोगों से आह्वान किया कि वे अपनी चिंताएँ उठाते रहें और यह बताया कि इन चिंताओं को तालिबान तक न पहुँचा पाने के परिणाम क्या होंगे. यूज़र ने यह भी कहा कि लड़कियों को शिक्षा से वंचित करने का नुकसान देश को होगा.

Meta ने मूल रूप से पोस्ट को यह कहते हुए Facebook से हटा दिया था कि वह खतरनाक संगठनों और लोगों से जुड़ी उसकी पॉलिसी का उल्लंघन करती है. इस पॉलिसी के तहत कंपनी ऐसे कंटेंट को हटा देती है जिनमें तालिबान सहित कंपनी द्वारा खतरनाक चिह्नित लोगों और संगठनों की “प्रशंसा” की जाती है, उनका “मौलिक समर्थन” किया जाता है या उनका “प्रतिनिधित्व” किया जाता है. पॉलिसी ऐसे कंटेंट को परमिशन देती है जिसमें निष्पक्ष रूप से खतरनाक संगठन या व्यक्ति की चर्चा की जाती है या जिनमें उनके कामों की निंदा की जाती है.

बोर्ड द्वारा इस केस को Meta के ध्यान में लाए जाने के बाद, कंपनी ने पाया कि कंटेंट से खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी का उल्लंघन नहीं हुआ और यह कि पोस्ट को हटाना गलत था. कंपनी ने फिर कंटेंट को रीस्टोर कर दिया.

बोर्ड का प्राधिकार और दायरा

बोर्ड को उस व्यक्ति के अपील करने के बाद Meta के फ़ैसले का रिव्यू करने का अधिकार है, जिसका कंटेंट हटा दिया गया था (चार्टर आर्टिकल 2, सेक्शन 1; उपनियम अनुच्छेद 3, सेक्शन 1).

जहाँ बोर्ड द्वारा रिव्यू किए जा रहे केस में Meta यह स्वीकार करता है कि उससे गलती हुई है और वह अपना फ़ैसला पलट देता है, वहाँ बोर्ड उस केस का चुनाव संक्षिप्त फ़ैसले के लिए कर सकता है (उपनियम अनुच्छेद 2, सेक्शन 2.1.3). बोर्ड कंटेंट मॉडरेशन प्रोसेस के बारे में ज़्यादा जानकारी पाने, गलतियाँ कम करने और Facebook और Instagram के यूज़र्स के लिए निष्पक्षता बढ़ाने के लिए मूल फ़ैसले का रिव्यू करता है.

केस का महत्व

यह केस, Meta की खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी के एन्फ़ोर्समेंट की गलतियाँ हाइलाइट करता है, जिससे Meta के प्लेटफ़ॉर्म पर राजनैतिक टीका-टिप्पणी शेयर करने की यूज़र्स की क्षमता पर बुरा असर पड़ सकता है. यहाँ, इसमें तालिबान के सत्ता में आने के बाद अफ़गानिस्तान में महिलाओं की शिक्षा की ख़ास तौर पर चर्चा की गई थी.

पिछले केस में, बोर्ड ने सुझाव दिया था कि Meta “खतरनाक संगठनों और लोगों से जुड़ी अपनी पॉलिसी में शर्तें और वर्णनात्मक उदाहरण जोड़े ताकि निष्पक्ष चर्चा, निंदा और न्यूज़ रिपोर्टिंग को मिलने वाली छूट के बारे में लोगों की समझ बढ़े,” ( अल जज़ीरा की शेयर की गई पोस्ट फ़ैसला, सुझाव सं. 1). Meta ने अपने Q2 2023 तिमाही अपडेट में रिपोर्ट किया कि इस सुझाव को पूरी तरह लागू कर दिया गया है. इसके अलावा, बोर्ड ने सुझाव दिया कि Meta, “एन्फ़ोर्समेंट की गलतियों को पलटने और उनसे सीखने के लिए एक आंतरिक ऑडिट प्रोसेस बनाए जिसमें ऑटोमेटेड साधनों से हटाए कंटेंट के सांख्यिकीय प्रतिनिधि नमूने का लगातार विश्लेषण किया जाए,” ( ब्रेस्ट कैंसर के लक्षण और नग्नता से जुड़ा फ़ैसला, सुझाव सं. 5). Meta ने रिपोर्ट किया कि वह इस सुझाव को लागू कर रहा है लेकिन उसने इसके संबंध में कोई जानकारी प्रकाशित नहीं की है.

फ़ैसला

बोर्ड ने संबंधित कंटेंट को हटाने के Meta के मूल फ़ैसले को पलट दिया. बोर्ड द्वारा केस को कंपनी के ध्यान में लाए जाने के बाद, Meta द्वारा मूल फ़ैसले की गलती में किए गए सुधार को बोर्ड ने स्वीकार किया. बोर्ड ने Meta से यह भी कहा कि वह ऐसी गलतियों को कम करने के लिए उन सुझावों को अमल में लाने के काम में तेज़ी लाए जिन पर अभी तक काम नहीं किया गया है.

मामले के निर्णयों और नीति सलाहकार राय पर लौटें