बोर्ड द्वारा, संघर्ष के दौरान भ्रामक AI के लिए नए नियमों का आह्वान
10 मार्च 2026
2025 के इज़राइल-ईरान युद्ध के एक केस में, सशस्त्र संघर्षों के दौरान AI-जनित कंटेंट के प्रसार का विश्लेषण करते हुए, ओवरसाइट बोर्ड ने ऐसे आउटपुट की पहचान करने में यूज़र की मदद करने के लिए और Meta से और अधिक कदम उठाने का आह्वान किया है। AI-जनित कंटेंट को सामने लाने का इसका तरीका विकसित होना चाहिए। इसमें कंटेंट स्रोत के मानकों के आधार पर, मीडिया के स्रोत के बारे में बड़े पैमाने पर विवरण प्रदान करना, पहचान करने के अधिक शक्तिशाली टूल में निवेश करना और उचित लेबल लगाने के लिए बेहतर तरीके विकसित करना शामिल है। Meta को यह सुनिश्चित करने के लिए नियमों का एक नया और अलग सेट बनाने की आवश्यकता है कि यूज़र, AI-जनित कंटेंट को विश्वसनीय रूप से पहचान सकें। इसके अतिरिक्त, उसे अपनी वर्तमान पॉलिसी में संशोधन करना चाहिए, ताकि AI-जनित भ्रामक आउटपुट पर समय पर और पर्याप्त प्रतिक्रिया सुनिश्चित की जा सके।
कंपनी को अपनी सार्वजनिक प्रतिबद्धताओं को पूरा करने की आवश्यकता है और विभिन्न प्लेटफ़ॉर्म पर फैलने वाले भ्रामक जनरेटिव AI कंटेंट से प्रभावी ढंग से निपटने के लिए अपने स्वयं के और इंडस्ट्री में उपलब्ध अन्य टूल का उपयोग करना चाहिए।
बोर्ड ने इस केस में, 'उच्च जोखिम AI' लेबल के बिना पोस्ट को बनाए रखने के Meta के फ़ैसले को बदल दिया।
यह महत्वपूर्ण क्यों है
AI-जनित कंटेंट की मात्रा और गुणवत्ता जैसे-जैसे बढ़ेगी, लोगों और समाजों पर इसका प्रभाव गहरा होता जाएगा। जोखिम तब और बढ़ जाता है, जब गुमराह करने, हेरफेर करने या जुड़ाव बढ़ाने के लिए डिज़ाइन किए गए डीपफ़ेक आउटपुट को संघर्षों और संकटों के दौरान शेयर किया जाता है, जैसा कि 2026 में ईरान और वेनेज़ुएला में हुआ था, और अलग-अलग कंपनियों के प्लेटफ़ॉर्म पर तेज़ी से फैलता है। इन दो संकटों के दौरान, ऐसे दावे किए गए थे, जिनमें AI-जनित भ्रामक कंटेंट को असली और असली कंटेंट को मनगढ़ंत बताया गया था। इससे, सच्चाई को पहचानने में जनता की असमर्थता बढ़ जाती है, जो कि झूठ बोलने वाले को फ़ायदा होने का प्रतीक है, और इसके परिणामस्वरूप सभी प्रकार की जानकारी पर सामान्य अविश्वास पैदा हो जाता है। हाल के वर्षों में AI-संचालित प्रभाव अभियानों की चुनौती दुनिया भर में बढ़ती हुई दिखाई दे रही है, जो विशेष रूप से उन प्रतिबंधात्मक मीडिया और इंटरनेट ईकोसिस्टम में और गंभीर हो जाती है, जहां विश्वसनीय जानकारी तक पहुंच सीमित होती है। हालांकि, AI-जनित आउटपुट का भ्रामक होना, अभिव्यक्ति की स्वतंत्रता को प्रतिबंधित करने का अपने-आप में एक वैध कारण नहीं है। AI-जनित भ्रामक कंटेंट की पहचान करने में यूज़र की मदद करने के लिए इंडस्ट्री को एकजुट होने की आवश्यकता है और प्लेटफ़ॉर्म को इस तरह के आउटपुट शेयर करने वाले अपमानजनक खातों और पेजों पर कार्रवाई करनी चाहिए।
केस के बारे में
जून 2025 में इज़राइल-ईरान युद्ध एक महत्वपूर्ण मोड़ था, जहां सोशल मीडिया पर भ्रामक जनरेटिव AI कंटेंट की मौजूदगी उपस्थिति को एक “सूचना युद्ध” के रूप में जाना जाने लगा। ऐसे भ्रामक कंटेंट के बारे में बताया गया कि उसे बहुत बड़ी संख्या में व्यू मिले, और इज़राइली और ईरानी, दोनों सरकारों पर AI-संचालित प्रभाव डालने के प्रयासों के आरोप लगाए गए। 12 दिवसीय इज़राइल-ईरान संघर्ष के दूसरे दिन, 15 जून को एक Facebook पेज, जो कि समाचार स्रोत होने का दावा करता था, पर एक वीडियो पोस्ट किया गया था। इस वीडियो को पोस्ट करने वाला यूज़र फ़िलीपीन्स में था। वीडियो में इमारतों को भारी नुकसान पहुंचते हुए दिखाया गया था और उस पर अंग्रेजी में "Live now – Haifa Towards Down" [यथारूप] लिखा टेक्स्ट था और पोस्ट करने की तारीख भी थी। यह वीडियो, लगभग उस वीडियो जैसा ही था, जिसे TikTok पर बनाया गया था और जिसे एक स्वतंत्र तथ्य-जांचकर्ता (एजेंसी फ़्रांस प्रेस) ने नकली और AI-जनित बताया था। Facebook पोस्ट पर लिखे एक कैप्शन में, संघर्ष से संबद्ध शीर्षक-शैली के कई वाक्यांशों के साथ-साथ असंबद्ध शब्दों और हैशटैग की सूची थी। इस पोस्ट को 7,00,000 से अधिक व्यू मिले, और साथ ही कई कमेंट में यह बताया गया था कि यह कंटेंट AI-जनित था।
छह यूज़र ने Meta को इस केस की शिकायत की, लेकिन कंपनी ने न तो इसका रिव्यू किया और न ही तीसरे पक्ष के तथ्य-जांचकर्ताओं द्वारा इसकी जांच की गई। एक यूज़र ने बोर्ड के समक्ष अपील दायर की। बोर्ड द्वारा इस केस का चयन किए जाने के बाद, Meta ने पुष्टि की कि इस पोस्ट ने गलत जानकारी संबंधी कम्युनिटी स्टैंडर्ड का उल्लंघन नहीं किया है, क्योंकि इसने “तत्काल शारीरिक नुकसान के जोखिम में सीधे तौर पर योगदान” नहीं दिया था, और इसलिए इसे AI लेबल की आवश्यकता नहीं थी।
पोस्ट से जुड़े, गुमराह करने के स्पष्ट संकेतों के चलते, बोर्ड ने उस पेज से जुड़े खातों की पहचान और उनके व्यवहार को लेकर Meta से सवाल किया। कंपनी ने बाद में, जुड़ाव के दुरुपयोग और अप्रामाणिकता के कारण, उस पेज से जुड़े तीन खातों को अक्षम कर दिया, जिससे वह पेज और उसके साथ-साथ इस केस से संबंधित कंटेंट भी हट गया। यह पेज, Meta के स्टार्स प्रोग्राम के माध्यम से कमाई करने के लिए पात्र था।
मुख्य निष्कर्ष
बोर्ड ने पाया कि इस कंटेंट ने एक गंभीर समय पर एक महत्वपूर्ण केस में जनता को गुमराह करने का गंभीर जोखिम पैदा किया, इसलिए Meta को इस पर “उच्च जोखिम AI” का लेबल लगाना चाहिए था। यह पोस्ट, कंटेंट हटाने की ज़रूरी शर्तों (तत्काल शारीरिक नुकसान या हिंसा का जोखिम पैदा करना) को पूरा नहीं करती थी। Meta को अपने प्लेटफ़ॉर्म पर भ्रामक AI-जनित कंटेंट के बढ़ते प्रसार से निपटने के लिए और अधिक प्रयास करने चाहिए, विशेष रूप से अप्रामाणिक या अपमानजनक नेटवर्क और पेजों द्वारा फैलाए गए कंटेंट को लेकर, ताकि यूज़र वास्तविक और नकली के बीच अंतर कर सकें।
बोर्ड इस बात से चिंतित है कि Meta अपने स्वयं के AI टूल द्वारा जनरेट किए गए कंटेंट पर भी कंटेंट के स्रोत और प्रामाणिकता के लिए गठबंधन (C2PA) मानकों को असंगत रूप से लागू कर रहा है, और ऐसे कंटेंट के केवल एक हिस्से को ही उचित लेबल लगाया जाता है। C2PA, कंटेंट के स्रोत की जानकारी को डेटा के रूप में शामिल करने के लिए टेक्निकल स्टैंडर्ड निर्धारित करता है, जिससे प्लेटफ़ॉर्म, AI-जनित कंटेंट को आसानी से पहचान सकें और यूज़र को सूचित करने के लिए लेबल लगा सकें।
वीडियो पर AI जानकारी का स्टैंडर्ड लेबल लगाने के वर्तमान तंत्र (यूज़र द्वारा स्व-प्रकटीकरण या कंटेंट पॉलिसी टीम को एस्केलेशन) न तो इतने शक्तिशाली हैं और न ही इतने व्यापक कि वे AI-जनित सामग्री की व्यापकता और गति का मुकाबला कर सकें, विशेष रूप से किसी संकट या संघर्ष के दौरान, जब प्लेटफ़ॉर्म पर जुड़ाव बहुत ज़्यादा होता है। इस प्रकार के आउटपुट पर उचित तरीके से लेबल लगाने के लिए, AI के उपयोग के संबंध में स्व-प्रकटीकरण और एस्केलेट किए गए रिव्यू (जो कभी-कभार होता है) पर अत्यधिक निर्भर सिस्टम, वर्तमान परिस्थितियों में मौजूद चुनौतियों का सामना नहीं कर सकता। कुछ बोर्ड मेंबर ने अतिरिक्त रूप से यह भी उल्लेख किया कि उच्च जोखिम AI लेबल (ऐसे आउटपुट के लिए, जो महत्वपूर्ण मामलों पर लोगों को गुमराह कर सकता है) को, भ्रामक कंटेंट को डिमोट करने या सुझावों से उसे हटाने के साथ मिलाया जाना चाहिए, ताकि उसके प्रभाव को फैलने से रोका जा सके।
एक जैसे या लगभग एक जैसे कंटेंट तक रेटिंग को विस्तारित करने के प्रति Meta के सीमित दृष्टिकोण के कारण, संभवतः इस पोस्ट को तथ्य-जांच की रेटिंग नहीं मिल पाई। संसाधनों की कमी और आउटपुट की उल्लेखनीय मात्रा के कारण, तथ्य-जांचकर्ताओं के लिए सभी भ्रामक कंटेंट को समय पर रिव्यू करना कठिन हो जाता है, खास तौर पर संघर्ष या संकट के दौरान। बोर्ड इस बात को दोहराता है कि Meta को यह सुनिश्चित करना चाहिए कि तथ्य-जांचकर्ताओं के पास पर्याप्त संसाधन और संघर्षों से संबंधित कंटेंट को प्राथमिकता देने को लेकर मार्गदर्शन हो। क्राइसिस पॉलिसी प्रोटोकॉल (CPP) और ट्रेंडिंग ईवेंट के श्रेणी निर्धारण के माध्यम से, Meta को संकट के दौरान तृतीय-पक्ष तथ्य-जांचकर्ताओं को अधिक प्रभावी सहयोग सुनिश्चित करना चाहिए था। बहुत ज़्यादा एक जैसे वीडियो की रेटिंग को एक व्यापक श्रेणी तक विस्तारित करने से, संभावित नुकसान को काफी हद तक सीमित किया जा सकता था, जिसमें उन्हें डिमोट करना भी शामिल है। यह केस, सशस्त्र संघर्षों के दौरान Meta के वर्तमान दृष्टिकोण में अक्षमताओं को उजागर करता है, जो उन चिंताओं को बढ़ाता है, जिन्हें बोर्ड पहले भी व्यक्त कर चुका है।
यह चिंताजनक है कि CPP सक्रिय होने और अतिरिक्त संसाधन आवंटित किए जाने के बावजूद, पेज से मिलने वाले जुड़ाव के दुरुपयोग के संकेतों को Meta ने अपनी पहल पर नहीं पहचाना, और यह कि उसने इसके पीछे के खातों की जांच, केवल बोर्ड के सवालों की प्रतिक्रिया में ही की। व्यवहार-आधारित पॉलिसी का सटीक एन्फ़ोर्समेंट, इन उल्लंघन करने वाले खातों से होने वाले नुकसान को रोक सकता था, बजाय इसके कि कंटेंट-आधारित बाद के शमन उपायों पर निर्भर रहा जाए, जिनमें विफल होने की संभावना अधिक होती है।
ओवरसाइट बोर्ड का फ़ैसला
बोर्ड ने इस केस में, उच्च जोखिम AI लेबल के बिना इस कंटेंट को बनाए रखने के Meta के फ़ैसले को बदल दिया।
बोर्ड का सुझाव है कि Meta:
- AI-जनित कंटेंट के लिए एक अलग कम्युनिटी स्टैंडर्ड बनाए, जो कि गलत जानकारी संबंधी कम्युनिटी स्टैंडर्ड से अलग हो, जिसमें स्रोत संरक्षण, AI लेबल लगाने के प्रोटोकॉल और स्व-प्रकटीकरण को लेकर व्यापक नियम हों।
- कंटेंट पर कहीं अधिक ज़्यादा बार उच्च जोखिम और उच्च जोखिम AI लेबल लगाने के तरीके विकसित करे, जो ऑटोमेटेड सिस्टम और बड़े पैमाने पर रिव्यू से बने स्पष्ट एस्केलेशन चैनल से सहायता प्राप्त हों, ताकि इस तरह के लेबल लगाने का काम काफी अधिक मात्रा में किया जा सके।
- Meta के AI टूल द्वारा बनाए गए कंटेंट में स्रोत की जानकारी और अदृश्य वॉटरमार्क जोड़े, जिसमें कंटेंट बनाने के समय ही कंटेंट क्रेडेंशियल (जैसा कि C2PA द्वारा निर्धारित किया गया है) लागू करना शामिल है।
- कंटेंट क्रेडेंशियल को व्यापक स्तर पर लागू करे और यह सुनिश्चित करे कि जब भी स्रोत विवरण उपलब्ध हों, तो वे स्पष्ट और निरंतर रूप से दिखाई दें और सुलभ हों।
- एक से अधिक फ़ॉर्मैट वाले (ऑडियो, वीडियो और इमेज) AI-जनित कंटेंट के लिए शक्तिशाली पहचान टूल में निवेश करे।
- डिजिटल रूप से बनाए गए या हेरफेर किए गए कंटेंट का स्व-प्रकटीकरण करने में विफल रहने पर लगने वाले जुर्माने की स्पष्ट व्याख्या प्रकाशित करे, जिसमें जुर्माने के मानदंड और परिणामस्वरूप लगने वाले प्रतिबंध शामिल हों।
- गलत जानकारी संबंधी कम्युनिटी स्टैंडर्ड में संशोधन करें, ताकि यह सुनिश्चित किया जा सके कि तत्काल हिंसा या शारीरिक नुकसान का सीधा जोखिम पैदा करने वाली गलत जानकारी का त्वरित रिव्यू, केवल बाहरी भागीदारों से मिलने वाले संकेतों पर ही निर्भर न हो। किसी CPP तंत्र को, ऐसे उल्लंघन करने वाले कंटेंट की समय पर और सक्रिय पहचान के लिए संसाधन आवंटित करने चाहिए, जिन्हें आंतरिक विशेषज्ञता और कार्रवाई से सहायता मिले, जिसमें लेबल लगाना और पोस्ट करने वाले खातों एवं पेजों की जांच करना शामिल है।
अधिक जानकारी
इस केस के लिए पब्लिक कमेंट पढ़ने के लिए, यहाँ क्लिक करें।