المجلس يدعو إلى وضع قواعد جديدة بشأن الذكاء الاصطناعي المضلل في النزاعات
تم النشر بتاريخ 10 آذار 2026
في تحليل لانتشار المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي في النزاعات المسلحة في حالة الحرب بين إسرائيل وإيران عام 2025، يدعو مجلس الإشراف شركة Meta إلى بذل المزيد من الجهود للسماح للمستخدمين بتحديد مثل هذا المحتوى. يجب أن يتطور نهجها في عرض المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي. ويشمل ذلك توفير تفاصيل على نطاق واسع حول مصدر الوسائط، استنادًا إلى معايير مصدر المحتوى، والاستثمار في أدوات كشف أقوى وتطوير أساليب أفضل للتصنيف المناسب. تحتاج Meta إلى وضع مجموعة جديدة ومستقلة من القواعد لضمان قدرة المستخدمين على التعرف بشكل موثوق على المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي. بالإضافة إلى ذلك، يجب عليها تعديل سياساتها الحالية لضمان الاستجابة المناسبة وفي الوقت المناسب للمحتوى المضلل الذي تم إنشاؤه بواسطة الذكاء الاصطناعي.
يتعين على الشركة الوفاء بالتزاماتها العامة واستخدام أدواتها الخاصة وغيرها من الأدوات المتاحة في القطاع لمعالجة المحتوى المضلل الذي تم إنشاؤه بواسطة الذكاء الاصطناعي والذي ينتشر عبر المنصات.
ألغى المجلس قرار Meta بالإبقاء على المنشور في هذه الحالة من دون وضع علامة "عالي الخطورة تم إنشاؤه بالذكاء الاصطناعي" عليه.
ما سبب أهمية هذا الأمر
مع زيادة كمية ونوعية المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي، سيكون تأثيره على الناس والمجتمعات عميقًا. تزداد المخاطر عندما تتم مشاركة محتوى تم إنشاؤه بتقنية التزييف العميق مصمم لغرض الخداع أو التلاعب أو زيادة التفاعل خلال النزاعات والأزمات، كما حدث في إيران وفنزويلا في عام 2026، وينتشر بشكل سريع على منصات شركات مختلفة. خلال هاتين الأزمتين، كانت هناك ادعاءات بأن المحتوى المضلل الذي تم إنشاؤه بواسطة الذكاء الاصطناعي كان حقيقيًا وأن المحتوى الحقيقي كان ملفقًا. وهذا يزيد من عدم قدرة الجمهور على تمييز الحقيقة، وهو ما يمثل عائد الكاذب، ما يؤدي إلى عدم الثقة العامة في جميع المعلومات. تشكل الحملات التأثيرية المدعومة بالذكاء الاصطناعي تحديًا متزايدًا على الصعيد العالمي في السنوات الأخيرة، ويتفاقم هذا التحدي في البيئات التي تفرض قيودًا على الإعلام والإنترنت، ما يحد من المعلومات الموثوقة. ولكن كون المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي مضللاً لا يشكل في حد ذاته سببًا مشروعًا لتقييد حرية التعبير. تحتاج الصناعة إلى التناسق في مساعدة المستخدمين على تمييز المحتوى المضلل الذي تم إنشاؤه بواسطة الذكاء الاصطناعي، ويجب على المنصات التعامل مع الحسابات والصفحات المسيئة التي تشارك مثل هذا المحتوى.
عن الحالتين
وقد شكلت الحرب بين إسرائيل وإيران في يونيو 2025 نقطة تحول، حيث أصبح وجود محتوى خادع تم إنشاؤه بواسطة الذكاء الاصطناعي على وسائل التواصل الاجتماعي معروف باسم "الحرب الناعمة". وأفادت التقارير أن هذا المحتوى الخادع حصد عددًا هائلاً من المشاهدات، واتُهمت كل من الحكومتين الإسرائيلية والإيرانية بمحاولات التأثير باستخدام الذكاء الاصطناعي. وفي 15 يونيو، بعد يومين من اندلاع الصراع بين إسرائيل وإيران الذي استمر 12 يومًا، نُشر مقطع فيديو على صفحة Facebook تدعي أنها مصدر إخباري. وكان المستخدم الذي نشر مقطع الفيديو موجودًا في الفلبين. ويُظهر الفيديو أضرارًا جسيمة لحقت بالمباني، مع نص مكتوب باللغة الإنجليزية يقول "Live now – Haifa Towards Down" [كما ورد في النص الأصلي] مع تاريخ النشر. وكان الفيديو مشابهًا جدًا لفيديو آخر على منصة TikTok وتم تصنيفه من قبل جهة مستقلة للتحقق من صحة المعلومات (وكالة فرانس برس) على أنه مزيف وتم إنشاؤه بواسطة الذكاء الاصطناعي. وأورد تعليق على منشور Facebook العديد من العبارات التي تشبه العناوين الرئيسية المرتبطة بالصراع ومصطلحات وهاشتاجات غير ذات صلة. حصل المنشور على أكثر من 700,000 مشاهدة، مع عدة تعليقات تشير إلى أن المحتوى تم إنشاؤه بواسطة الذكاء الاصطناعي.
وأبلغ ستة مستخدمين عن هذه الحالة لدى Meta، لكن الشركة لم تقم بمراجعتها ولم يتم التحقق منها من قبل جهات خارجية متخصصة في التحقق من صحة المعلومات. ومن ثم تقدم مستخدم بالطعن إلى المجلس. بعد أن اختار المجلس هذه الحالة، أكدت Meta أن المنشور لم ينتهك معيار المجتمع الخاص بالمعلومات المضللة لأنه لم "يساهم بشكل مباشر في خطر حدوث ضرر جسدي وشيك"، ولم يتطلب وضع علامة الذكاء الاصطناعي.
وأدت الإشارات الواضحة للخداع والمتعلقة بالمنشور إلى قيام المجلس باستجواب Meta حول هوية وسلوك الحسابات المرتبطة بالصفحة. وقامت الشركة بعد ذلك بتعطيل ثلاثة حسابات مرتبطة بالصفحة بسبب إساءة استخدام التفاعل وعدم المصداقية، وحذفت الصفحة ومعها محتوى الحالة. وكانت الصفحة مؤهلة لتحقيق أرباح مالية من خلال برنامج النجوم الخاص بشركة Meta.
النتائج الرئيسية
ويرى المجلس أن المحتوى يشكل خطرًا جوهريًا في تضليل الجمهور بشأن مسألة مهمة في وقت حرج، لذا كان على Meta وضع علامة "عالي الخطورة تم إنشاؤه بالذكاء الاصطناعي" عليه. ولم يستوفِ المنشور شروط الحذف (تشكيل خطر حدوث ضرر جسدي وشيك أو عنف). ويجب على Meta بذل المزيد من الجهود للتصدي لانتشار المحتوى المضلل الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي على منصاتها، بما في ذلك شبكات الحسابات والصفحات غير الأصلية أو المسيئة، لا سيما في المسائل التي تهم المصلحة العامة، حتى يتمكن المستخدمون من التمييز بين ما هو حقيقي وما هو مزيف.
يشعر المجلس بالقلق إزاء البلاغات التي تفيد بأن Meta لا تطبق معايير التحالف من أجل مصدر المحتوى وأصالته (C2PA) بشكل متسق حتى على المحتوى الذي يتم إنشاؤه بواسطة أدوات الذكاء الاصطناعي الخاصة بها، وأن جزءًا فقط من هذا المحتوى يحصل على التصنيف المناسب. ويحدد التحالف من أجل مصدر المحتوى وأصالته (C2PA) المعايير الفنية لتضمين معلومات المنشأ كبيانات وصفية في المحتوى، ما يسمح للمنصات بتحديد المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي بسهولة أكبر وتطبيق علامات لإعلام المستخدمين.
الآليات الحالية لإضافة حتى العلامة القياسية لمعلومات الذكاء الاصطناعي إلى الفيديو (الإفصاح الذاتي من قبل المستخدم أو التصعيد إلى فريق سياسة المحتوى) ليست قوية ولا شاملة بما يكفي للتعامل مع حجم وسرعة المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي، لا سيما خلال الأزمات أو النزاعات التي تشهد تفاعلاً مكثفًا على المنصة. لا يمكن لنظام يعتمد بشكل مفرط على الإفصاح الذاتي عن استخدام الذكاء الاصطناعي والمراجعة المُصعّدة (التي تحدث بشكل غير متكرر) لتصنيف هذا المحتوى بشكل ملائم أن يواجه التحديات التي تفرضها البيئة الحالية. وأشار بعض أعضاء المجلس بالإضافة إلى ذلك إلى أن علامات "عالي الخطورة تم إنشاؤه بالذكاء الاصطناعي" (للمحتوى الذي قد يخدع الناس في مسائل مهمة) يجب أن تقترن أيضًا بتخفيض الرتبة أو الإزالة من التوصيات لمعالجة المخاوف بشأن انتشار تأثير المحتوى الخادع.
وقد يكون نهج Meta الضيق في توزيع التقييمات على المحتوى المتطابق والمتشابه تقريبًا هو السبب في عدم حصول هذا المنشور على تقييم للتحقق من صحة المعلومات. وتجعل قيود الموارد والكم الهائل من المحتوى من الصعب على مدققي الحقائق ضمان مراجعة جميع المحتويات المضللة في الوقت المناسب، خاصةً أثناء النزاعات أو الأزمات. ويكرر المجلس تأكيده على أن Meta يجب أن تضمن توفير الموارد الكافية لمدققي الحقائق وتزويدهم بإرشادات حول إعطاء الأولوية للمحتوى المتعلق بالنزاعات. وكان من المفترض أن يسمح بروتوكول سياسة الأزمات (CPP) وتصنيفات الأحداث الأكثر تداولاً لشركة Meta بتوفير دعم أكثر فعالية لمدققي الحقائق من قبل طرف ثالث خلال الأزمة. وقد يؤدي توزيع التقييمات على فئة أوسع من مقاطع الفيديو المتشابهة جدًا إلى الحد بشكل كبير من الضرر المحتمل، بما في ذلك عن طريق خفض تصنيفها. وتسلط هذه الحالة الضوء على أوجه القصور في النهج الحالي الذي تتبعه شركة Meta خلال النزاعات المسلحة، ما يزيد من المخاوف التي أعرب عنها المجلس سابقًا.
ومن المثير للقلق أنه مع تفعيل بروتوكول سياسة الأزمات (CPP) وتخصيص موارد إضافية، لم تحدد Meta من تلقاء نفسها الإشارات الواضحة على إساءة استخدام التفاعل من الصفحة، وأنها لم تحقق في الحسابات المسؤولة عن ذلك إلا استجابةً لتساؤلات المجلس. وكان من الممكن أن يؤدي الإنفاذ الدقيق للسياسات القائمة على السلوك إلى منع الأضرار الناجمة عن هذه الحسابات المخالفة، بدلاً من الاعتماد على تدابير التخفيف في المراحل النهائية القائمة على المحتوى والتي تكون عرضة لمعدل فشل مرتفع.
قرار مجلس الإشراف
وقد ألغى المجلس قرار Meta بالإبقاء على المحتوى من دون وضع علامة "عالي الخطورة تم إنشاؤه بالذكاء الاصطناعي" عليه.
يوصي المجلس بأن تقوم شركة Meta بما يلي:
- إنشاء معيار مجتمعي للمحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي، منفصل عن المعيار المجتمعي للمعلومات المضللة، يوفر قواعد شاملة بشأن الحفاظ على المصدر وبروتوكولات وضع العلامات على الذكاء الاصطناعي والإفصاح الذاتي.
- تطوير مسارات لإضافة ملصقات "عالي الخطورة" و"عالي الخطورة تم إنشاؤه بالذكاء الاصطناعي" على المحتوى بشكل أكثر تكرارًا، بمساعدة قنوات تصعيد أكثر وضوحًا من الأنظمة الآلية والمراجعة على نطاق واسع، بحيث يمكن إجراء هذا التصنيف بكميات أكبر بكثير.
- إرفاق معلومات المنشأ والعلامات المائية غير المرئية بالمحتوى الذي تم إنشاؤه بواسطة أدوات الذكاء الاصطناعي الخاصة بشركة Meta، بما في ذلك تطبيق بيانات اعتماد المحتوى (كما هو محدد من قبل التحالف من أجل مصدر المحتوى وأصالته (C2PA)) عند الإنشاء.
- تنفيذ بيانات اعتماد المحتوى على نطاق واسع والتأكد من أنها واضحة ويمكن الوصول إليها بشكل متسق كلما توفرت تفاصيل المصدر.
- الاستثمار في أدوات كشف أقوى للمحتوى متعدد التنسيقات (الصوتي والصوتي المرئي والصور) الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي.
- نشر شرح واضح للعقوبات المفروضة على عدم الإفصاح عن المحتوى الذي تم إنشاؤه أو تعديله رقمياً، بما في ذلك معايير العقوبات والقيود المترتبة عليها.
- تعديل معيار المجتمع الخاص بالمعلومات المضللة لضمان ألا تعتمد المراجعة السريعة للمعلومات المضللة التي تشكل خطرًا مباشرًا بحدوث عنف أو ضرر جسدي وشيك على الإشارات الواردة من الشركاء الخارجيين وحدها. يجب أن تخصص آلية بروتوكول سياسة الأزمات الموارد اللازمة للكشف المبكر والفعال عن مثل هذا المحتوى المخالف، بدعم من الخبرة والإجراءات الداخلية، بما في ذلك وضع علامات على الحسابات والصفحات التي تنشر هذا المحتوى والتحقيق في الأمر.
مزيد من المعلومات
لقراءة التعليقات العامة على هذه الحالة، انقر هنا.