أسقط

فيديو تم إنشاؤه بواسطة الذكاء الاصطناعي في النزاع بين إسرائيل وإيران

في إطار تحليل انتشار المحتوى الذي يُنشئه الذكاء الاصطناعي في الصراعات المسلحة استنادًا إلى حالة تتعلق بحرب عام 2025 بين إسرائيل وإيران، دعا مجلس الإشراف شركة Meta إلى بذل المزيد من الجهود لتمكين المستخدمين من تحديد هذه المخرجات.

نوع القرار

معيار

السياسات والمواضيع

عنوان
‎AI-generated content‎

المناطق/البلدان

موقع
إسرائيل، إيران

منصة

منصة
Facebook

لقراءة هذا القرار باللغة الفارسية، انقر هنا.

برای خواندن حکم کامل به زبان فارسی، در اینجا کلیک کنید.

لقراءة هذا القرار باللغة العبرية، انقر هنا.

לקריאת החלטה זו בעברית יש ללחוץ כאן.

الملخص

في إطار تحليل انتشار المحتوى الذي يُنشئه الذكاء الاصطناعي في الصراعات المسلحة استنادًا إلى حالة تتعلق بحرب عام 2025 بين إسرائيل وإيران، دعا مجلس الإشراف شركة Meta إلى بذل المزيد من الجهود لتمكين المستخدمين من تحديد هذه المخرجات. يجب أن يتطور النهج الذي تتبعه الشركة في إظهار المحتوى الذي يُنشئه الذكاء الاصطناعي. يتضمن ذلك تقديم تفاصيل شاملة حول مصدر الوسائط، استنادًا إلى معايير مصدر المحتوى، مع الاستثمار في أدوات اكتشاف أقوى وتطوير أساليب أفضل لوضع التسميات المناسبة. تحتاج Meta إلى وضع مجموعة قواعد جديدة ومستقلة لضمان قدرة المستخدمين على تمييز المحتوى الذي يُنشئه الذكاء الاصطناعي بشكل موثوق. علاوةً على ذلك، ينبغي للشركة تعديل سياساتها الحالية لضمان استجابة كافية وفي الوقت المناسب للمخرجات المضللة التي يُنشئها الذكاء الاصطناعي.

يجب على الشركة الوفاء بالتزاماتها العامة، والاستفادة من أدواتها الخاصة والأدوات الأخرى المتاحة في هذا المجال للتصدي بفعّالية لمحتوى الذكاء الاصطناعي التوليدي المضلل الذي ينتشر عبر المنصات.

ألغى المجلس قرار Meta بالإبقاء على المنشور المتعلق بهذه الحالة دون وضع تسمية "ذكاء اصطناعي عالي الخطورة".

أهمية هذا الأمر

سيترك المحتوى الذي يُنشئه الذكاء الاصطناعي أثرًا جوهريًا على الأفراد والمجتمعات مع استمرار التطور في كمية هذا المحتوى وجودته. تزداد المخاطر عند مشاركة مخرجات التزييف العميق المصممة للتضليل أو التلاعب أو زيادة التفاعل أثناء الصراعات والأزمات، مثلما حدث في إيران وفنزويلا عام 2026، وانتشارها السريع على منصات الشركات المختلفة. ظهرت خلال هاتين الأزمتين ادعاءات تزعم بأن المحتوى المضلل الذي يُنشئه الذكاء الاصطناعي كان أصيلاً، في حين تم الادعاء بأن المحتوى الأصيل كان مفبركًا. يؤدي ذلك إلى تفاقم عدم قدرة الجمهور على تمييز الحقيقة، وهو ما يجسد مفهوم عائد الكاذب، مما يفضي بدوره إلى حالة من عدم الثقة العامة في جميع المعلومات. تُمثل حملات التأثير المدعومة بالذكاء الاصطناعي تحديًا متناميًا شهده العالم في السنوات الأخيرة، وتتفاقم حدته في أنظمة الإعلام والإنترنت المقيدة التي تحد من الوصول إلى المعلومات الموثوقة. ومع ذلك، فإن كون المخرجات التي يُنشئها الذكاء الاصطناعي مضللة لا يُعد في حد ذاته سببًا مشروعًا لتقييد حرية التعبير. يحتاج هذا المجال إلى تكاتف الجهود لمساعدة المستخدمين على تمييز محتوى الذكاء الاصطناعي التوليدي المضلل، كما يجب على المنصات اتخاذ إجراءات تجاه الحسابات والصفحات المسيئة التي تشارك مثل هذه المخرجات.

حول الحالات

شكَّلت الحرب بين إسرائيل وإيران في يونيو 2025 نقطة تحوّل، حيث أصبح حضورمحتوى الذكاء الاصطناعي التوليدي المضلل على وسائل التواصل الاجتماعي يُعرف باسم "الحرب الناعمة." وذكرت تقارير أن هذه المخرجات المضللة حققت أعدادًا هائلة من المشاهدات، كما اتُّهمت الحكومتان الإسرائيلية والإيرانية بمحاولات ممارسة التأثير باستخدام الذكاء الاصطناعي. نُشر فيديو في 15 يونيو، بعد يومين من اندلاع النزاع الذي استمر 12 يومًا بين إسرائيل وإيران، على صفحة فيسبوك تدعي أنها مصدر إخباري. كان المستخدم الذي نشر الفيديو موجودًا في الفلبين. صوَّر الفيديو دمارًا واسع النطاق في المباني مع نص مكتوب باللغة الإنجليزية يقول "بث مباشر الآن - حيفا نحو الأسفل" [هكذا ورد] مع تاريخ النشر. كان الفيديو مشابهًا جدًا لفيديو نُشر أصلاً على TikTok وحددته جهة تدقيق حقائق مستقلة (وكالة فرانس برس) على أنه زائف وتم إنشاؤه بواسطة الذكاء الاصطناعي. تضمن الشرح التوضيحي لمنشور فيسبوك العديد من العبارات المصاغة بأسلوب العناوين الإخبارية المرتبطة بالنزاع، بالإضافة إلى مصطلحات وعلامات هاشتاج غير ذات صلة. حصد المنشور أكثر من 700 ألف مشاهدة، مع وجود عدة تعليقات تشير إلى أن المحتوى قد تم إنشاؤه بواسطة الذكاء الاصطناعي.

أبلغ ستة مستخدمين Meta بهذه الحالة، ولكن الشركة لم تراجعها ولم تدققها جهات خارجية لتدقيق الحقائق. قدَّم أحد المستخدمين طعنًا إلى المجلس. أكدت Meta، بعد اختيار المجلس لهذه الحالة، أن المنشور لا ينتهك معيار المجتمع بشأن المعلومات المضللة لأنه لم "يسهم بشكل مباشر في خطر وقوع ضرر بدني وشيك"، ولم يتطلب وضع تسمية ذكاء اصطناعي.

دفعت إشارات التضليل الواضحة المرتبطة بالمنشور المجلس إلى مساءلة Meta حول هوية الحسابات المرتبطة بالصفحة وسلوكها. عطَّلت الشركة لاحقًا ثلاثة حسابات مرتبطة بالصفحة بسبب إساءة استخدام التفاعل وعدم المصداقية، مما أدى إلى إزالة الصفحة ومعها محتوى الحالة. كانت الصفحة مؤهلة لتحقيق الأرباح من خلال برنامج النجوم من Meta.

أهم النتائج

وجد المجلس أن المحتوى انطوى على خطر كبير بشكل خاص يتمثل في خداع الجمهور بشكل ملموس بشأن مسألة ذات أهمية عامة في وقت حرج، لذا كان ينبغي لشركة Meta وضع تسمية "ذكاء اصطناعي عالي الخطورة". لم يبلغ المنشور حد الإزالة (الذي يتطلب وجود خطر وقوع ضرر بدني وشيك أو عنف). يجب على Meta بذل المزيد من الجهود للتصدي لانتشار المحتوى المضلل الذي يُنشئه الذكاء الاصطناعي على منصاتها، بما في ذلك المحتوى الصادر عن شبكات حسابات وصفحات زائفة أو مسيئة، خاصةً في المسائل ذات المصلحة العامة، لتمكين المستخدمين من التمييز بين المحتوى الحقيقي والمحتوى الزائف.

يُبدي المجلس قلقه تجاه التقارير التي تفيد بأن Meta لا تطبق معايير "تحالف مصدر المحتوى ومصداقيته" (C2PA) بشكل ثابت، حتى على المحتوى الذي تُنشئه أدوات الذكاء الاصطناعي الخاصة بها، وبأن جزءًا فقط من هذه المخرجات يتلقى التسميات المناسبة. يضع تحالف مصدر المحتوى ومصداقيته معايير تقنية لتضمين معلومات المصدر كبيانات تعريفية في المحتوى، مما يتيح للمنصات تحديد المحتوى الذي يُنشئه الذكاء الاصطناعي بسهولة أكبر ووضع تسميات لإعلام المستخدمين.

إن الآليات الحالية لوضع حتى التسمية العادية "معلومات ذكاء اصطناعي" على الفيديو (سواء عبر إفصاح المستخدم ذاتيًا أو التصعيد إلى فريق سياسة المحتوى) ليست راسخة ولا شاملة بما يكفي لمواجهة نطاق وسرعة انتشار المحتوى الذي يُنشئه الذكاء الاصطناعي، خاصةً أثناء الأزمات أو الصراعات التي تشهد تفاعلاً متزايدًا على المنصة. لا يمكن لنظام يعتمد اعتمادًا مفرطًا على الإفصاح الذاتي عن استخدام الذكاء الاصطناعي والمراجعة بعد التصعيد (التي نادرًا ما تحدث) وضع تسميات دقيقة على هذه المخرجات بما يضمن مواجهة التحديات القائمة في البيئة الحالية. أشار بعض أعضاء المجلس أيضًا إلى ضرورة اقتران تسميات "ذكاء اصطناعي عالي الخطورة" (للمخرجات التي قد تضلل الأشخاص في مسائل مهمة) بخفض التصنيف أو الإزالة من التوصيات، وذلك لمعالجة المخاوف المتعلقة بانتشار تأثير المحتوى المضلل.

لعل نهج Meta المحدود في تعميم التقييمات على المحتوى المتطابق وشبه المتطابق قد تسبب في عدم حصول هذا المنشور على تقييم لتدقيق الحقائق. تجعل قيود الموارد والحجم الهائل للمخرجات من الصعب على جهات تدقيق الحقائق ضمان إجراء المراجعة في الوقت المناسب لكل المحتوى المضلل، خاصةً أثناء الصراعات أو الأزمات. يُجدد المجلس تأكيده على أنه يجب أن تضمن Meta تزويد جهات تدقيق الحقائق بالموارد الكافية وتزويدها بإرشادات حول كيفية منح الأولوية للمحتوى المتعلق بالصراعات. كان ينبغي لتصنيفات بروتوكول سياسة الأزمات (CPP) والأحداث الرائجة أن تتيح لشركة Meta ضمان تقديم دعم أكثر فعّالية للجهات الخارجية لتدقيق الحقائق أثناء الأزمة. كان من الممكن أن يؤدي تعميم التقييمات على فئة أوسع من مقاطع الفيديو المتشابهة جدًا إلى الحد من الضرر المحتمل بشكل كبير، بما في ذلك عن طريق خفض تصنيفها. تسلط الحالة الضوء على أوجه القصور في النهج الحالي لشركة Meta أثناء الصراعات المسلحة، مما يفاقم المخاوف التي أعرب عنها المجلس سابقًا.

من المثير للقلق أنه على الرغم من تفعيل بروتوكول سياسة الأزمات وتخصيص موارد إضافية، لم تكتشف Meta بمبادرة منها إشارات إساءة استخدام التفاعل الواضحة الصادرة عن الصفحة، ولم تحقق في الحسابات التي تقف وراءها إلا استجابةً لأسئلة المجلس. كان من الممكن للإنفاذ الدقيق للسياسات القائمة على السلوك أن يمنع الأضرار الناجمة عن هذه الحسابات المخالفة، بدلاً من الاعتماد على تدابير تخفيف لاحقة تعتمد على المحتوى وتكون عرضة لمعدلات فشل عالية.

قرار مجلس الإشراف

ألغى المجلس قرار Meta بالإبقاء على المحتوى دون وضع تسمية "ذكاء اصطناعي عالي الخطورة".

يوصي المجلس Meta بما يلي:

  • إنشاء معيار مجتمع للمحتوى الذي يُنشئه الذكاء الاصطناعي، بشكل مستقل عن معيار المجتمع بشأن المعلومات المضللة، مع تقديم قواعد شاملة حول الحفاظ على مصدر المحتوى، وبروتوكولات وضع تسميات الذكاء الاصطناعي، والإفصاح الذاتي.
  • تطوير مسارات لوضع تسميات "عالي الخطورة" و"ذكاء اصطناعي عالي الخطورة" على المحتوى بوتيرة أكبر بكثير، مدعومة بقنوات تصعيد أكثر وضوحًا من الأنظمة التلقائية والمراجعة على نطاق واسع، بحيث يمكن تطبيق هذه التسمية بنطاق أكبر بشكل ملحوظ.
  • إرفاق معلومات المصدر والعلامات المائية غير المرئية في المحتوى الذي يتم إنشاؤه بواسطة أدوات Meta AI، بما في ذلك تطبيق "بيانات اعتماد المحتوى" (وفقًا لمعايير تحالف مصدر المحتوى ومصداقيته) عند الإنشاء.
  • تنفيذ "بيانات اعتماد المحتوى" على نطاق واسع وضمان ظهورها بوضوح وثبات وإمكانية الوصول إليها في أي وقت تتوفر فيه تفاصيل المصدر.
  • الاستثمار في أدوات اكتشاف أقوى للمحتوى الذي يُنشئه الذكاء الاصطناعي متعدد التنسيقات (الصوتي، والمرئي المسموع، والصور).
  • نشر توضيح جلي للعقوبات المفروضة في حال الفشل في الإفصاح ذاتيًا عن المحتوى الذي تم إنشاؤه أو فبركته رقميًا، بما في ذلك معايير العقوبات والقيود المترتبة عليها.
  • تعديل معيار المجتمع بشأن المعلومات المضللة لضمان ألا تعتمد المراجعة السريعة للمعلومات المضللة، التي تشكل خطرًا مباشرًا بوقوع عنف أو ضرر بدني وشيك، على الإشارات الواردة من الشركاء الخارجيين فحسب. ينبغي أن يخصص أحد بنود بروتوكول سياسة الأزمات موارد للاكتشاف الاستباقي وفي الوقت المناسب لمثل هذا المحتوى المخالف، بدعم من الخبرات والإجراءات الداخلية، بما في ذلك وضع تسميات على الحسابات والصفحات التي تنشر هذا المحتوى والتحقيق فيها.

* توفر ملخصات الحالات نظرة عامة على الحالات ولا تُشكّل سابقة قانونية.

القرار الكامل بشأن الحالة

1. وصف الحالة ومعلومات أساسية عنها

شنت إسرائيل في 13 يونيو 2025 ضربة جوية كبرى استهدفت منشآت نووية وعسكرية إيرانية ومواقع أخرى. صرَّح قادة إسرائيل بأن الهجمات كانت تهدف إلى منع نمو البرنامج النووي الإيراني. أدى ذلك إلى تبادل الدولتين هجمات مكثفة استمرت لأكثر من أسبوع ونصف. أطلقت إيران مئات الصواريخ على المدن الإسرائيلية، حيث اعترضت الدفاعات الإسرائيلية الكثير منها، بينما قصفت إسرائيل مواقع متعددة في أنحاء إيران، بما في ذلك مواقع قريبة من العاصمة طهران. ذكر الأمين العام للأمم المتحدة أنطونيو غوتيريش في 18 يونيو أنه "يشعر بقلق بالغ" إزاء التصعيد العسكري، مضيفًا أن "أي تدخلات عسكرية إضافية قد تترتب عليها عواقب وخيمة، ليس فقط للأطراف المعنية ولكن للمنطقة بأكملها وللسلم والأمن الدوليين بوجه عام". نفَّذت الولايات المتحدة في 21 يونيو سلسلة من الهجمات استهدفت مواقع نووية في إيران. أُعلن عن وقف إطلاق النار بين إسرائيل وإيران في 24 يونيو.

شكَّل نزاع عام 2025 بين إسرائيل وإيران نقطة تحوّل، حيث أصبح التأثير المتزايد لمحتوى الذكاء الاصطناعي التوليدي على وسائل التواصل الاجتماعي يُعرف باسم "الحرب الناعمة." ذكرت هيئة الإذاعة البريطانية أن ثلاثة فيديوهات مضللة تم إنشاؤها بواسطة الذكاء الاصطناعي حول النزاع حصدت أكثر من 100 مليون مشاهدة. شارك وزير الخارجية الإسرائيلي فيديو لهجوم على سجن إيفين في طهران، والذي اعتبره التحليل الجنائي لاحقًا من المرجَّح أن يكون فيديو تم إنشاؤه بواسطة الذكاء الاصطناعي، على الرغم من وقوع هجوم فعلي على السجن. أشار بحث صادر عن Citizen Lab بجامعة تورنتو إلى وجود شبكة منسقة من الملفات الشخصية الزائفة على منصة X (تويتر سابقًا)، يُزعم ارتباطها بإسرائيل، لتشجيع الإيرانيين على التصدي لحكومتهم. أبلغت الحكومة الإسرائيلية أيضًا عن وجود حملات تعتمد على البرامج التلقائية تقودها إيران وتهدف إلى تشكيل الآراء حول النزاع وأثر هجماتها على إسرائيل.

يظل المحتوى المضلل الذي يُنشئه الذكاء الاصطناعي تحديًا متزايدًا ومستمرًا في الأزمات والصراعات في جميع أنحاء العالم في السنوات الأخيرة. يتفاقم هذا التحدي في الأماكن التي تتعرض فيها حرية التعبير لضغوط، وحيث تعيق حملات القمع ضد وسائل الإعلام المستقلة وانقطاع الإنترنت الوصول إلى معلومات موثوقة يمكنها دحض الحملات المضللة. لاحظ المجلس، أثناء مداولاته بشأن هذه الحالة، كيف تضمنت العملية الأمريكية للقبض على رئيس فنزويلا والاحتجاجات الحاشدة المناهضة للحكومة في إيران ادعاءات بأن المحتوى المضلل الذي يُنشئه الذكاء الاصطناعي كان أصيلاً، وادعاءات مضادة بأن المحتوى الأصيل كان مفبركًا. تسببت كلتا الحالتين في عدم قدرة الجمهور على التمييز بين المحتوى المفبرك والمحتوى الحقيقي، وهو ما يجسد مفهوم عائد الكاذب، مما ينذر بحالة من عدم الثقة العامة في جميع المعلومات.

برزت عدة مناهج تقنية لمساعدة المنصات والمستخدمين على التمييز بين الوسائط الاصطناعية أو المتلاعب بها والوسائط الأصيلة. يتمثل أحد المناهج في تتبع المصدر، أي السجل القابل للتحقق لأحد الأصول الرقمية، مثل الصورة أو الفيديو أو المستند. وضع تحالف مصدر المحتوى ومصداقيته (C2PA) معايير تقنية لتضمين معلومات المصدر كبيانات تعريفية في المحتوى، مما يتيح للمنصات تحديد المحتوى الذي يُنشئه الذكاء الاصطناعي بسهولة أكبر ووضع تسميات لإعلام المستخدمين. على الرغم من أن هذه الأدوات لا تزال قيد التطوير ولا يُعد أي منها حلاً مثاليًا، إلا أنها تُعد "الحد الأدنى عندما يتعلق الأمر بالإنتاج والنشر المسؤول للمحتوى الذي يُنشئه الذكاء الاصطناعي". وبالموازاة مع ذلك، قد يوفر الاستثمار في الاكتشاف التلقائي، مثل أدوات التصنيف، مسارًا لاكتشاف إشارات أخرى تدل على أن المحتوى قد تم إنشاؤه بواسطة الذكاء الاصطناعي.

تُعد هذه الحالة نموذجًا لهذه التحديات. نُشر فيديو في 15 يونيو، مع تصاعد النزاع بين إسرائيل وإيران، على صفحة فيسبوك تدعي أنها مصدر إخباري ولديها 161 ألف متابع. صوَّر الفيديو دمارًا واسع النطاق في المباني، تحيط بها أعمدة الدخان والركام، مع نص مكتوب باللغة الإنجليزية يقول "بث مباشر الآن - حيفا نحو الأسفل" [هكذا ورد] مع تاريخ النشر. أشار المنشور على الأرجح إلى حيفا، وهي مدينة تقع في شمال إسرائيل. يبدو الفيديو مشابهًا جدًا لفيديو نُشر أصلاً على TikTok وحددته جهات مستقلة لتدقيق الحقائق بوكالة فرانس برس على أنه زائف وتم إنشاؤه بواسطة الذكاء الاصطناعي (توفر وكالة فرانس برس صورًا ثابتة فقط للفيديو الذي تم تقييمه، ولكنها متطابقة مع لقطات من محتوى هذه الحالة). تضمن الشرح التوضيحي لمنشور فيسبوك المكتوب بالإنجليزية العديد من العبارات المصاغة بأسلوب العناوين الإخبارية المرتبطة بالنزاع، فضلاً عن مصطلحات وعلامات هاشتاج غير ذات صلة، دون وجود سياق واضح. ذكر الشرح الصراع المستمر، وقادة سياسيين عالميين، وحرائق غابات، وصواريخ وغيرها الكثير. حصد المنشور أكثر من 700 ألف مشاهدة، مع وجود عدة تعليقات تشير إلى أن المحتوى قد تم إنشاؤه بواسطة الذكاء الاصطناعي.

أبلغ ستة مستخدمين عن محتوى الحالة تسع مرات في المجمل، لكن أنظمة Meta التلقائية لم تمنحه الأولوية للمراجعة البشرية. أرسلت أداة تصنيف المعلومات المضللة المنشور، في نفس يوم نشره، إلى قائمة انتظار الجهات الخارجية لتدقيق الحقائق، ولكن لم تتم مراجعته أو تقييمه قط. لم يكن هذا الأمر غريبًا، حيث تُميّز Meta حجمًا كبيرًا من المعلومات المضللة المحتملة لمراجعته تتجاوز قدرة جهات تدقيق الحقائق على المراجعة.

قدَّم أحد المستخدمين المبلِّغين طعنًا أمام المجلس ضد قرار Meta بترك المحتوى، وذلك بعد استنفاد إجراءات الطعن الداخلية بالشركة. أكدت Meta، بعد اختيار المجلس لهذه الحالة، أن المنشور لا ينتهك معيار المجتمع بشأن المعلومات المضللة لأنه لم "يسهم بشكل مباشر في خطر وقوع ضرر بدني وشيك." دافعت Meta أيضًا عن قرارها بعدم وضع تسمية على المحتوى. لم تتخذ الشركة أي إجراء ضد الصفحة أو الحسابات المسؤولة عن المحتوى.

وجَّه المجلس سلسلة من الأسئلة إلى Meta حول هوية الصفحة والحسابات التي تقف وراءها وسلوكها، نظرًا لوجود إشارات تضليل واضحة حول هذا المنشور. أدَّى ذلك إلى إجراء تحقيق كشف لشركة Meta أن مسؤولي الصفحة قد انتهكوا القواعد المتعلقة بإساءة استخدام التفاعل وعدم المصداقية. عطَّلت الشركة بعد ذلك ثلاثة حسابات بشكل نهائي، مما أدى إلى إزالة الصفحة ومحتوى الحالة من المنصة.

2. المعلومات المقدَّمة من المستخدمين

اشتكى المستخدم الذي طلب إزالة المحتوى، في المعلومات التي قدَّمها للمجلس، من أن Meta تسمح بوجود "أعمال إرهابية" على منصتها. لم تشر إفادة المستخدم بوضوح إلى إدراكه أن المحتوى تم إنشاؤه بواسطة الذكاء الاصطناعي أو أنه محتوى مضلل.

3. سياسات المحتوى والمعلومات المقدَّمة من Meta

1. سياسات المحتوى في Meta:

معيار المجتمع بشأن المعلومات المضللة

بموجب معيار المجتمع بشأن المعلومات المضللة، تُزيل Meta "المعلومات المضللة أو الشائعات التي لا يمكن التحقق من صحتها التي قرر الشركاء ذوو الخبرة أنها ستسهم على الأرجح في خطر تعرض الأشخاص لأعمال عنف أو ضرر بدني وشيك". تعمل Meta في البلدان التي "تشهد خطرًا متزايدًا لوقوع عنف مجتمعي" "بشكل استباقي مع الشركاء المحليين لفهم الادعاءات الزائفة التي قد تساهم بشكل مباشر في خطر حدوث ضرر بدني وشيك" لتحديد المحتوى الذي يتضمن تلك الادعاءات وإزالته.

توضح Meta، تحت العنوان الفرعي "الوسائط المتلاعب بها"، أنها قد تضيف تسمية معلوماتية إلى المنشور عندما يكون عبارة عن صورة أو فيديو واقعي للغاية، أو مقطع صوتي يبدو واقعيًا، وتم إنشاؤه أو فبركته رقميًا ويؤدي إلى "خطر كبير بشكل خاص في تضليل الجمهور بشكل جوهري بشأن مسألة ذات أهمية عامة"، وذلك بالنسبة للمحتوى الذي لا ينتهك معايير المجتمع بأي شكل آخر. تتطلب سياسة المعلومات المضللة أيضًا من المستخدمين الإفصاح عن "المحتوى العادي الذي يتضمن مقاطع فيديو واقعية للغاية أو مقاطع صوتية تبدو واقعية وتم إنشاؤها أو فبركتها رقميًا". قد يؤدي الفشل في استخدام أداة الإفصاح عن استخدام الذكاء الاصطناعي إلى فرض عقوبات.

تحظر Meta أيضًا، في جوانب أخرى، المحتوى والسلوكيات التي "تتداخل غالبًا مع انتشار المعلومات المضللة". يتضمن ذلك معايير المجتمع بشأن نزاهة الحساب، والممارسات الخادعة، والسلوك الزائف المنظم. تركز Meta، فيما يخص جميع أنواع المعلومات المضللة الأخرى التي لا تنتهك معيار المجتمع بشأن المعلومات المضللة، على "الحد من انتشارها أو تهيئة مناخ يعزز إجراء حوار مثمر". تعتمد Meta خارج الولايات المتحدة على جهات خارجية مستقلة لتدقيق الحقائق لمراجعة المحتوى وتقييمه، وهو ما قد يؤدي إلى وضع تسميات على المحتوى تتوافق مع التقييم. تشمل التقييمات وصف "زائف" و"مُفبرك"، وقد تؤدي إلى خفض توزيع المحتوى. تستخدم Meta التكنولوجيا لإظهار المعلومات المضللة المحتملة أمام جهات تدقيق الحقائق لمراجعتها، كما يمكن لجهات تدقيق الحقائق تحديد المحتوى الذي ترغب في مراجعته بمبادرة منها. أعلنت Meta في يناير 2025 عن إنهاء برنامج الجهات الخارجية لتدقيق الحقائق في الولايات المتحدة والتوجه نحو تطبيق نموذج ملاحظات المجتمع بدلاً منه.

تُحدد سياسات تحقيق الأرباح للشركاء في Meta قواعد الصفحات التي "تحقق أرباحًا على المنصات"، وتشير إلى أن المحتوى الذي يتم تمييزه كمعلومات مضللة أو "اصطياد نقرات" قد لا يكون مؤهلاً لتحقيق الأرباح. كما توضح سياسات تحقيق الأرباح من المحتوى قواعد "إنشاء محتوى متوافق مع قيم العلامة التجارية وقابل لتحقيق الأرباح"، وتقيد تحقيق الأرباح أو تخفضه في المحتوى الذي يصور أو يصف موضوعات معينة، مثل "الأحداث المأساوية والنزاعات، بما في ذلك الأضرار التي تلحق بالممتلكات". وفي سياق متصل، تمت إزالة الحسابين المرتبطين بالصفحة في هذه الحالة بسبب انتهاكات على مستوى الحساب تتعلق بإساءة استخدام التفاعل.

2. المعلومات المقدَّمة من Meta

صرَّحت Meta بأن المنشور لم ينتهك سياسة المعلومات المضللة التي تتطلب إزالة المحتوى "الذي قد يسهم بشكل مباشر في خطر وقوع ضرر بدني وشيك". استند قرار الشركة إلى عدم قيام أي خبير مستقل، مثل الشركاء المحليين، بتمييز المحتوى أو إبلاغها بوجود أي اتجاه متعلق بالمعلومات المضللة ذات الصلة.

لم تضع Meta أي تسمية على المحتوى بموجب قواعد الوسائط المتلاعب بها. تطبق Meta ثلاث تسميات مختلفة على الوسائط المتلاعب بها وهي: معلومات ذكاء اصطناعي، أو عالي الخطورة، أو ذكاء اصطناعي عالي الخطورة.

تُطبق تسمية "معلومات ذكاء اصطناعي" تلقائيًا على المحتوى عندما تكتشف Meta "مؤشرات صور الذكاء الاصطناعي القياسية في المجال أو عندما يفصح الأشخاص عن أنهم يحمّلون محتوى تم إنشاؤه بواسطة الذكاء الاصطناعي". وكما كشف المجلس في حالة مكالمة صوتية مزعومة لتزوير الانتخابات في إقليم كردستان العراق، لا تستطيع Meta حاليًا سوى تحديد الصور الثابتة تلقائيًا ووضع تسمية "معلومات ذكاء اصطناعي" عليها، وذلك بالاعتماد على البيانات التعريفية التي تضمنها العديد من أدوات الذكاء الاصطناعي التوليدي في هذا المحتوى. يتطلب المحتوى الصوتي أو مقاطع الفيديو إفصاحًا ذاتيًا من المستخدمين لتطبيق التسمية. لم يكن هناك إفصاح ذاتي في هذه الحالة. لم يكن من الممكن وضع تسمية تلقائيًا في هذه الظروف بموجب العمليات الحالية لدى Meta.

تُطبق تسمية "عالي الخطورة" على المحتوى الذي (أ) يؤدي إلى خطر كبير بشكل خاص يتمثل في خداع الجمهور بشكل ملموس بشأن مسألة ذات أهمية عامة؛ و(ب) تتوفر له مؤشرات موثوقة على أنه تم إنشاؤه أو فبركته رقميًا. تُعد تسمية "عالي الخطورة"، بخلاف تسمية "معلومات ذكاء اصطناعي"، سياسة قائمة على التصعيد فقط، مما يعني أن فرق السياسات الداخلية في Meta هي وحدها من يمكنها تطبيق التسمية بعد إجراء مراجعة بشرية. لم يتم إجراء مثل هذا التصعيد للمحتوى المعني قبل اختيار المجلس لهذه الحالة.

تُطبق تسمية "ذكاء اصطناعي عالي الخطورة" عندما يستوفي المحتوى جميع متطلبات تسمية "عالي الخطورة" مع توفر مؤشرات موثوقة على إنشائه أو فبركته باستخدام الذكاء الاصطناعي. وتُعد هذه التسمية أيضًا سياسة قائمة على التصعيد فقط، وتتطلب مراجعة بشرية. فحصت فرق السياسات الداخلية في Meta هذا المحتوى بعد أن اختاره المجلس فحسب. وقررت هذه الفرق أن وقتًا طويلاً قد مضى بحلول ذلك الوقت، مما جعل وضع تسمية غير ذي صلة أو غير عاجل.

تنظر Meta في المصادر الخارجية والداخلية المتاحة التي تراها موثوقة عند تحديد ما إذا كان المحتوى نتاجًا للذكاء الاصطناعي أو تم إنشاؤه أو فبركته رقميًا. قد تشمل المصادر الخارجية الأخبار أو منظمات تدقيق الحقائق الخارجية المستقلة القادرة على تقديم أساس فني لقرارها، مثل الإشارة إلى نموذج اكتشاف ذكاء اصطناعي أو استنتاج من خبير جنائي رقمي.

كما هو موضح في قرار لقطات احتجاج مصحوبة بهتافات مؤيدة لدوتيرتي، لا تؤدي تسميات الوسائط المتلاعب بها إلى أي خفض تلقائي لتصنيف المحتوى أو إزالته من التوصيات. وبدلاً من ذلك، قد تظهر نافذة منبثقة للمستخدمين الذين يعيدون مشاركة محتوى يحمل هذه التسميات، مما قد يؤدي إلى انخفاض الوصول إليه بشكل عادي. يعتمد نص الرسالة في النافذة المنبثقة على ما إذا كان المحتوى قد تم إنشاؤه باستخدام الذكاء الاصطناعي أم لا.

تمتلك Meta عدة أنظمة خارج الولايات المتحدة لتحديد المعلومات المضللة المحتملة ومعالجتها. تقوم بعض الأنظمة بإرسال المحتوى فقط إلى جهات خارجية لتدقيق الحقائق لمراجعته، بينما تقوم أنظمة أخرى بإرسال المحتوى للمراجعة وتطبيق خفض مؤقت للتصنيف أثناء انتظار النتيجة. يعتمد تحديد ما إذا كان المحتوى سيُرسل للمراجعة فقط أم سيتم خفض مدى وصوله على نوع النظام الذي رصده، بالإضافة إلى عوامل مثل البلد واللغة المعنية.

وفقًا لشركة Meta، كان بروتوكول سياسة الأزمات (CPP) مفعلًا وقت اندلاع النزاع بين إسرائيل وإيران. تم إدراج إسرائيل ضمن بروتوكول سياسة الأزمات منذ هجمات 7 أكتوبر 2023 التي وقعت في البلاد. وتم إدراج إيران في بداية نزاع يونيو 2025. يتيح تفعيل البروتوكول للشركة استخدام مجموعة من الآليات المصممة لتعزيز استجابتها للأزمات وتمكين فرقها من تقييم مخاطر وقوع ضرر وشيك وتخفيف حدتها. لم يؤدِ ذلك خلال هذه الأزمة إلى أي تغييرات في أنظمة الإشراف التلقائي، وتمت مراجعة محتوى الحالة باستخدام النماذج والحدود الحالية.

صنَّفت Meta نزاع إسرائيل وإيران على أنه "حدث رائج" لتقديم دعم أفضل للجهات الخارجية لتدقيق الحقائق في تحديد الادعاءات الزائفة واسعة الانتشار المرتبطة بالنزاع ودحضها، نظرًا لوجود خطر كبير لانتشار المعلومات المضللة. وبحلول الوقت الذي بدأ فيه سريان وقف إطلاق النار، كانت جهات تدقيق الحقائق قد نشرت عدة تقارير لتدقيق الحقائق متعلقة بالنزاع. تذكر Meta أن لديها جهات لتدقيق الحقائق في إسرائيل والفلبين (حيث يوجد المستخدم الذي نشر المحتوى) ولكن ليس لديها جهات في إيران.

بعد أن طلب المجلس من Meta التحقيق في سلوك هذه الصفحة والحسابات المرتبطة بها، عطَّلت الشركة حسابات ثلاثة مسؤولين مختلفين للصفحة.

تم تعطيل حساب أحد المسؤولين لانتهاكه سياسة تمثيل الهوية الحقيقية عبر "المشاركة في تزييف الهوية لتضليل الآخرين أو خداعهم، أو التهرب من الإنفاذ أو انتهاك معايير المجتمع الخاصة بنا". وتعطَّل الحساب الثاني بموجب سياسة نزاهة الحساب لكونه مملوكًا لنفس الشخص/الكيان الذي يملك حسابًا معطلاً. بينما تم تعطيل الحساب الثالث بموجب سياسة المحتوى غير المهم أو الاحتيالي بسبب إساءة استخدام التفاعل. تحظر سياسة المحتوى غير المهم أو الاحتيالي بشكل واسع الممارسات الخادعة أو المضللة أو المفرطة لزيادة التفاعل على المنشورات بشكل غير حقيقي. أدى ذلك إلى إزالة الصفحة والمحتوى المنشور عليها. كانت الصفحة، قبل إزالتها، مؤهلة لتحقيق الأرباح من خلال برنامج النجوم من Meta.

طرح المجلس أسئلة حول وضع التسميات، واكتشاف الذكاء الاصطناعي، وتدقيق الحقائق، وتطبيق بروتوكول سياسة الأزمات، وسلوكيات الصفحات والحسابات، وغير ذلك. وأجابت Meta على جميع الأسئلة.

4. التعليقات العامة

تلقى المجلس ستة تعليقات عامة استوفت شروط التقديم. تم تقديم أربعة تعليقات من أوروبا واثنين من الولايات المتحدة. للاطلاع على التعليقات العامة المقدَّمة التي وافق أصحابها على نشرها، انقر هنا.

غطت المعلومات المقدَّمة الموضوعات التالية: الإشراف على المحتوى أثناء النزاع والأزمات، وانتشار المحتوى الذي يُنشئه الذكاء الاصطناعي، وتصاعد السلوك الزائف المنظم في النزاعات المسلحة، والقيود المفروضة على تعريف Meta "للضرر البدني الوشيك"، وأهمية تدقيق الحقائق أثناء النزاع المسلح، ومعايير تطبيق تسميات الوسائط المتلاعب بها وتنفيذها، وأهمية معايير تحالف مصدر المحتوى ومصداقيته في الاكتشاف، وغير ذلك.

5. تحليل مجلس الإشراف

اختار المجلس هذه الحالة لفحص سياسات Meta وممارسات الإنفاذ المتعلقة بمشاركة محتوى مضلل تم إنشاؤه بواسطة الذكاء الاصطناعي على منصاتها، خاصةً في سياق النزاعات المسلحة. تقع هذه الحالة ضمن الأولويات الاستراتيجية للمجلس المتعلقة بحالات الأزمات والنزاعات والذكاء الاصطناعي والأتمتة.

أجرى المجلس تحليلًا لقرار Meta بشأن هذه الحالة في ضوء سياسات المحتوى التي تتبعها الشركة، وقيمها، ومسؤولياتها تجاه حقوق الإنسان. كما قيّم المجلس الآثار المترتبة على هذه الحالة فيما يتعلق بنهج Meta الأوسع في حوكمة المحتوى.

5.1 الامتثال لسياسات المحتوى لدى شركة Meta

قواعد المحتوى

وجد المجلس أن محتوى الحالة لم يتطلب الإزالة بموجب معيار المجتمع بشأن المعلومات المضللة، ولكن كان ينبغي لشركة Meta تطبيق تسمية "ذكاء اصطناعي عالي الخطورة" على المحتوى بموجب قواعدها الخاصة بالوسائط المتلاعب بها.

لم ينتهك المنشور سياسات المعلومات المضللة في Meta التي تتطلب الإزالة، حيث لم يكن من المرجَّح أن يسهم في عنف وشيك أو ضرر بدني للأشخاص. بالغ الفيديو بشكل مضلل في أثر الهجوم الإيراني على إسرائيل، ونُشر في وقت قريب من سقوط الصواريخ على حيفا. وبالرغم من أن ذلك قد زاد من معاناة الأشخاص الذين تعرضوا للتضليل، إلا أنه لم يكن من المرجَّح أن يسهم في ممارسة المدنيين الإسرائيليين للعنف ضد خصومهم المفترضين أو يؤثر بشكل مباشر على رد الحكومة الإسرائيلية. لا توجد أي مؤشرات على وقوع أعمال عنف بين المجتمعات داخل إسرائيل ردًا على التصوير المضلل للهجمات.

وبغض النظر عن هذا الاستنتاج، فمن المثير للقلق أن Meta لم تقدم أي تحليل للمخاطر المحتملة لوقوع ضرر ضمن تحليلها للمحتوى. وبدلاً من ذلك، خلُصت الشركة إلى أن المحتوى لم ينتهك قواعدها نظرًا لعدم قيام أي شريك موثوق بتمييزه. لا يُعد هذا الموقف مقبولاً في وقت يبلغ فيه العديد من الشركاء الموثوقين المجلس بأن الشركة أقل استجابة للتواصل والمخاوف، ويرجع ذلك جزئيًا إلى التخفيض الكبير في قدرات فرق Meta الداخلية. يجب أن تكون Meta قادرة على إجراء مثل هذه التقييمات للأضرار بنفسها، بدلاً من الاعتماد الكلي على تواصل الشركاء معها أثناء النزاعات المسلحة. كانت الصفحة تحظى بمتابعة واسعة، وكان المحتوى رائجًا بشكل كبير، كما رصدت أداة تصنيف المعلومات المضللة في Meta المحتوى وأبلغ عنه عدة مستخدمين. دحضت مصادر موثوقة مثل وكالة فرانس برس فيديو مشابهًا جدًا، مما يضع Meta أمام مسؤولية المراجعة الاستباقية للادعاءات المضللة التي قد تسبب ضررًا. كان ينبغي لتفعيل بروتوكول سياسة الأزمات أن يضمن توفر الموارد اللازمة لشركة Meta لإجراء هذه الأنواع من التقييمات بنفسها والتواصل الاستباقي مع الشركاء للحصول على سياق من أرض الواقع إذا لزم الأمر. كان من الواجب تصعيد المحتوى للمراجعة في ظل هذه الظروف.

ولو حدث ذلك، لتبين بوضوح أن المحتوى انطوى على خطر كبير بشكل خاص يتمثل في خداع الجمهور بشكل ملموس بشأن مسألة ذات أهمية عامة في وقت حرج، وكان سيتم تطبيق تسمية "ذكاء اصطناعي عالي الخطورة". صوَّر هذا المحتوى كلقطات حقيقية لنزاع مسلح مستمر تتعرض فيه حياة المدنيين للخطر، من خلال ادعاء الصفحة بأنها وسيلة إخبارية إلى جانب النص الظاهر على الفيديو الذي يزعم أنه "بث مباشر الآن" ومن حيفا. ولم يكن هذا المستخدم، الذي تزيّف صفحته هويتها بالفعل كمصدر إخباري موثوق، ليكشف عن خداعه عبر الإفصاح ذاتيًا عن استخدام الذكاء الاصطناعي. كان ينبغي لظهور طيور بيضاء غير واقعية تحلق في الفيديو، وتوصُّل مؤسسات خبيرة مثل وكالة فرانس برس إلى أن المحتوى تم إنشاؤه بواسطة الذكاء الاصطناعي، أن يدفع Meta لتقييم مدى الحاجة لوضع تسمية. كان على Meta أيضًا تصحيح خطئها بمجرد أن لفت المجلس انتباهها إليه. كشف بحث المجلس على المنصة عن تداول عدة نسخ من هذا الفيديو ولقطات شاشة ذات صلة عبر منصات Meta بعد أسابيع، ولم تضع الشركة تسمية على أي منها.

ولو تمت مراجعة هذا المنشور تحديدًا من قِبل جهات خارجية لتدقيق الحقائق، لكان من المرجَّح أن يتلقى تسمية "زائف" ويتم خفض تصنيفه (استنادًا إلى تقييم وكالة فرانس برس لفيديو مشابه جدًا). لعل نهج Meta المحدود في تعميم التقييمات على المحتوى المتطابق وشبه المتطابق قد تسبب في عدم تقييم هذا المحتوى أيضًا (على سبيل المثال بسبب إضافة نص متراكب على الفيديو). تجعل قيود الموارد والحجم الهائل للمحتوى من الصعب على جهات تدقيق الحقائق ضمان إجراء المراجعة في الوقت المناسب لكل المحتوى المضلل، خاصةً أثناء النزاعات أو الأزمات. يُجدد المجلس تأكيده على أنه يجب أن تضمن Meta تزويد جهات تدقيق الحقائق بالموارد الكافية وتزويدها بإرشادات حول كيفية منح الأولوية للمحتوى المتعلق بالصراعات، لأداء العمل الصعب الذي تعتمد Meta عليهم لتقديمه (راجع لقطات احتجاج مصحوبة بهتافات مؤيدة لدوتيرتي).

من المثير للقلق أنه خلال هذه الأزمة، ومع تفعيل بروتوكول سياسة الأزمات وتخصيص موارد إضافية، لم تكتشف Meta بمبادرة منها إشارات إساءة استخدام التفاعل الواضحة الصادرة عن الصفحة، ولم تحقق في الحسابات التي تقف وراءها إلا استجابةً لأسئلة المجلس. كان من الممكن للإنفاذ الدقيق لسياسات النزاهة والمصداقية القائمة على السلوك أن يمنع الأضرار الناجمة عن هذا المحتوى المضلل المدعوم بعدة حسابات مخالفة، بدلاً من الاعتماد على تدابير تخفيف لاحقة تعتمد على المحتوى وتكون عرضة لمعدلات فشل عالية.

5.2 الامتثال لمسؤوليات Meta تجاه حقوق الإنسان

خلُص المجلس إلى أنه، بموجب مسؤوليات Meta تجاه حقوق الإنسان، كان ينبغي وضع تسمية "ذكاء اصطناعي عالي الخطورة" للوسائط المفبركة على المحتوى، كما يجب على الشركة بذل المزيد من الجهود للتصدي لانتشار المحتوى المضلل الذي يُنشئه الذكاء الاصطناعي على منصاتها، بما في ذلك المحتوى الصادر عن شبكات حسابات وصفحات زائفة أو مسيئة.

حرية التعبير (المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية)

تنص المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية (ICCPR) على توفير حماية واسعة لحرية التعبير، بما في ذلك الخطاب السياسي. يشمل هذا الحق "حرية التماس المعلومات والأفكار بمختلف أنواعها وتلقيها وتداولها" (المادة 19، الفقرة 2). عندما تفرض الدولة قيودًا على حرية التعبير، يجب أن تفي تلك القيود بمتطلبات الشرعية والهدف المشروع والضرورة والتناسب (المادة 19، الفقرة 3، العهد الدولي الخاص بالحقوق المدنية والسياسية). وتتم الإشارة إلى هذه المتطلبات غالبًا باسم "الاختبار الثلاثي". يستخدم المجلس إطار العمل هذا لتفسير مسؤوليات Meta في مجال حقوق الإنسان بما يتماشى مع مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان، والتي التزمت بها Meta نفسها في سياسة حقوق الإنسان الخاصة بالشركة. ويطبق المجلس ذلك على قراراته بشأن المحتوى الفردي الخاضع للمراجعة، وما تكشفه هذه القرارات عن نهج Meta الأوسع في حوكمة المحتوى. كما ذكر مقرر الأمم المتحدة الخاص المعني بحرية التعبير، على الرغم من أن "الشركات لا تتحمل التزامات الحكومات، إلا أن تأثيرها من النوع الذي يتطلب منها تقييم نفس النوع من الأسئلة حول حماية حق مستخدميها في حرية التعبير" (A/74/486، الفقرة 41).

علاوةً على ذلك، أوضح فريق الأمم المتحدة العامل المعني بالأعمال التجارية وحقوق الإنسان أنه "بما أن خطر الانتهاكات الجسيمة لحقوق الإنسان يتضاعف في المناطق المتأثرة بالنزاع،" ينبغي أن تصل المؤسسات التجارية بما تبذله من عناية واجبة إلى ما يستدعيه ذلك من "مستوى فائق" (A/75/212، الفقرة. 13). في تقرير صدر عام 2024 بشأن النزاع بين إسرائيل وغزة، كشف مقرر الأمم المتحدة الخاص المعني بحرية الرأي والتعبير عن إخفاق المنصات المستمر في الوفاء بهذه المسؤولية أثناء النزاعات، وأشار إلى زيادة المخاطر الناجمة عن المعلومات المضللة والكاذبة في مثل هذه الحالات (A/79/319، الفقرتان 60 و66). أثناء النزاع بين إسرائيل وإيران، أثرت حالات انقطاع الإنترنت تأثيرًا بالغًا في قدرة المدنيين على الوصول إلى المعلومات، مما أدى إلى حدوث فراغ سرعان ما ملأته الوسائط المضللة التي تم إنشاؤها بواسطة الذكاء الاصطناعي (راجع: الشاهد PC-31545).

تملك Meta مجموعة راسخة من الأدوات التي تمكنها من الحد من الأضرار المحتملة للمحتوى المضلل الذي يُنشئه الذكاء الاصطناعي على منصاتها. وتؤكد هذه الحالة ضرورة تنفيذ عمليات الاكتشاف ووضع التسميات بمزيد من الاتساق والتكرار والفعّالية؛ لتجنب الأضرار الوشيكة المحتملة للمستخدمين، ولا سيما في حالات النزاع التي تنطوي على مخاطر أكبر بكثير. ويتطلب ذلك دعمًا من خلال توفير موارد كافية لجهات تدقيق الحقائق المستقلة ووضع إرشادات لتحديد أولوية المحتوى المتعلق بالنزاعات، فضلاً عن الاستثمار في الإنفاذ الدقيق ضد إساءات السلوك على مستوى الحساب والصفحة.

1. الشرعية (الوضوح وإمكانية الوصول إلى القواعد)

يتطلب مبدأ الشرعية أن تكون القواعد التي تقيِّد حرية التعبير واضحة ويسهُل الوصول إليها، وأن تُصاغ بدقة كافية لتمكين الفرد من ضبط سلوكه تبعًا لها (التعليق العام رقم 34، الفقرة 25). علاوةً على ذلك، فإن هذه القواعد "لا يجوز أن تمنح الأشخاص المسؤولين عن تنفيذها سلطة تقديرية مطلقة في تقييد حرية التعبير"، ويجب أن "تنص على توجيهات وافية للمكلفين بتنفيذها لتمكينهم من التحقق على النحو المناسب من أنواع التعبير التي تخضع للتقييد وتلك التي لا تخضع للتقييد،" (المرجع نفسه). ذَكر مقرر الأمم المتحدة الخاص المعني بحرية التعبير أنه عند تطبيقها على قيام الجهات الفاعلة الخاصة بحوكمة الخطاب على الإنترنت، يجب أن تكون القواعد واضحة ومحددة (A/HRC/38/35، الفقرة 46). ينبغي أن يتمكن مستخدمو منصات Meta من الوصول إلى القواعد وفهمها، كما ينبغي تزويد مراجعي المحتوى بإرشادات واضحة بشأن إنفاذها.

يجب أن يمنح معيار المجتمع بشأن المعلومات المضللة مزيدًا من الوضوح للمستخدمين والقائمين على إنفاذ القواعد.

لا يوضح التفسير العام لتعاون Meta مع جهات خارجية لتحديد التوجهات المضللة أن الإنفاذ يعتمد كليًا على إبلاغ الشركاء عن مخاوفهم لشركة Meta. وثمة حاجة إلى اتباع نهج مختلف بدلاً من توضيح ذلك، وذلك للأسباب الموضحة أدناه.

إن الوصف التفصيلي العلني الوحيد لتسميات الوسائط المتلاعب بها الثلاثة التي تستخدمها Meta موجود في قرارات المجلس. يجدد المجلس توصيته لشركة Meta بضرورة الوصف الكامل لتسميات الوسائط المتلاعب بها الثلاثة التي تطبقها، ومعايير تطبيقها والنتائج المترتبة عليها (لقطات احتجاج مصحوبة بهتافات مؤيدة لدوتيرتي)، مع الإشارة إلى ضرورة تطوير هذا النهج أيضًا.

وعلاوةً على ذلك، لا تصف سياسة الوسائط المتلاعب بها علنًا العقوبات التي "قد تُطبق" في حال إخفاق المستخدم في الإفصاح الذاتي عن استخدامه للذكاء الاصطناعي. وقد أوضحت Meta للمجلس أن هذه العقوبات لا تُطبق إلا عند التصعيد رداً على حالات الإخفاق المتكررة، وقد تؤثر في توزيع المحتوى أو تؤدي مؤقتًا إلى تعليق ميزات معينة في الحساب. يبدو أن Meta تمارس سلطة تقديرية واسعة في هذا المجال، لذا ينبغي توفير معلومات أكثر ووضوحًا للمستخدمين.

قد يؤدي عرض مزيد من المعلومات حول مصدر المحتوى ووضع التسميات والإفصاح الذاتي في معيار المجتمع بشأن المعلومات المضللة إلى حدوث ارتباك؛ نتيجة الخلط بين الجهود الرامية للحد من التضليل والتدابير الإيجابية لتعزيز نزاهة المعلومات. ولن تستجيب جميع حالات استخدام المحتوى الذي يُنشئه الذكاء الاصطناعي، ولا جميع تطبيقات وضع التسميات، لمحاولات التضليل. ومن شأن تحديد هذه القواعد في معيار مجتمع منفصل المساعدة على توضيح نهج Meta وتحسين سلوك المستخدمين.

2. الهدف المشروع

يجب أن يسعى أي تقييد لحرية التعبير أيضًا إلى تحقيق هدف واحد أو أكثر من الأهداف المشروعة الواردة في العهد الدولي الخاص بالحقوق المدنية والسياسية، والتي تشمل حماية سلامة الآخرين وحقوقهم.

وفي حالة فيديو مفبرك للرئيس بايدن، أكد المجلس أن "منع تضليل الأشخاص لا يعد، في حد ذاته، سببًا مشروعًا لتقييد حرية التعبير." ومع ذلك، يهدف معيار المجتمع بشأن المعلومات المضللة أيضًا إلى التخفيف من مخاطر التعرض لضرر بدني أو عنف وشيك، وهو هدف مشروع فيما يتعلق بحقوق الآخرين ( التعليق العام 34، الفقرة. 28).

3. الضرورة والتناسب

بموجب المادة 19(3) من العهد الدولي الخاص بالحقوق المدنية والسياسية، فإن الضرورة والتناسب يتطلبان أن تكون القيود المفروضة على حرية التعبير "مناسبة لتحقيق وظيفة الحماية المنوطة بها، ويجب أن تكون أقل الوسائل تدخلاً مقارنة بغيرها من الوسائل التي يمكن أن تحقق النتيجة المنشودة، ويجب أن تكون متناسبة مع المصلحة التي ستحميها" (التعليق العام رقم 34، الفقرة 34).

صرح مقرر الأمم المتحدة الخاص المعني بحرية التعبير أنه "أثناء النزاعات المسلحة، يكون الناس في أشد حالاتهم ضعفًا وفي أمس الحاجة إلى معلومات دقيقة وجديرة بالثقة لضمان سلامتهم ورفاههم. ومع ذلك، ففي هذه الحالات تحديدًا يكون حقهم في حرية الرأي والتعبير... مقيدًا بشدة بظروف الحرب والإجراءات التي تتخذها أطراف النزاع وغيرها من الجهات الفاعلة للتلاعب بالمعلومات والحد من الوصول إليها لأهداف سياسية وعسكرية استراتيجية" (A/77/288، الفقرة 1).

كما شدد المقرر الخاص على أن "الشركات تملك أدوات للتعامل مع المحتوى بطرق تتوافق مع حقوق الإنسان، وهي تملك في بعض الجوانب مجموعة أوسع من الأدوات مقارنة بتلك التي تتمتع بها الدول. وتسمح لها هذه المجموعة من الخيارات بمواءمة استجاباتها لمحتوى إشكالي محدد، وفقًا لمدى خطورته وعوامل أخرى" (A/74/486، الفقرة. 51).

وعند تقييم مدى ضرورة الإجراءات المحتملة وتناسبها، نظر المجلس في الأمور التالية: (أ) تزييف الصفحة لهويتها كجهة إخبارية موثوقة؛ (ب) ارتباط المحتوى ارتباطًا مباشرًا بنزاع مسلح مستمر؛ (ج) ضعف المدنيين الذين يسعون للحصول على معلومات موثقة في خضم ذلك النزاع؛ (د) الانتشار السريع الموثق للمحتوى المضلل الذي يُنشئه الذكاء الاصطناعي خلال هذا النزاع (راجع PC-31528 معهد Alan Turing )؛ (هـ) توزيع محتوى مماثل أو شبه متطابق عبر المنصات؛ (و) حوافز التفاعل وتحقيق الأرباح من إنتاج وسائط متلاعب بها أثناء النزاعات.

ويرى المجلس أن وضع تسمية وسائط متلاعب بها تحمل عبارة "ذكاء اصطناعي عالي الخطورة" على المحتوى سيلبي متطلبات الضرورة والتناسب، ويعرب المجلس عن قلقه إزاء إخفاق Meta في القيام بذلك. وسيكون هذا الإجراء أقل تدخلاً بكثير من الإزالة، نظرًا لأنه من غير المرجَّح أن يؤدي التضليل إلى ضرر وشيك. وفي الوقت الحالي، سيكون وضع التسميات هذا معلوماتيًا ولن يؤدي إلى خفض التصنيف أو الإزالة من التوصيات. وستعرض Meta رسالة منبثقة للمستخدمين الذين يحاولون إعادة مشاركة محتوى يحمل هذه التسمية. ومن شأن التسمية المساعدة على تقليل تأثير هذا التضليل في المستخدمين الذين يبحثون عن معلومات دقيقة عبر الإنترنت حول النزاع.

وتؤكد حالات سابقة للمجلس أن انتشار الوسائط المتلاعب بها دون تسمية قد يؤدي إلى زعزعة الثقة في مصداقية المحتوى على المنصة على نطاق أوسع. وينطبق هذا بصفة خاصة أثناء النزاعات المسلحة، حيث قد يؤدي تصوير الوسائط المتلاعب بها لانتهاكات القانون الدولي الإنساني إلى تقليل الثقة في هذه الأطر القانونية والحماية التي توفرها للمدنيين. وللوفاء بمسؤولياتها المتعلقة بحقوق الإنسان، كان ينبغي لشركة Meta تصعيد مراجعة المحتوى دون الاعتماد على جهات خارجية، لوضع تسمية على المحتوى دون تأخير.

إن الآليات الحالية لوضع حتى التسمية العادية "معلومات ذكاء اصطناعي" على الفيديو (سواء عبر إفصاح المستخدم ذاتيًا أو التصعيد إلى فريق سياسة المحتوى) ليست راسخة ولا شاملة بما يكفي لمواجهة نطاق وسرعة انتشار المحتوى الذي يُنشئه الذكاء الاصطناعي، خاصةً أثناء الأزمات أو الصراعات التي تشهد تفاعلاً متزايدًا على المنصة. ويشير المجلس إلى أن وجود نظام يعتمد مبالغةً على الإفصاح الذاتي عن استخدام الذكاء الاصطناعي والمراجعة المصعدة (التي تحدث بشكل غير متكرر) لتسمية هذا المحتوى بشكل صحيح لا يمكنه مواجهة التحديات التي تفرضها البيئة الحالية.

وأشار بعض الأعضاء إلى أن تعريف Meta "للضرر البدني أو العنف الوشيك" لا يشمل الطرق المختلفة التي يمكن أن يؤدي بها المحتوى المضلل الذي يُنشئه الذكاء الاصطناعي إلى آثار مجتمعية أقل مباشرة ولكنها لا تزال خطيرة أثناء النزاع المسلح. فعلى سبيل المثال، قد يؤدي ذلك إلى تقويض الوصول إلى المعلومات الموثوقة اللازمة لمحاسبة الجهات الحكومية والأطراف الأخرى، مما يزيد من عرضة السكان للتلاعب، ويسمح بأشكال أخرى من التأثير المضلل. وبالنسبة لهؤلاء الأعضاء، فإن وضع التسميات على "الوسائط المتلاعب بها" الذي لا يقترن بخفض التصنيف أو الإزالة من التوصيات غير كافٍ لمعالجة تلك المخاوف. ومن شأن الحد من وصول هذا المحتوى أثناء اللحظات عالية الخطورة مثل النزاعات المسلحة أن يكون تدخلاً ضروريًا ومتناسبًا. ويقر المجلس بأن الحصول على تقييم زائف من جهات خارجية لتدقيق الحقائق بشأن هذا المحتوى كان سيؤدي أيضًا إلى هذه النتيجة.

وعلى مستوى الصناعة بأكملها، ثمة تحديات تقنية كبيرة لضمان وضع التسميات الدقيق والمتسق للمحتوى الذي يُنشئه الذكاء الاصطناعي. وقد أوضحت Meta للمجلس أنها تستخدم المؤشرات القياسية في المجال – وهي بيانات التعريف التي تدرجها أدوات الذكاء الاصطناعي التوليدي غالبًا في المحتوى – لوضع تسمية للصور الثابتة تلقائيًا. ومع ذلك، لا ترفق جميع أدوات الذكاء الاصطناعي التوليدي حاليًا بيانات التعريف اللازمة لتطبيق التسمية. وحتى إذا قامت الأداة بإرفاق بيانات التعريف، يمكن للمستخدمين إزالتها بسهولة من المحتوى قبل مشاركته على وسائل التواصل الاجتماعي. وقد تعكس آليات Meta المحدودة هذه التحديات الحالية؛ ومع ذلك، تقع على عاتق الشركة مسؤولية الاستجابة الاستباقية للتكنولوجيا التي تتطور بسرعة. وتعد هذه مشكلة تتجاوز المحتوى المضلل، حيث إن هذه القيود تحجب قدرة المستخدمين على التحقق من مصداقية جميع المعلومات. وستتفاقم هذه العقبات مع استمرار تفوق نطاق وجودة مقاطع الفيديو والمقاطع الصوتية التي يُنشئها الذكاء الاصطناعي على أدوات الاكتشاف ووضع التسميات المتاحة. ويشجع المجلس Meta بشدة على منح الأولوية لتحسين آليات الاكتشاف ووضع التسميات الخاصة بها لاستيعاب جميع أشكال المحتوى الذي يُنشئه الذكاء الاصطناعي على منصاتها بشكل أفضل، وإبلاغ المستخدمين على النحو المناسب عندما يتفاعلون مع وسائط متلاعب بها، وضمان التركيز على أنواع المحتوى التي تنطوي على أعلى المخاطر.

ويقر المجلس بوجود Meta في اللجنة التوجيهية لتحالف مصدر المحتوى ومصداقيته. ويذكر تحالف مصدر المحتوى ومصداقيته أنه مع التحول السريع في مشاركة المعلومات، يصبح من الضروري تتبع مصدر الوسائط. وهو يوفر معيارًا تقنيًا مفتوحًا لتحديد مصدر المحتوى الرقمي والتعديلات التي أجريت عليه. وتثير التقارير التي تفيد بأن Meta لا تنفذ معايير تحالف مصدر المحتوى ومصداقيته باتساق – حتى في المحتوى الذي يُنشئه الذكاء الاصطناعي من أدواتها الخاصة – القلق. وأظهرت دراسة حديثة أنه عند فحص الصور ومقاطع الفيديو التي تنتجها أدوات الذكاء الاصطناعي من Meta باستخدام أدوات تحالف مصدر المحتوى ومصداقيته، لم يوفر سوى جزء منها بيانات اعتماد المحتوى وحصل على تسمية مناسبة.

ويبدو أن محتوى الحالة قد نشأ أولاً خارج منصة Meta على TikTok، قبل إعادة مشاركته بسرعة عبر المنصات، مع ظهور منشورات مماثلة على فيسبوك وInstagram وX، على الرغم من تقرير وكالة فرانس برس (AFP) حول زيف محتوى مماثل. وأكدت التعليقات العامة الحاجة إلى تعاون قوي عبر المنصات أثناء فترات النزاع المسلح لتقليل سرعة انتشار المحتوى المضلل الذي يُنشئه الذكاء الاصطناعي والتخفيف منها.

وكما هو موضح أعلاه، كان ينبغي لتصنيفات بروتوكول سياسة الأزمات والأحداث الرائجة أن تسمح لشركة Meta بضمان تقديم دعم أكثر فعّالية لجهات تدقيق الحقائق المستقلة أثناء هذه الأزمة. وبوجه خاص، كان من الممكن أن يؤدي تعميم التقييمات على فئة أوسع من مقاطع الفيديو المتشابهة للغاية إلى الحد من الأضرار المحتملة بشكل كبير، بما في ذلك عن طريق خفض تصنيفها. وتسلط الحالة الضوء على أوجه القصور في نهج Meta الحالي أثناء النزاعات المسلحة، مما يفاقم المخاوف التي أعرب عنها المجلس في حالات سابقة في سياقات مختلفة (قرار لقطات احتجاج مصحوبة بهتافات مؤيدة لدوتيرتي).

6. قرار مجلس الإشراف

ألغى المجلس قرار Meta بالإبقاء على المحتوى دون وضع تسمية "ذكاء اصطناعي عالي الخطورة".

7. التوصيات

أ. سياسة المحتوى

المعلومات المضللة

  1. لضمان المراجعة السريعة للمعلومات المضللة التي تؤدي إلى مخاطر حدوث ضرر بدني أو عنف وشيك في الأزمات، ينبغي لشركة Meta تعديل معيار المجتمع بشأن المعلومات المضللة لضمان عدم اعتماد إنفاذ هذه القاعدة على إشارات من شركاء خارجيين. ينبغي وجود وسيلة بموجب بروتوكول سياسة الأزمات لتخصيص الموارد للاكتشاف الاستباقي وفي الوقت المناسب عن هذا المحتوى المخالف، بدعم من خبرات داخلية، لتحديد المحتوى ومراجعته واتخاذ إجراءات بشأنه بموجب السياسة (بما في ذلك وضع التسميات بموجب سياسة الوسائط المتلاعب بها والتحقيق في الحسابات والصفحات التي تنشر وتظهر إشارات على إساءة استخدام التفاعل).

سيعتبر المجلس هذه التوصية منفذة عندما تقوم Meta بتحديث سياستها بشأن المعلومات المضللة لتعكس هذه المتطلبات لفئة الضرر البدني أو العنف.

المحتوى الذي يُنشئه الذكاء الاصطناعي

2. للمساعدة على تعزيز الثقة في المعلومات على منصات Meta، ينبغي لشركة Meta إنشاء معيار مجتمع للمحتوى الذي يُنشئه الذكاء الاصطناعي، بشكل منفصل عن معيار المجتمع بشأن المعلومات المضللة. وينبغي أن يوفر معيار المجتمع الجديد تفاصيل شاملة حول الحفاظ على مصدر المحتوى (أي تسجيل الحقائق التفصيلية حول تاريخ جزء من المحتوى الرقمي)، وبروتوكولات وضع التسميات للذكاء الاصطناعي وقواعد الإفصاح الذاتي.

سيعتبر المجلس هذه التوصية منفذة عندما تنشر Meta معيار مجتمع جديدًا مخصصًا للمحتوى الذي يُنشئه الذكاء الاصطناعي.

3. لتحسين ووضوح قواعدها، ينبغي لشركة Meta نشر شرح واضح للعقوبات المترتبة على الإخفاق في الإفصاح الذاتي عن المحتوى الذي تم إنشاؤه أو فبركته رقميًا. وينبغي لها تقديم معايير للعقوبات وإدراج ميزات الحساب التي يتم تقييدها استنادًا إلى ذلك ومدة التقييد.

سيعتبر المجلس هذه التوصية منفذة عندما تقوم Meta بتحديث معيار المجتمع ليشمل تفاصيل العقوبات هذه وتوفر الإرشادات المنقحة في مركز الشفافية العام الخاص بها.

ب. الإنفاذ

أصل المحتوى

4. لضمان قدرة المستخدمين على تحديد المحتوى الذي يُنشئه الذكاء الاصطناعي بشكل موثوق، ينبغي لشركة Meta تنفيذ بيانات اعتماد المحتوى (كما حددها تحالف مصدر المحتوى ومصداقيته) على نطاق واسع، وضمان ظهورها بوضوح واتساق وإمكانية وصول المستخدمين إليها في حال توفر تفاصيل مصدر المحتوى. ولا يجوز أن يظل مصدر المحتوى قابلاً للاكتشاف داخليًا فقط أو مقتصرًا على الأنظمة الخلفية.

سيعتبر المجلس هذه التوصية منفذة عندما تقدم Meta تقريرًا يشرح التغييرات التي أجرتها على واجهاتها ومنتجاتها لضمان عرض بيانات اعتماد المحتوى للمستخدمين بشكل متسق وواضح عند توفرها.

الاكتشاف ووضع التسميات

5. لتحسين دقة الاكتشاف ووضع التسميات، ينبغي لشركة Meta الاستثمار في أدوات اكتشاف أقوى للمحتوى الذي يُنشئه الذكاء الاصطناعي متعدد التنسيقات (الصوت، والوسائط السمعية والبصرية، والصور). وينبغي أن تدعم الأدوات فرق التصعيد لتحديد توجهات محتوى الذكاء الاصطناعي التوليدي بشكل أفضل، بما في ذلك الأضرار المحتملة المتعلقة بالمحتوى المضلل في حالات الأزمات.

سيعتبر المجلس هذه التوصية منفذة عندما تؤكد الشركة اعتماد أدوات أقوى وتشارك بيانات الشفافية حول أداء هذه الأدوات. ويجب تقسيم هذه النتائج حسب اللغة والبلد، وما إذا كان قد تم تفعيل بروتوكول سياسة الأزمات. ويجب أن تعكس هذه البيانات فترات زمنية قابلة للمقارنة قبل إدخال هذه التغييرات وبعدها.

6. لضمان وضع تسميات أكثر دقة، ينبغي لشركة Meta إرفاق معلومات مصدر المحتوى وعلامات مائية غير مرئية بالمحتوى الذي تم إنشاؤه بواسطة أدوات الذكاء الاصطناعي من Meta، بحيث يمكن اكتشافه ووضع تسميات له باستمرار عبر المنصات. وينبغي أن يشمل ذلك تطبيق بيانات اعتماد المحتوى عند نقطة الإنشاء إلى جانب استخدام المؤشرات القياسية في المجال للإسناد لجميع المحتويات التي يتم إنشاؤها بواسطة الذكاء الاصطناعي من Meta.

سيعتبر المجلس هذه التوصية منفذة عندما تشارك الشركة مع المجلس تقريرًا حول مدى اتساق إرفاق الذكاء الاصطناعي من Meta لبيانات مصدر المحتوى والعلامات المائية غير المرئية والاحتفاظ بها في المحتوى الذي تمت مشاركته على المنصة.

7. لجعل استخدام تسميات "عالي الخطورة" و"ذكاء اصطناعي عالي الخطورة" على المحتوى المضلل أكثر اتساقًا، ينبغي لشركة Meta تطوير مسارات لوضع تلك التسميات في المحتوى بمعدل تكرار أكبر بكثير، مدعومة بقنوات تصعيد أوضح من الأنظمة الآلية والمراجعة واسعة النطاق، بحيث يمكن تطبيق هذه التسميات بنطاق بشكل ملحوظ.

سيعتبر المجلس هذه التوصية منفذة عند توفر مسارات جديدة للتصعيد تهدف إلى وضع تسميات "عالي الخطورة" و"ذكاء اصطناعي عالي الخطورة" على المحتوى، وتقديم Meta تقارير إلى المجلس حول نطاق هذه التسميات في عام 2026، ربع سنويًا. ولا يجوز أن يشكل غياب المقام (أي الحجم الإجمالي للمحتوى الذي لا يحمل تسمية الذي لا يستوفي هذا الحد) عائقًا أمام تقديم هذه المعلومات للمجلس.

*ملاحظة إجرائية:

  • تُتخذ قرارات مجلس الإشراف من قِبل لجان مكونة من خمسة أعضاء، وتتم الموافقة عليها بأغلبية أصوات المجلس بالكامل. ولا تُعبر قرارات المجلس بالضرورة عن وجهات نظر جميع الأعضاء.
  • بموجب اتفاقيته، يجوز لمجلس الإشراف مراجعة الطعون المقدمة من المستخدمين الذين أزالت Meta محتواهم، والطعون المقدمة من المستخدمين الذين أبلغوا عن محتوى أبقت عليه Meta، والقرارات التي تحيلها Meta إليه (المادة 2، القسم 1 من الاتفاقية). وللمجلس سلطة مُلزمة تخوله تأييد أو إلغاء القرارات التي تتخذها Meta بشأن المحتوى المادة 3، القسم 5؛ المادة 4 من الاتفاقية). ويحق للمجلس إصدار توصيات غير ملزِمة تكون شركة Meta مُلزَمَة بالرد عليها (المادة 3، القسم 4 من الاتفاقية؛ المادة 4). وعندما تلتزم Meta بالعمل استنادًا إلى التوصيات، يراقب المجلس تنفيذها.
  • بالنسبة إلى القرار المتخذ بشأن هذه الحالة، أُجري بحث مستقل نيابةً عن المجلس. وساعدت شركة Duco Advisors المجلس، وهي شركة استشارات تركز على نقطة التقاء الجغرافيا السياسية والثقة والأمان والتكنولوجيا.

العودة إلى قرارات الحالة والآراء الاستشارية المتعلقة بالسياسة