أيد

لقطات احتجاج مقترنة بهتافات مؤيدة لدوتيرتي

أيد مجلس الإشراف قرار Meta بالإبقاء على منشور على فيسبوك تضمن مشاركة فيديو تم التلاعب به أثناء أزمة سياسية في الفلبين، ولكنه يشير إلى أنه كان ينبغي تطبيق تسمية "عالي الخطورة" على المحتوى نظرًا للاحتمال الكبير بأن يخدع المستخدمين بشأن مسألة ذات أهمية عامة.

المناطق/البلدان

موقع
الفلبين

منصة

منصة
Facebook

لقراءة هذا القرار باللغة التاغالوغية، انقر هنا

Para basahin ang desisyong ito sa wikang Tagalog, i-click ito

لقراءة هذا القرار بلغة البيسايا، انقر هنا

Aron mabasa kini nga desisyon sa Bisaya, pag-click dinhi

الملخص

أيد مجلس الإشراف قرار Meta بالإبقاء على منشور على فيسبوك تضمن مشاركة فيديو تم التلاعب به أثناء أزمة سياسية في الفلبين، ولكنه يشير إلى أنه كان ينبغي تطبيق تسمية "عالي الخطورة" على المحتوى نظرًا للاحتمال الكبير بأن يخدع المستخدمين بشأن مسألة ذات أهمية عامة. ويوصي المجلس Meta بأن تشرح علنًا التسميات التي تستخدمها للوسائط التي تم التلاعب بها وكيفية تطبيقها. وكان ينبغي منح الفيديو الأولوية لتدقيق الحقائق، حيث وجد المجلس أنه شبه مطابق لمحتوى آخر خضع لتدقيق الحقائق. بالإضافة إلى ذلك، ينبغي لشركة Meta تزويد جهات تدقيق الحقائق بأدوات أفضل للتعامل مع المحتوى المضلل.

حول الحالة

في مارس 2025، سُلِّم الرئيس الفلبيني السابق رودريغو دوتيرتي إلى المحكمة الجنائية الدولية في هولندا لمواجهة تهم بارتكاب جرائم مزعومة ضد الإنسانية خلال فترة ولايته من 2016 إلى 2022. وبعد أيام قليلة من الاعتقال، أعاد أحد مستخدمي فيسبوك مشاركة فيديو تم التلاعب به كان قد نشره مستخدم آخر. تضمن الفيديو المُعاد مشاركته لقطات من احتجاج في صربيا لا علاقة له باعتقال دوتيرتي، مع إضافة شروح توضيحية ومقطع صوتي لإظهاره وكأنه مظاهرة مؤيدة لدوتيرتي في هولندا.

تضمن الفيديو تراكبًا نصيًا بكلمة "هولندا". وفي المقطع الصوتي المُضاف، يردد أشخاص هتاف دوتيرتي بشكل متكرر، بينما يتم تشغيل أغنية "بيان كو" (Bayan Ko) باللغة التاغالوغية. وكانت أغنية "بيان كو" شائعة خلال الاحتجاجات المناهضة للأحكام العرفية في الفلبين في ثمانينيات القرن العشرين.

وقد ميزت أنظمة Meta التلقائية المنشور الأصلي، الذي تمت مشاركته مئات المرات وحقق حوالي 100 ألف مشاهدة، باعتباره معلومات مضللة محتملة. وأدرجت Meta المحتوى في قائمة انتظار على الإنترنت مخصصة لتدقيق الحقائق. وبشكل منفصل، خفضت Meta مؤقتًا مستوى ظهور المنشور في مواجز فيسبوك للمستخدمين من خارج الولايات المتحدة. انتشرت مقاطع فيديو مختلفة مماثلة انتشارًا واسعًا، وقيّم شركاء تدقيق الحقائق الذين تتعامل معهم Meta في الفلبين العديد منها على أنها "زائفة". ومع ذلك، ونظرًا للعدد الكبير من المنشورات في قائمة الانتظار، لم تتمكن جهات تدقيق الحقائق من مراجعة هذا المنشور تحديدًا. وأبلغ مستخدم آخر على فيسبوك عن المنشور المُعاد مشاركته لنشره معلومات مضللة. أبقت Meta على المنشور، مما دفع المستخدم لتقديم طعن. ونظر مراجع بشري في الطعن وأيد القرار الأولي. في أعقاب ذلك، تقدَّم المستخدم بطعن إلى مجلس الإشراف.

أهم النتائج

يتفق المجلس مع Meta على أنه كان ينبغي الإبقاء على المنشور لأنه لم يتضمن أنواع المحتوى المحظورة بموجب سياسة Meta بشأن المعلومات المضللة، مثل مناقشة مواقع التصويت أو عمليات التصويت أو أهلية المرشحين. ومع ذلك، يشير المجلس إلى أنه بالإضافة إلى إحالة المحتوى لتدقيق الحقائق وخفض مستوى ظهور المنشور مؤقتًا في مواجز المستخدمين، كان ينبغي على Meta إضافة تسمية "عالي الخطورة" إلى المحتوى؛ نظرًا لاحتوائه على فيديو واقعي تمت فبركته رقميًا وينطوي على خطر كبير لخداع الجمهور أثناء حدث عام مهم.

ونظرًا لأهمية توفير الشفافية بشأن تسمية الوسائط التي تم التلاعب بها، يوصي المجلس بأن تصف Meta التسميات المختلفة التي تستخدمها ومعايير تطبيقها. وفي الوقت الحالي، تتوفر المعلومات الأكثر تفصيلاً حول قيام Meta بإضافة تسميات للوسائط التي تم التلاعب بها في قرارات المجلس.

كان ينبغي على Meta اتخاذ المزيد من الخطوات لضمان خضوع المنشور لتدقيق الحقائق. وعلى الرغم من أن Meta تمنح الأولوية للمحتوى المماثل لتدقيق الحقائق أثناء الانتخابات، فإن عملية اعتقال رئيس دولة سابق التي تحظى باهتمام كبير، والأزمات السياسية الأخرى التي تتسم بأنها "مواكبة للأحداث الجارية ورائجة ومهمة"، ينبغي معاملتها كأحداث حرجة تستوجب إجراءات تدقيق مشددة. بالإضافة إلى ذلك، وبعد إجراء المراجعة، يرى المجلس أن محتوى الحالة كان يجب اعتباره أيضًا شبه مطابق لمحتوى سبق تدقيق حقائقه وتسميته على هذا النحو، مع إدراكه للتحديات التي تواجهها Meta في اتخاذ هذا القرار على نطاق واسع.

ويشير المجلس إلى أن الفيديو الذي تم التلاعب به قد يكون جزءًا من حملات منسقة لنشر المعلومات المضللة، حيث يتم نشر محتوى مشابه، ولكنه غير مطابق، ومشاركته مع إجراء تعديلات طفيفة للتحايل على تدقيق الحقائق. وهذا يحتم على Meta امتلاك عمليات قوية للتعامل مع المنشورات المضللة واسعة الانتشار، بما في ذلك منح الأولوية لمراجعة المحتوى المطابق أو شبه المطابق، وتطبيق كافة سياساتها ذات الصلة والأدوات المرتبطة بها. كما ينبغي تزويد جهات تدقيق الحقائق بأدوات أفضل لتحديد المحتوى واسع الانتشار الذي يُرجح أنه يكرر ادعاءات مضللة بسرعة.

قرار مجلس الإشراف

يؤيد المجلس قرار Meta بالإبقاء على المحتوى.

كما يوصي المجلس Meta بما يلي:

  • وصف التسميات التوضيحية المختلفة التي تستخدمها الشركة للوسائط التي تم التلاعب بها، وحالات تطبيقها.
  • إنشاء قائمة انتظار منفصلة داخل واجهة تدقيق الحقائق تتضمن المحتوى المشابه، ولكن غير المطابق أو شبه المطابق، لمحتوى خضع بالفعل لتدقيق الحقائق في سوق معين.

* توفر ملخصات الحالات نظرة عامة على الحالات ولا تُشكّل سابقة قانونية.

القرار الكامل بشأن الحالة

  1. وصف الحالة ومعلومات أساسية عنها

بعد اعتقال الرئيس الفلبيني السابق "رودريغو دوتيرتي" في مارس 2025 لمواجهة تهم أمام المحكمة الجنائية الدولية (ICC) في هولندا، أعاد أحد مستخدمي فيسبوك مشاركة فيديو خاص بمستخدم آخر. يُظهر الفيديو الأصلي حشودًا متجمعة في أحد الشوارع وهم يحملون لافتات إلى جانب العلم الصربي. يتضمن الفيديو تراكبًا نصيًا بكلمة "هولندا"، مع تشغيل أغنية وطنية باللغة التاغالوغية، "بيان كو"، في الخلفية. كما يمكن سماع صوت لأشخاص يهتفون "دوتيرتي!" بشكل متكرر. وكانت أغنية "بيان كو" شائعة أثناء الاحتجاجات المناهضة للأحكام العرفية في ثمانينيات القرن العشرين ضد الديكتاتور الراحل والرئيس السابق، فرديناند ماركوس الأب. وكان المنشور الأصلي يتضمن الشرح التوضيحي التالي باللغة الإنجليزية: "المؤيدون في هولندا." أما منشور فيسبوك المُعاد مشاركته، وهو موضوع هذه الحالة، فيتضمن ثلاثة رموز تعبيرية لوجه متوسل كشرح توضيحي. وهكذا، يبدو أن المنشور يصور احتجاجًا في صربيا لا علاقة له باعتقال دوتيرتي، مع دمج شروح توضيحية ومقطع صوتي لإظهاره وكأنه مظاهرة مؤيدة له في هولندا.

تمت مشاركة منشور فيسبوك الأصلي مئات المرات وحقق حوالي 100 ألف مشاهدة منذ نشره. وعند نشره، ميزت إحدى أدوات التصنيف في Meta المحتوى باعتباره معلومات مضللة محتملة. ثم أدرجت الشركة المحتوى في قائمة الانتظار على الإنترنت المقدمة لشركائها من جهات تدقيق الحقائق الخارجية. انتشرت نسخ مماثلة من هذا الفيديو انتشارًا واسعًا على فيسبوك في مارس 2025؛ وخضع العديد منها لتدقيق الحقائق وقيّمته جهات تدقيق الحقائق التي تتعامل معها Meta على أنه "زائف". ونظرًا للعدد الهائل لهذه المنشورات وانتشارها السريع على المنصة، لا تستطيع جهات تدقيق الحقائق تقييم جميع المنشورات الموجودة في قائمة الانتظار، والتي قد تتضمن منشورات مشابهة لمحتوى سبق أن دققته. ووفقًا لشركة Meta، لم تقيّم جهات تدقيق الحقائق المنشور الأصلي، ولم تُطبق في هذه الحالة التقييم "زائف" الذي سبق تطبيقه على منشورات مماثلة. وعلى الرغم من عدم تقييمه، خفضت Meta مؤقتًا مستوى ظهور محتوى الحالة في موجز فيسبوك للمستخدمين من خارج الولايات المتحدة، بما في ذلك المستخدمون في الفلبين، استنادًا إلى إشارات تتنبأ باحتوائه على معلومات مضللة.

وبعد أيام، أبلغ أحد المستخدمين عن المنشور المُعاد مشاركته، ولكن وفقًا لشركة Meta، لم تُمنح الأولوية للبلاغ من أجل المراجعة البشرية. ولم تتخذ Meta أي إجراء بشأن البلاغ وأغلقته. وبعد تلقي إشعار بأن Meta أبقت المحتوى على المنصة، تقدم المستخدم الذي أرسل البلاغ بطعن على قرار Meta. وأيد مراجع بشري القرار الأولي بالإبقاء على المحتوى، مما دفع المستخدم الذي أرسل البلاغ بالطعن على القرار لدى مجلس الإشراف. وعندما اختار المجلس هذه الحالة، أضافت Meta المنشور مرة أخرى إلى قائمة انتظار تدقيق الحقائق، ولكن لم يتم تقييمه.

أخذ المجلس في حسبانه السياق التالي عندما توصل إلى قراره.

خلال فترة ولايته كرئيس للفلبين من 2016 إلى 2022، قاد رودريغو دوتيرتي حملة ضد المخدرات غير القانونية، اتسمت بالاستخدام المفرط للقوة وعمليات القتل خارج نطاق القانون. وقد بدأت المحكمة الجنائية الدولية (ICC) فحصًا أوليًا في المسألة، أعقبه تحقيق كامل. وفي 11 مارس 2025، نُقل دوتيرتي إلى هولندا لمواجهة تهم بارتكاب جرائم ضد الإنسانية أمام المحكمة الجنائية الدولية.

فاز الرئيس الحالي فرديناند ماركوس الابن، نجل الديكتاتور الراحل، بالانتخابات الوطنية لعام 2022، بينما فازت سارة دوتيرتي، ابنة رودريغو دوتيرتي، بمنصب نائب الرئيس. وبعد فترة وجيزة من الفوز في الانتخابات، انهار التحالف السياسي بينهما. وفي عامي 2024 و2025، تصاعدت حدة الصراع السياسي. وفي مطلع هذا العام، قُدمت شكاوى لعزل نائبة الرئيس سارة دوتيرتي. وفي فبراير، صوّت مجلس النواب الفلبيني لصالح عزل سارة دوتيرتي، وهو الأمر الذي لم يتم المضي فيه في النهاية. واعتبر البعض اعتقال دوتيرتي في مارس نتيجة للصراع السياسي بين الطرفين. وقد زعمت نائبة الرئيس سارة دوتيرتي أن الاعتقال يرقى إلى حد "الاختطاف"، في حين اعتبر نشطاء حقوق الإنسان وأسر ضحايا حرب المخدرات الذين قُتلوا أن الاعتقال يمثل انتصارًا لمبدأ المساءلة.

وبعد فترة وجيزة من اعتقال دوتيرتي، اندلعت احتجاجات مؤيدة له في الفلبين وهولندا. كما احتشد النشطاء وأقارب ضحايا حرب المخدرات، مطالبين بالمساءلة. وخلال تلك الفترة، انتشرت على وسائل التواصل الاجتماعي مقاطع فيديو متعددة تتضمن لقطات لمسيرة في صربيا تم تقديمها على أنها احتجاج مؤيد لدوتيرتي في هولندا، على غرار المحتوى قيد التحليل.

وقيّمت ثلاث منظمات لتدقيق الحقائق تعمل معها Meta في الفلبين بعض مقاطع الفيديو هذه على أنها "زائفة" استنادًا إلى إشارات تفيد بأن لقطات الاحتجاج تُصور احتجاجًا في صربيا، وليس في هولندا، وأنه لا علاقة له باعتقال الرئيس السابق دوتيرتي. كما نشرت جهات تدقيق الحقائق هذه تقييمات "زائف" الخاصة بها على مواقعها الإلكترونية. ووفقًا لوكالة الأنباء الفرنسية (AFP)، كانت مقاطع الفيديو هذه "تسيء استخدام عناصر مرئية لا صلة لها بالأمر لتضخيم أحجام الحشود" (PC-31360). وأظهر فيديو مشابه آخر، حصد أكثر من ثلاثة ملايين مشاهدة على وسائل التواصل الاجتماعي، موكبًا كاثوليكيًا تم تقديمه بصورة مضللة على أنه مسيرة مؤيدة لدوتيرتي.

وبحلول وقت تقديمها تعليقًا عامًا بشأن هذه الحالة، كانت وكالة الأنباء الفرنسية (AFP) قد دققت حقائق "أكثر من 30 ادعاءً زائفًا أو مضللًا" يتعلق باعتقال دوتيرتي (PC-31360). وأشارت Rappler، وهي جهة أخرى لتدقيق الحقائق تتعاون مع Meta في الفلبين، إلى أن "نسخًا متعددة من هذا الفيديو الذي تم التلاعب به تحديدًا" قد انتشرت انتشارًا واسعًا على فيسبوك كجزء من "عودة نشاط عمليات المعلومات"، وكانت جزءًا من "حملة زائفة ومنظمة" تهدف إلى "التلاعب بالرأي العام والسلوك لصالحه" (PC-31349). وذكر الخبراء الذين استشارهم المجلس أنه منذ عام 2016، تحملت جهات تدقيق الحقائق ومجموعات المجتمع المدني العبء الأكبر في مكافحة المعلومات المضللة.

وعلى نطاق أوسع، يُعد استخدام وسائل التواصل الاجتماعي في الفلبين من بين الأعلى معدلاً في العالم، حيث تُعتبر فيسبوك المنصة الأكثر استخدامًا. وتؤدي وسائل التواصل الاجتماعي دورًا مهمًا في تشكيل الخطاب العام المحيط بالأحداث الجارية. فعلى سبيل المثال، في الانتخابات الوطنية لعام 2016، عمل الخبراء الاستراتيجيون في مجال الإعلان والعلاقات العامة بصفتهم "مهندسي المعلومات المضللة الشبكية" لإدارة الحملات السياسية، حيث استعانوا بمؤثرين ومأجورين عبر الإنترنت لنشر روايات سياسية محددة. وفي الانتخابات الوطنية لعام 2022، انتشر التحريف التاريخي حول إرث عائلة ماركوس على وسائل التواصل الاجتماعي، وهو ما يعتقد البعض أنه ساهم في فوز ماركوس الابن بالرئاسة. وأوضح الخبراء الذين استشارهم المجلس أن "المؤثرين على وسائل التواصل الاجتماعي، ومدوني الفيديو، والعاملين في المجال الرقمي من شركات الإعلان والعلاقات العامة قد أدوا أدوارًا مهمة في إنتاج ونشر المعلومات المضللة على منصات التواصل الاجتماعي". ومع اشتداد التنافس بين الرئيس ماركوس ونائبة الرئيس سارة دوتيرتي وظهور روايات سياسية متنافسة عبر الإنترنت، ازداد قلق الفلبينيين بشأن المعلومات المضللة، حيث كشفت دراسة أن نسبة قياسية بلغت "67‏%" من الأشخاص قد ازداد قلقهم بشأن المعلومات المضللة بحلول منتصف عام 2025. وفي وقت سابق من هذا العام، بدأ الكونجرس الفلبيني تحقيقًا لمعالجة المعلومات المضللة على وسائل التواصل الاجتماعي، ودعا المؤثرين ومدوني الفيديو وممثلي شركات التواصل الاجتماعي للإدلاء بشهاداتهم.

وقد شهدت الفلبين تحديات خطيرة لحرية التعبير، سواء في ظل حكومة دوتيرتي السابقة أو حكومة ماركوس الحالية. تعرض الصحفيون ووسائل الإعلام التي اعتُبرت منتقدة لدوتيرتي للهجوم أو الإغلاق من قِبل الحكومة خلال فترة رئاسته، كما تم استهدافهم من قِبل المأجورين عبر الإنترنت. وأصبح مصطلح "الوصم الأحمر"، أو وصم المجموعات أو الأفراد بأنهم "مؤيدون أو مُجندون أو أعضاء في جيش الشعب الجديد أو الحزب الشيوعي الفلبيني"، ممارسة شائعة، غالبًا ما تستهدف الصحفيين والمدافعين عن حقوق الإنسان. وتستمر التهديدات ضد وسائل الإعلام في عهد الرئيس ماركوس الابن. وفي يونيو 2025، دعا مقرر الأمم المتحدة الخاص المعني بحرية التعبير الحكومة الفلبينية إلى التصدي لترهيب ومضايقة الصحفيين والمدافعين عن حقوق الإنسان في البلاد. وقد أدت هذه التحديات، إلى جانب تزايد حملات المعلومات المضللة على وسائل التواصل الاجتماعي، إلى تآكل ثقة الجمهور في المؤسسات الإعلامية في الفلبين.

2. المعلومات المقدَّمة من المستخدمين

وفقًا للمستخدم الذي أرسل البلاغ، يزعم محتوى الحالة أنه يُظهر مسيرة لدعم دوتيرتي عقب احتجازه من قِبل المحكمة الجنائية الدولية، ولكنها في الواقع لم تحدث. وذكر المستخدم أن المحتوى يعود لحدث مختلف، ولذلك فهو "مضلل". كما ذكر أن المحتوى "تم التحقق منه بالفعل" بواسطة إحدى جهات تدقيق الحقائق التي تتعامل معها Meta في الفلبين.

3. سياسات المحتوى والمعلومات المقدَّمة من Meta

1. سياسات المحتوى لدى Meta

معيار المجتمع بشأن المعلومات المضللة

المحتوى الخاضع للإزالة

بموجب معيار المجتمع بشأن المعلومات المضللة، تزيل Meta المعلومات المضللة عندما يكون من المرجح أن تسهم بشكل مباشر في مخاطر حدوث ضرر بدني وشيك أو في "التدخل في سير العمليات السياسية [التدخل في التصويت أو الإحصاء السكاني]". ويتم تحديد المعلومات المضللة التي تنطوي على تدخل في التصويت والخاضعة للإزالة من خلال قائمة بالمعلومات المضللة المحظورة حول تواريخ التصويت أو أماكنه، وأهلية الناخبين أو المرشحين.

المحتوى المؤهل لتدقيق الحقائق بواسطة جهات خارجية

وبالنسبة إلى الأنواع الأخرى من المعلومات المضللة السياسية، تذكر Meta أنها لا تركز على الإزالة بل على "تقليل معدلات انتشارها أو على تهيئة مناخ يعزز الحوار المثمر." وفي الولايات المتحدة، أوقفت Meta برنامج تدقيق الحقائق التابع لجهات خارجية، وأصبحت تعالج المحتوى المضلل من خلال ملاحظات المجتمع. أما خارج الولايات المتحدة، فلا يزال تدقيق الحقائق متاحًا. ولهذا الغرض، تعقد Meta شراكات مع منظمات خارجية لتدقيق الحقائق معتمدة من خلال الشبكة الدولية لتدقيق الحقائق وهي جهة محايدة (أو شبكة معايير تدقيق الحقائق الأوروبية) لمراجعة دقة المحتوى الأكثر انتشارًا على منصات Meta وتقييمه.

ويمكن لجهات تدقيق الحقائق مراجعة دقة منشورات فيسبوك وInstagram وThreads العامة وتقييمها، بما في ذلك الإعلانات والمقالات والصور ومقاطع الفيديو ومقاطع ريلز والمقاطع الصوتية والمنشورات النصية فقط. وتشمل خيارات التقييم: زائف، ومُفبرك، وزائف جزئيًا، والسياق غير متوفر، وسخرية، وصحيح.

وتقرر جهات تدقيق الحقائق المحتوى الذي تراجعه، وتكمل تدقيق الحقائق بشكل مستقل عن Meta. وقد تُحدد المحتوى بمبادرة منها أو تختار من قائمة انتظار تضم إحالات من Meta لمعلومات مضللة محتملة. وتحيل Meta المحتوى استنادًا إلى إشارات مختلفة، بما في ذلك "كيفية استجابة الأشخاص"، أو ما إذا كان المستخدمون يميزون منشورًا ما على أنه "معلومات زائفة"، أو عندما "تُعبر" التعليقات على منشور ما "عن عدم التصديق" فيما يتعلق بمصداقيته.

وتمنح جهات تدقيق الحقائق الأولوية للمعلومات الزائفة واسعة الانتشار والادعاءات الزائفة القابلة للتحقق التي تكون "مواكبة للأحداث الجارية ورائجة ومهمة" في البلد واللغة ذات الصلة. يتضمن المحتوى غير المؤهل لتدقيق الحقائق "المحتوى الذي لا يتضمن ادعاءً قابلاً للتحقق"، و"الآراء والخطابات الصادرة عن السياسيين"، و"الوسائط التي تم إنشاؤها أو تعديلها رقميًا وتحتوي على إحدى تسميات شفافية الذكاء الاصطناعي أو العلامات المائية الخاصة بشركة Meta استنادًا إلى مصداقيتها". ومع ذلك، عندما تحتوي الوسائط التي تم التلاعب بها على ادعاء زائف منفصل عن استخدام وسائط تم إنشاؤها أو تعديلها رقميًا، فقد لا تزال جهات تدقيق الحقائق تقيّم المنشور. قد يتم خفض تصنيف المحتوى الذي تم تدقيق حقيقته وتقييمه على أنه "زائف" أو "مُفبرك" أو "زائف جزئيًا"، وعدم التوصية به ورفضه في الإعلانات.

المحتوى المؤهل لتسمية الوسائط التي تم التلاعب بها

بموجب قواعد الوسائط التي تم التلاعب بها ضمن سياسة المعلومات المضللة، قد يتلقى المحتوى المضلل الذي تم "إنشاؤه أو تعديله رقميًا" ولكنه "لا ينتهك معايير المجتمع الأخرى بشكل أو بآخر" تسمية توضيحية "بشكل ظاهر على المحتوى" أو يتم رفضه إذا تم تقديمه كإعلان. وينطبق هذا على "صورة أو مقطع فيديو واقعي، أو مقطع صوتي يبدو واقعيًا، تم إنشاؤه أو تعديله رقميًا ويشكّل خطرًا كبيرًا بشكل خاص يتمثل في خداع الجمهور بشكل ملموس بشأن مسألة ذات أهمية عامة". ولا تدرج Meta في السياسة معايير إضافية للحالات التي "يجوز" لها فيها تطبيق هذه التسمية.

تتطلب Meta من الأشخاص الإفصاح، من خلال "أداة الإفصاح عن الذكاء الاصطناعي" الخاصة بها، عندما ينشر المستخدمون "محتوى عاديًا يتضمن فيديو واقعيًا أو صوتًا يبدو واقعيًا تم إنشاؤه أو تعديله رقميًا". وتذكر Meta أنها قد تطبق عقوبات إذا فشل المستخدمون في القيام بذلك.

تطبق Meta ثلاث تسميات توضيحية مختلفة للوسائط التي تم التلاعب بها: تسمية "عالي الخطورة"، وتسمية "معلومات ذكاء اصطناعي"، وتسمية "ذكاء اصطناعي عالي الخطورة". وفي حالة مكالمة صوتية مزعومة لتزوير الانتخابات في إقليم كردستان العراق، أبلغت Meta المجلس أنه لتطبيق تسمية "عالي الخطورة"، يجب (1) أن يشكّل المحتوى خطرًا كبيرًا بشكل خاص يتمثل في خداع الجمهور بشكل ملموس بشأن مسألة ذات أهمية عامة؛ و(2) أن تكون هناك مؤشرات موثوقة على أن المحتوى تم إنشاؤه أو تعديله رقميًا. وتُشبه تسمية "ذكاء اصطناعي عالي الخطورة" تسمية "عالي الخطورة"، ولكنها تخص المحتوى الذي توجد مؤشرات موثوقة على أنه تم إنشاؤه أو تعديله باستخدام الذكاء الاصطناعي. وتُخصص تسمية "معلومات ذكاء اصطناعي" للصور، وليس الفيديو أو الصوت، التي تم إنشاؤها باستخدام الذكاء الاصطناعي والتي تكتشفها Meta من خلال "مؤشرات صور الذكاء الاصطناعي المتوافقة مع معايير الصناعة أو عندما يفصح الأشخاص عن أنهم يحمّلون محتوى تم إنشاؤه بواسطة الذكاء الاصطناعي".

لا يؤدي تطبيق تسمية "عالي الخطورة" إلى خفض تصنيف المحتوى أو إزالته من التوصيات. وبدلاً من ذلك، عندما يحاول المستخدمون إعادة مشاركة منشور يحمل تسمية "عالي الخطورة" على فيسبوك أو Instagram أو Threads، يتلقون إشعارًا منبثقًا ينبههم إلى أن المحتوى قد يكون تم إنشاؤه أو تعديله رقميًا.

سياسات خفض التصنيف

تصف إرشادات توزيع المحتوى لدى Meta أنواع المحتوى التي قد يتم خفض تصنيفها لكونها "إشكالية" أو "منخفضة الجودة". وتستند Meta في خفض تصنيف هذه الأنواع من المحتوى إلى "التزامها بقيم الاستجابة للملاحظات المباشرة الواردة من الأشخاص، وتشجيع الناشرين على الاستثمار في المحتوى عالي الجودة، وبناء مجتمع أكثر أمانًا". ووفقًا لشركة Meta، يمكّن هذا الأشخاص من مشاركة المحتوى "دون أن يعطلهم محتوى إشكالي أو منخفض الجودة".

ومن بين أنواع المحتوى التي تذكر Meta أنها تخفض تصنيفها، المعلومات المضللة التي خضعت لتدقيق الحقائق، وكذلك المحتوى الذي تم تقييمه على أنه "يُرجح أنه ينتهك" معايير مجتمع Meta. عندما يُنشر محتوى على فيسبوك، يتم تقييمه بواسطة مجموعة من أدوات التصنيف لتحديد ما إذا كان ينتهك أحد معايير المجتمع الخاصة بالمنصة. وتبلغ أدوات التصنيف هذه عن درجة من "الثقة" في احتمالية الانتهاك والتي تستخدمها الشركة كإشارة لاتخاذ إجراءات معينة. وعندما تكون درجة الثقة تلك عالية لمحتوى معين، ولكنها ليست عالية بما يكفي لتفعيل الإزالة الفورية، قد تخفض Meta تصنيف المحتوى. وإذا تبين أن المحتوى ينتهك أيًا من السياسات المشمولة، تتم إزالته. وقد تعدّل الشركة حد الثقة الذي تتطلبه أدوات التصنيف الفردية لاتخاذ إجراءات معينة، كما يحدث في أوقات الأزمات.

2. المعلومات المقدَّمة من Meta

تذكر Meta أنه لا يمكن لجهات تدقيق الحقائق مراجعة جميع المعلومات المضللة المحتملة، لذلك توجه الشركة جهات تدقيق الحقائق لمنح الأولوية "للموضوعات واسعة الانتشار وذات الصلة التي تنطوي على احتمال التسبب في ضرر أو أن تنتشر بسرعة".

وأخبرت Meta المجلس أنها تعتمد على طريقتين لمنح الأولوية للمحتوى لتدقيق الحقائق خلال الأوقات الحرجة. أولاً، يمكن لشركة Meta تمييز محتوى معين مدرج في قائمة الانتظار على أنه عاجل. ثانيًا، خلال الأحداث العالمية ذات الأولوية العالية مثل بعض الأزمات أو الانتخابات التي تصنفها Meta على أنها "أحداث رائجة"، تقوم Meta بفلترة المحتوى المرتبط وتضعه في قائمة انتظار لتدقيق الحقائق. يستخدم هذا الفلتر قائمة بالكلمات الأساسية ذات الصلة التي يحددها متخصصو عمليات السوق المحلية ذوو الخبرة اللغوية والسياقية باستخدام إرشادات محددة. يتلقى المحتوى الذي يتم تحديده من خلال هذه العملية تسمية مرتبطة بالموضوع باسم الحدث المعني، ويتم تضمينه في عرض فلتر "الأحداث الرائجة" المخصص والمحدد زمنيًا داخل أداة تدقيق الحقائق. وللتأهل كحدث رائج، يجب أن تكون القضية مهمة (مثل أزمة على أرض الواقع، أو نقاش مدني، أو خطر حدوث ضرر على أرض الواقع) وأن تعتبر عالية الخطورة على صعيد انتشار المعلومات المضللة. وتحتفظ جهات تدقيق الحقائق بحرية التصرف فيما يتعلق باختيار محتوى عاجل أو رائج للمراجعة.

وبالإضافة إلى اختيار المحتوى من قائمة انتظار Meta، يمكن لجهات تدقيق الحقائق تحديد المحتوى للمراجعة بشكل مستقل على منصات Meta. وأخبرت Meta المجلس أن جهات تدقيق الحقائق يمكنها الوصول إلى مكتبة محتوى Meta، وهي أداة تستند إلى الويب تتيح لأولئك الذين لديهم صلاحية الوصول إجراء عمليات بحث منهجية عن بعض المحتوى المتاح للعامة على منصات Meta. ويمكن لجهات تدقيق الحقائق اختيار المحتوى الذي يتم اكتشافه في مكتبة محتوى Meta لتدقيق الحقائق. وذكرت Meta أنها "تدعو بشكل استباقي" جهات تدقيق الحقائق لاستخدام هذه الأداة.

لم تتعامل Meta مع اعتقال المحكمة الجنائية الدولية للرئيس السابق كحدث رائج، ولم تصنّف المحتوى على أنه عاجل لتدقيق الحقائق. وأخبرت الشركة المجلس أنها لم تتلق معلومات حول اتجاهات المعلومات المضللة التي تؤدي إلى عنف وشيك أو ضرر بدني فيما يتعلق بانتخابات التجديد النصفي الفلبينية في مايو 2025. ومع ذلك، شاركت الشركة أيضًا أن شركاءها في تدقيق الحقائق كشفوا عن "ادعاءات بانتشار معلومات مضللة، مثل الادعاءات الزائفة المتعلقة باعتقال الرئيس السابق رودريغو دوتيرتي من قبل المحكمة الجنائية الدولية وعزل ابنته [نائبة الرئيس] سارة دوتيرتي".

وأوضحت Meta أنه بمجرد أن تقيّم جهة تدقيق الحقائق جزءًا من المحتوى، فإنها تخبر Meta بمكان المعلومات الزائفة في المحتوى (سواء في الشرح التوضيحي، أو في الصوت أو الفيديو فقط أو جزء منه، أو عند النظر في كل من الوسائط والشرح التوضيحي معًا). ثم تستخدم Meta تكنولوجيا المطابقة لتطبيق هذا التقييم فقط على المحتوى المطابق أو شبه المطابق لهذا الجانب المحدد (أي الوسائط نفسها، أو الوسائط نفسها المقترنة بالشرح التوضيحي نفسه). فإذا قيّمت جهة تدقيق الحقائق الفيديو فقط في المنشور، فستطبق Meta التقييم على أي منشور يحتوي على الفيديو نفسه أو فيديو مماثل تقريبًا. ومع ذلك، إذا قيّمت جهة تدقيق الحقائق كلاً من الفيديو والشرح التوضيحي معًا، فسيتم تطبيق التقييم فقط على المنشورات التي تحتوي على الفيديو والشرح التوضيحي نفسهما أو فيديو وشرح توضيحي مماثلين تقريبًا.

تُعرف Meta المحتوى "المطابق" بهدف وصف المحتوى الذي يشارك "نفس السمات تمامًا" كالوسائط التي تم تقييمها بواسطة جهات تدقيق الحقائق. أما المحتوى "شبه المطابق" و"المماثل تمامًا تقريبًا" فيحتوي على "اختلافات طفيفة في التنسيق أو النص المتراكب، ولكنه ينقل نفس الادعاء الذي تم كشف زيفه". لا تطبق Meta التسميات تلقائيًا على نطاق واسع إذا لم يستوفِ المحتوى معايير المحتوى المطابق أو شبه المطابق. وذلك لأن الشركة تجد أن الاختلافات الصغيرة في كيفية صياغة الادعاء يمكن أن تؤثر على ما إذا كان صحيحًا أم زائفًا. وبالنسبة إلى شركة Meta، يساعد هذا النهج "على منع التطبيق غير الصحيح لتقييمات تدقيق الحقائق".

وفي الحالة الراهنة، وجدت Meta أن محتوى الحالة لم يستوف حد التطابق أو شبه التطابق لتطبيق تسمية التقييم نفسها التي طبقتها جهات تدقيق الحقائق التي تتعامل معها Meta على مقاطع فيديو مماثلة تصور الاحتجاج في صربيا على أنه احتجاج مؤيد لدوتيرتي في هولندا. فعلى سبيل المثال، كان لبعض مقاطع الفيديو التي قيّمتها جهات تدقيق الحقائق صوت مختلف، حيث تضمن هذا المنشور أغنية "بيان كو" في الخلفية، أو كانت الشروح التوضيحية مختلفة.

تنتهي صلاحية المحتوى المحال إلى جهات تدقيق الحقائق للمراجعة من قائمة انتظار الإحالة بعد سبعة أيام إذا لم تختر جهات تدقيق الحقائق المحتوى للمراجعة. وأوضحت Meta أن هذا الإطار الزمني يعكس الاتجاه المتمثل في أن "معظم المشاهدات تحدث خلال الأيام القليلة الأولى من دورة حياة المحتوى". ولا يزال بإمكان جهات تدقيق الحقائق اختيار محتوى للمراجعة خارج قائمة انتظار إحالة Meta، وتقييم المحتوى "بغض النظر عن مدة وجوده على المنصة. على سبيل المثال، بينما تركز جهات تدقيق الحقائق عمومًا على الموضوعات المواكبة للأحداث، قد يعود المحتوى القديم للظهور في ضوء قضايا جديدة".

وفيما يتعلق بقواعد الوسائط التي تم التلاعب بها في سياستها بشأن المعلومات المضللة، لم تطبق Meta أيًا من تسمياتها، بما في ذلك تسمية "عالي الخطورة"، على محتوى الحالة. وأخبرت Meta المجلس أن هذا يرجع إلى عدم تصعيده داخليًا. وعندما تم تحليله عقب اختيار المجلس للحالة، كان المحتوى "قد مر عليه بالفعل أكثر من شهرين". وبالنظر إلى "عمر المحتوى وعدم انتشاره على نطاق واسع"، قررت Meta عدم تطبيق تسمية الوسائط التي تم التلاعب بها في تلك المرحلة أيضًا. وأكدت Meta أن تسمية "عالي الخطورة" هي سياسة تعتمد على التصعيد فقط. ويتم استخدامها باعتدال "للتعامل مع المحتوى الذي تم إنشاؤه رقميًا والذي يشكل خطرًا حادًا بشكل خاص لتضليل الجمهور بشأن قضية مهمة في وقت حرج". ووفقًا لشركة Meta، يشمل ذلك "الحالات التي يتم فيها نشر المحتوى في وقت قريب من حدث حرج، مثل الانتخابات، ولا يوجد وقت كافٍ للمنظومة المعلوماتية أو لجهات تدقيق الحقائق للتعامل مع المحتوى المعني". ولأن المحتوى نُشر قبل شهرين من انتخابات التجديد النصفي في الفلبين في مايو 2025، كان هذا بالنسبة إلى Meta وقتًا كافيًا "للمنظومة المعلوماتية أو الخطاب المضاد لتصحيح أي معلومات مضللة في المنشور (وهنا، خضعت نسخ مماثلة من الفيديو لتدقيق الحقائق)". ويبدو أن Meta لم تعتبر اعتقال دوتيرتي أو الاحتجاجات اللاحقة "أحداثًا حرجة" في حد ذاتها.

وكان إجراء الإنفاذ الوحيد الذي اتخذته Meta بشأن هذا المحتوى هو خفض مستوى ظهور المنشور مؤقتًا في موجز فيسبوك للمستخدمين من خارج الولايات المتحدة، بما في ذلك في الفلبين، استنادًا إلى إشارات تتنبأ بأن المنشور يحتوي على معلومات مضللة.

وطرح المجلس أسئلة حول كيفية عمل تدقيق الحقائق، وكيفية تخصيص Meta للموارد لجهات تدقيق الحقائق، وكيفية مقارنة مقاطع الفيديو المماثلة حول اعتقال دوتيرتي بالفيديو المعاد مشاركته، وما إذا كانت Meta قد نظرت في قواعد الوسائط التي تم التلاعب بها في سياستها للمعلومات المضللة عند الإشراف على محتوى الحالة. وقد أجابت Meta عن كل هذه الأسئلة.

4. التعليقات العامة

تلقى مجلس الإشراف ستة تعليقات عامة استوفت شروط إرسال التعليقات. تم تقديم خمسة تعليقات من منطقة آسيا والمحيط الهادئ والأوقيانوس وتعليق واحد من أوروبا. وللاطلاع على التعليقات العامة المقدَّمة التي وافق أصحابها على نشرها، انقر هنا .

وقد تناولت التعليقات المقدمة الموضوعات التالية: القيود التي تواجهها جهات تدقيق الحقائق، والخبرة المحلية لجهات تدقيق الحقائق، وعدم كفاية نهج Meta الحالي في التعامل مع حملات المعلومات المضللة المنسقة، والحسابات المسؤولة عن مشاركة المعلومات المضللة في الفلبين.

وفي يوليو 2025، وكجزء من المشاركة المستمرة لأصحاب المصلحة، تشاور المجلس مع ممثلين عن منظمات تدقيق الحقائق وأكاديميين وخبراء آخرين في المعلومات المضللة. وناقشت الطاولة المستديرة كيفية عمل تدقيق الحقائق في الممارسة العملية، وتدقيق الحقائق لدى Meta خارج الولايات المتحدة، وحجم المحتوى الذي يُحتمل أن يكون مُضللاً الذي تواجهه جهات تدقيق الحقائق وقدرة أولئك الذين ينشرون المعلومات المضللة على إجراء تغييرات على المنشور للتحايل على الكشف، بالإضافة إلى خطر الإفراط في الإنفاذ الذي تشكله تكنولوجيا المطابقة للكشف عن المحتوى المطابق وشبه المطابق.

5. تحليل مجلس الإشراف

تشكّل حملات المعلومات المضللة تهديدات لنزاهة المعلومات، وثقة الجمهور والديمقراطية نفسها. واختار المجلس هذه الحالة لفحص كيفية تعامل Meta مع المعلومات الزائفة أو المضللة على منصاتها، لا سيّما عند مشاركتها خلال لحظات التوتر السياسي المتزايد وفي السياقات التي تؤثر فيها المعلومات المضللة على النقاش العام. وأجرى المجلس تحليلاً لقرار Meta بشأن هذه الحالة في ضوء سياسات المحتوى التي تتبعها الشركة، وقيمها، ومسؤولياتها تجاه حقوق الإنسان. كما أجرى المجلس تقييمًا للآثار التي تمثلها هذه الحالة فيما يتعلق بنهج Meta الأوسع في حوكمة المحتوى.

5.1 الامتثال لسياسات المحتوى لدى Meta

1. قواعد المحتوى

يرى المجلس أن محتوى الحالة لا يستوفي معايير الإزالة بموجب معيار سياسة المعلومات المضللة. فهو لا يقدم معلومات حول أي من الفئات المحظورة بموجب هذا البند من السياسة، بما في ذلك مواقع التصويت أو الإحصاء السكاني، أو عمليات التصويت، أو أهلية الناخبين أو المرشحين. كما يرى المجلس أن محتوى الحالة يستوفي معايير الأهلية لتدقيق الحقائق بموجب سياسة Meta بشأن المعلومات المضللة، ويتفق مع Meta في إحالة المنشور لتدقيق الحقائق. ويستوفي محتوى الحالة معايير الأهلية لتسمية الوسائط التي تم التلاعب بها بموجب سياسة Meta بشأن المعلومات المضللة. ولذلك، كان ينبغي على Meta تطبيق تسمية "عالي الخطورة" على المحتوى.

معيار المجتمع بشأن المعلومات المضللة وتدقيق الحقائق بواسطة جهات خارجية

يستوفي محتوى الحالة معايير الأهلية لتدقيق الحقائق بموجب سياسة Meta بشأن المعلومات المضللة. ويتضمن المنشور ادعاءً قابلاً للتحقق، ولا ينطوي على خطاب صادر عن سياسيين، ولا يحمل تسمية شفافية الذكاء الاصطناعي التي قد تجعل المحتوى غير مؤهل لتدقيق الحقائق (أي أن الطبيعة المضللة للمنشور تكمن في كيفية إنشائه أو تعديله رقميًا، وليس فيما يدعيه المنشور). كما أنه يستوفي أحد العناصر التي توجب منح المحتوى الأولوية لتدقيق الحقائق، وهو كونه "مواكبًا للأحداث الجارية ورائجًا ومهمًا". وتمت مشاركة المنشور بعد فترة وجيزة من اعتقال الرئيس السابق دوتيرتي، في وقت كانت فيه ملابسات اعتقاله محل نزاع على الإنترنت وعلى أرض الواقع. وفي الوقت الذي نُشر فيه محتوى الحالة، كانت الاحتجاجات قد اندلعت تأييدًا لاعتقال دوتيرتي واعتراضًا عليه. وكانت المنشورات المشابهة لمحتوى الحالة، والتي تزعم خروج احتجاجات مؤيدة لدوتيرتي، تنتشر انتشارًا واسعًا على وسائل التواصل الاجتماعي في ذلك الوقت. وأفادت إحدى جهات تدقيق الحقائق التي تتعامل معها Meta بأن مقاطع فيديو مماثلة حصدت أكثر من ثلاثة ملايين مشاهدة. علاوة على ذلك، جرى الاعتقال في سياق أوسع من الصراع السياسي المحتدم بين الرئيس ماركوس ونائبة الرئيس سارة دوتيرتي، في بلد تؤثر فيه المعلومات المضللة على النقاش السياسي.

وكان ينبغي على Meta اتخاذ إجراء لمنح الأولوية لمثل هذا المحتوى في قائمة الانتظار التي توفرها لجهات تدقيق الحقائق. وكان ينبغي على الشركة تمييز محتوى الحالة بصفته "عاجلاً" عندما أدرجته في قائمة الانتظار لتدقيق الحقائق. كما كان ينبغي على Meta تصنيف المعلومات المضللة المحتملة المحيطة باعتقال الرئيس السابق دوتيرتي كحدث رائج، وتحديد المحتوى المماثل وإظهاره بشكل استباقي بعد أن قيّمت جهات تدقيق الحقائق التي تتعامل معها Meta مقاطع فيديو مماثلة على أنها "زائفة". وتمشياً مع معايير Meta الخاصة، تُعد القضية مهمة "للنقاش المدني" وكان هناك "خطر كبير لانتشار المعلومات المضللة". ويبدو من المعلومات المقدمة للمجلس أن Meta كانت مقصرة في هذا الصدد.

كما كان ينبغي اعتبار محتوى الحالة شبه مطابق لمحتوى سبق تدقيق حقيقته وتسميته على أنه كذلك. وقد حددت جهات تدقيق الحقائق التي قيّمت مقاطع فيديو مماثلة عدم الدقة في دمج لقطات الاحتجاج في صربيا مع صوت لأشخاص يهتفون "دوتيرتي!" في الخلفية. ولم تتضمن مقاطع الفيديو التي تم تقييمها تلك أغنية "بيان كو" بالإضافة إلى الهتاف. ولأن محتوى الحالة هنا تضمن هذه الأغنية، فقد كان مختلفًا بما يكفي لكيلا تحدده تكنولوجيا المطابقة لدى Meta كمطابق أو شبه مطابق لمقاطع فيديو مماثلة سبق تقييمها على أنها "زائفة".

ويرى المجلس أن التغييرات التي أُدخلت تشكل "اختلافات طفيفة"، وأن المحتوى يكرر "نفس الادعاء الذي تم كشف زيفه" مثل مقاطع الفيديو المماثلة التي قيّمتها جهات تدقيق الحقائق التي تتعامل معها Meta على أنها "زائفة". ولم تُغيّر الاختلافات الطفيفة في الصوت والنص والشرح التوضيحي الخصائص المضللة الجوهرية لهذا المحتوى. وعندما لا تؤثر التغييرات الطفيفة في الطبيعة المضللة، ينبغي اعتبار المحتوى شبه مطابق.

كما يدرك المجلس أن الأنظمة التلقائية التي تستخدمها Meta حاليًا قد تكون غير قادرة على اتخاذ هذا القرار على نطاق واسع. وقد يؤدي تطبيق التسمية على المحتوى الذي يتضمن صوتًا مختلفًا دون أي تقييم إلى تسمية المحتوى الذي يتضمن صوتًا ينتقد الفيديو المضلل أو يكشف زيفه. وأشار أصحاب المصلحة الذين استشارهم المجلس إلى أن تكنولوجيا المطابقة لن تكون قادرة على توقع جميع الاستخدامات الممكنة وفروق التعبير الدقيقة، وأن توسيع نطاقها، دون تطوير أدوات أخرى للتعامل مع المعلومات المضللة، قد يؤدي إلى الإفراط في الإنفاذ. وفي الوقت نفسه، لا يُعد نهج Meta الحالي فعالاً في الاستجابة للجهات الفاعلة التي تُعدل المحتوى بطرق طفيفة للتحايل على النظام والإفلات من الإنفاذ. وينبغي على Meta تخصيص موارد كافية، تلقائية أو غير ذلك، لضمان تطبيق تقييمات جهات تدقيق الحقائق بفعّالية.

معيار المجتمع بشأن المعلومات المضللة والوسائط التي تم التلاعب بها

يرى المجلس أن محتوى الحالة يرقى إلى كونه وسائط تم التلاعب بها كان ينبغي أن تتم تسميتها. واستنادًا إلى عمليات تدقيق حقائق عامة مماثلة، يُعد المحتوى "فيديو واقعيًا" يبدو أنه "تم إنشاؤه أو تعديله رقميًا". ويعتبر المجلس لقطات الفيديو للاحتجاج الصربي مستوفية لشرط "الواقعية" في سياسة الوسائط التي تم التلاعب بها. إن دمج لقطات الاحتجاج في صربيا مع صوت أشخاص يهتفون باسم دوتيرتي وإضافة تراكب نصي بكلمة "هولندا" هو تعديل رقمي للقطات الأصلية. كما أن التراكب النصي بكلمة "هولندا" يزيد من تحريف معنى الفيديو من خلال إظهاره وكأن الاحتجاج حدث في هولندا، بينما حدث في الواقع في صربيا. والمنشور أيضًا "لا ينتهك معايير المجتمع الأخرى" بما قد يستوجب معاملة مختلفة، مثل الإزالة. ويشكل المحتوى "خطرًا كبيرًا بشكل خاص يتمثل في خداع الجمهور بشكل ملموس بشأن مسألة ذات أهمية عامة"؛ لأنه يتعلق بقضية سياسية مهمة في السياسة الفلبينية. وكانت مقاطع فيديو مماثلة متداولة على منصات Meta وتم تقييمها على أنها "زائفة" من قِبل جهات تدقيق الحقائق التي تتعامل معها Meta في الفلبين. وبالتالي، أدى حجم المحتوى المضلل المماثل إلى زيادة خطر خداع الجمهور بشكل ملموس. وبناءً على هذه العوامل، كان ينبغي على Meta تطبيق تسمية "عالي الخطورة" الخاصة بها.

ودفعت Meta بأنها لم تطبق أي تسمية وسائط تم التلاعب بها لأن المحتوى لم يتم تصعيده إلى فرق Meta الداخلية، وأنه نُشر قبل وقت كافٍ من انتخابات مايو 2025 بما يسمح بظهور خطاب مضاد كافٍ لكشف زيف الادعاء الكاذب. علاوة على ذلك، وفي الوقت الذي اختار فيه المجلس الحالة، لم تفكر Meta في إضافة التسمية نظرًا لقِدم المنشور وعدم انتشاره على نطاق واسع.

ولا يتفق المجلس مع Meta في هذا الرأي. أولاً، لا يبدو أن لهذه التبريرات أي أساس في السياسات التي تعلنها Meta للجمهور. ثانيًا، حتى باستخدام هذه المعايير الداخلية، يتوصل المجلس إلى استنتاجات مختلفة.

كان ينبغي على Meta التعامل مع اعتقال الرئيس السابق دوتيرتي كحدث حرج يستدعي تصعيد المنشورات ذات الصلة لاحتمال تطبيق تسمية "عالي الخطورة". وبموجب معيار Meta الخاص، مثّل وقت اعتقال دوتيرتي لحظة سياسية متوترة في الفلبين، مما أدى إلى توليد خطاب عام مهم حول ملابسات الاعتقال واحتجاجات مؤيدة للرئيس السابق ومعارضة له في الفلبين والخارج. وقد سلط أصحاب المصلحة الذين استشارهم المجلس الضوء على الوتيرة السريعة التي انتشرت بها الروايات المتعلقة باعتقال دوتيرتي على منصات Meta. وكما أشارت Meta، خضعت نسخ مماثلة من الفيديو لتدقيق الحقائق. كما حدث الاعتقال أثناء صراع سياسي طويل الأمد بين أكبر مسؤولين حكوميين في البلاد، حيث زعمت نائبة الرئيس سارة دوتيرتي أن والدها قد اختُطف.

واستنادًا إلى إجراءاتها في هذه الحالة، يبدو أن Meta تقصر تفسيرها للأحداث الحرجة المؤهلة لتسمية الوسائط التي تم التلاعب بها على الانتخابات، وتستبعد الأزمات السياسية الأخرى. ويعتبر المجلس أن اعتقال رئيس دولة سابق وتسليمه لاحقًا إلى المحكمة الجنائية الدولية يُعد حدثًا حرجًا. وبالنظر إلى الوضع السياسي في الفلبين وقت اعتقال الرئيس السابق، كان من الخطأ أن تتعامل Meta مع انتخابات مايو 2025 القادمة باعتبارها الحدث الحرج الوحيد المؤثر في المشهد. ولذلك، فمن خلال قصر تصنيف الحدث الحرج فعليًا على الانتخابات، قوضت Meta جدوى قواعدها الخاصة في المساعدة على الحد من انتشار الوسائط التي تم التلاعب بها أثناء حالات التوتر السياسي المتزايد. ويبدو المحتوى الذي تغطيه قواعد الوسائط التي تم التلاعب بها في الممارسة العملية أضيق نطاقًا بكثير مما توحي به السياسة.

وحتى بافتراض أن الحدث الحرج في هذه الحالة كان انتخابات مايو 2025، لم يكن ينبغي لشركة Meta الاعتماد حصريًا على قدرة شركائها في تدقيق الحقائق على الكشف عن ادعاءات المعلومات المضللة وتقييمها. وقد سلطت جهات تدقيق الحقائق التي استشارها المجلس، وكذلك التعليقات العامة المقدمة، الضوء بشكل كبير على القيود الشديدة في الموارد التي تواجهها جهات تدقيق الحقائق أثناء أداء عملها (PC-31362, PressOne (الفلبين)؛ (PC-31357‏، Foundation for Media Alternatives (الفلبين)). وأوضحت جهات أخرى لتدقيق الحقائق عدم قدرتها على تقييم جميع النسخ الممكنة لمقاطع الفيديو المماثلة. وبالإضافة إلى حجم المحتوى، يقوم مروجو المعلومات المضللة بإجراء تعديلات طفيفة على المحتوى لتمييز المنشورات الجديدة عن المحتوى الذي سبق تدقيق حقائقه، وبالتالي التحايل على تكنولوجيا المطابقة التي تستخدمها Meta لاكتشاف المحتوى "المطابق" و"شبه المطابق" (PC-31357‏، Foundation for Media Alternatives (الفلبين))؛ PC-31349‏، Rappler (الفلبين)). وأكد أصحاب المصلحة أن استمرار انتشار المنشورات المضللة دون تسميات على منصات Meta يميل إلى إغراق الادعاءات الواقعية (PC-31358،شبكة معايير تدقيق الحقائق الأوروبية). وأشارت إحدى جهات تدقيق الحقائق التي تتعامل معها Meta إلى أن هذه المنشورات تشكل جزءًا من حملة منظمة أوسع لنشر المعلومات المضللة عبر الإنترنت (PC-31349‏، Rappler (الفلبين)). وبالنظر إلى هذه الظروف، كان ينبغي على Meta أن تستنتج أنه "لم يكن هناك وقت كافٍ للمنظومة المعلوماتية أو لجهات تدقيق الحقائق للتعامل مع المحتوى المعني"، وهو ما كان سيؤدي إلى منح الأولوية لهذا النوع من المحتوى لتدقيق الحقائق.

وعندما يبدو أن المعلومات المضللة تشكل جزءًا من حملة معلومات مضللة ممنهجة وأوسع نطاقًا للتأثير على الرأي العام حول قضية سياسية أو اجتماعية معينة في ظل توترات متزايدة، تصبح الحاجة أشد للتعامل مع المنشورات المضللة واسعة الانتشار، لا سيّما عندما تتطور استراتيجيات الانتشار بسرعة للتحايل على الكشف والمراجعة. وفي مثل هذه الحالات، ينبغي على Meta تطبيق كافة سياساتها ذات الصلة (بما في ذلك تدقيق الحقائق والتسمية) والأدوات المرتبطة بها.

2. إجراء الإنفاذ

في قرار فيديو مفبرك للرئيس بايدن، أعرب المجلس عن قلقه بشأن ممارسة Meta لخفض تصنيف المحتوى الذي تقيمه جهات تدقيق الحقائق الخارجية على أنه "زائف" أو "مُفبرك"، دون إبلاغ المستخدمين أو توفير آليات للطعن. وذكر المجلس في ذلك القرار أن "خفض تصنيف المحتوى له آثار سلبية كبيرة على حرية التعبير. وينبغي على Meta فحص هذه السياسات لضمان أنها تحدد بوضوح سبب خفض تصنيف المحتوى وتوقيته، وتزويد المستخدمين بإمكانية الوصول إلى سبل انتصاف فعّالة (المادة 2 من العهد الدولي الخاص بالحقوق المدنية والسياسية)". وفي الوقت نفسه، يدرك المجلس أنه قد تكون هناك حالات يكون فيها خفض التصنيف مبررًا بصفته إجراءً أقل تدخلاً من إزالة المحتوى (راجع على سبيل المثال، منشورات مؤيدة لأعمال الشغب في المملكة المتحدة، والادعاءات الجنائية استنادًا إلى الجنسية، وفيديو مكياج إيراني لحفل زواج طفلة).

وفي الحالة الراهنة، تماشى إجراء Meta بخفض مستوى ظهور محتوى الحالة مؤقتًا في الموجز للمستخدمين من خارج الولايات المتحدة، بما في ذلك المستخدمون في الفلبين، مع ممارستها لخفض تصنيف المحتوى الذي يوشك على انتهاك السياسة. وبما أن المجلس يرى أيضًا أن المحتوى شبه مطابق لمحتوى سبق تقييمه على أنه "زائف"، فإنه سيخضع أيضًا لخفض التصنيف بموجب سياسة Meta لخفض تصنيف المحتوى الذي تقيّمه جهات تدقيق الحقائق الخارجية على أنه "زائف". ومع ذلك، يجدد المجلس التأكيد على قلقه العميق إزاء عدم وضوح سياسات خفض التصنيف، وفرص الطعن، والتأثير المحتمل على التعبير السياسي.

5.2 الامتثال لمسؤوليات Meta تجاه حقوق الإنسان

يرى المجلس أن الإبقاء على المحتوى على المنصة، مع وضع تسمية "عالي الخطورة" للوسائط التي تم التلاعب بها، كما تتطلب سياسات Meta الخاصة، كان ليكون متوافقًا مع مسؤوليات Meta تجاه حقوق الإنسان. ويتفق المجلس على أن إحالة Meta للمحتوى لتدقيق الحقائق تتماشى مع مسؤولياتها تجاه حقوق الإنسان، وفي هذه الحالة، فإن تحسين الأدوات المتاحة لجهات تدقيق الحقائق الخارجية لتمكينها من المراجعة يُعد إحدى وسائل الوفاء بتلك المسؤوليات.

حرية التعبير (المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية)

تنص المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية على توفير حماية واسعة للتعبير، بما في ذلك الخطاب السياسي (التعليق العام رقم 34، الفقرتان 11 و12). وهي توفر حماية "مشددة بشكل خاص" "للنقاش العام فيما يتعلق بالشخصيات العامة في المجال السياسي والمؤسسات العامة" (التعليق العام رقم 34، الفقرة 38 20؛ راجع أيضًا التعليق العام رقم 25، الفقرة 12 و25). أكدت لجنة الأمم المتحدة المعنية بحقوق الإنسان على أن حرية التعبير ضرورية لإدارة الشؤون العامة وممارسة الحق في التصويت بشكل فعّال (التعليق العام رقم 34، الفقرة 20؛ انظر أيضًا التعليق العام رقم 25، الفقرتان 12 و25).

لا يمكن أن يكون زيف المحتوى فقط هو الأساس الوحيد لإزالة الخطاب بموجب القانون الدولي لحقوق الإنسان (تقرير الأمين العام للأمم المتحدة بشأن التصدي للمعلومات المضللة، A/77/287، الفقرة 13). ولا يمكن تقييده إلا إذا اجتاز "الاختبار الثلاثي" للشرعية والمشروعية والضرورة والتناسب. وفي عام 2024، أصدر العديد من المقررين الخاصين للأمم المتحدة ومجموعات العمل التابعة للأمم المتحدة بيانًا مشتركًا بشأن تعزيز الديمقراطية وحقوق الإنسان خلال الانتخابات في جميع أنحاء العالم: "ينبغي على شركات التواصل الاجتماعي مراجعة عمليات الإشراف على المحتوى والخوارزميات الخاصة بها وجعلها شفافة لضمان عدم مساهمتها في فرض رقابة على المعارضة وترويج المعلومات المضللة. وينبغي على شركات التكنولوجيا اتباع العناية الواجبة، والاستثمار في تدقيق الحقائق، وفهم اللغات المحلية والسياقات المحلية في سياسات الإشراف على المحتوى الخاصة بها".

عند فرض الدولة قيودًا على حرية التعبير، يجب أن تفي تلك القيود بمتطلبات الشرعية والهدف المشروع والضرورة والتناسب (المادة 19، الفقرة 3، العهد الدولي الخاص بالحقوق المدنية والسياسية). وتتم الإشارة إلى هذه المتطلبات غالبًا باسم "الاختبار الثلاثي". يستخدم المجلس إطار العمل هذا لتفسير مسؤوليات Meta في مجال حقوق الإنسان بما يتماشى مع مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان، والتي التزمت بها Meta نفسها في سياسة حقوق الإنسان الخاصة بالشركة. ويطبق المجلس هذا النهج على قراراته بشأن عناصر المحتوى الفردية الخاضعة للمراجعة، وما تكشفه هذه القرارات عن نهج Meta الأوسع في حوكمة المحتوى. وكما ذكر مقرر الأمم المتحدة الخاص المعني بحرية التعبير، فإنه على الرغم من أن "الشركات لا تتحمل التزامات الحكومات، فإن تأثيرها من النوع الذي يتطلب منها تقييم نفس النوع من الأسئلة المتعلقة بحماية حقوق مستخدميها في حرية التعبير" (A/74/486، الفقرة 41).

1. الشرعية (الوضوح وإمكانية الوصول إلى القواعد)

يتطلب مبدأ الشرعية أن تكون القواعد التي تقيِّد حرية التعبير واضحة ويسهُل الوصول إليها، وأن تُصاغ بدقة كافية لتمكين الفرد من ضبط سلوكه تبعًا لها (التعليق العام رقم 34، الفقرة 25). بالإضافة إلى ذلك، "لا يجوز لهذه القواعد أن تمنح الأشخاص المسؤولين عن تنفيذها سلطة تقديرية مطلقة في تقييد حرية التعبير"، ويجب أن "تنص على توجيهات وافية للمكلفين بتنفيذها لتمكينهم من التحقق على النحو المناسب من أنواع التعبير التي تخضع للتقييد وتلك التي لا تخضع للتقييد" (المرجع نفسه). ذَكر مقرر الأمم المتحدة الخاص المعني بحرية التعبير أنه عند تطبيقها على قيام الجهات الفاعلة الخاصة بحوكمة الخطاب على الإنترنت، يجب أن تكون القواعد واضحة ومحددة (A/HRC/38/35، الفقرة 46). ينبغي أن يتمكن مستخدمو منصات Meta من الوصول إلى القواعد وفهمها، وينبغي أن تتوفر لمراجعي المحتوى إرشادات واضحة بشأن إنفاذها.

يتسم معيار مجتمع Meta بشأن المعلومات المضللة والسياسات ذات الصلة بالوضوح عند تطبيقها على المحتوى في هذه الحالة، ولكن ينبغي تحسينها. تُخطر الصيغة المعلنة للجمهور من سياسة المعلومات المضللة المستخدمين بوضوح بالقواعد المعمول بها والعواقب المختلفة لنشر المعلومات المضللة والوسائط التي تم التلاعب بها على منصات Meta (أي إزالة المحتوى، أو تدقيق حقائقه، أو تطبيق تسمية وسائط تم التلاعب بها عليه). وفي الوقت نفسه، يمكن العثور على أنواع المحتوى المؤهلة لتدقيق الحقائق، ومعايير تعيين جهات تدقيق الحقائق، وسياسات خفض التصنيف في صفحات مختلفة من مركز الشفافية.

وفي قرار مكالمة صوتية مزعومة لتزوير الانتخابات في إقليم كردستان العراق، ذكر المجلس أن Meta يجب أن تفكر في "دمج المعلومات المتعلقة بكل التسميات المختلفة للوسائط التي تم التلاعب بها في صفحة واحدة في مركز الشفافية بحيث يتمكن المستخدمون بسهولة من معرفة المزيد عنها"، ويجدد تأكيده على هذا التوجيه هنا.

علاوة على ذلك، يشعر المجلس بالقلق من أن تفسير Meta لقواعد الوسائط التي تم التلاعب بها فيما يتعلق بتسمية الذكاء الاصطناعي يؤدي إلى تضييق النطاق بشكل يفوق ما توحي به السياسة المعلنة. وينبغي أن تصف Meta الأنواع المختلفة لتسميات الذكاء الاصطناعي التي تطبقها، ومعايير تطبيقها وعواقبها. وفي الوقت الحالي، يرد الوصف الأكثر تفصيلاً لتسميات الذكاء الاصطناعي الثلاث التي تستخدمها Meta في قرار مكالمة صوتية مزعومة لتزوير الانتخابات في إقليم كردستان العراق الصادر مؤخرًا عن المجلس. وينبغي أن تعكس القواعد المعلنة للجمهور قاعدة Meta الداخلية التي تفيد بأن وقوع حدث حرج يُعد شرطًا لتطبيق تسمية "عالي الخطورة" على أي محتوى، بالإضافة إلى توضيح ما يُعد حدثًا حرجًا.

2. الهدف المشروع

ينبغي أيضًا لأي قيود مفروضة على حرية التعبير أن تسعى إلى تحقيق واحد أو أكثر من الأهداف المشروعة الواردة في العهد الدولي الخاص بالحقوق المدنية والسياسية، والتي من بينها حماية حقوق الآخرين (المادة 19، الفقرة 3، العهد الدولي الخاص بالحقوق المدنية والسياسية). في قرارات سابقة، رأى المجلس أن حماية الحق في المشاركة في الشؤون العامة (المادة 25، العهد الدولي الخاص بالحقوق المدنية والسياسية) هو هدف مشروع لسياسة Meta بشأن المعلومات المضللة (مكالمة صوتية مزعومة لتزوير الانتخابات في إقليم كردستان العراق، وفيديو مُفبرك للرئيس بايدن).

3. الضرورة والتناسب

بموجب المادة 19(3) من العهد الدولي الخاص بالحقوق المدنية والسياسية، فإن الضرورة والتناسب يتطلبان أن تكون القيود المفروضة على حرية التعبير "مناسبة لتحقيق وظيفة الحماية المنوطة بها، ويجب أن تكون أقل الوسائل تدخلاً مقارنةً بغيرها من الوسائل التي يمكن أن تحقق النتيجة المنشودة؛ ويجب أن تكون متناسبة مع المصلحة التي ستحميها" (التعليق العام رقم 34، الفقرة 34). ولهذا الغرض، يمكن للشركة أولاً تقييم الأدوات التي تمتلكها لتحقيق الهدف المشروع دون فرض أعباء على الخطاب؛ وثانيًا، إذا لم يكن ذلك ممكنًا، تحديد الأداة الأقل تدخلاً في الخطاب؛ وثالثًا، تقييم ما إذا كان الإجراء الذي تختاره فعّالاً (A/74/486، الفقرة 52).

وعند تقييم ضرورة وتناسب هذه التدابير، وكذلك عند تحديد ما إذا كانت هناك تدابير أخرى ضرورية، نظر المجلس فيما يلي: أ) أن المحتوى نُشر خلال فترة توتر سياسي متزايد في الفلبين، مع تداول روايات متباينة حول ملابسات اعتقال الرئيس السابق دوتيرتي؛ وب) ارتفاع معدل استخدام وسائل التواصل الاجتماعي في البلاد؛ وج) وجود تاريخ من المعلومات المضللة والكاذبة في البلاد، لا سيّما في الفترة التي تسبق الانتخابات وأثناءها؛ ود) الطبيعة التي تتسم بالاستقطاب عمومًا للبيئة السياسية والإعلامية؛ وهـ) استمرار نزع الشرعية عن وسائل الإعلام الإخبارية والصحفيين، فضلاً عن تراجع ثقة الجمهور في المؤسسات الإعلامية؛ وو) احتمال أن تكون الوسائط الواردة في المنشور مُفبركة، كما هو مبين في منشورات مماثلة قيّمتها جميع جهات تدقيق الحقائق الثلاث التي تتعامل معها Meta في البلاد بأنها "زائفة"؛ وز) احتمال أن تؤدي الوسائط المعدلة رقميًا إلى تضليل الجمهور والتأثير فيه بشأن قضية غذت الاستقطاب السياسي في البلاد.

ويشير المجلس إلى إجراءات Meta فيما يتعلق بمحتوى الحالة: إحالة محتوى الحالة لتدقيق الحقائق، أولاً، بعد فترة وجيزة من نشر المحتوى، ومرة أخرى عندما اختار المجلس هذه الحالة؛ وخفض مستوى ظهور المحتوى مؤقتًا في موجز فيسبوك للمستخدمين من خارج الولايات المتحدة، بما في ذلك في الفلبين، استنادًا إلى إشارات تتنبأ بأن المحتوى يحتوي على معلومات مضللة.

وفي حين اتخذت Meta بعض الإجراءات لتسهيل مراجعة جهات تدقيق الحقائق للمحتوى، كان ينبغي عليها اتخاذ خطوات إضافية وفقًا لسياساتها. فعلى سبيل المثال، كان ينبغي على الشركة تمييز محتوى الحالة على أنه "عاجل" عندما أدرجته في قائمة الانتظار لتدقيق الحقائق، والتعامل مع الاعتقال باعتباره "حدثًا رائجًا" ينطوي على نقاش مدني. كما كان ينبغي على Meta تحديد مثل هذا المحتوى وإظهاره بشكل استباقي، نظرًا لأن جهات تدقيق الحقائق التي تتعامل معها Meta أشارت إلى انتشار ادعاءات مضللة حول اعتقال الرئيس السابق دوتيرتي، وقيّمت محتوى مماثلاً على أنه "زائف".

ونظرًا لطبيعة المعلومات المضللة السياسية في سياقات مثل الفلبين الموضحة أعلاه وانتشارها السريع، ينبغي على Meta استكشاف طرق لتحديد المعلومات المضللة والتعامل معها بشكل أفضل من خلال جميع الأساليب المتاحة. وكما أكد البيان المشترك للمقررين الخاصين للأمم المتحدة، ينبغي أن تستجيب الشركات للمعلومات المضللة بممارسات إشراف على المحتوى تراعي السياق المحلي.

وينبغي على Meta تحسين آلياتها التي تتيح لجهات تدقيق الحقائق مراجعة المحتوى المماثل للمحتوى الذي سبق تدقيق حقائقه. وفي قرار فيديو مُفبرك للرئيس بايدن، أشار المجلس إلى أن تطبيق تسمية على جزء صغير من المحتوى "يمكن أن يوجِد انطباعًا خاطئًا بأن المحتوى غير المصحوب بتسمية جدير بالثقة بطبيعته." وحاليًا، قد تحدد جهات تدقيق الحقائق المحتوى بشكل مستقل لتدقيق الحقائق، مما يسمح نظريًا بالتعامل مع المحتوى المماثل للمعلومات المضللة التي تم تسميتها بالفعل. ومع ذلك، أوضح أصحاب المصلحة للمجلس أن CrowdTangle، وهي أداة الشفافية المملوكة لشركة Meta والتي تم إيقافها في عام 2024، كانت جزءًا لا يتجزأ من هذه العملية. وعلى الرغم من أن مكتبة محتوى Meta متاحة لجهات تدقيق الحقائق، فإن الجدوى الفعلية لهذه الأداة بالنسبة لهم غير مؤكدة (انظر المنشورات التي تتضمن عبارة "من النهر إلى البحر"). وأشار أصحاب المصلحة إلى أن قدرة الصحفيين على الوصول إلى الأداة متفاوتة، بينما أشار البعض إلى أن الأداة ليست سهلة الاستخدام في أعمال تدقيق الحقائق، مستشهدين بعدم القدرة على البحث عن النصوص داخل مقاطع الفيديو، والبحث العكسي عن الصور، والبحث عن المجموعات العامة حسب الموقع. وبناءً على هذه الآراء، ينبغي أن تواصل Meta التواصل بشكل استباقي مع جهات تدقيق الحقائق الخارجية لضمان ملاءمة مكتبة محتوى Meta لأغراضهم.

كما يجب استكمال مكتبة محتوى Meta بتدابير أخرى للتعامل مع ادعاءات المعلومات المضللة المنتشرة. ولهذا الغرض، يوصي المجلس بأن تطور Meta أدوات في قائمة انتظار تدقيق الحقائق تتيح لشركاء تدقيق الحقائق التحديد السريع للمحتوى واسع الانتشار الذي لم يُصنف كمطابق أو شبه مطابق، ولكنه يُرجح أن يكرر ادعاءات تم تقييمها على أنها زائفة أو مضللة. وسيؤدي ذلك إلى إظهار ادعاءات المعلومات المضللة المشابهة لتلك التي خضعت لتدقيق الحقائق، مع تجنب خطر الإفراط في الإنفاذ الناجم عن توسيع تعريف المحتوى "المطابق" و"شبه المطابق".

وينبغي أن تتخذ Meta خطوات لتحسين استجابتها للمعلومات المضللة، جزئيًا لتجنب إلقاء عبء التعامل مع المعلومات المضللة على عاتق شركائها من جهات تدقيق الحقائق الخارجية. وعلى الرغم من تصريح Meta بأنها تستثمر في التكنولوجيا للكشف بشكل أفضل عن "الفروق الدقيقة في المحتوى" التي قد تنطوي على معلومات مضللة، فإن الحالة الراهنة تُظهر الحاجة إلى مزيد من التحسين. وبالنسبة لبرنامجها الحالي لتدقيق الحقائق، على سبيل المثال، ينبغي أن تضمن Meta حصول الشركاء على الدعم والموارد اللازمة لأداء العمل الشاق الذي تعتمد Meta عليهم في تقديمه. كما ينبغي على Meta التعامل مع الحسابات التي تنشر المعلومات المضللة بشكل متكرر، بما في ذلك من خلال إنفاذ سياستها بشأن السلوك الزائف فيما يتعلق بالسلوك الزائف المنظَّم.

ويشعر المجلس بالقلق أيضًا إزاء عدم قيام Meta بتطبيق تسمية "عالي الخطورة" على محتوى الحالة، وفق ما تسمح به سياسات الشركة. ويرى المجلس أن هذا الإجراء كان من المرجح أن يساعد في منع المزيد من انتشار المعلومات الزائفة أو المضللة في الفلبين خلال ذلك الوقت الحرج. فكان سيتم تنبيه المستخدمين الذين يرون المنشور إلى أن المحتوى ربما تم تعديله رقميًا، وذلك نظرًا لدمج صوت أشخاص يهتفون "دوتيرتي!" بشكل متكرر وأغنية "بيان كو" في الخلفية مع لقطات الفيديو للاحتجاج في صربيا. والجدير بالذكر أن نتيجة تطبيق تسمية "عالي الخطورة" تتمثل في إظهار نافذة منبثقة للمستخدمين الذين يرغبون في إعادة مشاركة المنشور، تفيد بأن المنشور الذي ينوون مشاركته قد يكون معدلاً رقميًا. وفي حين أن التسمية توضيحية، فإن هذا الإشعار يوفر قدرًا من العرقلة التي يمكن أن تساعد في الحد من انتشار المنشورات المضللة حول الأحداث الجارية عندما يكون من المرجح أن يبلغ هذا النوع من المحتوى ذروته. وبالمثل، في قرار مكالمة صوتية مزعومة لتزوير الانتخابات في إقليم كردستان العراق، اعترض المجلس على تطبيق Meta الانتقائي لتسمية "عالي الخطورة" قبل انتخابات اتسمت بالاستقطاب في إقليم كردستان العراق، مما زاد من تسليط الضوء على الارتباك الذي يمكن أن يسببه التصنيف المتفاوت للمحتوى المضلل. ويشير المجلس إلى تقارير رصدت عدم اتساق في تطبيق تسميات الذكاء الاصطناعي على المحتوى، حتى عند وجود إشارات متوافقة مع معايير الصناعة تفيد بأن المحتوى تم إنشاؤه بواسطة الذكاء الاصطناعي. ومع تزايد انتشار المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي على وسائل التواصل الاجتماعي، فمن الأهمية بمكان أن تحسن Meta إنفاذ سياساتها في هذا المجال.

وفي هذه الحالة، يشعر المجلس بقلق بالغ لأن Meta لم تطبق تسمية "عالي الخطورة". وكان ينبغي على Meta القيام بذلك هنا، بحيث تكمل برنامج تدقيق الحقائق الخاص بها من خلال الاستفادة من السياسات الأخرى المتاحة لها.

6. قرار مجلس الإشراف

يؤيد مجلس الإشراف قرار Meta بالإبقاء على المحتوى.

7. التوصيات

سياسة المحتوى

1. لتوفير معلومات أفضل للمستخدمين حول كيفية إنفاذ سياسة الوسائط التي تم التلاعب بها ضمن معيار المجتمع بشأن المعلومات المضللة، ينبغي على Meta شرح التسميات التوضيحية المختلفة التي تستخدمها للوسائط التي تم التلاعب بها، بما في ذلك توضيح أن تسمية "عالي الخطورة" تُطبق فيما يتعلق بحدث حرج، وتوضيح ما يُعد حدثًا حرجًا.

وسيعتبر المجلس أن هذه التوصية قد دخلت حيز التنفيذ عندما تحدِّث Meta الصياغة في معيار المجتمع بشأن المعلومات المضللة لتعكس هذا التغيير.

الإنفاذ

2. لتمكين جهات تدقيق الحقائق الخارجية من التعامل بكفاءة مع أنماط المعلومات المضللة، ينبغي على Meta إنشاء قائمة انتظار منفصلة داخل واجهة تدقيق الحقائق تتضمن المحتوى المشابه، ولكن غير المطابق أو شبه المطابق، لمحتوى خضع بالفعل لتدقيق الحقائق في سوق معين.

وسيعتبر المجلس أن هذه التوصية قد دخلت حيز التنفيذ عندما تشارك Meta معلومات مع المجلس توضح تفاصيل ميزة الواجهة الجديدة هذه وكيفية تمكينها لجهات تدقيق الحقائق من إدراج محتوى جديد ومماثل في عمليات تدقيق الحقائق القائمة.

*ملاحظة إجرائية:

  • تُتخذ قرارات مجلس الإشراف من قِبل لجان مكونة من خمسة أعضاء، وتتم الموافقة عليها بأغلبية أصوات المجلس بالكامل. ولا تُعبر قرارات المجلس بالضرورة عن وجهات نظر جميع الأعضاء.
  • بموجب اتفاقيته، يجوز لمجلس الإشراف مراجعة الطعون المقدمة من المستخدمين الذين أزالت Meta محتواهم، والطعون المقدمة من المستخدمين الذين أبلغوا عن محتوى أبقت عليه Meta، والقرارات التي تحيلها Meta إليه (المادة 2، القسم 1 من الاتفاقية). يتمتع المجلس بسلطة مُلزمة تتيح له تأييد أو إلغاء القرارات التي تتخذها Meta بشأن المحتوى (المادة 3، القسم 5 من الاتفاقية؛ المادة 4 من الاتفاقية). ويحق للمجلس إصدار توصيات غير ملزِمة تكون شركة Meta مُلزَمَة بالرد عليها (المادة 3، القسم 4 من الاتفاقية؛ المادة 4). وعندما تلتزم Meta بالعمل بناءً على التوصيات، يراقب المجلس تنفيذها.
  • فيما يخص اتخاذ قرار بشأن هذه الحالة، تم تكليف جهة خارجية بإجراء بحث مستقل نيابةً عن المجلس. وقد تلقى المجلس المساعدة من شركة Duco Advisors، وهي شركة استشارية تركز على نقطة التقاء الجغرافيا السياسية والثقة والأمان والتكنولوجيا.* وتمت الاستعانة بالخبرة اللغوية لشركة Lionbridge Technologies, LLC، التي يجيد متخصصوها أكثر من 350 لغة ويعملون من 5000 مدينة في جميع أنحاء العالم.*

العودة إلى قرارات الحالة والآراء الاستشارية المتعلقة بالسياسة