OVERTURNED
مكالمة صوتية مزعومة لتزوير الانتخابات في إقليم كردستان العراق
تم النشر بتاريخ 24 حَزِيران 2025
ألغى مجلس الإشراف قرار Meta بعدم وضع تسمية على مقطع صوتي يُشتبه أن يكون قد تم التلاعب به يظهر فيه اثنان من السياسيين من أكراد العراق يتحدثان عن تزوير الانتخابات البرلمانية، قبل أقل من أسبوعين من موعد فتح صناديق الاقتراع في انتخابات تتسم بالتنافس الحاد والاستقطاب الشديد.
.بۆ خوێندنەوەی ئەم بەیانە بە شێوەزاری کوردی سۆرانی، تکایە لێرە کرتە بکە
لقراءة هذا الإعلام باللغة الكردية السورانية، انقر هنا.
الملخص
ألغى مجلس الإشراف قرار Meta بعدم وضع تسمية على مقطع صوتي يُشتبه في التلاعب به يظهر فيه اثنان من السياسيين من أكراد العراق يتحدثان عن تزوير الانتخابات البرلمانية، قبل أقل من أسبوعين من موعد فتح صناديق الاقتراع لانتخابات تتسم بالتنافس الحاد والاستقطاب الشديد. ويطلب المجلس من Meta وضع تسمية على المحتوى.
يُعرب المجلس عن قلقه من عدم اتساق إنفاذ Meta لسياستها بشأن الوسائط التي تم التلاعب بها، وذلك على الرغم من الانتشار المتزايد للمحتوى الذي تم التلاعب به عبر مختلف التنسيقات. ويجب عليها أن تمنح الأولوية للاستثمار في التكنولوجيا القادرة على تحديد المقاطع الصوتية ومقاطع الفيديو التي تم التلاعب بها على نطاق واسع ووضع تسميات عليها حتى يتم إعلام المستخدمين بشكل وافٍ.
وكما في هذه الحالة، فإن إخفاق Meta في وضع تسميات تلقائيًا على كل مثيلات الوسائط التي تم التلاعب بها نفسها يُعد غير منطقي وغير مبرَّر.
بالإضافة إلى ذلك، ينبغي لشركة Meta أن تضع تسميات على الوسائط التي تم التلاعب بها باللغة المحلية المتوفرة بالفعل على منصاتها. وينبغي أن يشكل ذلك جزءًا من جهودها الرامية لضمان نزاهة الانتخابات، على أقل تقدير.
حول الحالة
قبل أقل من أسبوعين من موعد إجراء الانتخابات البرلمانية في إقليم كردستان العراق، وتحديدًا في أكتوبر 2024، نشر مَنفذ إعلامي شهير تابع لأحد الأحزاب السياسية الرئيسية في المنطقة، وهو الحزب الديمقراطي الكردستاني (KDP)، مقطعًا صوتيًا مدته دقيقتان على صفحته على فيسبوك. يزعم الشرح التوضيحي للمنشور المكتوب باللغة الكردية السورانية أن المقطع الصوتي هو "محادثة مسجلة" بين الأخوين بافل وقوباد طالباني، العضوين بالحزب السياسي الرئيسي الآخر في المنطقة، وهو الاتحاد الوطني الكردستاني (PUK)، حول "خططهما الشريرة" لتزوير انتخابات أكتوبر 2024. وفي المقطع الصوتي، يتحدث رجلان، مع تعليق صوتي باللغة الإنجليزية (مع ترجمة مصاحبة باللغتين الكردية السورانية والإنجليزية). يقول أحد الرجلين إن "ما لا يقل عن 30 مقعدًا" مضمونة للاتحاد الوطني الكردستاني، إلا أنه يتعين عليهم "التخلص" من "المقاعد الأحد عشر" التي يُزعم أن الحزب الديمقراطي الكردستاني "كان يستغلها دائمًا لصالحه". يُبدي الرجل الآخر موافقته، مؤكدًا على الحاجة إلى جَعْل الأمر يبدو وكأن تلك المقاعد قد تم الفوز بها بشكل مشروع، نظرًا لأن الأشخاص يدركون – وإن كانوا لا يستطيعون إثبات – أن الاتحاد الوطني الكردستاني مدعوم من بغداد و"جارتها". لدى صفحة المنفذ الإعلامي على فيسبوك نحو 4 ملايين متابع. وقد حظي المنشور بحوالي 200 ألف مشاهدة.
أبلغ مستخدمان عن المحتوى بسبب احتوائه على معلومات مضللة، إلا أن Meta أغلقت التقريرين دون مراجعة. وبعد أن تقدَّم أحد هذين المستخدمين بطعن إلى Meta، أيَّدت الشركة قرارها بناءً على درجة أداة تصنيف. في أعقاب ذلك، تقدَّم المستخدم بطعن إلى مجلس الإشراف.
حددت Meta منشورات أخرى تحتوي على المقطع الصوتي على صفحات فيسبوك وInstagram لنفس المنفذ الإعلامي بالإضافة إلى صفحة الحزب الديمقراطي الكردستاني على فيسبوك. وبعد التشاور مع منفذ إعلامي إخباري مقره خارج إقليم كردستان العراق وشريك موثوق به لمراجعة مدى إمكانية أن يكون الصوت قد تم إنشاؤه رقميًا، قامت Meta بوضع تسمية على بعض المنشورات، ولكن ليس على المحتوى في هذه الحالة. وذكرت التسمية التي وُضعت على المنشورات الأخرى المشتملة على نفس المقطع الصوتي ما يلي: "هذا المحتوى ربما تم إنشاؤه أو فبركته رقميًا ليبدو حقيقيًا".
النتائج الرئيسية
فيما يتعلق بتحديد المحتوى الذي تم إنشاؤه أو التلاعب به بواسطة الذكاء الاصطناعي على منصاتها، أبلغت Meta المجلس أنه يمكنها القيام تلقائيًا بتحديد الصور الثابتة ووضع تسمية عليها، وليس محتوى مقطع الفيديو أو المقطع الصوتي. وبالنظر إلى خبرة الشركة ومواردها والاستخدام الواسع النطاق لمنصات Meta، يجب عليها منح الأولوية للاستثمار في التكنولوجيا القادرة على تحديد ووضع تسمية على مقاطع الفيديو والمقاطع الصوتية التي تم التلاعب بها على نطاق واسع.
كما أن إخفاق Meta في استخدام ما لديها من أدوات للقيام تلقائيًا بوضع التسمية "معلومات ذكاء اصطناعي" على كل مثيلات الوسائط التي تم التلاعب بها نفسها يُعد غير منطقي وغير مبرَّر. ففي حالة فيديو مفبرك للرئيس بايدن، التزمت Meta بتنفيذ توصية المجلس بأنه بالنسبة إلى الوسائط التي تم التلاعب بها، التي لا تنتهك معايير المجتمع الأخرى، ينبغي للشركة وضع تسمية "على كل المثيلات المتطابقة لتلك الوسائط على المنصة". كما أن ادعاء Meta في هذه الحالة بأنها لا تضع تلقائيًا التسمية "محتوى عالي الخطورة" على المحتوى الذي يشتمل على المقطع الصوتي يتعارض مع هذه التوصية. التسميتان "معلومات ذكاء اصطناعي" و"محتوى عالي الخطورة" عبارة عن تسميتين توضيحيتين تستخدمهما شركة Meta مع الوسائط التي تم التلاعب بها.
يشير المجلس إلى وجود مؤشرات موثوق بها، منها الإشارات الفنية، على أن المقطع تم إنشاؤه رقميًا. وهو بذلك يستوفي متطلبات الوسائط التي تم التلاعب بها بموجب سياسة Meta بشأن المعلومات المضللة. كما أن وضع التسمية "محتوى عالي الخطورة" على المقطع يتوافق مع سياسات Meta ومسؤولياتها تجاه حقوق الإنسان. لقد تم نشر المقطع الصوتي خلال فترة انتخابات تتسم بالتنافس الحاد في منطقة لها تاريخ من الانتخابات غير المنتظمة. فمن شأن ذلك أن يزيد من قدرة المقطع الصوتي على التأثير على الخيارات الانتخابية والإضرار بنزاهة الانتخابات. كما يأتي وضع تسمية توضيحية على محتوى الحالة، بدلاً من إزالة المحتوى بالكامل، مستوفيًا لمتطلبات الضرورة والتناسب.
يُعرب المجلس عن قلقه من عدم توفر تسميات Meta للوسائط التي تم التلاعب بها باللغة الكردية السورانية. وهذا على الرغم من أن اللغة الكردية السورانية هي إحدى اللغات المتوفرة لمستخدمي فيسبوك. ولضمان إعلام المستخدمين عند إنشاء المحتوى أو فبركته رقميًا، يجب أن يكون توفير التسمية باللغة المحلية المتاحة بالفعل على منصات Meta جزءًا من جهودها الرامية لضمان نزاهة الانتخابات، على أقل تقدير.
كما يشعر المجلس بالقلق إزاء اعتماد الشركة على جهات خارجية لإجراء التقييم الفني للمحتوى الذي يُشتبه في التلاعب به. وينبغي لشركة Meta إعادة النظر في توفُّر هذه الخبرة على المستوى الداخلي.
يشير المجلس إلى أن المشكلة في هذه الحالة تتعلق بما إذا كان المقطع الصوتي حقيقيًا أم زائفًا، وليس تحديد ما إذا كان ما وَرَدَ فيه صحيحًا. وبالنظر إلى أن وضع تسمية على المقطع الصوتي تفيد بأنه يُشتبه أن يكون قد تم إنشاؤه أو فبركته رقميًا من شأنه أن ينبه المستخدمين على نحو مماثل للتأكد من دقة المحتوى، يرى المجلس أن تطبيق سياسة المعلومات المضللة على الوسائط التي تم التلاعب بها كافٍ. وعلى الرغم من ذلك، يُعرب المجلس عن قلقه لعدم توفر جهات تدقيق حقائق على دراية باللغة الكردية لدى Meta لمراجعة المحتوى أثناء فترة الانتخابات كجزء من تدابيرها لضمان نزاهة الانتخابات.
قرار مجلس الإشراف
ألغى مجلس الإشراف قرار Meta بعدم وضع تسمية على المحتوى، وطلبَ وضع تسمية على المنشور.
كما يوصي المجلس Meta بما يلي:
- وضع تسمية مناسبة على كل عناصر المحتوى المشتملة على نفس الوسائط التي تم التلاعب بها، بما في ذلك جميع المنشورات التي تحتوي على المقطع الصوتي الذي تم التلاعب به في هذه الحالة.
- التأكد من أن التسميات التوضيحية للوسائط التي تم التلاعب بها على فيسبوك وInstagram وThreads تظهر بنفس اللغة التي اختارها المستخدم لمنصتها.
* توفر ملخصات الحالة نظرة عامة على الحالات ولا تُشكّل سابقة قانونية.
القرار الكامل للمجلس بشأن الحالة
1. وصف الحالة ومعلومات أساسية عنها
قبل أقل من أسبوعين من موعد إجراء الانتخابات البرلمانية في إقليم كردستان العراق، وتحديدًا في أكتوبر 2024، شارك منفذ إعلامي شهير تابع للحزب الديمقراطي الكردستاني (KDP)، مقطعًا صوتيًا مدته دقيقتان على صفحته على فيسبوك. ويزعم الشرح التوضيحي للمنشور المكتوب باللغة الكردية السورانية أن المقطع الصوتي هو "محادثة مسجلة" بين الأخوين بافل وقوباد طالباني، العضوين بالحزب السياسي الرئيسي الآخر، وهو الاتحاد الوطني الكردستاني (PUK)، حول "خططهما الشريرة" لتزوير انتخابات أكتوبر 2024. وفي المقطع الصوتي، يتحدث رجلان، مع تعليق صوتي باللغة الإنجليزية (مع ترجمة مصاحبة باللغتين الكردية السورانية والإنجليزية). يؤكد أحد الرجلين على أن "ما لا يقل عن 30 مقعدًا" مضمونة لهما، إلا أنه يتعين عليهم "التخلص" من "المقاعد الأحد عشر" التي يُزعم أن الحزب الديمقراطي الكردستاني "كان يستغلها دائمًا لصالحه". فهذا من شأنه أن يجعل الحزب الديمقراطي الكردستاني "يشرب من نفس الكأس"، بحسب تعبير المتحدث. يُبدي المتحدث الآخر موافقته، مؤكدًا على ضرورة جَعْل الأمر يبدو وكأن تلك المقاعد قد تم الفوز بها بشكل مشروع، نظرًا لأن الأشخاص يدركون – وإن كانوا لا يستطيعون إثبات – أن الاتحاد الوطني الكردستاني مدعوم من بغداد و"جارتها". لدى صفحة المنفذ الإعلامي على فيسبوك نحو 4 ملايين متابع. وقد حظي المنشور بنحو 200 ألف مشاهدة، وتمت مشاركته أقل من 100 مرة.
وفي نفس يوم نشره، أبلغ مستخدم عن المنشور، بموجب معيار مجتمع Meta بشأن المعلومات المضلِّلة. وعلى الرغم من ذلك، لم يحظ التقرير بالأولوية للمراجعة البشرية، وأغلقت Meta التقرير تلقائيًا، وأبقت على المنشور على فيسبوك دون اتخاذ أي إجراء آخر. بالإضافة إلى ذلك، فقد حدَّد نظام Meta لعمليات المراجعة المبكرة عالية المخاطر (HERO) المحتوى في هذه الحالة ليخضع لمزيدٍ من المراجعة بناءً على مؤشرات أشارت إلى احتمال انتشاره السريع. كما تم إغلاق التقرير لاحقًا دون مراجعة بشرية لأنه، وفقًا لشركة Meta، "لم تكن سرعة الانتشار عالية بما يكفي للمضي قدمًا إلى مرحلة المراجعة". وبعد فترة وجيزة، أبلغ مستخدم آخر عن المحتوى بسبب المعلومات المضللة، إلا أن Meta أغلقت هذا التقرير أيضًا. تقدَّم المستخدم الثاني بطعن على ذلك القرار إلى Meta، وأيَّدت الشركة قرارها بناءً على درجة أداة تصنيف. وبعدها، تقدَّم المستخدم بطعن على قرار Meta إلى مجلس الإشراف. وبعد يوم واحد، حددت Meta منشورات أخرى تحتوي على المقطع الصوتي الذي تمت مشاركته على صفحات فيسبوك وInstagram لنفس المنفذ الإعلامي الذي شارك المنشور في هذه الحالة بالإضافة إلى صفحة الحزب الديمقراطي الكردستاني على فيسبوك. لاحقًا، أرسل فريق سياسات المحتوى في Meta هذه المنشورات إلى منفذ إخباري لتقييم احتمالية أن يكون المحتوى الوارد في المنشورات قد تم إنشاؤه بواسطة الذكاء الاصطناعي، وذلك بموجب شراكة أبرمت في عام 2024. كما قدَّم شريك موثوق به مدخلات حول الإشارات الفنية والسياقية للمساعدة في تحديد ما إذا كان المحتوى قد تم إنشاؤه بواسطة الذكاء الاصطناعي. وبعد هذه المشاورات، قررت Meta وضع تسمية على بعض المنشورات التي تحتوي على المقطع الصوتي، ولكن ليس على المحتوى في هذه الحالة. وذكرت التسمية التي وُضعت على المنشورات الأخرى المشتملة على نفس المقطع الصوتي ما يلي: "هذا المحتوى ربما تم إنشاؤه أو فبركته رقميًا ليبدو حقيقيًا". يتضمن برنامج الشركاء الموثوق بهم شبكة من المنظمات غير الحكومية ووكالات المساعدة الإنسانية والباحثين في مجال حقوق الإنسان من 113 دولة تقوم بإعداد تقارير عن المحتوى وتقديم الملاحظات إلى Meta حول سياسات المحتوى المتبعة لديها وإنفاذها.
أخذ المجلس في حسبانه السياق التالي عندما توصل إلى قراره.
الحزب الديمقراطي الكردستاني والاتحاد الوطني الكردستاني هما الحزبان السياسيان الرئيسيان في إقليم كردستان العراق. ولكلٍ منهما قواته الأمنية الخاصة به. وقد نشأ تنافس طويل الأمد بين الحزبين، بلغ ذروته في حرب أهلية اندلعت بينهما خلال الفترة من 1994 إلى 1998. وفي النهاية، توصل الحزبان إلى ترتيب هش لتقاسم السلطة خفَّف مؤقتًا من نزاعهما. وعلى الرغم من ذلك، شهدت السنوات الأخيرة تجدُّد التوترات وازدياد حدتها، الأمر الذي أفضى إلى تأخير الانتخابات لسنوات، والتي جرت في النهاية في أكتوبر 2024.
معظم المنافذ الإعلامية في إقليم كردستان العراق "تابعة بشكل مباشر" للأحزاب السياسية، حيث توفر الأحزاب أو قادة الأحزاب التمويل. وهذا بدوره يؤدي إلى تقارير إخبارية ذات طابع حزبي. يذكُر الخبراء الذين استشارهم المجلس، بالإضافة إلى التقارير العامة، أن المنفذ الإعلامي الذي نشر محتوى الحالة تابع للحزب الديمقراطي الكردستاني وممول منه ويفتقر إلى الاستقلالية التحريرية.
يأتي فيسبوك في المرتبة الثالثة كأكثر المنصات استخدامًا في العراق. ويُعد استخدام حملات التضليل المنسقة أمرًا شائعًا خلال العمليات السياسية الكردية، كما حدث في الانتخابات البرلمانية لعام 2018. ويُزعم أن "وسائل الإعلام الموازي"، وهي شبكة من صفحات وسائل التواصل الاجتماعي التابعة للأحزاب السياسية والشخصيات السياسية المؤثرة، حاولَت التأثير على الرأي العام قبل انتخابات أكتوبر 2024 لصالح جهاتها الراعية، ومن بينها شخصيات بارزة في الحزبين.
في 20 أكتوبر 2024، فاز الحزب الديمقراطي الكردستاني بأكبر عدد من المقاعد البرلمانية في الانتخابات. وجاء الاتحاد الوطني الكردستاني في المركز الثاني. ورئيس وزراء إقليم كردستان العراق الحالي هو مسرور بارزاني من الحزب الديمقراطي الكردستاني. كما أن قوباد طالباني من الاتحاد الوطني الكردستاني، والذي يُزعم أنه أحد المتحدثين في المقطع الصوتي، هو نائب رئيس الوزراء الحالي.
2.المعلومات المقدَّمة من المستخدمين
صرَّح المستخدم الذي أبلغ المجلس عن المحتوى أن المقطع الصوتي تم إنشاؤه بواسطة الذكاء الاصطناعي، وأنه قد تمت مشاركته خلال حملة انتخابية "حساسة" وكان يُستخدم "لتشويه سمعة حزب".
كما قدَّم المنفذ الإعلامي الذي نشر المحتوى بيانًا إلى المجلس يوضح فيه أنه شارك المقطع الصوتي كجزء من تغطيته الإخبارية، "دون تقديم أي آراء أو تعليقات على المحتوى نفسه" بل "كمجرد مادة إخبارية محلية". وذكرَ أن هدفه هو نشر أخبار "دقيقة". وصرَّح المنفذ الإعلامي أن حزبًا سياسيًا هو مَن أصدر المقطع الصوتي، وأن "العديد من الأحزاب السياسية تشارك مثل تلك الفيديوهات بانتظام".
3. سياسات المحتوى والمعلومات المقدمة من Meta
1. سياسات المحتوى لدى Meta
معيار المجتمع بشأن المعلومات المضلِّلة
ينظِّم معيار المجتمع بشأن المعلومات المضلِّلة في Meta الإشراف على الوسائط التي تم التلاعب بها على منصاتها. وبالنسبة إلى المحتوى الذي لا ينتهك الجزء المعنون "يجب عدم نشر" من معيار المجتمع، تركز السياسة على "تقليل معدل انتشاره" أو "تهيئة مناخ يعزز الحوار المثمر". لهذا الغرض، يجوز لشركة Meta أن تضع تسمية توضيحية على المحتوى، أو رفض المحتوى الذي يتم تقديمه كإعلان، عندما يكون المحتوى عبارة عن صورة أو مقطع فيديو واقعي، أو مقطع صوتي واقعي، تم إنشاؤه أو فبركته رقميًا ويشكّل "بحد ذاته خطرًا كبيرًا لخداع الجمهور بشكل ملموس بشأن مسألة ذات أهمية عامة".
2. المعلومات المقدَّمة من Meta
لدى Meta ثلاث تسميات توضيحية مختلفة للوسائط التي تم التلاعب بها: (1) التسمية "معلومات ذكاء اصطناعي"، و(2) التسمية "محتوى عالي الخطورة" و(3) التسمية "محتوى ذكاء اصطناعي عالي المخاطر".
تُوضع التسمية "معلومات ذكاء اصطناعي" تلقائيًا على المحتوى الذي تكتشفه Meta من خلال "المؤشرات المعتمدة في الصناعة لإنشاء الصور بواسطة الذكاء الاصطناعي أو عند إفصاح الأشخاص عن تحميلهم محتوى تم إنشاؤه بواسطة الذكاء الاصطناعي". كانت Meta قد أبلغت المجلس سابقًا أنه للكشف عن المؤشرات المعتمدة في الصناعة لإنشاء الصور، تعتمد الشركة على "بيانات التعريف التي تقوم أدوات الذكاء الاصطناعي التوليدي بتضمينها في المحتوى". وعلى الرغم من ذلك، ففي الوقت الحالي، لا ينطبق الكشف التلقائي ووضع التسمية "معلومات ذكاء اصطناعي" على مقطع الفيديو أو المقطع الصوتي. في هذه الحالات، تعتمد Meta على المستخدمين للإفصاح عن تحميلهم محتوى تم إنشاؤه بواسطة الذكاء الاصطناعي.
توضع التسمية "محتوى عالي الخطورة" على المحتوى الذي تم إنشاؤه أو فبركته رقميًا، بينما توضَع التسمية "محتوى ذكاء اصطناعي عالي المخاطر" على المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي وفقًا لإرشادات الإنفاذ الداخلية. وتطبق التسميتان على محتوى الصور والصوت والفيديو الذي يستوفي كل الشروط التالية: (1) يشكّل بحد ذاته خطرًا كبيرًا لخداع الجمهور بشكل ملموس بشأن مسألة ذات أهمية عامة، و(2) توجد مؤشرات موثوق بها على أن المحتوى تم إنشاؤه أو فبركته رقميًا، و(3) تتطلب التسمية "محتوى ذكاء اصطناعي عالي المخاطر" بالإضافة إلى ذلك أن يتضمن المحتوى مؤشرات موثوق بها تشير إلى أنه تم إنشاؤه أو فبركته بواسطة الذكاء الاصطناعي. تختلف التسمية الموضوعة على المنشور حسب ما إذا كانت التسمية "محتوى عالي الخطورة" أو "محتوى ذكاء اصطناعي عالي المخاطر". وتنص التسمية "محتوى عالي الخطورة" على "أن هذا المحتوى ربما قد تم إنشاؤه أو فبركته رقميًا ليبدو حقيقيًا"، بينما تنص التسمية "محتوى ذكاء اصطناعي عالي المخاطر" على أن "هذا المحتوى تم إنشاؤه أو فبركته رقميًا بواسطة الذكاء الاصطناعي ليبدو حقيقيًا" (التأكيد مُضاف). تأتي تسميتا "محتوى عالي الخطورة" مع رابط إلى "معرفة المزيد"، الذي يوجه المستخدم إلى هذه المقالة. وفقًا لشركة Meta، يمكن للشركة تقديم معلومات أكثر دقة للمستخدمين عن طريق وجود تسميتين مختلفتين، حول مدى احتمالية التلاعب بالمحتوى، والطريقة المستخدمة لفبركة الوسائط أو إنشائها. فعندما تكون الشركة أقل يقينًا من أن المحتوى تم إنشاؤه رقميًا، فإنها تضع التسمية "محتوى عالي الخطورة"، لتنبيه المستخدمين إلى أن المحتوى ربما تم إنشاؤه أو فبركته رقميًا. وعادةً ما يتم تعيين التسمية التي يتم وضعها على المنشور افتراضيًا إلى اللغة التي يحددها المستخدم على المنصة، غير أن Meta ذكرت أنها لا تترجم التسمية إلى اللغة الكردية (على الرغم من أن المستخدمين يمكنهم تعيين لغتهم الافتراضية إلى شكلين مختلفين من اللغة الكردية، بما في ذلك الكردية السورانية).
ذكرت Meta أن وضع تسمية توضيحية – سواء التسمية "معلومات ذكاء اصطناعي" أو إحدى تسميتي "محتوى عالي الخطورة" – لا يؤدي إلى خفض تصنيف المحتوى أو إزالته من التوصيات. وقد تعرض Meta إشعارًا منبثقًا للمستخدمين الذين ينقرون لإعادة مشاركة المحتوى الذي يحمل التسمية "محتوى عالي الخطورة". وعندما يحاول المستخدمون إعادة مشاركة صورة أو فيديو يحمل التسمية "محتوى عالي الخطورة" على فيسبوك أو Instagram أو Threads، سيتلقون إشعارًا ينبههم إلى أن المحتوى ربما تم إنشاؤه أو فبركته رقميًا. وعلى الرغم من ذلك، لا يتوفر ذلك عند مشاركة المنشورات كقصص Instagram أو ريلز من فيسبوك، كما في هذه الحالة.
بعد أن حددت الفرق الداخلية في Meta ثلاثة منشورات تحتوي على نفس المقطع الصوتي، أرسلت المنشورات إلى منفذ إخباري لمراجعة ما إذا كان المقطع الصوتي قد تم إنشاؤه رقميًا. بالإضافة إلى ذلك، استشارت Meta شريكًا موثوقًا به لتقييم مصداقية المقطع الصوتي. كما أخذت Meta بعين الاعتبار عوامل أخرى خاصة بإقليم كردستان العراق، مثل الفاصل الزمني القصير بين تاريخ مشاركة المقطع الصوتي وتاريخ الانتخابات القادمة، ونقص عدد جهات تدقيق حقائق باللغة الكردية في كردستان العراق، والتعليقات التي تشير إلى أن بعض المستخدمين لم يروا المقطع الصوتي على أنه قد تم التلاعب به، واكتشاف أدوات تصنيف Meta الداخلية لمثيلات أخرى من المقطع الصوتي التي من المحتمل أن تكون سريعة الانتشار. واستنادًا إلى هذه الاعتبارات، وضعت Meta التسمية "محتوى عالي الخطورة" على المنشورات التي تحتوي على نفس المقطع الصوتي الذي اكتشفته الشركة وقيَّمته، ولكن ليس على المحتوى في هذه الحالة. وأوضحت الشركة أنها لم تضع التسمية على جميع المنشورات المشتملة على المقطع الصوتي لتجنب التسمية الخاطئة للمحتوى الذي لا يستوفي معايير التسمية، مثل المنشورات التي تفنِّد المقطع الصوتي أو تُدينه. بالنسبة إلى Meta، قد تؤدي تسمية كل مثيلات المقطع الصوتي إلى إرباك المستخدمين.
كجزء من جهودها المبذولة لضمان نزاهة انتخابات أكتوبر 2024، أبلغت Meta المجلس بأنها أجرت عمليات بحث يومية مستهدفة عن الخطاب العدائي ومخالفات التدخل في تصويت الناخبين، بالإضافة إلى مراقبة الإعلانات السياسية ومراقبة انتحال شخصيات المرشحين السياسيين والإساءة إليهم. كما ذكرت Meta أنها نظمت فريقًا متعدد الوظائف يتمتع بخبرة لغوية وسياقية لتقييم المخاطر على المنصة وتنفيذ تدابير التخفيف المناسبة قبل وأثناء انتخابات 20 أكتوبر 2024. وبتلك الطريقة تم تحديد المنشورات الثلاثة سريعة الانتشار التي تضمنت المقطع الصوتي، والتي كانت منفصلة عن محتوى الحالة. وقد اكتشفت أداة تصنيف داخلية أن هذه المنشورات الثلاثة قد تكون سريعة الانتشار، حيث بلغ مجموع مشاهداتها أكثر من 1.5 مليون مشاهدة.
طرح المجلس أسئلة حول: التسميات التي تضعها Meta على الوسائط التي تم التلاعب بها، وعملية تحديد هذه الوسائط ومتى تضع Meta تلقائيًا تسمية على محتوى مماثل أو مطابق، وما إذا كان المحتوى قد خضع لتدقيق الحقائق، وجهود Meta لضمان نزاهة الانتخابات في إقليم كردستان العراق. وقد أجابت Meta عن جميع الأسئلة.
4. التعليقات العامة
تلقى مجلس الإشراف تعليقين عامين استوفيا شروط المعلومات المقدَّمة. تم تقديم تعليق واحد من منطقة الشرق الأوسط وشمال أفريقيا والتعليق الآخر من وسط وجنوب آسيا. وللاطلاع على التعليقات العامة المقدمة التي وافق أصحابها على نشرها، انقر هنا.
تناولت التعليقات المقدمة الموضوعات التالية: مصداقية المقطع الصوتي، ومعدل انتشار الدعاية أثناء الانتخابات في إقليم كردستان العراق، وحرية الصحافة في المنطقة.
5. تحليل مجلس الإشراف
اختار مجلس الإشراف هذه الحالة لتحديد كيف تضمن Meta حرية التعبير مع مواجهة الوسائط التي تم التلاعب بها التي تتم مشاركتها في سياق الانتخابات. وتندرج هذه الحالة ضمن الأولوية الاستراتيجية لدى المجلس، والمتمثلة في الانتخابات والساحة المدنية.
أجرى المجلس تحليلاً لقرار Meta بشأن هذه الحالة في ضوء سياسات المحتوى التي تتبعها الشركة، وقيمها، ومسؤولياتها تجاه حقوق الإنسان. كما أجرى المجلس تقييمًا للآثار التي تمثلها هذه الحالة فيما يتعلق بنهج Meta الأوسع في إدارة المحتوى.
5.1 الامتثال لسياسات المحتوى لدى شركة Meta
قواعد المحتوى
معيار المجتمع بشأن المعلومات المضلِّلة
يرى المجلس أن محتوى الحالة يلبي متطلبات الوسائط التي تم التلاعب بها بموجب سياسة Meta بشأن المعلومات المضللة. لذا، كان ينبغي وضع التسمية "محتوى عالي الخطورة" على المحتوى.
يتعلق المنشور بمسألة ذات أهمية عامة في المنطقة، أي انتخابات إقليم كردستان العراق. ويشكل المحتوى خطرًا كبيرًا لخداع الجمهور المحلي والدولي معًا. فربما كان التعليق الصوتي باللغة الإنجليزية يستهدف الموظفين الدبلوماسيين في المنطقة أو المراقبين الدوليين، كما أن الترجمة المصاحبة بالكردية السورانية جعلت المحتوى مناسبًا للناخبين. حظي المحتوى بنحو 200 ألف مشاهدة، وتمت مشاركته قبل إجراء الانتخابات مباشرةً. وثمة مؤشرات موثوق بها على أن المحتوى تم إنشاؤه أو فبركته رقميًا. وأكدت ذلك المصادر التي استندت إليها Meta عند تقييم مصداقية المقطع الصوتي. وشملت هذه المصادر شريكًا موثوقًا به ومنفذًا إخباريًا خارج إقليم كردستان العراق اعتمدت عليه Meta لتقييم المحتوى الذي ربما تم إنشاؤه أو فبركته رقميًا. وقد سلطت هذه المصادر الضوء على الطبيعة المصطنعة للمحادثة وغياب الإيقاعات الحوارية. كما لاحظت تلك المصادر وجود إشارات فنية تشير إلى أن المقطع الصوتي ربما تم إنشاؤه رقميًا. ومن بين هذه الإشارات صوت الخلفية المتقطع، بالإضافة إلى تقييمات أدوات كشف الذكاء الاصطناعي. وقد تم الحصول على موافقة من فرق Meta الداخلية لوضع التسمية "محتوى عالي الخطورة" على المقطع الصوتي الأساسي في منشورات أخرى تحتوي عليه، وليس على محتوى الحالة. لذا، كان ينبغي وضع التسمية "محتوى عالي الخطورة" على محتوى الحالة، بما يشير إلى أن المحتوى ربما تم إنشاؤه أو فبركته رقميًا. يرى المجلس أن تفسير Meta لعدم وضع الشركة للتسمية على كل عناصر المحتوى المتضمنة نفس المقطع الصوتي غير مقنع. يتضمن قسم تحليل حقوق الإنسان التالي تحليل حجج Meta واستنتاجات المجلس حول وضع التسمية على كل عناصر المحتوى المشتملة على نفس الوسائط التي تم التلاعب بها.
5.2 الامتثال لمسؤوليات Meta تجاه حقوق الإنسان
يرى المجلس أن وضع التسمية "محتوى عالي الخطورة" على المحتوى أمر يقتضيه التفسير الصحيح لسياسات Meta. إذ إنه بموجب التحليل التالي للمادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية، فإن وضع تسمية على المحتوى في هذه الحالة وكذلك على جميع مثيلات المقطع الصوتي، يتوافق أيضًا مع مسؤوليات Meta تجاه حقوق الإنسان.
حرية التعبير (المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية)
تنص المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية على ضرورة توفير حماية واسعة النطاق لحرية التعبير، بما في ذلك التعبير السياسي (التعليق العام رقم 34، الفقرتان 12-11) كما أكدت لجنة الأمم المتحدة المعنية بحقوق الإنسان أن قيمة حرية التعبير عالية لا سيّما عند مناقشة القضايا السياسية (التعليق العام رقم 34، الفقرتان 11 و13). وعند فرض الدولة قيودًا على حرية التعبير، يجب أن تفي تلك القيود بمتطلبات الشرعية والهدف المشروع والضرورة والتناسب (المادة 19، الفقرة 3، العهد الدولي الخاص بالحقوق المدنية والسياسية). وتتم الإشارة إلى هذه المتطلبات غالبًا باسم "الاختبار الثلاثي". يستخدم المجلس إطار العمل هذا لتفسير مسؤوليات Meta تجاه حقوق الإنسان بما يتماشى مع مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان، والتي التزمت بها Meta نفسها في سياسة حقوق الإنسان الخاصة بالشركة. ويطبق المجلس هذا النهج على قراراته بشأن عناصر المحتوى الفردية الخاضعة للمراجعة، وما تكشفه هذه القرارات عن نهج Meta الأوسع في إدارة المحتوى. وكما ذكر مقرر الأمم المتحدة الخاص المعني بحرية التعبير، فإنه وعلى الرغم من أن "الشركات لا تتحمل التزامات الحكومات، لكن تأثيرها من النوع الذي يتطلب منها تقييم نفس النوع من الأسئلة المتعلقة بحماية حقوق مستخدميها في حرية التعبير،" (A/74/486، الفقرة 41).
أكدت لجنة الأمم المتحدة المعنية بحقوق الإنسان على أن حرية التعبير ضرورية لإدارة الشؤون العامة وممارسة الحق في التصويت بشكل فعّال (التعليق العام رقم 34، الفقرة 20، راجع أيضًا التعليق العام رقم 25، الفقرتان 12 و25). في الوقت نفسه، أصدر العديد من المقررين الخاصين للأمم المتحدة ومجموعات العمل التابعة للأمم المتحدة بيانًا مشتركًا في عام 2024 ينص على ما يلي: "بينما يحظى الخطاب السياسي بحماية قوية بموجب القانون الدولي، فقد أساء السياسيون في بعض الأحيان استخدام الحرية، مستغلين إياها كرخصة للمشاركة في خطاب ضار ونشر معلومات مضللة، بما في ذلك ما يتعلق بنتائج الانتخابات ونزاهتها. فحملات التشهير المنسَّقة واستخدام التزييف العميق عبر وسائل التواصل الاجتماعي أمور مثيرة للقلق بشكل خاص كونها أصبحت أدوات قوية للتلاعب بالانتخابات، بما في ذلك ما يحدث من قِبل الجهات الأجنبية التي تسعى إلى التدخل في الانتخابات عبر الحدود" (راجع أيضًا تقرير مقرر الأمم المتحدة الخاص، A/HRC/47/25، الفقرة 18، حول كيفية انتشار المعلومات المضللة من قِبَل السياسيين ووسائل الإعلام التقليدية، تقرير مقرر الأمم المتحدة الخاص بشأن إعمال الحق في حرية الرأي والتعبير في السياقات الانتخابية، A/HRC/26/30).
ويشير المجلس إلى أنه قد تم نشر المقطع الصوتي خلال فترة انتخابات تتسم بالتنافس الحاد في منطقة لها تاريخ من الانتخابات غير المنتظمة. فمن شأن ذلك أن يزيد من قدرة المقطع الصوتي على التأثير على الخيارات الانتخابية والإضرار بنزاهة الانتخابات. ووفقًا لما يشير إليه تقرير مقرر الأمم المتحدة، فإن منصات وسائل التواصل الاجتماعي لها تأثير قوي بشكل خاص على نزاهة الانتخابات (A/HRC/47/25، الفقرة 16). ويرى المجلس أنه وبالنظر إلى النتيجة التي خلُص إليها خبير الأمم المتحدة المستقل بشأن انتشار المعلومات المضللة الانتخابية في جميع أنحاء العالم، فإن مسؤوليات Meta تجاه حقوق الإنسان تقتضي اتخاذ تدابير مناسبة للتخفيف من آثارها الضارة. وعندما تُحِدّ تدابير التخفيف هذه من حق المستخدم في حرية التعبير، يتعين أن تستوفي متطلبات الاختبار الثلاثي بموجب المادة 19 (3) من العهد الدولي الخاص بالحقوق المدنية والسياسية.
1. الشرعية (وضوح القواعد وسهولة الوصول إليها)
يتطلب مبدأ الشرعية أن تكون القواعد التي تقيِّد حرية التعبير واضحة ويسهُل الوصول إليها، وأن تُصاغ بدقة كافية لتمكين الأشخاص من ضبط سلوكهم تبعًا لها (التعليق العام رقم 34، الفقرة 25). علاوةً على ذلك، فإن هذه القواعد "لا يجوز أن تمنح الأشخاص المسؤولين عن تنفيذها سلطة تقديرية مطلقة في تقييد حرية التعبير"، ويجب أن "تنص على توجيهات وافية للمكلفين بتنفيذها لتمكينهم من التحقق على النحو المناسب من أنواع التعبير التي تخضع للتقييد وتلك التي لا تخضع للتقييد،" (المرجع نفسه). ذَكر مقرر الأمم المتحدة الخاص المعني بحرية التعبير أنه عند تطبيقها على قيام الجهات الفاعلة الخاصة بحوكمة الخطاب على الإنترنت، يجب أن تكون القواعد واضحة ومحددة (A/HRC/38/35، الفقرة 46). ينبغي أن يتمكن الأشخاص الذين يستخدمون منصات Meta من الوصول إلى هذه القواعد وفهمها، كما ينبغي أن تتوفر لمراجعي المحتوى توجيهات واضحة فيما يتعلق بإنفاذها.
يرى المجلس أن سياسة المعلومات المضللة المتعلقة بالوسائط التي تم التلاعب بها تتسم بقدر كافٍ من الوضوح بحسب تطبيقها على المحتوى في هذه الحالة. كما أن الصيغة المعلنة لعامة الجمهور تُعلِم المستخدمين بوضوح بالقواعد المطبقة وعواقب نشر مثل ذلك المحتوى على منصات Meta (أي، وضع تسمية توضيحية) عندما لا ينتهك معايير المجتمع الأخرى. وعلى الرغم من ذلك، ينبغي لشركة Meta أن تفكر في دمج المعلومات المتعلقة بكل التسميات المختلفة للوسائط التي تم التلاعب بها في صفحة واحدة في مراكز الشفافية بحيث يتمكن المستخدمون بسهولة من معرفة المزيد عنها.
2.الهدف المشروع
ينبغي أن تستند أي قيود مفروضة على حرية التعبير إلى واحد أو أكثر من الأهداف المشروعة الواردة في العهد الدولي الخاص بالحقوق المدنية والسياسية، والتي من بينها حماية حقوق الآخرين (المادة 19، الفقرة 3، العهد الدولي الخاص بالحقوق المدنية والسياسية). في حالة فيديو مفبرك للرئيس بايدن، رأى المجلس أن حماية الحق في المشاركة في الشؤون العامة (المادة 25، العهد الدولي الخاص بالحقوق المدنية والسياسية) يعتبر أحد الأهداف المشروعة.
3.الضرورة والتناسب
بموجب المادة 19(3) من العهد الدولي الخاص بالحقوق المدنية والسياسية، فإن الضرورة والتناسب يتطلبان أن تكون القيود المفروضة على حرية التعبير "مناسبة لتحقيق وظيفة الحماية المنوطة بها، ويجب أن تكون أقل الوسائل تدخلاً مقارنة بغيرها من الوسائل التي يمكن أن تحقق النتيجة المنشودة؛ ويجب أن تكون متناسبة مع المصلحة التي ستحميها" (التعليق العام رقم 34، الفقرة 34).
ذكر مقرر الأمم المتحدة الخاص المعني بحرية التعبير (A/74/486، الفقرة 51) أنه "لدى الشركات أدوات للتعامل مع المحتوى بطرق تتماشى مع حقوق الإنسان، وفي بعض النواحي، لديها مجموعة أدوات أوسع من تلك التي تتمتع بها الدول". وفي هذا السياق، يرى المجلس أن وضع تسمية توضيحية على محتوى الحالة، مثل التسمية "محتوى عالي الخطورة" بدلاً من إزالة المحتوى بالكامل، يأتي مستوفيًا لمتطلبات الضرورة والتناسب. وعند تحديد الضرورة والتناسب المرتبطين بهذا الإجراء، أخذ المجلس العوامل التالية في الاعتبار: (أ) تاريخ نشر المحتوى قريب من موعد الانتخابات، و(ب) وجود تاريخ من المعلومات الكاذبة والمضللة أثناء الانتخابات السابقة، و(ج) الطبيعة الاستقطابية للبيئة السياسية، و(د) السيطرة السياسية على وسائل الإعلام الإخبارية في المنطقة، أي مصدر المعلومات، و(هـ) احتمالية فبركة الوسائط الواردة في المنشور، حسبما أشار إلى ذلك تقييمان مستقلان، و(و) احتمالية تضليل الوسائط المفبركة رقميًا للناخبين والتأثير عليهم.
توجد علاقة وثيقة بشكل جوهري بين الحق في الوصول إلى المعلومات والحق في التصويت، حيث يعزز أحدهما الآخر، ويشكلان عماد الديمقراطية. البيان المشترك لعام 2009 للمقرر الخاص للأمم المتحدة المعني بحرية الرأي والتعبير، وممثل منظمة الأمن والتعاون في أوروبا المعني بحرية الإعلام، والمقرر الخاص لمنظمة البلدان الأمريكية المعني بحرية التعبير، والمقرر الخاص للجنة الأفريقية لحقوق الإنسان والشعوب المعني بحرية التعبير والوصول إلى المعلومات، أكَّد على أنه "لا سبيل لإجراء انتخابات حرة ونزيهة إلا من خلال التوعية الجيدة للناخبين مع منحهم سبل الوصول إلى المعلومات الكافية والمتعددة المصادر". ويُعد وضع تسمية توضيحية على المحتوى الإجراء الأقل تدخلاً، والذي من شأنه إعلام المستخدمين باحتمالية أن يكون المقطع الصوتي قد تم إنشاؤه رقميًا، مما يُخفف من مخاطر تضليل الجمهور قبل انتخابات تتسم بالتنافس الحاد والاستقطاب الشديد. وبوضعها التسمية "محتوى عالي الخطورة"، تنبه Meta المستخدمين إلى أن المحتوى ربما تم إنشاؤه رقميًا، وتقدِّم إرشادات حول كيفية تقييم المحتوى دون تحديد مدى صحة المعلومات التي قد تؤثر على الانتخابات. يشير المجلس أيضًا إلى بيئة الإعلام الحزبي في إقليم كردستان العراق، سواءً في وسائل الإعلام التقليدية أو على وسائل التواصل الاجتماعي (راجع التعليق العام PC-31199، مركز الدراسات المتقدمة في قانون الإنترنت والذكاء الاصطناعي). فالإبقاء على المحتوى دون وضع تسمية عليه يؤثر سلبًا على قدرة المستخدمين على الحصول على المعلومات وعلى مشاركتهم في الخطاب السياسي في منظومة ضعيفة بالفعل من حيث حرية التعبير.
ولضمان الاتساق والترابط الداخلي للتدخل في التعبير (أي التسمية)، يتطلب الأمر وضع التسمية على كل مثيلات المقطع الصوتي. ففي حالة فيديو مفبرك للرئيس بايدن، أوصى المجلس أنه بالنسبة للوسائط التي تم التلاعب بها التي لا تنتهك معايير المجتمع الأخرى، ينبغي للشركة وضع تسمية "على كل المثيلات المتطابقة لتلك الوسائط على المنصة". يقرّ المجلس بالتزام Meta بتنفيذ هذه الوصية. وسيكون وضع التسمية على كل مثيلات المقطع الصوتي موضوع هذه الحالة متسقًا مع هذا الالتزام. كما أن ادعاء Meta في هذه الحالة بأنها لا تضع تلقائيًا التسمية "محتوى عالي الخطورة" على المحتوى الذي يشتمل على المقطع الصوتي يتعارض مع هذه التوصية.
الأهم من ذلك كله، أن وضع التسمية لا يؤدي إلى خفض تصنيف المحتوى أو منع التوصية به. بالإضافة إلى ذلك، فإن قلق Meta إزاء إرباك المستخدمين من خلال وضع تسمية خاطئة على المحتوى الذي يفنِّد المقطع الصوتي أو يدينه بشكل خاطئ ليس مقنعًا ولا تدعمه الأدلة. بل على العكس من ذلك، فإن عدم وضع التسمية على كل مثيلات المقطع الصوتي من شأنه أن يزيد من فرص تضليل الجمهور وإرباكه. ويشير المجلس إلى أن بعض المستخدمين علَّقوا على منشور المنفذ الإعلامي معتقدين أن المقطع الصوتي حقيقي. ووفقًا لشركة Meta، وضعت الشركة تسمية على منشورات أخرى من نفس المنفذ الإعلامي تضمنت أيضًا نفس المقطع الصوتي. فمن المحتمل أن يؤدي وضع تسمية على بعض المنشورات وليس كلها الصادرة من نفس المنفذ الإعلامي إلى إرباك المستخدمين، أو الأسوأ من ذلك، تضليلهم بشكل أكبر. وكما أشار إليه المجلس في قرار فيديو مفبرك للرئيس بايدن، فإن وضع تسمية على جزء صغير من المحتوى "يمكن أن يوجِد انطباعًا خاطئًا بأن المحتوى غير المصحوب بتسمية جدير بالثقة بطبيعته". ويشعر المجلس بالقلق إزاء وضع Meta الانتقائي للتسمية في الفترة التي سبقت انتخابات تتسم بالتنافس الحاد والاستقطاب الشديد. وعلى الرغم من ذلك، فإن المجلس غير مقتنع بالحاجة إلى تسميتين منفصلتين من النوع "محتوى عالي الخطورة"، تشير إحداهما تشير إلى أن المحتوى ربما تم التلاعب به، وتشير الأخرى إلى أنه تم التلاعب به بالفعل. وينبغي لشركة Meta إعادة تقييم ما إذا كان هذا التعقيد الإضافي يحقق أي غرض مفيد.
يشعر المجلس بالقلق أيضًا من عدم توفر تسميات Meta للوسائط التي تم التلاعب بها باللغة الكردية السورانية، وهي إحدى اللغات المستخدمة في محتوى الحالة (أي أن الترجمة المصاحبة باللغة الكردية السورانية). ويشير المجلس إلى أن الكردية السورانية هي إحدى اللغات المتوفرة لمستخدمي فيسبوك. وعلى الرغم من ذلك، لن يتمكن المستخدمون الذين يتم تعيين إعدادات لغتهم افتراضيًا على الكردية السورانية من رؤية تسميات الذكاء الاصطناعي، مثل التسمية "محتوى عالي الخطورة"، بهذه اللهجة. في قرارات عديدة، أوصى المجلس بأن تتم ترجمة معايير مجتمع Meta وجوانب من إرشادات الإنفاذ الداخلية في Meta إلى اللغات التي يتحدث بها مستخدموها. ويتمثل الغرض من ذلك في التأكد من إعلام المستخدمين بالقواعد ولضمان الإنفاذ الدقيق (راجع مخاوف البنجابيين تجاه منظمة راشتريا سوايامسيفاك سانغ (RSS) في الهند والبرنامج التلقائي لميانمار وتغيير دلالة كلمات عربية ازدرائية إلى كلمات مقبولة). وبالمثل، تهدف التسمية "محتوى عالي الخطورة" إلى إعلام المستخدم بأن المحتوى ربما تم التلاعب به رقميًا. كما يجب أن يكون توفير التسمية باللغة المحلية المتاحة بالفعل على منصات Meta جزءًا من جهودها الرامية لضمان نزاهة الانتخابات، على أقل تقدير.
يشير المجلس إلى أن المشكلة في هذه الحالة تتعلق بمصداقية المقطع الصوتي، بغض النظر عن دقة الادعاءات الواردة فيه. وبالنظر إلى أن وضع تسمية على المقطع الصوتي تفيد بأنه يُشتبه أن يكون قد تم إنشاؤه أو فبركته رقميًا من شأنه أن ينبه المستخدمين على نحو مماثل للتأكد من دقة المحتوى، يرى المجلس أن تطبيق سياسة المعلومات المضللة على الوسائط التي تم التلاعب بها كافٍ. وعلى الرغم من ذلك، يُعرب المجلس عن قلقه لعدم توفر جهات تدقيق حقائق على دراية باللغة الكردية لدى Meta لمراجعة المحتوى أثناء فترة الانتخابات كجزء من تدابيرها لضمان نزاهة الانتخابات. وهذا ينطبق بشكل خاص في سياق بيئة سياسية شديدة الاستقطاب ووسائل إعلام مستقلة بدرجة محدودة، وتاريخ من المعلومات الانتخابية المضللة وحملات التضليل المنسقة.
الإنفاذ
يشعر المجلس بالقلق إزاء عدم الاتساق والقصور في إنفاذ سياسة Meta بشأن الوسائط التي تم التلاعب بها، واعتماد الشركة على جهات خارجية لإجراء التقييم الفني للمحتوى الذي يُشتبه في التلاعب به. في فيديو مفبرك للرئيس بايدن، أبلغت Meta المجلس أن "مقاطع الفيديو التي تتضمن كلامًا تعتبر الأكثر تضليلاً والأسهل من حيث الاكتشاف بشكل يُعتمد عليه". في تلك الحالة، نبَّه المجلس Meta إلى أن "المحتوى الصوتي فقط يمكن أن يتضمن إشارات أقل لعدم المصداقية، وبالتالي يكون مضللاً بقدر محتوى الفيديو أو أكثر". وفي تلك الحالة، اقترح المجلس على Meta عدم التركيز على الصور الفوتوغرافية أو الصور الثابتة، مع تحديد مقاطع الفيديو والمقاطع الصوتية التي تم التلاعب بها كأولوية. إلا أنه وفيما يتعلق بتحديد المحتوى الذي تم إنشاؤه أو التلاعب به بواسطة الذكاء الاصطناعي على منصاتها، أفادت Meta أنه يمكنها فقط القيام تلقائيًا بتحديد الصور الثابتة ووضع تسمية عليها، لكن ليس محتوى الفيديو أو الصوت. وعند وضع التسمية "معلومات ذكاء اصطناعي" على المقاطع الصوتية ومقاطع الفيديو، تعتمد الشركة على المستخدمين للإفصاح بأنفسهم عن استخدام الذكاء الاصطناعي. وبالنظر إلى أن Meta هي إحدى الشركات الرائدة في مجال التكنولوجيا والذكاء الاصطناعي في العالم، بمواردها والاستخدام الواسع لمنصات Meta، يؤكد المجلس على أن Meta ينبغي أن تمنح الأولوية للاستثمار في التكنولوجيا القادرة على القيام على نطاق واسع بتحديد ووضع تسمية على مقاطع الفيديو والمقاطع الصوتية التي تم التلاعب بها. بالإضافة إلى ذلك، وبالنسبة إلى المحتوى الذي قامت الشركة بالفعل بتحديده وتقييمه على أنه يُشتبه أن يكون قد تم التلاعب به وأنه "يشكّل بحد ذاته خطرًا كبيرًا لخداع الجمهور بشكل ملموس بشأن مسألة ذات أهمية عامة"، فإن إخفاق Meta في استخدام ما لديها من أدوات لوضع التسمية "معلومات ذكاء اصطناعي" تلقائيًا على كل عناصر المحتوى المشتملة على وسائط تم التلاعب بها يُعد غير منطقي وغير مبرَّر.
وفي الختام، ينبغي لشركة Meta إعادة النظر في جدوى امتلاك الخبرة الداخلية لتقييم ما إذا كان المحتوى قد تم التلاعب به. إذ لا يتضح للمجلس السبب الذي يدعو شركة بهذه الخبرة الفنية والموارد إلى التعهيد إلى منافذ إعلامية أو شركاء موثوق بهم لتحديد الوسائط التي يُشتبه في التلاعب بها في حالات عالية المخاطر.
6. قرار مجلس الإشراف
ألغى مجلس الإشراف قرار Meta بعدم وضع تسمية على المحتوى، وطلبَ وضع تسمية على المنشور.
7. التوصيات
الإنفاذ
1. لضمان وضع التسميات "محتوى عالي الخطورة" بشكل متسق على جميع عناصر المحتوى التي تم التلاعب بها المتطابقة أو المتشابهة، ينبغي لشركة Meta وضع التسمية المناسبة على كل عناصر المحتوى المشتملة على نفس الوسائط التي تم التلاعب بها على منصاتها، بما في ذلك جميع المنشورات التي تحتوي على المقطع الصوتي الذي تم التلاعب به في هذه الحالة.
سيعتبر المجلس أن هذه التوصية قد دخلت حيز التنفيذ عندما توفِّر Meta للمجلس عملية واضحة لتحديد ووضع التسمية "محتوى عالي الخطورة" المناسبة باستمرار على كل مثيلات الوسائط التي تم التلاعب بها على مستوى المنصة.
2. كجزء من جهودها الرامية لضمان نزاهة الانتخابات وللتأكد من إعلام المستخدمين بالوسائط التي تم التلاعب بها الموجودة على منصات Meta في الفترة التي تسبق الانتخابات، ينبغي على شركة Meta التأكد من عرض التسميات التوضيحية للوسائط التي تم التلاعب بها على فيسبوك وInstagram وThreads بنفس اللغة التي اختارها المستخدم لمنصتها.
سيعتبر المجلس أن هذه التوصية قد دخلت حيز التنفيذ عندما توفِّر Meta معلومات في مركز الشفافية الخاص بها حول اللغات التي تتوفر بها تسميات الوسائط التي تم التلاعب بها للمستخدمين على منصاتها.
*ملاحظة إجرائية:
- يتم اتخاذ قرارات مجلس الإشراف من قِبَل لجان مكونة من خمسة أعضاء، وتتم الموافقة عليها بأغلبية أصوات المجلس بالكامل. ولا يلزم بالضرورة أن تُعبّر قرارات المجلس عن وجهات النظر لجميع الأعضاء.
- بموجب اتفاقيته، يجوز لمجلس الإشراف مراجعة الطعون المقدمة من المستخدمين الذين قامت Meta بإزالة محتواهم، والطعون المقدمة من المستخدمين الذين أبلغوا عن محتوى قامت Meta بالإبقاء عليه، والقرارات التي أحالتها Meta إليه (المادة 2، القسم 1 من الاتفاقية). وللمجلس سلطة مُلزمة تخوله من تأييد أو إلغاء القرارات التي تتخذها Meta بشأن المحتوى (المادة 3، القسم 5 من الاتفاقية؛ المادة 4 من اتفاقية المجلس). ويحق للمجلس إصدار توصيات غير ملزِمة تكون شركة Meta ملزَمة بالرد عليها (المادة 3، القسم 4 من الاتفاقية؛ المادة 4). وعندما تلتزم Meta بتنفيذ التوصيات، يراقب المجلس هذا التنفيذ.
- بالنسبة إلى القرار المتخذ بشأن هذه الحالة، أُجري بحث مستقل نيابةً عن المجلس. وقد تلقى المجلس مساعدة من شركة Duco Advisors، وهي شركة استشارات تركز على نقطة التقاء الجغرافيا السياسية والثقة والأمان والتكنولوجيا.
- كما تم توفير الخبرة اللغوية بواسطة شركة Lionbridge Technologies LLC، التي يتقن المتخصصون بها أكثر من 350 لغة ويعملون من 5000 مدينة في جميع أنحاء العالم.
العودة إلى قرارات الحالة والآراء الاستشارية المتعلقة بالسياسة