أسقط
希法医院
تم النشر بتاريخ 19 كانُون الْأَوَّل 2023
监督委员会推翻了 Meta 从 Instagram 移除这条内容的最初决定。监督委员会认为,恢复该内容在平台上的展示并为其添加警告画面,提醒用户“该内容可能令人不适”,这种做法符合 Meta 的内容政策、价值观和人权责任。
在本案决定发布后的几周内,我们会将本决定的希伯来语翻译版本上传到此处,另外本决定的阿拉伯语翻译版本将可通过点击屏幕上方菜单中的“语言”选项卡查看。
לקריאת החלטה זו בעברית יש ללחוץ כאן.
1. 摘要
本案涉及一段会引起激烈情绪反应的视频,其中展示了以色列地面进攻期间,加沙希法医院或其附近遭到袭击后的画面,视频还配有谴责此次袭击的配文。Meta 的自动审核系统移除了该帖子,理由是它违反了其社群守则有关暴力和血腥内容的规定。在就该决定向 Meta 提出异议但失败后,该用户向监督委员会提起了申诉。在监督委员会确定审理此案后,Meta 撤销了其决定,将该内容恢复了展示并为其添加了警告画面。监督委员会认为,Meta 最初移除该内容的决定不符合该公司的内容政策,也未遵守其人权责任。监督委员会同意恢复展示该内容并为其添加警告画面的决定,但不同意对该内容进行相关降级,禁止其获得推荐。此案同“以色列人质遭绑架”案 (2023-050-FB-UA) 是监督委员会通过加急审理程序裁决的第一批案件。
2. 背景和 Meta 的回应
2023 年 10 月 7 日,哈马斯(Meta 社群守则有关危险组织和人物的规定将其认定为一级危险组织)从加沙对以色列发动了史无前例的恐怖袭击,导致约 1,200 人死亡,约 240 人被劫持为人质(以色列政府外交部)。作为对该袭击的回应,以色列立即在加沙发动军事行动。截至 2023 年 12 月中旬,在一场双方都被指控违反国际法的冲突中,以色列的军事行动已在加沙造成 18,000 多人死亡(联合国人道主义事务协调厅,数据来自加沙卫生部)。哈马斯的恐怖袭击和以色列随后的军事行动都成为了全世界争相报道、密切关注、激烈辩论和争论的主题,其中大部分发生在 Instagram 和 Facebook 等社交媒体平台上。
随即,Meta 依据其有关危险组织和人物的政策,将 10 月 7 日发生的事件定性为恐怖袭击。根据其社群守则,这意味着 Meta 将移除其平台上任何“赞扬和实质性支持”10 月 7 日袭击事件或其作恶者的内容,或“充当其代言人”的内容。
发生该恐怖袭击和军事回应事件后,发布到 Meta 旗下平台上的暴力和血腥内容异常激增,为应对这一情况,Meta 采取了几项临时措施,比如,降低其暴力和血腥内容自动分类系统(分类技术)的置信度阈值,以便识别和移除这类内容。Meta 告知监督委员会,这些措施适用于源自以色列和加沙的所有语言的内容。由于对这些分类技术进行了更改,违反 Meta 政策的置信度较低的内容被自动移除的情况增加。换言之,Meta 加大了力度使用其自动化工具移除可能违反其政策的内容。Meta 这样做是为了优先考虑其“安全”价值观,移除的内容数量超过了 10 月 7 日之前置信度阈值更高时的数量。虽然这种做法降低了 Meta 无法移除那些可能规避检测或人工审核不到的违规内容的概率,但也提高了 Meta 错误移除与冲突相关但却未违规的内容的概率。
在升级处理团队将某视频判定为违反了其有关暴力和血腥内容、暴力与煽动暴力以及危险组织和人物的政策后,Meta 便利用媒体匹配服务库自动移除与之匹配的视频。这种方法引发了过度执行的问题,包括用户因多次违反 Meta 内容政策而面临帐户被施加限制或暂停(有时被称为“Facebook 监狱”)。原本在媒体匹配服务库自动移除内容帖子时,Meta 通常会进行违规记分,但为了缓解这一问题,Meta 对这些内容不进行“违规记分”(正如 Meta 在其新闻中心文章中所述)。
Meta 对分类技术的置信度阈值及其违规记分政策作出的改变仅限于以色列-加沙冲突,并且是暂时性的。截至 2023 年 12 月 11 日,Meta 尚未将置信度阈值恢复至 10 月 7 日之前的水平。
3. 案件说明
本案内容涉及 11 月第二周在 Instagram 上发布的一段视频,该视频展示了以色列在加沙地带北部发动地面进攻期间,加沙市希法医院或其附近遭到袭击后的画面。本案中的 Instagram 帖子显示,地上躺着许多人,其中还有儿童,他们死的死,伤的伤,还有人在哭泣。其中一名儿童头部严重受伤,似乎已经死亡。视频下方配有阿拉伯语和英语的说明文字,称这座医院遭到了“usurping occupation”(意为“强盗侵略者”,指以色列军队)的袭击,同时还标记了一些人权和新闻组织。
Meta 有关暴力和血腥内容的社群守则对 Facebook 和 Instagram 上的内容做出了规定:禁止发布“展示非医疗环境中,人体或尸体…露出内脏器官的视频”。在该帖子发布时,该政策允许“展示个人或群体因意外或谋杀惨烈死亡的图像”,前提是此类内容要添加“该内容可能令人不适”的警告画面,并且仅对 18 岁以上的用户可见。在本案内容恢复展示后,该规定于 11 月 29 日进行了更新,其中说明了,该规定还适用于描绘某人“死亡当时或死亡后的场景”以及“经历生命受到威胁的事件”的图像。
Meta 的自动化系统以违反有关暴力和血腥内容的社群守则为由,移除了本案中的内容。该用户对此决定提起的申诉自动被拒,因为 Meta 的分类技术表明该内容违规的“置信度很高”。之后,该用户就 Meta 的决定向监督委员会提起了申诉。
在监督委员会选择审理此案件后,Meta 表示无法最终确定该视频是否展示了露出的内脏器官。因此,Meta 得出结论,尽管该内容已处于违规的“边缘”,但不应被移除。Meta 进一步解释称,即使有露出的内脏器官,该帖子也应该保留,并添加警告画面,提醒用户“该内容可能令人不适”,因为其分享目的是提高人们的认知。该公司重申,血腥和暴力内容政策的政策依据允许用户为了帮助人们提高对“侵犯人权、武装冲突或恐怖主义行为等重大议题”的认知而发布此类内容。
因此,Meta 推翻了其原来的决定,恢复了该内容,并为其添加了警告画面,提醒用户该内容可能令人不适。成人用户可以点击查看该帖子,但 Meta 会从 18 岁以下的 Instagram 用户的动态中和推荐给 Instagram 成人用户的内容中移除该帖子。Meta 还将同一视频的一个单独实例添加到了媒体匹配服务库中,因此与该视频相同的其他视频将自动保留下来并显示警告画面,并且仅对 18 岁以上的用户可见。
4. 加急审理的理由
监督委员会的细则规定,“在特殊情况下,包括内容可能带来紧急的现实影响时”,可采用加急审理流程,并且由此做出的决定对 Meta 具有约束力(章程第 3 条第 7.2 款;细则第 2 条第 2.1.2 款)。 加急审理流程免去了按正常时间安排审理案件时应进行的广泛研究、外部咨询或公众评议征询流程。监督委员会根据审议时掌握的信息对案件做出裁决,并由五名成员组成的审议小组敲定最终决定,无需监督委员会全体投票。
监督委员会选择审理本案和另一起“以色列人质遭绑架”案 (2023-050-FB-UA),是因为表达自由在冲突局势中至关重要,而表达自由在以色列-哈马斯冲突的背景下受到了威胁。这两起案件代表了该地区用户自 10 月 7 日的袭击和以色列随后采取军事行动以来向监督委员会提交的申诉类型。两起案件都属于监督委员会定义的“危机和冲突事件”重点领域。Meta 在这两起案件中的决定都符合“紧急的现实影响”的标准,有理由采用加急审理,因此监督委员会和 Meta 均同意采用监督委员会的加急审理程序。
在向监督委员会提交的信息中,Meta 承认“难以决定如何处理该内容,并且其中涉及价值观冲突和利弊权衡”,并欢迎监督委员会就此问题提出意见。
5. 用户提交的信息
该帖子的作者在向监督委员会提起的申诉中表示,他们没有煽动任何暴力,而是分享了展现巴勒斯坦人(包括儿童)所受苦难的内容。该用户补充道,移除该内容是对巴勒斯坦人所受苦难的不公正对待。该用户已收到监督委员会审理其申诉的通知。
6. 决定
虽然监督委员会成员对以色列的军事回应及其正当性存在分歧,但他们一致同意,Meta 要尊重所有受这些事件影响的人的表达自由权和其他人权,以及他们在这场危机中沟通信息的能力。
监督委员会推翻了 Meta 从 Instagram 移除这条内容的最初决定。监督委员会认为,恢复该内容在平台上的展示并为其添加警告画面,提醒用户“该内容可能令人不适”,这种做法符合 Meta 的内容政策、价值观和人权责任。然而,监督委员会也认为,Meta 将恢复的内容降级(排除其被推荐的可能性)不符合该公司尊重表达自由的责任。
6.1 对 Meta 内容政策的遵守情况
监督委员会同意 Meta 的观点:很难确定本案视频是否展示了“露出的内脏器官”。在本案的背景中,保护信息获取渠道和提供提高人们对冲突事件影响的认知的途径具有极高的公共利益价值,因此,处于违反暴力和血腥内容政策“边缘”的内容不应被移除。由于该内容包含展示个人惨烈死亡的图像,描绘了头部流血受伤的情景,Meta 应根据其政策为该内容添加警告画面,并让该内容仅对 18 岁以上的用户可见。
监督委员会也同意 Meta 随后的决定:即使该视频包含露出的内脏器官,但鉴于该帖子对暴行的语言谴责或其提高人们对暴行的认知之目的,该内容也应该保留,添加警告画面,提醒用户“该内容可能令人不适”,并且不向 18 岁以下的用户展示。社群守则中适用的政策(“展示医疗环境中,人体或尸体场景[…]露出内脏器官的视频”)没有规定可以添加警告画面。在苏丹血腥暴力视频案中,监督委员会解释称,Meta 指示审核员严格遵守政策中“禁止发布以下内容”部分的规定。该政策的政策依据指出,“在讨论侵犯人权、武装冲突或恐怖主义行为等重大议题的背景下,我们允许用户出于帮助人们表达谴责和提高对相关议题的认知而发布血腥内容(但有一定限制)。”然而,这条社群守则规定,禁止发布任何在非医疗环境下,展示人体或尸体“露出内脏器官”的视频,并且在涉及政策依据中的例外情况时,并没有为审核员提供给内容添加警告画面的选项。Meta 自动化系统的配置似乎无法对语境是谴责暴行或提高人们对暴行的认知的血腥内容视频添加警告画面。另外,我们也不清楚,在带有这种上下文的情况下,适用的分类技术是否能够将该内容发送给人工审核员进行进一步评估。
6.2 对 Meta 人权责任的遵守情况
根据其人权责任,Meta 对暴力和血腥内容的审核必须尊重表达自由权,包括寻求、接受和传播各种消息的自由(《公民权利和政治权利国际公约》[International Covenant on Civil and Political Rights,简称 ICCPR],第 19 条第 2 款)。正如监督委员会在“亚美尼亚战俘视频”案中所述,《公民权利和政治权利国际公约》(ICCPR) 第 19 条对表达自由的保护“在武装冲突期间仍然适用,并且应该连同国际人道法中在此类冲突期间适用的相互加强和互补的规定一起,继续作为 Meta 人权责任的依据。”《联合国工商企业与人权指导原则》对在冲突环境中运营的企业施加了更高的责任(“工商企业、人权和受冲突影响区域:加强行动”,A/75/212)。
监督委员会在之前的案件中曾强调,Facebook 和 Instagram 等社交媒体平台是传播暴力事件实时信息(包括新闻报道)的重要载体(请参见“新闻报道中提及塔利班”案)。它们在武装冲突中发挥着尤其重要的作用,特别是在记者进入该地区受限的情况下。此外,描绘暴力袭击和侵犯人权的内容具有重要公共利益价值(请参见“苏丹血腥暴力视频”案)。
根据国际人权法,若国家对表达自由权施加限制,则此等限制措施必须满足合法性、正当目的、必要性和相称性的要求(ICCPR 第 19 条第 3 款)。这些要求通常被称为“三方面要求”。监督委员会使用这一框架来解读 Meta 的自愿人权承诺,这既涉及到正在接受审理的个别内容决定,也涉及到 Meta 更广泛的内容监管方法。在此过程中,监督委员会将尽量谨慎区分私营社交媒体公司和政府机构在遵守这些法律上的差别。但是,联合国促进和保护意见和表达自由权问题特别报告员曾表示:尽管公司没有政府的义务,“但它们造成的影响则要求它们评估保护其用户表达自由权利的类似问题。”(报告 A/74/486,第 41 段)。
根据合法性原则,对自由表达的任何限制都应足够清晰明确且易于理解,就允许与禁止的情况提供相应指导。监督委员会此前曾提出担忧,社群守则有关暴力和血腥内容政策的政策依据说明了制定该政策的目的,但该政策依据与该政策的具体规定却不完全一致(请参见“苏丹血腥暴力视频”案和“尼日利亚教堂遭袭后的视频”案)。监督委员会重申“苏丹血腥暴力视频”案中建议 1 和建议 2 的重要性,这些建议要求 Meta 修改关于暴力和血腥内容的社群守则,允许用户出于提高人们对践踏人权行为的认知或记录践踏人权的行为而发布人体或尸体场景的视频(该案件涉及展示肢解画面)。作为对这些建议的回应,Meta 开展了政策制定流程,并计划在下一季度更新报告中向监督委员会报告其进展情况。监督委员会认为,这条建议应适用于展示露出内脏器官的视频的规定,具体修改应为:在涉及提高认知(包括事实报道)和表达谴责的例外情况时,应将添加警告画面作为一项政策执行措施。
根据 ICCPR 第 19 条第 3 款,可出于明确而有限的理由对表达进行限制。监督委员会此前发现,有关暴力和血腥内容的政策的正当目的是保护他人的权利,包括所描述个人的隐私权(请参见“苏丹血腥暴力视频”案和“尼日利亚教堂遭袭后的视频”案)。此外,本案还表明,限制 18 岁以下用户访问该内容符合保护未成年人健康权的正当目的(《儿童权利公约》第 24 条)。
必要性和相称性原则要求,对表达自由的任何限制“必须适合于实现保护功能;必须是可用来实现预期结果的诸种手段中侵犯性最小的一个;[且]必须与要保护的利益相称”(第 34 号一般性意见,第 34 段)。
监督委员会此前发现,对于暴力和血腥内容,警告画面“不会对想要查看此内容的用户造成过度负担,同时还能告知用户此内容的性质,让用户自行决定是否要观看”(请参见“苏丹血腥暴力视频”案)。警告画面可防止用户非自愿看到可能令人不适的内容。Meta 的政策进一步保护了受害者的权利,在家属提出要求时,Meta 会移除展示某人惨烈死亡(或死后不久)的视频和照片。本案内容与“俄语诗”案的内容有所区别,“俄语诗”案中的内容是一张静图,显示了尸体躺在地上的远景,从画面中看不到受害者的面容,而且没有明显的暴力迹象。在“俄语诗”案中,应用警告画面不符合 Meta 对审核员的指导,也是对表达自由的一种不必要或不相称的限制。本案内容与“尼日利亚教堂遭袭后的视频”案中的内容更为相似,都是近距离展示了死者和伤者,且具有非常明显的暴力迹象。
在本案中,视频中对死伤儿童的描述尤其令人悲痛。在这种情况下,让用户能够选择是否要观看可能令人悲痛的内容,是一种必要且相称的做法。(另请参见“亚美尼亚战俘视频”案)。
监督委员会认为,鉴于旨在提高人们对潜在侵犯人权行为、违反战争法行为、冲突或恐怖主义行为的认知的内容具有重要公共利益价值,因此将此类内容从推荐给成人用户的内容中移除是对表达自由的一种不必要或不相称的限制。添加警告画面和从推荐内容中移除这两种措施具有不同的作用,并且在某些情况下应该分开执行,特别是在危机局势中。Instagram 上的推荐内容由自动化系统生成,该系统通过预测用户的兴趣向用户推荐内容。将内容从推荐系统中移除意味着减少该内容本来可以覆盖的范围。监督委员会认为,由于内容已经仅限成人用户可见,并且发布内容的目的是提高人们对涉及公共利益的事件(例如暴力冲突的发展)的认知、对此类事件表示谴责或进行报道,因此将此类内容从推荐系统中移除的措施会对表达自由造成严重不利影响。
监督委员会承认,即时应对危机可能需要采取特殊的临时措施,并且在某些情况下,优先考虑安全问题并暂时适当加大对表达自由的限制是合情合理的。比如,其中部分内容在“基督城行动呼吁”中打击“恐怖主义和暴力极端主义内容”的承诺中也有阐述。不过,监督委员会指出,“基督城行动呼吁”强调要在保障人权和基本自由的前提下处理此类内容。监督委员会认为,不能以出于安全考虑为由,移除旨在提高人们对潜在战争罪、反人类罪或严重侵犯人权行为的认知或对其表示谴责的血腥内容。此类限制甚至可能会阻碍保障冲突当地人员安全所必需的信息的流通。
在冲突局势期间,不进行违规记分等措施确实有助于减轻因采取紧急措施(例如降低移除内容的置信度阈值)而导致的政策执行错误带来的严重不利影响。然而,在冲突局势中,这些措施不足以保护用户分享以下内容的能力:旨在提高人们对潜在侵犯人权和违反人道法行为的认知的内容以及其他重要信息。
监督委员会多次强调,要在危机时期和冲突地区建立一个原则清晰、公开透明的内容审核框架(请参见“海地警察局视频”案和“提格雷通讯事务管理局”案)。正是在冲突形势迅速变化的时期,大型社交媒体公司必须投入必要的资源,确保表达自由不会受到不必要的限制。在这种时期,新闻来源经常会受到人身攻击和其他攻击,因此普通民众在社交媒体上进行新闻报道显得尤为重要。
监督委员会此前也发现,在战争或政治动荡的背景下,用户会拍摄更多血腥暴力内容并在平台上分享,以提高人们对暴行的认知或记录暴行(请参见“苏丹血腥暴力视频”案)。在以色列-加沙冲突这类背景下,平民伤亡数量惊人,其中儿童的比例很高,同时人道主义危机加剧,因此对此类内容采取特例处理尤其重要。虽然已经了解到 Meta 正在就其暴力和血腥内容政策开展政策制定流程,但监督委员会希望 Meta 准备好快速实施临时措施,允许发布此类内容,并为其添加警告画面,不再将其从推荐内容中移除。
监督委员会指出,发布本内容时加沙的局势给 Meta 带来的挑战与 10 月 7 日袭击事件带来的挑战并不相同。在加沙,从当地民众那里获取信息一直存在困难,同时记者进入该地区受限,互联网连接也已中断。此外,与 10 月 7 日袭击事件不久后的情况不同,本案中所呈现的加沙局势并没有涉及恐怖分子利用社交媒体传播他们的暴行。在武装冲突的背景下,Meta 反而应确保其采取的做法不会加大用户分享包含下列信息的内容的难度:旨在提高人们对伤害平民行为的认知的信息,以及可能有助于确定是否发生了违反国际人道法和国际人权法的行为的信息。所有审核员评估此类内容时的切入点应该是,思考分享内容的目的是否是提高人们对当地事件的认知或对其表达谴责,并且 Meta 在设计其自动化系统时,应避免错误移除属于例外情形的内容。
此案进一步说明,在应对危机的背景下,对自动审核系统的人为监督不足可能会导致错误移除可能具有重要公共利益价值的言论。最初移除该内容的决定以及拒绝用户申诉的决定都是系统根据分类技术得出的评分自动做出,没有经过任何人工审核。Meta 在 10 月 7 日的袭击之后采取的危机应对措施 — 降低根据有关暴力和血腥内容的政策移除内容的门槛,可能反过来进一步加剧了这一问题。这意味着,即使分类技术对内容违规可能性给出的评分相对低于常规要求,Meta 也会移除该内容。
为了督促 Meta 在使用自动化系统时遵守其人权承诺,监督委员会提醒 Meta 注意“影射哥伦比亚警察的漫画”案中的建议 1。在该案件中,监督委员会要求 Meta 确保重新评估具有高申诉率和高申诉成功率的内容,以便确定是否有可能将该内容从其媒体匹配服务库中移除。为了回应这一建议,Meta 成立了一个专门的工作组,致力于改进对其媒体匹配服务库的管理(请在此处查看 Meta 的最新更新报告)。监督委员会指出,该工作组必须特别注意武装冲突背景下媒体匹配服务的使用。在“乳腺癌症状与裸露内容”案中(建议 3 和 6),监督委员会建议 Meta 在使用自动化系统对用户内容采取强制措施时通知用户,并披露以下数据:根据社群守则自动做出移除决定的次数,以及这些决定在经过人工审核后被撤销的比例。当针对可能违规内容的置信度阈值据称已大幅降低时,这一点尤为重要。监督委员会敦促 Meta 在实施建议 6 方面取得更多进展,并与监督委员会分享实施建议 3 的证据。
对表达自由的限制必须是非歧视性的,包括基于国籍、族裔、宗教或信仰、政治或其他观点的限制(ICCPR 第 2 条第 1 款和第 26 条)。带有歧视性地执行社群守则损害了表达自由的这一基本面。在“分享半岛电视台的帖子”一案中,监督委员会对 Meta 在以色列和巴勒斯坦被占领土中的内容审核失误可能分布不均表示严重关切,并要求开展独立调查(“分享半岛电视台的帖子”案的决定,建议 3)。为回应该建议,Meta 委托企业社会责任组织(Business for Social Responsibility,简称 BSR)开展了人权影响评估,结果发现“多种实例确实有失公允,虽非有意为之,但其中的 Meta 政策和措施,再加上更广泛的外部动荡局势,确实对巴勒斯坦和阿拉伯语用户分别造成了不同的人权影响。”监督委员会建议 Meta 兑现针对 BSR 报告做出的承诺。
最后,正如 BSR 报告(建议 21)中所建议的以及民间社会团体所倡导的那样,Meta 有责任保存潜在侵犯人权和违反国际人道法行为的证据。即使内容已从 Meta 平台上移除,为了未来的问责,保留此类证据也至关重要(请参见“苏丹血腥暴力视频”案和“亚美尼亚战俘视频”案)。虽然 Meta 解释称,会将所有违反社群守则的内容保留一年,但为了更长期的问责,监督委员会敦促 Meta 识别具体与潜在战争罪、反人道罪和严重侵犯人权行为相关的内容,并延长保留这些内容的时间,同时让人们能够更方便地检索和获取这些内容。监督委员会注意到,Meta 已同意实施“亚美尼亚战俘视频”案中的建议 1。这项建议要求 Meta 制定一项方案来保存相关信息,并在适当情况下与主管当局分享这些信息,以协助开展调查或法律程序,从而纠正或起诉残暴罪行或严重的人权侵犯行为。Meta 告知监督委员会,其制定“统一方案以保留残暴罪行和严重违反国际人权法行为的潜在证据”的工作已进入最后阶段,并会很快向监督委员会提供有关该方案的简要介绍。监督委员会期望 Meta 全面实施上述建议。
*程序说明:
监督委员会的加急决定由五名成员组成的审议小组做出,并且无需获得整个监督委员会多数成员的批准。监督委员会的决定不一定代表所有成员的个人观点。
العودة إلى قرارات الحالة والآراء الاستشارية المتعلقة بالسياسة