أسقط

Bệnh viện Al-Shifa

Ủy ban hủy bỏ quyết định ban đầu mà Meta đưa ra là gỡ nội dung khỏi Instagram. Ủy ban nhận thấy rằng việc khôi phục nội dung này trên nền tảng kèm theo màn hình cảnh báo "đánh dấu là gây khó chịu" là phù hợp với chính sách nội dung, giá trị và trách nhiệm về nhân quyền của Meta.

نوع القرار

Expedited

السياسات والمواضيع

عنوان
سلامة، عنف، حرب وصراع
معيار المجتمع
محتوى عنيف وصادم

المناطق/البلدان

موقع
إسرائيل، الأراضي الفلسطينية

منصة

منصة
Instagram

Trong những tuần sau khi công bố quyết định này, chúng tôi sẽ tải bản dịch bằng tiếng Do Thái lên đây, còn bản dịch bằng tiếng Ả Rập sẽ có tại tab "ngôn ngữ" trong menu ở đầu màn hình này.

לקריאת החלטה זו בעברית יש ללחוץ כאן.

1. Tóm tắt

Trường hợp này xoay quanh một video tác động mạnh đến cảm xúc của người xem, quay khung cảnh sau vụ đột kích vào hoặc gần bệnh viện Al-Shifa ở Gaza trong cuộc tấn công trên bộ của Israel. Đi kèm video là phần chú thích lên án vụ tấn công. Các hệ thống tự động của Meta đã gỡ bài viết này vì lý do vi phạm Tiêu chuẩn cộng đồng về Nội dung bạo lực và phản cảm. Sau khi liên hệ với Meta để phản đối quyết định trên nhưng không thành công, người dùng đã kháng nghị lên Ủy ban Giám sát. Sau khi Ủy ban xác định xem xét trường hợp này, Meta đã hủy bỏ quyết định của mình và khôi phục nội dung đó kèm theo màn hình cảnh báo. Ủy ban cho rằng quyết định gỡ nội dung mà Meta đưa ra ban đầu không tuân thủ chính sách nội dung hoặc trách nhiệm về nhân quyền của công ty. Ủy ban tán thành quyết định khôi phục nội dung kèm theo màn hình cảnh báo, nhưng không tán thành việc kết hợp hạ bậc nội dung để ngăn nội dung xuất hiện trong các đề xuất. Trường hợp này và trường hợp Con tin bị bắt cóc từ Israel (2023-050-FB-UA) là các trường hợp đầu tiên mà Ủy ban ra quyết định theo quy trình xem xét nhanh.

2. Bối cảnh trường hợp và phản hồi của Meta

Vào ngày 07/10/2023, Hamas – một tổ chức được xác định thuộc Cấp 1 theo Tiêu chuẩn cộng đồng của Meta về Cá nhân và tổ chức nguy hiểm – đã tiến hành các vụ tấn công khủng bố chưa từng có vào Israel từ Gaza. Hậu quả là ước tính có 1.200 người thiệt mạng và khoảng 240 người bị bắt cóc làm con tin (theo Bộ Ngoại giao, Chính phủ Israel). Israel đã lập tức đáp trả bằng một chiến dịch quân sự ở Gaza. Tính đến giữa tháng 12/2023, Israel đã có hành động quân sự khiến hơn 18.000 người ở Gaza thiệt mạng (theoVăn phòng Điều phối các Vấn đề Nhân đạo của Liên Hiệp Quốc, dựa trên dữ liệu từ Bộ Y tế ở Gaza) trong cuộc xung đột mà cả hai bên đều bị cáo buộc là vi phạm luật quốc tế. Cả các vụ tấn công khủng bố lẫn hành động quân sự sau đó của Israel đều trở thành chủ đề dư luận, tranh luận, xem xét kỹ lưỡng và tranh cãi dữ dội khắp toàn thế giới, chủ yếu diễn ra trên các nền tảng mạng xã hội, trong đó có Instagram và Facebook.

Meta lập tức xác định sự kiện ngày 07/10 là một vụ tấn công khủng bố theo chính sách của công ty về Cá nhân và tổ chức nguy hiểm. Theo Tiêu chuẩn cộng đồng, điều này nghĩa là Meta sẽ gỡ bất kỳ nội dung nào trên các nền tảng của công ty mà "ca ngợi, ủng hộ to lớn hoặc đại diện" cho những vụ tấn công hôm 07/10 hay cho thủ phạm thực hiện các vụ tấn công đó.

Nhằm ứng phó với việc nội dung bạo lực và phản cảm đột nhiên xuất hiện nhiều trên các nền tảng của công ty sau khi những vụ tấn công khủng bố và biện pháp quân sự đáp trả xảy ra, Meta đã áp dụng một số biện pháp tạm thời, bao gồm cả việc giảm các ngưỡng độ tin cậy của hệ thống phân loại tự động (công nghệ phân loại) về Nội dung bạo lực và phản cảm, để xác định cũng như gỡ nội dung. Meta đã thông báo với Ủy ban rằng các biện pháp trên áp dụng cho nội dung có nguồn gốc từ Israel và Gaza ở mọi ngôn ngữ. Các thay đổi đối với những công nghệ phân loại này khiến ngày càng có nhiều nội dung bị gỡ tự động bất kể mức điểm thấp hơn về độ tin cậy rằng nội dung vi phạm chính sách của Meta. Nói cách khác, Meta đã quyết liệt hơn trong việc dùng các công cụ tự động để gỡ nội dung có thể vi phạm chính sách của mình. Meta làm vậy để ưu tiên giá trị an toàn của công ty, với nhiều nội dung bị gỡ hơn so với khi áp dụng ngưỡng độ tin cậy cao hơn trước ngày 07/10. Mặc dù làm giảm khả năng Meta sẽ bỏ sót nội dung vi phạm nếu nội dung đó có thể tránh bị phát hiện hoặc trong trường hợp khả năng xét duyệt bằng con người bị hạn chế, nhưng cách này cũng làm tăng khả năng công ty gỡ nhầm nội dung không vi phạm liên quan đến cuộc xung đột.

Khi đội ngũ ở cấp cao hơn đánh giá video là vi phạm các chính sách của công ty về Nội dung bạo lực và phản cảm, Bạo lực và khích nộ, Cá nhân và tổ chức nguy hiểm, Meta đã dựa vào trung tâm Dịch vụ so khớp tệp phương tiện để tự động gỡ video khớp. Biện pháp này làm gia tăng mối lo ngại về việc thực thi quá mức, bao gồm cả việc mọi người bị hạn chế hoặc bị tạm ngừng tài khoản sau nhiều lần vi phạm chính sách nội dung của Meta (đôi khi được gọi là "bị Facebook chặn"). Để hạn chế mối lo ngại đó, Meta đã không áp dụng "biện pháp cảnh cáo" mà thông thường sẽ đi kèm quyết định tự động gỡ nội dung dựa vào trung tâm Dịch vụ so khớp tệp phương tiện (như Meta đã thông báo trong bài viết trên trang tin tức).

Những thay đổi mà Meta thực hiện về ngưỡng độ tin cậy của công nghệ phân loại và chính sách cảnh cáo chỉ áp dụng cho cuộc xung đột giữa Israel và Gaza, đồng thời chỉ mang tính tạm thời. Đến ngày 11/12/2023, Meta vẫn chưa khôi phục ngưỡng độ tin cậy về mức trước ngày 07/10.

3. Mô tả trường hợp

Nội dung trong trường hợp này xoay quanh một video được đăng trên Instagram vào tuần thứ 2 của tháng 11, quay khung cảnh dường như là hậu quả của vụ đột kích vào hoặc gần Bệnh viện Al-Shifa ở thành phố Gaza trong cuộc tấn công trên bộ của Israel tại phía bắc Dải Gaza. Bài viết trên Instagram ở trường hợp này cho thấy khung cảnh mọi người, bao gồm cả trẻ em, nằm bất động không còn sự sống hoặc bị thương và đang than khóc. Một em nhỏ trông như đã chết, trên đầu có vết thương nặng. Theo phần chú thích bằng tiếng Ả Rập và tiếng Anh bên dưới video, bệnh viện này đã trở thành mục tiêu của "usurping occupation" (cuộc chiếm đóng) – ám chỉ quân đội Israel, đồng thời gắn thẻ các tổ chức nhân quyền và hãng thông tấn.

Tiêu chuẩn cộng đồng của Meta về Nội dung bạo lực và phản cảm (áp dụng cho nội dung trên Facebook và Instagram) nghiêm cấm "[v]ideo về người hoặc xác chết trong bối cảnh không liên quan đến y tế nếu video mô tả cảnh ... [c]ho thấy cơ quan nội tạng". Tại thời điểm đăng bài, chính sách này cho phép "[h]ình ảnh một người hay nhiều người tử vong do bạo lực trong vụ tai nạn hoặc vụ giết người", với điều kiện là nội dung đó nằm sau màn hình cảnh báo "đánh dấu là gây khó chịu" và chỉ hiển thị với những người trên 18 tuổi. Quy tắc trên được cập nhật vào ngày 29/11 sau khi công ty khôi phục nội dung thuộc trường hợp này để làm rõ rằng quy tắc áp dụng cho "thời điểm xảy ra cái chết hoặc quang cảnh sau vụ việc", cũng như hình ảnh "một người trải qua sự kiện gây nguy hiểm đến tính mạng".

Các hệ thống tự động của Meta đã gỡ nội dung trong trường hợp này vì lý do vi phạm Tiêu chuẩn cộng đồng về Nội dung bạo lực và phản cảm. Đơn kháng nghị của người dùng đối với quyết định đó tự động bị từ chối do công nghệ phân loại của Meta cho thấy "mức độ tin cậy cao" rằng nội dung mang tính vi phạm. Sau đó, người dùng đã kháng nghị với Ủy ban Giám sát về quyết định của Meta.

Sau khi Ủy ban lựa chọn trường hợp này, Meta trình bày rằng công ty không thể xác định một cách chắc chắn liệu video có quay cảnh cho thấy cơ quan nội tạng hay không. Do đó, Meta kết luận rằng công ty đáng ra không nên gỡ nội dung này dù nội dung nằm trên lằn ranh vi phạm. Meta còn giải thích rằng kể cả khi có thể nhìn thấy cơ quan nội tạng, công ty vẫn nên giữ lại bài viết kèm theo màn hình cảnh báo "đánh dấu là gây khó chịu" vì nội dung đó được chia sẻ nhằm mục đích nâng cao nhận thức. Công ty nhắc lại rằng, theo lý do xây dựng chính sách về Nội dung bạo lực và phản cảm, nội dung như vậy được phép hiển thị nếu được chia sẻ nhằm mục đích nâng cao nhận thức "về các vấn đề quan trọng như hành vi xâm phạm nhân quyền, xung đột vũ trang hoặc hành động khủng bố".

Vì thế, Meta hủy bỏ quyết định công ty đưa ra ban đầu và khôi phục nội dung kèm theo màn hình cảnh báo. Màn hình cảnh báo cho người dùng biết rằng nội dung có thể gây khó chịu. Người dùng là người lớn có thể nhấp vào để xem bài viết. Tuy nhiên, Meta gỡ những bài viết này khỏi bảng tin của người dùng Instagram dưới 18 tuổi và cả phần đề xuất với người dùng Instagram là người lớn. Ngoài ra, Meta thêm phiên bản riêng của cùng một video vào trung tâm Dịch vụ so khớp tệp phương tiện để các video giống hệt video này sẽ tự động được giữ lại kèm theo màn hình cảnh báo và chỉ hiển thị với những người trên 18 tuổi.

4. Lý do áp dụng quy trình xem xét nhanh

Quy chế của Ủy ban Giám sát quy định việc xem xét nhanh trong "những trường hợp đặc biệt, bao gồm cả khi nội dung có thể dẫn đến hậu quả nguy cấp ngoài đời". Các quyết định sẽ mang tính ràng buộc đối với Meta (mục 7.2 trong Điều 3 của Điều lệ; mục 2.1.2 trong Điều 2 của Quy chế). Quy trình xem xét nhanh không cho phép nghiên cứu ở cấp độ sâu rộng, tham khảo ý kiến bên ngoài hoặc bình luận công khai như ở các trường hợp mà Meta xem xét theo lịch trình thông thường. Ở trường hợp này, dựa trên thông tin Ủy ban có tại thời điểm suy xét, ban hội thẩm gồm 5 thành viên (không thông qua biểu quyết toàn Ủy ban) đã đưa ra quyết định.

Ủy ban Giám sát đã chọn trường hợp này cùng một trường hợp khác là Con tin bị bắt cóc từ Israel (2023-050-FB-UA), vì tầm quan trọng của quyền tự do biểu đạt ở các tình huống xung đột. Quyền này đã bị ảnh hưởng nghiêm trọng trong bối cảnh xung đột giữa Israel và Hamas. Cả hai trường hợp trên đều đại diện cho những loại đơn kháng nghị mà người dùng trong khu vực đã gửi cho Ủy ban kể từ các vụ tấn công hôm 07/10 và hành động quân sự sau đó của Israel. Hai trường hợp này đều được Ủy ban Giám sát ưu tiên là tình huống khủng hoảng và xung đột. Quyết định của Meta ở cả hai trường hợp đều đáp ứng tiêu chuẩn về "hậu quả nguy cấp ngoài đời" nên đủ căn cứ để được xem xét nhanh. Do đó, Ủy ban và Meta đã đồng ý tiến hành theo quy trình xem xét nhanh của Ủy ban.

Trong nội dung gửi cho Ủy ban, Meta thừa nhận rằng "thật khó để ra quyết định về cách xử lý nội dung này và việc đó liên quan đến xung đột giá trị và lựa chọn đánh đổi". Meta hoan nghênh ý kiến của Ủy ban về vấn đề trên.

5. Nội dung do người dùng gửi

Trong đơn kháng nghị gửi Ủy ban, tác giả bài viết nói rằng họ không hề khích nộ bạo lực mà chỉ chia sẻ nội dung cho thấy tình cảnh đau khổ mà người Palestine (bao gồm cả trẻ em) phải hứng chịu. Người dùng nói thêm rằng quyết định gỡ là sự không công bằng đối với tình cảnh đau khổ của người Palestine. Người dùng đã nhận được thông báo về việc Ủy ban xem xét đơn kháng nghị mà họ gửi.

6. Quyết định

Mặc dù các thành viên của Ủy ban bất đồng ý kiến khi suy xét biện pháp quân sự đáp trả cũng như lý do Israel làm vậy, họ đều nhất trí về tầm quan trọng của việc Meta tôn trọng quyền tự do biểu đạt và các quyền con người khác của tất cả những người chịu ảnh hưởng bởi các sự kiện này, cùng với khả năng họ trao đổi thông tin trong tình hình khủng hoảng như vậy.

Ủy ban hủy bỏ quyết định ban đầu mà Meta đưa ra là gỡ nội dung khỏi Instagram. Ủy ban nhận thấy rằng việc khôi phục nội dung này trên nền tảng kèm theo màn hình cảnh báo "đánh dấu là gây khó chịu" là phù hợp với chính sách nội dung, giá trị và trách nhiệm về nhân quyền của Meta. Tuy nhiên, Ủy ban cũng kết luận rằng Meta không tuân thủ trách nhiệm của công ty trong việc tôn trọng quyền tự do biểu đạt khi hạ bậc nội dung đã khôi phục, dưới hình thức không cho xuất hiện là nội dung được đề xuất.

6.1 Sự tuân thủ chính sách nội dung của Meta

Ủy ban đồng ý với Meta rằng thật khó để xác định xem liệu video trong trường hợp này có cảnh "[c]cho thấy nội tạng" hay không. Với bối cảnh của trường hợp này khi giá trị lợi ích cộng đồng đặc biệt cao trong việc bảo vệ quyền tiếp cận thông tin và mang lại cơ hội nâng cao nhận thức về tầm ảnh hưởng của xung đột, công ty không nên gỡ nội dung "nằm trên lằn ranh" vi phạm chính sách về Nội dung bạo lực và phản cảm. Vì nội dung chứa hình ảnh cho thấy một người tử vong do bạo lực (mô tả cảnh chấn thương đầu đẫm máu), Meta đáng ra nên áp dụng màn hình cảnh báo và chỉ hiển thị video với những người trên 18 tuổi như theo chính sách của công ty.

Ủy ban cũng đồng ý với quyết định Meta đưa ra lúc sau rằng kể cả khi có thể nhìn thấy cơ quan nội tạng, nội dung lên án hoặc nâng cao nhận thức của bài viết về hành vi bạo lực là đủ để công ty giữ lại bài viết, kèm theo màn hình cảnh báo "đánh dấu là gây khó chịu" và không hiển thị với người dùng dưới 18 tuổi. Tiêu chuẩn cộng đồng không đề cập đến việc áp dụng màn hình cảnh báo theo quy định hiện hành trong chính sách ("[v]ideo về người hoặc xác chết trong bối cảnh y tế nếu video mô tả cảnh […] [c]ho thấy cơ quan nội tạng"). Ở trường hợp Video phản cảm tại Sudan, Ủy ban giải thích rằng Meta hướng dẫn người xét duyệt làm theo nội dung thuộc mục "không được đăng" trong chính sách. Theo lý do xây dựng chính sách, "[t]rong trường hợp thảo luận về các vấn đề quan trọng như hành vi xâm phạm nhân quyền, xung đột vũ trang hoặc hành động khủng bố, chúng tôi cho phép hiển thị nội dung phản cảm (với một số hạn chế) để mọi người có thể lên án và nâng cao nhận thức về những tình huống này". Tuy nhiên, Tiêu chuẩn cộng đồng có quy tắc nghiêm cấm mọi video mô tả cảnh "cho thấy cơ quan nội tạng" trong bối cảnh không liên quan đến y tế, nhưng không đưa cho người xét duyệt lựa chọn thêm màn hình cảnh báo nếu có thể áp dụng ngoại lệ của lý do xây dựng chính sách. Các hệ thống tự động của Meta dường như không được đặt cấu hình để áp dụng màn hình cảnh báo cho những video mô tả nội dung phản cảm trong bối cảnh lên án hoặc nâng cao nhận thức về hành vi bạo lực. Ngoài ra, chưa rõ liệu trong bối cảnh này, công nghệ phân loại liên quan có khả năng gửi nội dung cho chuyên viên xét duyệt để đánh giá thêm hay không.

6.2 Sự tuân thủ trách nhiệm của Meta về nhân quyền

Theo trách nhiệm của công ty về nhân quyền, khi kiểm duyệt nội dung bạo lực và phản cảm, Meta phải tôn trọng quyền tự do biểu đạt, bao gồm cả quyền tự do tìm kiếm, tiếp nhận và truyền đạt thông tin (đoạn 2 trong Điều 19 của Công ước quốc tế về các quyền dân sự và chính trị (ICCPR)). Theo ý kiến của Ủy ban ở trường hợp Video về tù binh chiến tranh Armenia, những biện pháp bảo vệ quyền tự do biểu đạt theo Điều 19 trong Công ước quốc tế về các quyền dân sự và chính trị (ICCPR) "vẫn được thực thi trong bối cảnh xung đột vũ trang và cần tiếp tục là cơ sở để Meta thực hiện trách nhiệm về nhân quyền, cùng với các quy tắc bổ sung và củng cố lẫn nhau của luật nhân đạo quốc tế mà được áp dụng trong những cuộc xung đột đó". Nguyên tắc chỉ đạo của Liên Hiệp Quốc về kinh doanh và nhân quyền đặt ra trách nhiệm cao hơn đối với doanh nghiệp hoạt động ở địa điểm xảy ra xung đột ("Doanh nghiệp, nhân quyền và khu vực chịu ảnh hưởng của xung đột: tăng cường hành động", báo cáo A/75/212).

Ở các trường hợp trước đó, Ủy ban đã nhấn mạnh rằng những nền tảng mạng xã hội như Facebook và Instagram là phương tiện quan trọng để truyền tải thông tin theo thời gian thực về các sự kiện bạo lực, bao gồm cả tin bài (có thể xem trường hợp Nhắc đến Taliban trong tin bài). Những nền tảng này có vai trò đặc biệt quan trọng trong bối cảnh xung đột vũ trang, nhất là khi khả năng tiếp cận của các nhà báo bị hạn chế. Hơn nữa, nội dung mô tả các vụ tấn công bạo lực và hành vi xâm phạm nhân quyền liên quan rất nhiều đến lợi ích cộng đồng (Xem trường hợp Video phản cảm tại Sudan).

Nếu nhà nước áp dụng các biện pháp hạn chế quyền biểu đạt thì những biện pháp đó phải đáp ứng yêu cầu về tính hợp pháp, mục đích chính đáng, cũng như tính cần thiết và tương xứng theo luật nhân quyền quốc tế (đoạn 3 trong Điều 19 của ICCPR). Những yêu cầu nêu trên thường được gọi là "quy trình kiểm tra 3 yếu tố". Ủy ban dùng khung này để diễn giải cam kết tự nguyện của Meta về nhân quyền, liên quan đến cả quyết định riêng lẻ về nội dung ở bước xem xét lại và cách tiếp cận rộng hơn của công ty được thể hiện qua quyết định đó đối với việc quản lý nội dung. Khi làm như vậy, Ủy ban hết sức thận trọng trong việc phân biệt điểm khác nhau của những quyền đó khi áp dụng cho công ty truyền thông tư nhân so với khi áp dụng cho chính phủ. Tuy nhiên, Báo cáo viên đặc biệt của Liên Hiệp Quốc về quyền tự do biểu đạt đã nêu rằng mặc dù các công ty không có nghĩa vụ như chính phủ, nhưng "their impact is of a sort that requires them to assess the same kind of questions about protecting their right to freedom of expression" (với tầm ảnh hưởng của mình, họ phải đánh giá những câu hỏi giống vậy liên quan đến việc bảo vệ quyền tự do biểu đạt) (đoạn 41 trong báo cáo A/74/486).

Tính hợp pháp đòi hỏi mọi biện pháp hạn chế quyền tự do biểu đạt đều phải dễ tiếp cận và đủ rõ ràng để chỉ dẫn cho mọi người về những gì được phép và không được phép. Ủy ban trước đó từng bày tỏ mối lo ngại rằng các quy tắc trong Tiêu chuẩn cộng đồng về Nội dung bạo lực và phản cảm không hoàn toàn phù hợp với lý do xây dựng chính sách là cơ sở cho các mục đích của chính sách (Xem các trường hợp Video phản cảm tại SudanVideo quay sau khi diễn ra vụ tấn công tại nhà thờ ở Nigeria). Ủy ban nhắc lại tầm quan trọng của các đề xuất số 1 và số 2 trong trường hợp Video phản cảm tại Sudan, theo đó yêu cầu Meta sửa đổi Tiêu chuẩn cộng đồng của công ty về Nội dung bạo lực và phản cảm để cho phép hiển thị video về người và xác chết nếu mục đích chia sẻ là nâng cao nhận thức hoặc ghi lại hành vi xâm phạm nhân quyền (trường hợp đó liên quan đến cảnh cho thấy sự phân thây). Đối với các đề xuất trên, Meta đã triển khai quy trình phát triển chính sách và dự định sẽ báo cáo tiến độ thực hiện trong bản cập nhật thông tin hàng quý tiếp theo gửi Ủy ban. Ủy ban cho rằng Meta nên áp dụng đề xuất này đối với quy tắc về video quay cảnh cho thấy cơ quan nội tạng, cũng như đặc biệt quy định việc thêm màn hình cảnh báo làm biện pháp thực thi trong trường hợp áp dụng ngoại lệ nhằm nâng cao nhận thức (bao gồm cả đưa tin thực tế) và lên án.

Theo đoạn 3 trong Điều 19 của ICCPR, quyền biểu đạt có thể bị hạn chế vì một số lý do nhất định. Trước đó, Ủy ban đã nhận thấy mục đích chính đáng của chính sách về Nội dung bạo lực và phản cảm là bảo vệ quyền của người khác, bao gồm cả quyền riêng tư của cá nhân được mô tả (Xem các trường hợp Video phản cảm tại SudanVideo quay sau khi diễn ra vụ tấn công tại nhà thờ ở Nigeria). Ngoài ra, trường hợp hiện tại cho thấy việc hạn chế người dùng dưới 18 tuổi truy cập vào nội dung trên phù hợp với mục đích chính đáng là bảo vệ quyền về sức khỏe của trẻ vị thành niên (Điều 24 trong Công ước về quyền trẻ em).

Nguyên tắc về tính cần thiết và tương xứng quy định rằng mọi biện pháp hạn chế quyền tự do biểu đạt "must be appropriate to achieve their protective function; they must be the least intrusive instrument amongst those which might achieve their protective function; [and] they must be proportionate to the interest to be protected" (phải phù hợp để thực hiện chức năng bảo vệ; phải là công cụ ít xâm phạm nhất trong số những công cụ có thể thực hiện chức năng bảo vệ; [cũng như] phải tương xứng với lợi ích cần được bảo vệ) (đoạn 34 trong Chú giải chung số 34).

Như Ủy ban từng nhận thấy về nội dung bạo lực và phản cảm, màn hình cảnh báo "không quá bất tiện với những người muốn xem nội dung, nhưng sẽ cung cấp thông tin về tính chất của nội dung và tạo cơ hội để các đối tượng khác quyết định liệu có nên xem hay không" (Xem trường hợp Video phản cảm tại Sudan). Với màn hình cảnh báo, người dùng sẽ tránh được cảnh phải xem những nội dung có thể gây khó chịu. Chính sách do Meta cung cấp còn bảo vệ quyền của nạn nhân hơn nữa khi gỡ các video và hình ảnh cho thấy một người tử vong do bạo lực (hoặc khung cảnh ngay sau vụ việc) nếu thành viên trong gia đình của nạn nhân yêu cầu làm vậy. Có thể thấy nội dung ở trường hợp này khác so với trường hợp Bài thơ bằng tiếng Nga, trong đó chứa ảnh tĩnh về một cơ thể nằm trên mặt đất ở khoảng cách xa, không nhìn thấy khuôn mặt của nạn nhân cũng như không có dấu hiệu rõ ràng nào để nhận biết hành vi bạo lực qua hình ảnh. Việc áp dụng màn hình cảnh báo trong trường hợp đó không phù hợp với hướng dẫn mà Meta cung cấp cho người xét duyệt và không phải là biện pháp hạn chế quyền biểu đạt mang tính cần thiết hay tương xứng. Nội dung trong trường hợp này có nét tương đồng hơn với quyết định thuộc trường hợp Video quay sau khi diễn ra vụ tấn công tại nhà thờ ở Nigeria, cho thấy cảnh người chết và bị thương ở khoảng cách gần và có dấu hiệu rất rõ ràng để nhận biết hành vi bạo lực qua hình ảnh.

Trong trường hợp này, cảnh mô tả trẻ em bị thương và nằm bất động không còn sức sống khiến video đặc biệt gây đau buồn. Đối với các trường hợp như vậy, việc đưa cho người dùng lựa chọn có xem nội dung gây khó chịu hay không là biện pháp cần thiết và tương xứng (xem cả trường hợp Video về tù binh chiến tranh Armenia).

Ủy ban thấy rằng việc loại trừ nội dung nâng cao nhận thức về hành vi xâm phạm nhân quyền và vi phạm luật chiến tranh, xung đột hoặc hành động khủng bố có thể xảy ra khỏi mục đề xuất dành cho người lớn không phải là biện pháp hạn chế quyền tự do biểu đạt mang tính cần thiết hay tương xứng vì lợi ích cộng đồng rất cao trong nội dung đó. Màn hình cảnh báo và quyết định gỡ khỏi các đề xuất phục vụ những mục đích riêng nên ở một số trường hợp cần được phân tách, đặc biệt là trong các tình huống khủng hoảng. Các đề xuất trên Instagram được tạo bởi những hệ thống tự động chuyên gợi ý nội dung cho người dùng dựa trên lợi ích mà người dùng có thể nhận được. Quyết định gỡ nội dung khỏi hệ thống đề xuất tức là giảm phạm vi tiếp cận mà lẽ ra nội dung này sẽ có được. Ủy ban thấy rằng cách làm này ảnh hưởng đến quyền tự do biểu đạt theo cách không tương xứng trong phạm vi áp dụng cho nội dung vốn chỉ hiển thị cho người dùng là người lớn và được đăng nhằm mục đích nâng cao nhận thức, lên án hoặc đưa tin về các vấn đề công chúng quan tâm (ví dụ: diễn biến của một cuộc xung đột bạo lực).

Ủy ban công nhận rằng cần có những biện pháp tạm thời đặc biệt để kịp thời ứng phó với khủng hoảng. Đồng thời, trong bối cảnh nhất định, việc ưu tiên các mối lo ngại về an toàn nhằm áp dụng biện pháp hạn chế quyền tự do biểu đạt nghiêm ngặt hơn một cách tạm thời và tương xứng là biện pháp chính đáng. Có thể tìm thấy một số biện pháp như vậy trong cam kết nhằm đối phó với "nội dung khủng bố và bạo lực cực đoan" như ở trường hợp Lời kêu gọi Christchurch. Tuy nhiên, Ủy ban lưu ý rằng trường hợp Lời kêu gọi Christchurch nhấn mạnh việc cần phải ứng phó với nội dung đó theo cách phù hợp với nhân quyền và quyền tự do cơ bản. Ủy ban tin rằng mối lo ngại về an toàn không phải là lý do chính đáng cho việc thực hiện quá mức biện pháp gỡ nội dung phản cảm được chia sẻ nhằm nâng cao nhận thức về tội phạm chiến tranh, tội ác đối với nhân loại hay hành vi vi phạm nhân quyền nghiêm trọng có thể xảy ra hoặc lên án những vấn đề đó. Các biện pháp hạn chế như vậy thậm chí có thể cản trở thông tin cần thiết đối với sự an toàn của những người sinh sống ở khu vực xảy ra xung đột.

Những biện pháp như không cảnh cáo thực sự góp phần hạn chế tác động tiêu cực có thể không tương xứng do sai sót trong quá trình thực thi xuất phát từ các biện pháp khẩn cấp (ví dụ: giảm ngưỡng độ tin cậy đối với quyết định gỡ nội dung trong tình huống xung đột). Tuy nhiên, những biện pháp này chưa đủ để bảo vệ khả năng người dùng chia sẻ nội dung nâng cao nhận thức về hành vi xâm phạm nhân quyền và vi phạm luật nhân đạo có thể xảy ra, cũng như thông tin quan trọng khác trong tình huống xung đột.

Ủy ban đã nhiều lần nêu bật việc cần phải xây dựng khung minh bạch theo nguyên tắc cho việc kiểm duyệt nội dung trong bối cảnh khủng hoảng và ở vùng có xung đột (Xem các trường hợp Video tại sở cảnh sát ở HaitiCục Truyền thông Tigray). Chính vào những thời điểm xung đột có sự thay đổi nhanh chóng, các công ty truyền thông lớn phải dành nguồn lực cần thiết để đảm bảo không hạn chế một cách không cần thiết quyền tự do biểu đạt. Ở những thời điểm như vậy, lực lượng báo chí thường phải hứng chịu các vụ tấn công về thể chất và những hình thức tấn công khác, do vậy việc các công dân bình thường đưa tin trên mạng xã hội trở nên vô cùng thiết yếu.

Ủy ban trước đó cũng nhận thấy rằng trong bối cảnh chiến tranh hoặc bất ổn chính trị, người dùng sẽ chụp/quay thêm nhiều nội dung phản cảm và bạo lực rồi chia sẻ lên nền tảng nhằm mục đích nâng cao nhận thức hoặc ghi lại hành vi xâm phạm (Xem trường hợp Video phản cảm tại Sudan). Ở các bối cảnh như cuộc xung đột giữa Israel và Gaza, nơi có số lượng người dân thiệt mạng hoặc bị thương ở mức đáng báo động (trong đó phần lớn là trẻ em), giữa tình trạng khủng hoảng nhân đạo ngày một trầm trọng, những kiểu trường hợp áp dụng nguyên tắc cho phép như thế này có vai trò đặc biệt quan trọng. Mặc dù ghi nhận việc Meta đang thực hiện quy trình phát triển chính sách về Nội dung bạo lực và phản cảm, Ủy ban mong công ty chuẩn bị sẵn sàng để nhanh chóng áp dụng các biện pháp tạm thời nhằm cho phép hiển thị kiểu nội dung này kèm theo màn hình cảnh báo, cũng như không gỡ nội dung khỏi các đề xuất.

Ủy ban lưu ý rằng tình hình tại Gaza ở thời điểm nội dung này được đăng không gây ra nhiều thách thức cho Meta như các vụ tấn công hôm 07/10. Tại Gaza, người dân sinh sống ở nơi có xung đột gặp khó khăn trong việc thu nhận thông tin, trong khi các nhà báo khó tiếp cận lãnh thổ này và kết nối Internet đã bị gián đoạn. Hơn nữa, khác với tình cảnh ngay sau các vụ tấn công hôm 07/10, tình hình tại Gaza trong trường hợp này không liên quan đến việc những kẻ khủng bố dùng mạng xã hội để phát trực tiếp tội ác của mình. Ngược lại, với bối cảnh xung đột vũ trang, Meta cần đảm bảo rằng hành động của công ty không gây thêm khó khăn cho mọi người trong việc chia sẻ nội dung nhằm cung cấp thông tin để nâng cao nhận thức về hành vi gây hại đối với người dân, cũng như có thể liên quan đến việc xác định liệu đã xảy ra hành vi vi phạm luật nhân đạo và luật nhân quyền quốc tế hay chưa. Khi bắt đầu đánh giá nội dung, người xét duyệt cần đặt ra câu hỏi liệu nội dung có được chia sẻ để nâng cao nhận thức về các sự kiện ở nơi có xung đột hoặc hoặc lên án những sự kiện như vậy hay không. Ngoài ra, các hệ thống tự động của Meta cần được thiết kế để tránh gỡ nhầm nội dung có thể áp dụng ngoại lệ hiện hành.

Trường hợp này càng cho thấy rõ việc thiếu sự giám sát của con người trong quy trình tự động kiểm duyệt ở bối cảnh ứng phó với khủng hoảng có thể dẫn đến quyết định sai lầm khi gỡ nội dung mang lại lợi ích cộng đồng đáng kể. Cả quyết định ban đầu về việc gỡ nội dung này lẫn quyết định từ chối đơn kháng nghị của người dùng đều được tự động đưa ra dựa trên điểm từ công nghệ phân loại mà không có sự tham gia của chuyên viên xét duyệt. Vấn đề này có lẽ đã trở nên trầm trọng hơn khi Meta đưa ra biện pháp đối phó với khủng hoảng bằng cách hạ ngưỡng gỡ nội dung theo chính sách về Nội dung bạo lực và phản cảm sau các vụ tấn công hôm 07/10. Biện pháp này nghĩa là kể cả khi công nghệ phân loại đưa ra mức điểm thấp hơn cho khả năng vi phạm (thấp hơn mức bình thường), Meta vẫn sẽ gỡ nội dung đó.

Để Meta có thể áp dụng các hệ thống tự động sao cho phù hợp với cam kết của công ty về nhân quyền, Ủy ban nhắc nhở Meta về đề xuất số 1 trong trường hợp Tranh biếm họa về cảnh sát Colombia. Ở trường hợp đó, Ủy ban yêu cầu Meta đánh giá lại nội dung có tỷ lệ kháng nghị cao và tỷ lệ kháng nghị thành công cao xem có thể gỡ nội dung đó khỏi trung tâm Dịch vụ so khớp tệp phương tiện hay không. Để thực hiện đề xuất trên, Meta đã chỉ định một nhóm công tác chuyên quản lý các điểm cải tiến về trung tâm Dịch vụ so khớp tệp phương tiện (Xem thông tin cập nhật gần nhất của Meta về việc này tại đây). Ủy ban lưu ý rằng nhóm này cần đặc biệt chú ý đến việc sử dụng Dịch vụ so khớp tệp phương tiện trong bối cảnh xung đột vũ trang. Ở trường hợp Triệu chứng của bệnh ung thư vú và ảnh khỏa thân (đề xuất số 3 và số 6), Ủy ban thấy rằng Meta cần báo cho người dùng biết khi nào công cụ tự động được dùng để áp dụng biện pháp thực thi đối với nội dung của họ, cũng như công khai dữ liệu về số lượng quyết định gỡ tự động theo Tiêu chuẩn cộng đồng, cùng với tỷ lệ hủy bỏ các quyết định trên vào thời điểm sau khi có sự tham gia của chuyên viên xét duyệt. Điều này đặc biệt quan trọng khi ngưỡng độ tin cậy của nội dung có khả năng vi phạm đã giảm đáng kể. Ủy ban hối thúc Meta đẩy nhanh tiến độ triển khai đề xuất số 6 và chia sẻ bằng chứng thực hiện đề xuất số 3 với Ủy ban.

Các biện pháp hạn chế quyền tự do biểu đạt không được mang tính phân biệt đối xử, bao gồm việc dựa trên quốc tịch, dân tộc, tôn giáo hoặc tín ngưỡng, ý kiến chính trị hay ý kiến khác (đoạn 1 trong Điều 2 và Điều 26 của ICCPR). Biện pháp thực thi mang tính phân biệt đối xử của Tiêu chuẩn cộng đồng ảnh hướng đến khía cạnh cơ bản này về quyền tự do biểu đạt. Ở trường hợp Bài viết của Al-Jazeera được chia sẻ, Ủy ban đã bày tỏ mối lo ngại nghiêm trọng rằng sai sót của Meta trong việc kiểm duyệt nội dung ở Israel và các Vùng lãnh thổ Palestine bị chiếm đóng có thể được phân bổ không đồng đều. Ngoài ra, Ủy ban kêu gọi một cuộc điều tra độc lập (đề xuất số 3 trong quyết định ở trường hợp Bài viết của Al-Jazeera được chia sẻ). Bản Đánh giá tác động nhân quyền về trách nhiệm xã hội của doanh nghiệp(BSR) (do Meta ủy quyền thực hiện theo đề xuất nêu trên) đã xác định "nhiều trường hợp thiên vị không chủ ý mà ở đó cách làm và chính sách của Meta, cùng với động lực bên ngoài ở quy mô lớn hơn, thực sự đưa đến tác động nhân quyền khác nhau đối với người dùng nói tiếng Palestine và tiếng Ả Rập". Ủy ban khuyến khích Meta thực hiện cam kết của công ty để phản hồi lại báo cáo BSR.

Cuối cùng, Meta có trách nhiệm lưu giữ bằng chứng về hành vi vi phạm nhân quyền và hành vi vi phạm luật nhân đạo quốc tế có thể xảy ra, như cũng được đề xuất trong báo cáo BSR (đề xuất số 21) và được các nhóm xã hội dân sự ủng hộ. Ngay cả khi nội dung bị gỡ khỏi các nền tảng của Meta, việc lưu giữ bằng chứng đó cũng quan trọng vì mục đích giải trình trong tương lai (Xem các trường hợp Video phản cảm tại SudanVideo về tù binh chiến tranh Armenia). Mặc dù Meta giải thích rằng công ty lưu giữ mọi nội dung vi phạm Tiêu chuẩn cộng đồng trong thời gian 1 năm, nhưng Ủy ban hối thúc công ty xác định và lưu giữ nội dung liên quan cụ thể đến tội phạm chiến tranh, tội ác đối với nhân loại và hành vi vi phạm nhân quyền nghiêm trọng có thể xảy ra trong thời gian dài hơn và theo cách dễ tiếp cận hơn cho mục đích giải trình dài hạn hơn. Ủy ban lưu ý rằng Meta đã đồng ý triển khai đề xuất số 1 ở trường hợp Video về tù binh chiến tranh Armenia. Đề xuất này yêu cầu Meta xây dựng một bộ quy tắc để lưu giữ và chia sẻ (khi thích hợp) thông tin với cơ quan thẩm quyền, từ đó hỗ trợ cuộc điều tra và thủ tục tố tụng nhằm khắc phục/truy tố tội ác tàn bạo hoặc hành vi vi phạm nhân quyền nghiêm trọng. Meta đã thông báo với Ủy ban rằng công ty đang trong giai đoạn cuối của quá trình xây dựng một "phương pháp nhất quán để lưu giữ bằng chứng tiềm ẩn của tội ác tàn bạo và hành vi vi phạm nghiêm trọng luật nhân quyền quốc tế", đồng thời mong muốn sớm cung cấp bản tóm lược về phương pháp này cho Ủy ban. Ủy ban hy vọng Meta sẽ triển khai đầy đủ đề xuất nêu trên.

*Lưu ý về quy trình:

Các quyết định xem xét nhanh của Ủy ban Giám sát là do ban hội thẩm gồm 5 thành viên đưa ra chứ không cần được đa số thành viên của toàn bộ Ủy ban tán thành. Quyết định của Ủy ban không nhất thiết đại diện cho quan điểm cá nhân của tất cả các thành viên.

العودة إلى قرارات الحالة والآراء الاستشارية المتعلقة بالسياسة