Anulado

Mối quan ngại của người Punjab về RSS tại Ấn Độ

Ủy ban Giám sát đã hủy bỏ quyết định mà Facebook đưa ra khi gỡ một bài viết dựa trên Tiêu chuẩn cộng đồng của công ty về Cá nhân và tổ chức nguy hiểm.

Tipo de decisão

Padrão

Políticas e tópicos

विषय
Política
Padrão da comunidade
Indivíduos e organizações perigosos

Regiões/países

Localização
Ấn Độ

Plataforma

Plataforma
Facebook

Để đọc quyết định này bằng tiếng Punjab, hãy nhấp vào đây.

ਇਹ ਫ਼ੈਸਲਾ ਪੰਜਾਬੀ ਵਿੱਚ ਪੜ੍ਹਨ ਲਈ,"ਇੱਥਕਲਿੱਕ ਕਰੋ।

Tóm tắt trường hợp

Ủy ban Giám sát đã hủy bỏ quyết định gỡ một bài viết mà Facebook đưa ra dựa trên Tiêu chuẩn cộng đồng của công ty về Cá nhân và tổ chức nguy hiểm. Sau khi Ủy ban chọn xem xét trường hợp này, Facebook đã khôi phục nội dung. Ủy ban bày tỏ lo ngại rằng Facebook đã không xem xét kháng nghị của người dùng đối với quyết định ban đầu mà công ty này đưa ra. Ủy ban cũng hối thúc công ty thực hiện các biện pháp nhằm tránh mắc những sai lầm khiến các cộng đồng tôn giáo thiểu số không có cơ hội bày tỏ ý kiến.

Giới thiệu về trường hợp

Vào tháng 11/2020, một người dùng đã chia sẻ bài viết có video của công ty truyền thông trên mạng Global Punjab TV dành cho người nói tiếng Punjab. Video này ghi lại cuộc phỏng vấn dài 17 phút với Giáo sư Manjit Singh, người được mô tả là "một nhà hoạt động xã hội và người ủng hộ văn hóa Punjab". Bài viết cũng có phần chú thích đề cập đến tổ chức Rashtriya Swayamsevak Sangh (RSS) theo chủ nghĩa dân tộc Hindu và đảng cầm quyền Bharatiya Janata (BJP) của Ấn Độ: "RSS là mối đe dọa mới. Ram Naam Satya Hai. BJP đã chuyển sang chủ nghĩa cực đoan".

Trong đoạn văn bản đi kèm bài viết, người dùng cho rằng RSS đang đe dọa sát hại tín đồ đạo Sikh - một nhóm tôn giáo thiểu số tại Ấn Độ - và sẽ lặp lại "sự kiện chết chóc" năm 1984 khi các đám đông cuồng đạo Hindu thảm sát, thiêu sống đàn ông, phụ nữ và cả trẻ em theo đạo Sikh. Người dùng này cho rằng chính Thủ tướng Modi đang lên kế hoạch cho mối đe đọa "Diệt chủng tín đồ đạo Sikh" dưới sự cố vấn của Chủ tịch RSS Mohan Bhagwat. Người dùng cũng quả quyết rằng các trung đoàn gồm những binh lính theo đạo Sikh trong lực lượng quân đội đã cảnh cáo Thủ tướng Modi rằng họ sẵn sàng hy sinh để bảo vệ những người nông dân theo đạo Sikh cùng đất đai của họ tại Punjab.

Sau khi nhận được báo cáo của một người dùng khác, chuyên viên xét duyệt đã xác định rằng bài viết này vi phạm Tiêu chuẩn cộng đồng của Facebook về Cá nhân và tổ chức nguy hiểm, đồng thời gỡ bỏ bài viết. Điều này khiến tài khoản của người dùng chia sẻ bài viết bị áp dụng biện pháp hạn chế tự động. Facebook thông báo cho người dùng rằng công ty không thể xem xét các đơn kháng nghị quyết định gỡ bỏ vì khả năng xét duyệt của họ tạm thời bị giảm sút do đại dịch COVID-19.

Kết luận chính

Sau khi Ủy ban chọn xem xét trường hợp này, Facebook nhận ra rằng nội dung bị gỡ do sai sót và đã khôi phục nội dung đó trước khi Ủy ban giao trường hợp cho ban hội thẩm. Facebook nhận thấy theo quy tắc của mình, không có nhóm hay cá nhân nào được nhắc đến trong nội dung bị xem là "nguy hiểm". Công ty này cũng không xác định được các từ ngữ cụ thể trong bài viết khiến bài viết bị gỡ bỏ do sai sót.

Ủy ban thấy rằng quyết định ban đầu là gỡ bài viết do Facebook đưa ra không phù hợp với Tiêu chuẩn cộng đồng hay các trách nhiệm về nhân quyền của công ty này.

Ủy ban nhận thấy bài viết đã nêu bật mối lo ngại của các cộng đồng thiểu số và các nhóm đối lập của Ấn Độ được cho là đang bị chính quyền phân biệt đối xử. Một điểm đặc biệt quan trọng là Facebook cần tiến hành các bước nhằm tránh mắc sai sót khiến các nhóm đó không có cơ hội bày tỏ ý kiến. Mặc dù công nhận hoàn cảnh đặc biệt do đại dịch COVID-19 gây ra, Ủy ban cho rằng Facebook chưa dành đủ thời gian hay sự chú ý để xem xét nội dung này. Ủy ban nhấn mạnh rằng người dùng phải gửi được đơn kháng nghị đến Facebook trước khi tìm đến Ủy ban. Đồng thời, Ủy ban cũng hối thúc công ty này ưu tiên việc khôi phục nguồn lực để xem xét kháng nghị.

Xét đến những yếu tố ở trên, Ủy ban thấy rằng việc hạn chế tài khoản khiến người dùng không thể sử dụng Facebook là biện pháp đặc biệt không tương xứng. Ủy ban cũng bày tỏ lo ngại rằng các quy tắc của Facebook về những biện pháp hạn chế như vậy được quy định rải rác ở nhiều văn bản chứ không nằm toàn bộ trong Tiêu chuẩn cộng đồng như mọi người thường nghĩ.

Cuối cùng, Ủy ban nhận thấy báo cáo minh bạch của Facebook không rõ ràng nên khó đánh giá được việc thực thi chính sách về Cá nhân và tổ chức nguy hiểm có tác động cụ thể đến các cộng đồng ngôn ngữ hoặc cộng đồng tôn giáo thiểu số tại Ấn Độ hay không.

Quyết định của Ủy ban Giám sát

Ủy ban hủy bỏ quyết định ban đầu của Facebook là gỡ nội dung này. Trong nội dung tư vấn chính sách, Ủy ban đề xuất Facebook nên:

  • Dịch Tiêu chuẩn cộng đồng và Tiêu chuẩn thực thi nội bộ của công ty này sang tiếng Punjab. Facebook cũng nên đặt mục tiêu dịch Tiêu chuẩn cộng đồng sang mọi ngôn ngữ phổ biến của người dùng nền tảng này.
  • Khôi phục càng sớm càng tốt hoạt động xét duyệt các quyết định về kiểm duyệt nội dung bằng con người lẫn quyền tiếp cận quy trình kháng nghị thông qua con người về mức trước khi xảy ra đại dịch, đồng thời vẫn bảo vệ sức khỏe nhân viên cũng như nhà thầu của Facebook.
  • Tăng lượng thông tin công khai về tỷ lệ sai sót bằng cách hiển thị tỷ lệ này theo quốc gia và ngôn ngữ đối với từng Tiêu chuẩn cộng đồng trong báo cáo minh bạch của Facebook.

*Phần tóm tắt trường hợp cung cấp thông tin tổng quan về trường hợp và không có giá trị tiền lệ.

Toàn bộ quyết định cuối cùng

1. Tóm tắt quyết định

Ủy ban Giám sát đã hủy bỏ quyết định gỡ nội dung mà Facebook đưa ra. Ủy ban nhận thấy sau khi Ủy ban chọn xem xét trường hợp này, Facebook xác định rằng nội dung bị gỡ do sai sót và đã khôi phục nội dung đó trước khi trường hợp được giao cho ban hội thẩm. Ủy ban thấy rằng nội dung đang đề cập đến không ca ngợi, ủng hộ hoặc đại diện cho bất kỳ cá nhân hay tổ chức nguy hiểm nào. Bài viết nhấn mạnh rằng chính phủ Ấn Độ và những chủ thể ủng hộ chính phủ được cho là đang ngược đãi các cộng đồng thiểu số tại quốc gia này. Bài viết có giá trị phục vụ lợi ích của cộng đồng. Ủy ban lo ngại về những sai sót trong hoạt động xét duyệt nội dung và tình trạng thiếu quy trình kháng nghị hiệu quả dành cho người dùng. Những sai sót của Facebook khiến quyền tự do biểu đạt của người dùng, cũng như quyền tiếp cận thông tin của thành viên các cộng đồng thiểu số tại Ấn Độ bị ảnh hưởng.

2. Mô tả trường hợp

Nội dung đề cập đến những hành vi được cho là phân biệt đối xử với người thiểu số và dập tắt các ý kiến đối lập tại Ấn Độ của tổ chức "Rashtriya Swayamsevak Sangh" (RSS) cũng như đảng Bharatiya Janata (BJP). RSS là một tổ chức theo chủ nghĩa dân tộc Hindu, được cho là có liên quan đến hành vi bạo lực nhằm vào các cộng đồng tôn giáo thiểu số tại Ấn Độ. “BJP” - đảng của Thủ tướng Ấn Độ đương nhiệm Narendra Modi - là đảng cầm quyền tại quốc gia này và có mối liên hệ chặt chẽ với RSS.

Vào tháng 11/2020, một người dùng đã chia sẻ bài viết có video kèm theo văn bản do công ty truyền thông trên mạng dành cho người nói tiếng Punjab có tên Global Punjab TV đăng. Bài viết này ghi lại cuộc phỏng vấn dài 17 phút với Giáo sư Manjit Singh, người được mô tả là "một nhà hoạt động xã hội và người ủng hộ văn hóa Punjab". Trong bài viết này, Global Punjab TV chú thích như sau: "RSS là mối đe dọa mới. Ram Naam Satya Hai. BJP đã chuyển sang chủ nghĩa cực đoan". Công ty truyền thông này cũng bao gồm nội dung mô tả bổ sung như sau: "Mối đe dọa mới. Ram Naam Satya Hai! BJP đã chuyển sang chủ nghĩa cực đoan. Các học giả trực tiếp thách thức ông Modi!" Nội dung này được đăng trong lúc nông dân Ấn Độ đang đồng loạt biểu tình, đồng thời đề cập ngắn gọn đến nguyên nhân dẫn đến các cuộc biểu tình và ca ngợi hoạt động đó.

Khi chia sẻ bài viết của Global Punjab TV, người dùng còn bổ sung đoạn văn bản kèm theo cho biết CIA gọi RSS là "tổ chức khủng bố cuồng tín theo đạo Hindu" và Thủ tướng Ấn Độ Narendra Modi từng là chủ tịch của tổ chức này. Người dùng viết rằng RSS đang đe dọa sát hại tín đồ đạo Sikh - một nhóm tôn giáo thiểu số tại Ấn Độ - và sẽ lặp lại "sự kiện chết chóc" năm 1984 khi các đám đông cuồng đạo Hindu tấn công tín đồ đạo Sikh. Họ nói rõ rằng "RSS đã sử dụng Cụm từ chết chóc "Ram naam sat hai"". Ủy ban hiểu rằng cụm từ "Ram Naam Satya Hai" là lời tụng trong đám tang. Một số phần tử theo chủ nghĩa dân tộc Hindu được cho là đã dùng cụm từ này như lời đe dọa. Người dùng này cho rằng chính Thủ tướng Modi đang lên kế hoạch cho mối đe đọa "Diệt chủng tín đồ đạo Sikh" dưới sự cố vấn của Chủ tịch RSS Mohan Bhagwat. Văn bản đi kèm kết thúc bằng lời khẳng định rằng tín đồ đạo Sikh tại Ấn Độ nên cảnh giác cao độ và các trung đoàn gồm những binh lính theo đạo Sikh trong lực lượng quân đội đã cảnh báo Thủ tướng Modi rằng họ sẵn sàng hy sinh để bảo vệ những người nông dân theo đạo Sikh cùng đất đai của họ tại Punjab.

Bài viết tồn tại trong 14 ngày, thu hút dưới 500 lượt xem trước khi bị một người dùng khác báo cáo vì cổ xúy "chủ nghĩa khủng bố". Chuyên viên xét duyệt xác định rằng bài viết vi phạm Tiêu chuẩn cộng đồng về Cá nhân và tổ chức nguy hiểm đồng thời đã gỡ nội dung. Điều này cũng khiến tài khoản của người dùng bị áp dụng biện pháp hạn chế tự động trong một khoảng thời gian quy định. Trong thông báo gửi đến người dùng, Facebook cho biết đây là quyết định cuối cùng và Facebook không thể xem lại quyết định vì khả năng xét duyệt của họ tạm thời bị giảm sút do đại dịch COVID-19. Vì lý do này, người dùng đã gửi đơn kháng nghị đến Ủy ban Giám sát.

Sau khi Ban Chọn lọc Trường hợp chọn xem xét trường hợp này, Facebook xác định rằng nội dung bị gỡ do sai sót và đã khôi phục nội dung trước khi trường hợp được giao cho ban hội thẩm. Tuy nhiên, Ủy ban vẫn giao trường hợp cho ban hội thẩm xem xét.

3. Thẩm quyền và phạm vi

Ủy ban có thẩm quyền xem xét quyết định của Facebook theo Điều 2 (Thẩm quyền xem xét) trong Điều lệ của Ủy ban, đồng thời có thể tán thành hoặc hủy bỏ quyết định đó theo Điều 3, Mục 5 (Quy trình xem xét: Cách giải quyết trong Điều lệ). Facebook không đưa ra lý do loại trừ nội dung này theo Điều 2, Mục 1.2.1 (Nội dung Ủy ban không có thẩm quyền xem xét) trong Quy chế của Ủy ban. Facebook cũng không chỉ ra rằng họ thấy trường hợp này là không đủ tiêu chuẩn để xem xét theo Điều 2, Mục 1.2.2 (Nghĩa vụ pháp lý) trong Quy chế. Theo Điều 3, Mục 4 (Quy trình xem xét: Quyết định) trong Điều lệ của Ủy ban, quyết định cuối cùng có thể bao gồm nội dung tư vấn chính sách, sẽ được Facebook xem xét để định hướng phát triển chính sách trong tương lai.

Sau khi xác định sai sót của mình, Facebook đã khôi phục nội dung của người dùng. Điều này có thể đã không xảy ra nếu Ủy ban không chọn xem xét trường hợp. Theo quyết định cuối cùng 2020-004-IG-UA, lựa chọn khôi phục nội dung của Facebook không loại trừ trường hợp này khỏi phạm vi xem xét. Những lo ngại về lý do xảy ra sai sót, mối nguy hại phát sinh từ sai sót và nhu cầu đảm bảo rằng sai sót sẽ không lặp lại vẫn cần được xử lý thích đáng. Ủy ban đem đến cho người dùng cơ hội bày tỏ ý kiến và nhận được giải thích đầy đủ về những gì đã xảy ra.

4. Các tiêu chuẩn có liên quan

Ủy ban Giám sát xem xét các tiêu chuẩn sau đây khi đưa ra quyết định:

I. Tiêu chuẩn cộng đồng của Facebook:

Chính sách về Cá nhân và tổ chức nguy hiểmcủa Facebook giải thích rằng "nhằm nỗ lực ngăn chặn và loại bỏ mối nguy hại trong thực tế, chúng tôi không cho phép bất kỳ tổ chức hoặc cá nhân nào hiện diện trên Facebook nếu tuyên bố một sứ mệnh mang tính bạo lực hoặc tham gia vào hành vi bạo lực". Tiêu chuẩn cho biết thêm là Facebook sẽ gỡ "nội dung thể hiện sự ủng hộ hoặc ca ngợi các nhóm, nhà lãnh đạo hoặc cá nhân tham gia những hoạt động này".

II. Giá trị của Facebook:

Các giá trị của Facebook được trình bày trong phần giới thiệu về Tiêu chuẩn cộng đồng.

Giá trị "Bày tỏ ý kiến" được mô tả là giá trị "quan trọng nhất":

Từ trước đến nay, Tiêu chuẩn cộng đồng của chúng tôi luôn có mục tiêu là tạo ra một nơi để mọi người tự do biểu đạt và bày tỏ ý kiến. […] Chúng tôi muốn mọi người được tự do bàn luận về những vấn đề quan trọng với họ, kể cả khi ai đó có thể không đồng ý hoặc phản đối họ.

Facebook có thể giới hạn khả năng "Bày tỏ ý kiến” để phục vụ cho các giá trị khác trong 4 giá trị này, trong đó có giá trị "An toàn" và "Phẩm giá".

"An toàn" : Chúng tôi cam kết biến Facebook thành một nơi an toàn. Những lời lẽ đe dọa mà có khả năng bài trừ, hăm dọa người khác hoặc khiến họ phải im lặng sẽ không được phép xuất hiện trên Facebook.

''Phẩm giá'' : Chúng tôi tin rằng mọi người đều bình đẳng về phẩm giá và các quyền. Chúng tôi muốn mọi người tôn trọng phẩm giá của người khác, đồng thời không quấy rối hoặc làm mất thể diện của họ.

III. Các tiêu chuẩn về nhân quyền:

Nguyên tắc chỉ đạo của Liên Hiệp Quốc về kinh doanh và nhân quyền (UNGP), do Hội đồng Nhân quyền của Liên Hiệp Quốc phê chuẩn vào năm 2011, thiết lập một khung tự nguyện cho các trách nhiệm của doanh nghiệp tư nhân về nhân quyền. Cam kết của Facebook đối với việc tuân thủ các tiêu chuẩn về nhân quyền theo UNGP được trình bày chi tiết trong chính sách mới của doanh nghiệp, công bố vào tháng 03/2021. Phân tích của Ủy ban trong trường hợp này dựa trên các tiêu chuẩn sau đây về nhân quyền:

Quyền tự do biểu đạt: Điều 19 trong Công ước quốc tế về các quyền dân sự và chính trị (ICCPR); Ủy ban Nhân quyền, Chú giải chung số 34 (2011); Báo cáo viên đặc biệt về quyền tự do biểu đạt và bày tỏ ý kiến, các báo cáo: A/HRC/38/35 (2018) và A/74/486 (2019)

Quyền không bị phân biệt đối xử: Đoạn 1, Điều 2 và Điều 26 trong ICCPR; Ủy ban Nhân quyền, Chú giải chung số 23 (1994); Đại Hội đồng Liên Hiệp Quốc, Tuyên bố về quyền của những người thuộc các quốc gia hoặc dân tộc, tôn giáo và ngôn ngữ thiểu số, theo diễn giải của Chuyên gia độc lập về các vấn đề liên quan đến người thiểu số trong các đoạn 57 – 58, A/HRC/22/49 (2012); Báo cáo viên đặc biệt về các vấn đề liên quan đến người thiểu số, A/HRC/46/57 (2021)

Quyền yêu cầu biện pháp khắc phục hữu hiệu: Đoạn 3, Điều 2 trong ICCPR; Ủy ban Nhân quyền, Chú giải chung số 31 (2004); Ủy ban Nhân quyền, Chú giải chung số 29 (2001);

Quyền được bảo vệ an toàn thân thể: Đoạn 1, Điều 9 trong ICCPR theo diễn giải trong đoạn 9, Chú giải chung số 35.

5. Phần trình bày của người dùng

Người dùng chỉ ra cho Ủy ban thấy rằng bài viết không đe dọa hay phạm tội mà chỉ đơn giản là lặp lại nội dung, cũng như phản ánh ngữ điệu của video. Người dùng khiếu nại về việc tài khoản của họ của bị hạn chế. Họ cho rằng Facebook chỉ nên xóa video có vấn đề và tránh hạn chế tài khoản của người dùng, trừ khi họ tham gia vào hành vi đe dọa hoặc phạm tội. Họ cũng khẳng định rằng có hàng ngàn người tương tác với nội dung của họ và yêu cầu khôi phục tài khoản ngay lập tức.

6. Lời giải thích Facebook đưa ra cho quyết định của mình

Theo Facebook, sau khi nhận được một báo cáo về bài viết, chuyên viên xét duyệt nội dung đã nhầm lẫn khi cho rằng bài viết vi phạm Tiêu chuẩn cộng đồng về Cá nhân và tổ chức nguy hiểm. Facebook đã thông báo với Ủy ban rằng bài viết của người dùng không đề cập đến cá nhân hay tổ chức bị xem là nguy hiểm. Công ty cũng cho biết bài viết không có lời lẽ ca ngợi nào có tính vi phạm.

Facebook giải thích rằng sai sót phát sinh do độ dài của video (17 phút), số lượng diễn giả (2), mức độ phức tạp của nội dung và tuyên bố trong đó về các nhóm chính trị khác nhau. Công ty còn nói thêm rằng các chuyên viên xét duyệt phải xem hàng ngàn nội dung mỗi ngày và trong quá trình đó, sai sót đã xảy ra. Do số lượng nội dung nói trên, Facebook nêu rõ rằng không phải lúc nào chuyên viên xét duyệt nội dung cũng có thể xem hết video. Facebook không thể chỉ ra phần cụ thể trong nội dung mà chuyên viên xét duyệt thấy vi phạm quy tắc của công ty.

Khi người dùng gửi đơn kháng nghị quyết định cho Facebook, họ nhận được thông báo rằng Facebook không thể xem lại bài viết do tình trạng thiếu hụt nhân viên vì đại dịch COVID-19.

7. Bình luận do bên thứ ba gửi đến

Ủy ban Giám sát đã nhận được 6 bình luận công khai liên quan đến trường hợp này. Trong số đó có 2 bình luận từ châu Âu còn 4 bình luận từ Hoa Kỳ và Canada. Những bình luận này đề cập đến các chủ đề sau đây: phạm vi của quyền biểu đạt chính trị, quyền hợp pháp của Facebook trong việc kiểm duyệt nội dung và bối cảnh chính trị tại Ấn Độ.

Để đọc các bình luận công khai gửi đến cho trường hợp này, vui lòng nhấp vào đây.

8. Phân tích của Ủy ban Giám sát

8.1 Sự tuân thủ Tiêu chuẩn cộng đồng

Ủy ban kết luận rằng quyết định ban đầu của Facebook (gỡ nội dung) không tuân thủ Tiêu chuẩn cộng đồng của công ty này về Cá nhân và tổ chức nguy hiểm.

Nội dung đề cập đến BJP, RSS cũng như một số lãnh đạo của đảng và tổ chức này. Facebook giải thích rằng theo Tiêu chuẩn cộng đồng của mình, không có nhóm hay cá nhân nào nói trên bị xem là "nguy hiểm" và công ty không thể xác định từ ngữ cụ thể trong nội dung khiến nội dung bị gỡ bỏ. Ủy ban nhận thấy rằng ngay cả nếu những tổ chức này bị xem là nguy hiểm thì nội dung rõ ràng cũng lên án các tổ chức đó. Nội dung chỉ ca ngợi một nhóm duy nhất, đó là những người nông dân Ấn Độ đang biểu tình. Vì vậy, có vẻ như chuyên viên xét duyệt chưa dành đủ thời gian hay sự chú ý khi xem xét nội dung này.

Ngoài ra, Ủy ban thấy Tiêu chuẩn cộng đồng về Cá nhân và tổ chức nguy hiểm quy định rõ rằng nội dung vi phạm sẽ bị gỡ bỏ. Lời mở đầu Tiêu chuẩn cộng đồng cũng như Trung tâm trợ giúp và trang Tin tức của Facebook đều nói rõ rằng hành vi vi phạm nghiêm trọng hoặc liên tục có thể khiến người dùng mất quyền truy cập một số tính năng. Trong trường hợp này, Facebook giải thích với Ủy ban rằng công ty áp dụng biện pháp hạn chế tự động với tài khoản của người dùng trong một khoảng thời gian quy định vì họ đã vi phạm nhiều lần. Ủy ban nhận thấy hành động này chỉ phù hợp với Tiêu chuẩn cộng đồng của công ty nếu hành vi vi phạm đã xảy ra trên thực tế.

Facebook giải thích với Ủy ban rằng biện pháp hạn chế tài khoản được áp dụng tự động, khi xác định được hành vi vi phạm Tiêu chuẩn cộng đồng và tùy thuộc vào quá trình vi phạm của cá nhân. Điều này nghĩa là chuyên viên xét duyệt nội dung không biết được liệu việc gỡ bỏ có dẫn đến tài khoản bị hạn chế hay không và không tham gia vào việc lựa chọn biện pháp hạn chế đó. Ủy ban nhận thấy sự nhầm lẫn trong việc thực thi có thể dẫn đến hậu quả nghiêm trọng và bày tỏ lo ngại rằng trong trường hợp này, biện pháp hạn chế ở cấp độ tài khoản đã được áp dụng sai.

8.2 Sự tuân thủ các giá trị của Facebook

Ủy ban thấy quyết định gỡ nội dung mà Facebook đưa ra không tuân thủ các giá trị "Bày tỏ ý kiến, "Phẩm giá" và "An toàn" của công ty. Nội dung liên kết đến một bản tin truyền thông và liên quan đến những vấn đề chính trị quan trọng, bao gồm bình luận về hành vi được cho là vi phạm quyền của người thiểu số và dập tắt các ý kiến đối lập do tổ chức RSS, cũng như những chính trị gia cấp cao trong đảng BJP thực hiện. Do đó, việc gỡ bỏ bài viết do sai sót đã làm suy giảm các giá trị "Bày tỏ ý kiến" và "Phẩm giá".

Facebook cho biết công ty ưu tiên giá trị "An toàn" khi thực thi Tiêu chuẩn cộng đồng về Cá nhân và tổ chức nguy hiểm. Tuy nhiên, trong trường hợp này, nội dung không nhắc đến hay ca ngợi bất kỳ cá nhân hay tổ chức nào bị xem là nguy hiểm. Thay vào đó, Ủy ban thấy rằng nội dung chỉ trích các chủ thể nhà nước và các nhóm chính trị.

8.3 Sự tuân thủ các trách nhiệm của Facebook về nhân quyền

Việc Facebook áp dụng Tiêu chuẩn cộng đồng về Cá nhân và tổ chức nguy hiểm không phù hợp với các trách nhiệm về nhân quyền của công ty, cũng như những tuyên bố công khai về cam kết tuân thủ UNGP mà Facebook đưa ra. Các Nguyên tắc 11 và 13 kêu gọi doanh nghiệp tránh gây ra hoặc góp phần gây ra những tác động tiêu cực về nhân quyền có thể phát sinh từ hoạt động của họ hoặc từ mối quan hệ của họ với các bên khác - bao gồm cả chủ thể nhà nước - đồng thời giảm thiểu những tác động đó.

I. Quyền tự do biểu đạt và thông tin (Điều 19, ICCPR)

Điều 19 trong ICCPR đảm bảo quyền tự do biểu đạt, đồng thời đặc biệt xem trọng quyền tranh luận công khai không hạn chế, nhất là khi liên quan đến các nhân vật chính trị và cuộc thảo luận về nhân quyền (các đoạn 11 và 34, Chú giải chung số 34).

Điều 19 cũng đảm bảo quyền tìm kiếm và tiếp nhận thông tin, bao gồm từ các phương tiện truyền thông (đoạn 13, Chú giải chung số 34). Quyền này được đảm bảo và không có sự phân biệt đối xử. Luật nhân quyền cũng đặc biệt nhấn mạnh tầm quan trọng của tính độc lập và đa dạng trong truyền thông, nhất là truyền thông dành cho các cộng đồng dân tộc và cộng đồng ngôn ngữ thiểu số (đoạn 14, Chú giải chung số 34).

a. Tính hợp pháp

Trước đây, Ủy ban đã nêu lên những mối quan ngại liên quan đến khả năng tiếp cận Tiêu chuẩn cộng đồng về Cá nhân và tổ chức nguy hiểm, trong đó có cả mối quan ngại về cách diễn giải cụm từ "ca ngợi" của Facebook, cũng như quy trình xác định cá nhân và tổ chức nguy hiểm (quyết định cuối cùng 2020-005-FB-UA). Các quy tắc chính xác đóng vai trò quan trọng trong việc hạn chế quyền tự ý định đoạt và tránh tình trạng ra quyết định tùy tiện (đoạn 25, Chú giải chung số 34), cũng như bảo vệ chống lại các định kiến. Điều này cũng giúp người dùng Facebook hiểu rõ những quy tắc được thực thi đối với họ. Báo cáo viên đặc biệt của Liên Hiệp Quốc về quyền tự do biểu đạt đã nêu lên mối quan ngại về việc các công ty mạng xã hội áp dụng những quy tắc mơ hồ nghiêm cấm chung chung hành vi "ca ngợi", "ủng hộ" người lãnh đạo các tổ chức nguy hiểm (đoạn 26, báo cáo A/HRC/38/35).

Hậu quả của việc vi phạm quy tắc (ví dụ: tạm ngừng quyền sử dụng các tính năng của tài khoản hoặc vô hiệu hóa tài khoản) cũng phải được nêu rõ ràng. Ủy ban lo ngại rằng thông tin về biện pháp hạn chế tài khoản được nêu rải rác ở nhiều văn bản chứ không nằm toàn bộ trong Tiêu chuẩn cộng đồng như mọi người thường nghĩ. Khi người dùng vi phạm quy tắc, họ phải được gửi thông báo và cung cấp thông tin đầy đủ để có thể điều chỉnh hành vi cho phù hợp. Ủy ban lưu ý về việc từng đưa ra đề xuất rằng Facebook không nên mong người dùng tự tổng hợp quy tắc từ nhiều nguồn khác nhau và rằng nên tập hợp toàn bộ quy tắc trong Tiêu chuẩn cộng đồng ( quyết định cuối cùng 2020-006- FB-FBR, Mục 9.2).

Ủy ban lo ngại việc Tiêu chuẩn cộng đồng không được dịch sang tiếng Punjab, một ngôn ngữ phổ biến trên thế giới với 30 triệu người sử dụng tại Ấn Độ. Tiêu chuẩn thực thi nội bộ của Facebook cũng không có phiên bản tiếng Punjab dành cho người kiểm duyệt nội dung bằng ngôn ngữ này. Điều này có thể làm trầm trọng thêm vấn đề người dùng không hiểu rõ quy tắc, đồng thời gia tăng khả năng người kiểm duyệt mắc sai sót khi thực thi. Các tác động cụ thể mà một cộng đồng thiểu số có nguy cơ phải hứng chịu làm dấy lên những mối quan ngại về nhân quyền (đoạn 57, A/HRC/22/49).

b. Mục đích chính đáng

Đoạn 3, Điều 19 trong ICCPR quy định các mục đích chính đáng bao gồm tôn trọng các quyền hoặc uy tín của người khác, cũng như bảo vệ an ninh quốc gia, trật tự công cộng hoặc sức khỏe/đạo đức của xã hội. Facebook cho biết mục đích của Tiêu chuẩn cộng đồng về Cá nhân và tổ chức nguy hiểm là bảo vệ quyền của người khác. Ủy ban nhất trí rằng chính sách này có mục tiêu chính đáng, cụ thể là bảo vệ quyền được sống, quyền được bảo vệ an toàn thân thể, quyền bình đẳng và không bị phân biệt đối xử (đoạn 28, Chú giải chung số 34; Quyết định 2020-005-FB-UA của Ủy ban Giám sát).

c. Tính cần thiết và tương xứng

Những biện pháp hạn chế phải cần thiết và tương xứng để đạt được mục tiêu chính đáng. Giữa tính cần thiết, tương xứng của hành động cụ thể và lời lẽ đe dọa xuất phát từ cách biểu đạt phải có sự liên hệ trực tiếp (đoạn 35, Chú giải chung số 34). Facebook đã thừa nhận sai sót khi quyết định gỡ nội dung nên không đưa ra lý lẽ chứng minh hành động này là cần thiết hay tương xứng.

Những sai sót dẫn đến việc hạn chế quyền biểu đạt về các vấn đề chính trị là một mối lo ngại nghiêm trọng. Điều này đặc biệt đáng quan ngại nếu những sai sót đó diễn ra phổ biến, nhất là khi tác động đến những người nói ngôn ngữ thiểu số hoặc các cộng đồng thiểu số tôn giáo vốn dĩ bị yếu thế về chính trị. Báo cáo viên đặc biệt của Liên Hiệp Quốc về các vấn đề liên quan đến người thiểu số đã bày tỏ mối quan ngại về ngôn từ gây thù ghét trên Facebook nhắm vào những nhóm thiểu số tại Ấn Độ (đoạn 40, A/HRC/46/57). Trong bối cảnh khu vực như vậy, các sai sót có thể dập tắt ý kiến của những cộng đồng thiểu số muốn phản bác các luận điệu thù ghét và phân biệt đối xử như trong trường hợp này.

Tại thời điểm đăng bài viết, ở Ấn Độ đã đồng loạt nổ ra các cuộc biểu tình chống chính phủ của nông dân. Chính phủ nước này cũng gia tăng áp lực buộc các nền tảng mạng xã hội phải gỡ nội dung liên quan. Bối cảnh chính trị như vậy càng nêu bật ý nghĩa quan trọng của việc ra quyết định đúng đắn. Trong trường hợp nêu ở đây, nội dung liên quan đến các cuộc biểu tình và hành vi dập tắt những ý kiến đối lập, đồng thời bao gồm liên kết đến cuộc phỏng vấn về các chủ đề này do một kênh truyền thông bằng ngôn ngữ thiểu số thực hiện. Các nền tảng lớn cần tránh gây ảnh hưởng đến quyền biểu đạt của những cộng đồng thiểu số đang phản đối chính phủ lãnh đạo họ, đồng thời ủng hộ chủ nghĩa đa nguyên và đa dạng truyền thông (đoạn 40, Chú giải chung số 34). Hành động hạn chế tài khoản do nhầm lẫn khiến người dùng không thể sử dụng nền tảng trong giai đoạn then chốt này là một biện pháp rất không tương xứng.

Facebook giải thích rằng họ không thể thực hiện quy trình kháng nghị đối với nội dung của người dùng do năng lực giảm sút trong thời gian diễn ra đại dịch COVID-19. Mặc dù nhận thức được những hoàn cảnh đặc biệt này, nhưng Ủy ban vẫn nhấn mạnh tầm quan trọng của việc Facebook cho thấy sự minh bạch và có các quy trình dễ tiếp cận để người dùng kháng nghị quyết định mà Facebook đưa ra (Nguyên tắc 11, UNGP; đoạn 53, A/74/486). Như Ủy ban đã nêu trong quyết định cuối cùng 2020-004-IG-UA, các trường hợp cần được kháng nghị với Facebook trước khi chuyển cho Ủy ban. Để đảm bảo quyền tiếp cận biện pháp khắc phục của người dùng, Facebook cần ưu tiên khôi phục khả năng này càng sớm càng tốt.

Ủy ban công nhận rằng việc kiểm duyệt nội dung trên quy mô lớn sẽ không tránh khỏi sai sót. Dù vậy, trách nhiệm của Facebook trong việc ngăn chặn, giảm thiểu và xử lý các tác động tiêu cực đến nhân quyền đòi hỏi công ty phải rút kinh nghiệm từ những sai lầm đó (UNGP, Nguyên tắc 11 và 13).

Khó có thể xác định từ một trường hợp rằng hành động thực thi này thể hiện định kiến cố ý hay vô ý của người xét duyệt. Facebook cũng từ chối đưa ra câu trả lời cụ thể cho câu hỏi của Ủy ban về khả năng nhà chức trách Ấn Độ đã yêu cầu hạn chế nội dung xoay quanh các cuộc biểu tình của nông dân, nội dung chỉ trích cách chính phủ đối xử với nông dân hoặc nội dung liên quan đến các cuộc biểu tình. Facebook xác định rằng thông tin được yêu cầu cung cấp không phải là một đòi hỏi hợp lý để đưa ra quyết định theo mục đích của Điều lệ và/hoặc không thể hay không nên được cung cấp do những hạn chế hay lo ngại về luật pháp, quyền riêng tư, sự an toàn hoặc khả năng bảo vệ dữ liệu. Facebook đã viện dẫn Mục 2.2.2, Điều 2 trong Quy chế của Ủy ban Giám sát để lý giải cho hành động từ chối của mình.

Facebook đã trả lời câu hỏi của Ủy ban về mức độ độc lập với tác động từ phía chính phủ của công tác kiểm duyệt ở Ấn Độ của Facebook. Công ty này giải thích rằng trong khuôn khổ sáng kiến Đạo đức và tuân thủ toàn cầu, nhân viên Facebook đã được đào tạo cụ thể theo khu vực, thị trường hoặc vai trò của họ. Đây là sáng kiến nhằm tăng cường văn hóa trung thực, minh bạch, chính trực và chịu trách nhiệm cùng các giá trị đạo đức. Hơn nữa, nhân viên Facebook cũng phải tuân thủ Quy tắc ứng xử và Chính sách chống tham nhũng.

Ủy ban nhấn mạnh tầm quan trọng của các quy trình xem xét quyết định kiểm duyệt nội dung - bao gồm cả kiểm tra - để rà soát và khắc phục mọi định kiến trong quá trình ra quyết định tự động hoặc của con người, nhất là khi liên quan đến những khu vực đang trải qua khủng hoảng và bất ổn. Những đánh giá này cần xem xét khả năng các chính phủ và chủ thể phi nhà nước cấu kết tiến hành chiến dịch báo cáo ý kiến bất đồng nhằm gây hại.

Sự minh bạch là yếu tố then chốt để đảm bảo công chúng có thể kiểm tra sát sao hành động của Facebook trong lĩnh vực này. Sự thiếu chi tiết trong báo cáo minh bạch của Facebook khiến Ủy ban hay các chủ thể khác khó đánh giá được liệu, chẳng hạn như, việc công ty này thực thi chính sách về Cá nhân và tổ chức nguy hiểm có tác động cụ thể nào đến người dùng Ấn Độ, nhất là người nói tiếng thiểu số hay không. Để tạo cơ sở tranh luận, Facebook cần công bố nhiều dữ liệu hơn, cũng như nội dung phân tích ý nghĩa của những dữ liệu đó.

9. Quyết định của Ủy ban Giám sát

Ủy ban Giám sát hủy bỏ quyết định gỡ nội dung mà Facebook đưa ra, đồng thời yêu cầu Facebook khôi phục bài viết. Ủy ban nhận thấy Facebook đã thực hiện việc này.

10. Nội dung tư vấn về chính sách

Các đề xuất sau đây được đánh số thứ tự. Ủy ban đề nghị Facebook phản hồi riêng từng đề xuất như được soạn thảo.

Khả năng tiếp cận

1. Facebook nên dịch Tiêu chuẩn cộng đồng và Tiêu chuẩn thực thi nội bộ của công ty sang tiếng Punjab. Facebook nên đặt mục tiêu dịch Tiêu chuẩn cộng đồng sang mọi ngôn ngữ phổ biến của người dùng nền tảng này. Điều đó sẽ tạo điều kiện để người dùng nắm được đầy đủ những quy tắc họ phải tuân thủ khi sử dụng sản phẩm của Facebook. Nhờ vậy, người dùng cũng dễ tương tác với Facebook hơn về nội dung có thể vi phạm quyền của họ.

Quyền yêu cầu biện pháp khắc phục

2. Theo đề xuất của Ủy ban trong trường hợp 2020-004-IG-UA, công ty nên khôi phục hoạt động xét duyệt bằng con người và quyền tiếp cận quy trình kháng nghị thông qua con người về mức trước khi xảy ra đại dịch càng sớm càng tốt, đồng thời bảo vệ triệt để sức khỏe nhân viên cũng như nhà thầu của Facebook.

Báo cáo minh bạch

3. Facebook nên cải thiện báo cáo minh bạch của mình để tăng lượng thông tin công khai về tỷ lệ sai sót bằng cách hiển thị thông tin này theo quốc gia và ngôn ngữ đối với từng Tiêu chuẩn cộng đồng. Ủy ban nhấn mạnh rằng các báo cáo minh bạch chi tiết hơn sẽ giúp công chúng phát hiện ra những lĩnh vực hay có sai sót (bao gồm cả các tác động cụ thể mà các nhóm thiểu số có thể phải hứng chịu) và báo cho Facebook để khắc phục những sai sót đó.

*Lưu ý về quy trình:

Quyết định của Ủy ban Giám sát do ban hội thẩm gồm 5 Thành viên soạn thảo và được đa số thành viên trong Ủy ban thông qua. Quyết định của Ủy ban không nhất thiết đại diện cho quan điểm cá nhân của tất cả các Thành viên.

Ủy ban đã ủy quyền cho tổ chức nghiên cứu độc lập đưa ra quyết định cuối cùng cho trường hợp này. Một tổ chức nghiên cứu độc lập có trụ sở tại Đại học Gothenburg và có đội ngũ bao gồm hơn 50 nhà khoa học xã hội ở 6 châu lục, cũng như hơn 3.200 chuyên gia nhà nước trên khắp thế giới, đã cung cấp thông tin chuyên môn về bối cảnh văn hóa và chính trị xã hội. Các chuyên gia của công ty Lionbridge Technologies, LLC thành thạo hơn 350 ngôn ngữ và làm việc tại 5.000 thành phố trên khắp thế giới đã cung cấp kiến thức chuyên môn về ngôn ngữ.

Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas