Décision sur plusieurs affaires

イスラエル人のレイプ被害者に関する報告

ある利用者が、2023年10月7日に起きたイスラエルに対するテロ攻撃の際にハマスの戦闘員が行った性的暴力について説明する2件のFacebook投稿を削除するMetaの決定に異議を申し立てました。委員会がMetaにこれらの異議申し立てを指摘した後、同社は、元の決定を撤回してこれらの投稿を復元しました。

2 cas inclus dans ce lot

Renversé

FB-YCJP0Q9D

Facebookでの危険な人物および団体に関する事例

Plate-forme
Facebook
Sujet
男女同権、ジェンダー平等,暴力,戦争・抗争
Standard
危険な人物または団体
Emplacement
イスラエル,パレスチナ自治区
Date
Publié le 4 avril 2024
Renversé

FB-JCO2RJI1

Facebookでの危険な人物および団体に関する事例

Plate-forme
Facebook
Sujet
男女同権、ジェンダー平等,暴力,戦争・抗争
Standard
危険な人物または団体
Emplacement
イスラエル,アメリカ合衆国,パレスチナ自治区
Date
Publié le 4 avril 2024

これは要約決定です 要約決定では、委員会がMetaに対して注意喚起を行った後に同社がコンテンツに関する当初の決定を撤回した事例を審査します。これらの決定には、Metaが認めた誤りに関する情報が含まれます。これらは、委員会全員ではなく、一部メンバーで構成されるパネルが承認したものであり、パブリックコメントのプロセスを伴わず、委員会にとって先例としての価値はありません。要約決定は、Metaの決定への変更を直接求めるものであり、Metaの訂正について透明性を提供し、Metaの施行において改善の余地がある箇所を指摘します。

事例の概要

ある利用者が、2023年10月7日に起きたイスラエルに対するテロ攻撃の際にハマスの戦闘員が行った性的暴力について説明する2件のFacebook投稿を削除するMetaの決定に異議を申し立てました。委員会がMetaにこれらの異議申し立てを指摘した後、同社は、元の決定を撤回してこれらの投稿を復元しました。

事例の説明と背景

2023年10月、あるFacebook利用者が、同年10月7日に起きたテロ攻撃の際にハマスの戦闘員が行ったイスラエル人女性のレイプについて説明する、ある女性の動画を掲載した同一のコンテンツを含む個別の投稿を2件立て続けにアップロードしました。キャプションには「事前警告」が含まれており、動画内の発言者は過激な描写を含むコンテンツであることを警告しています。これらの警告に続いて、動画ではハマスによって拉致された2人の異なる女性の映像が紹介されており、一方のクリップには重度の怪我を負った女性がトラックの車内でうつ伏せに横たわっている様子、もう一方のクリップには負傷した女性が車両後部から引きずり出される様子が映っています。これらの画像は攻撃直後に広く共有されました。最初の投稿は約4千回シェアされ、2番目の投稿がシェアされた回数は50回未満でした。

当初Metaは、いずれの投稿も危険な団体および人物に関するコミュニティ規定に違反するとしてそれらを削除しました。このポリシーに基づき、Metaは、テロ攻撃を非難したりその認識を高めたりするために共有する場合などを含め、いかなる場合でも、特定可能な被害者に対する指定されたテロ攻撃の瞬間を描いた第三者による画像を禁止しています。またMetaは、同社の暴力と扇動に関するコミュニティ規定に基づき、「支援を求めるために拉致被害者またはその家族によってシェアされたコンテンツや、情報提供、非難、認識の向上を目的としてシェアされたコンテンツでないことが明らかな、拉致または誘拐を描写するコンテンツ」を削除します。

10月7日のハマスによる攻撃が起きた当初、Metaは、目で確認できる被害者への個別の攻撃の瞬間が映った動画に対し、危険な団体および人物に関するポリシーを厳格に施行し始めました。Metaは、10月13日付のニュースルーム投稿で、このアプローチについて、「ハマスに拉致された人質の安全を優先するため」だったと説明しました。こうした理由により、これら2件の事例におけるコンテンツはいずれも、Metaの危険な団体および人物に関するポリシーに違反したとして削除されました。

この決定後、多くの報道機関が関連の映像の一斉配信を開始し、利用者も攻撃の認識を高め非難するために同様のコンテンツを投稿し始めました。こうした状況を受け、10月20日頃にMetaは、残虐行為の認識を高めたり、それを非難したり文脈においてのみ利用者がこの映像をシェアすることを許可するように当該ポリシーを更新し、映像が不快なものであることを利用者に知らせる警告画面を適用しました。Metaは、12月5日の更新における当該ポリシーの変更点を10月13日の元々のニュースルーム投稿に公開しました(追加情報および背景情報については、イスラエルから拉致された人質を参照)。

当初Metaは、これら2件の事例の両方のコンテンツを削除しました。利用者はMetaの決定について委員会に異議を申し立てました。委員会がMetaにこれらの事例を指摘した後、Metaは、更新された許可を踏まえ、当該投稿がポリシー違反に該当しなくなったと判断し、両方のコンテンツを復元しました。

委員会の権限と範囲

委員会には、コンテンツを削除された利用者からの異議申し立てを受けて、Metaの決定を審査する権限があります(憲章第2条第1項、定款第3条第1項)。

委員会の審査について検討中である事例で誤りがあったことをMetaが認めてその決定を撤回する場合、委員会は、本事例を要約決定の対象として選定する場合があります(定款第2条第2.1.3項)。委員会が当初の決定を審査してコンテンツモデレーションプロセスに関する理解を深めることで、誤りが減少し、FacebookとInstagramの利用者の公平性が高まります。

事例の重大性

これらの2件の事例は、急速に発展し続けているリスクの高い対立的状況下でのコンテンツに対するMetaの措置における課題を浮き彫りにしています。「イスラエルから拉致された人質」に関する迅速決定において、委員会は、人質を描写するコンテンツを禁止するMetaの当初のポリシーは、人質の尊厳を保護し、世間の好奇心に晒されないようにすることを目的とするものであったと判断しました。しかし委員会は、必要不可欠な公共的利益あるいは人質の極めて重要な利益を踏まえて一時的かつ限定的な例外が必要とされる異例の状況では、こうした例外は正当化できるとも判断しました。背景を考慮すれば、このようなコンテンツを「不快なコンテンツに指定」という警告表示を付けてプラットフォームに復元することは、Metaのコンテンツポリシー、価値観および人権保障責任に沿うものです。また、国際人道法、および今後の説明責任のために違反が疑われる文書を保持する慣行と世間一般の認識を向上させる慣行にも沿うものです。委員会は「イスラエルから拉致された人質」に関する事例で、Metaがこの例外をすべての利用者に適用するまでにあまりにも多くの時間をかけすぎたこと、および紛争中におけるコンテンツモデレーションに対するアプローチの急変には継続的な透明性の欠如が伴っていたことも指摘しました。

委員会は過去に、本事例に関連した勧告を行っています。委員会は、「一定の表現を許可するポリシーの変更についてプラットフォームの利用者に知らせるために」コミュニティ規定の例外を、「その期間と有効期限の通知」を含めて発表するように勧告しました(イランにおける抗議デモのスローガンに関する事例、勧告5)。公開された情報により、Metaがこの勧告の一部を実施したことが明らかになっています。委員会は過去に、今後の説明責任のために潜在的な戦争犯罪、人道に対する罪、深刻な人権侵害の証拠を保持するようにも勧告しました(スーダンの過激な描写を含む動画に関する事例、勧告1およびアルメニアの戦争捕虜の動画に関する事例、勧告1)。Metaは、この勧告を完全に実施することに同意し、現在その取り組みを行っています。委員会は、Metaのプラットフォームで人権に関するコンテンツに対する措置を正確なものにするためにこれらの勧告について行動を起こす必要があることを強調します。

決定

委員会は、コンテンツ2件を削除するというMetaの当初の決定を無効と判断しました。委員会は、Metaにこれら2件の事例を指摘した後、Metaが当初の誤りを訂正したことを認めます。

Retour aux décisions de cas et aux avis consultatifs politiques