पलट जाना

アル・シファ病院

委員会は、このコンテンツをInstagramから削除するというMetaの当初の決定を無効と判断しました。また、当該コンテンツを「不快なコンテンツに指定」という警告表示を付けてプラットフォームに復元することは、Metaのコンテンツポリシー、価値観および人権保障責任に沿うものであると判断しています。

निर्णय का प्रकार

Expedited

नीतियां और विषय

विषय
सुरक्षा, हिंसा, युद्ध और मतभेद
सामुदायिक मानक
हिंसक और आपत्तिजनक कंटेंट

क्षेत्र/देश

जगह
इज़राइल, फ़िलिस्तीनी क्षेत्र

प्लैटफ़ॉर्म

प्लैटफ़ॉर्म
Instagram

本決定公開後の数週間以内に、ヘブライ語の翻訳をこちらにアップロードします。アラビア語の翻訳はこの画面上部のメニューの「言語」タブから閲覧可能になります。

לקריאת החלטה זו בעברית יש ללחוץ כאן.

1. 概要

本事例は、イスラエルによる地上戦中におけるガザ市のアル・シファ病院またはその周辺の空爆直後の様子が映った、見る人の感情に強く訴えかける動画に関連するものです。この動画には、この攻撃を非難するキャプションが添えられています。この投稿は、暴力や過激な描写を含むコンテンツに関するコミュニティ規定に違反するとして、Metaの自動システムによって削除されました。当該動画を投稿した利用者は、Metaに対する決定への反対が受け入れられなかった後に、監督委員会に異議を申し立てました。委員会が本事例を審査対象に認定した後で、Metaは当該決定を撤回し、警告表示付きでコンテンツを復元しました。委員会は、コンテンツを削除するという当初の決定はMetaのコンテンツポリシーまたは人権保障責任を遵守していないと判断します。委員会は、警告表示付きでコンテンツを復元する決定を承認しますが、当該コンテンツをおすすめから除外するという降格措置には賛成しません。本事例と「イスラエルから拉致された人質」(2023-050-FB-UA)は、委員会の迅速審査手続きに則り決定された委員会初の事例です。

2. 背景およびMetaの対応

2023年10月7日、Metaの危険な団体および人物に関するコミュニティ規定に基づきレベル1の団体に指定されているハマスは、ガザからイスラエルに対する前例のないテロ攻撃を実行し、推定1,200人を殺害するとともに、約240人を人質として拉致しています(イスラエル政府外務省)。イスラエルは、この攻撃に応じて軍事作戦を即座に展開しました。イスラエルとハマスの双方に国際法違反の非難が向けられている紛争において、イスラエルの軍事行動によるガザ地区の死者は2023年12月中旬時点で18,000人以上に上っています(国際連合人道問題調整事務所、ガザの保健省からのデータを引用)。テロ攻撃とそれに続くイスラエルの軍事行動は、全世界で報道、議論、調査および論争の対象として集中的に取り上げられており、その大半はInstagramやFacebookを含むソーシャルメディアプラットフォームで起きています。

Metaは、危険な団体および人物に関するポリシーに基づき、10月7日の出来事をテロ攻撃として即時に指定しました。これは、Metaのプラットフォーム上で10月7日の攻撃または加害者を「称賛したり、実質的に支持したり、表現したりする」コンテンツがMetaのコミュニティ規定に基づき削除されることを意味します。

テロ攻撃および軍事的報復の後にMetaのプラットフォームで見られた暴力や過激な描写を含むコンテンツの例外的な急増に対応するため、Metaは、暴力や過激な描写を含むコンテンツを検出して削除する自動分類システムに設定される信頼度のしきい値を引き下げるなど、いくつかの一時的な措置を講じました。Metaは、委員会に対し、これらの措置はイスラエルおよびガザ地区から発信されるあらゆる言語のコンテンツに適用されたと伝えています。分類システムへのこうした変更により、コンテンツの自動削除件数が増加し、中にはMetaのポリシー違反の信頼度スコアが低かったコンテンツも含まれていました。つまり、Metaは、ポリシーに違反している可能性のあるコンテンツを削除するために同社の自動ツールをより積極的に使用したのです。Metaは、同社が重んじる安全の価値観を優先するためにこうした対応を取りました。その結果、10月7日前に設定されていたより高い信頼度のしきい値の場合と比べ、より多くのコンテンツが削除されました。これにより、こうした対応がない場合に検出されない可能性のある違反コンテンツ、または人間による審査で対応できない違反コンテンツをMetaが削除できなくなる可能性は低くなったものの、当該紛争に関連する、違反ではないコンテンツを誤って削除してしまう可能性は増加しました。

エスカレーションチームが暴力や過激な描写を含むコンテンツ、暴力と扇動、ならびに危険な団体および人物に関するポリシーの違反について動画を評価した際、Metaは、一致する動画を自動で削除するためにメディアマッチングサービスバンクに依存しました。このようなアプローチは、Metaのコンテンツポリシーの複数回の違反後に適用されるアカウントの制限または一時停止(「Facebook刑務所」と呼ばれることもある措置)を含む、過剰な施行についての懸念を生じさせました。こうした懸念を和らげるため、Metaは、「ストライク」の実施を保留しました(この件について、Metaはニュースルーム投稿で発表)。通常、ストライクは、メディアマッチングサービスバンクに基づいて自動で実施されるコンテンツ投稿削除の措置に伴って課されます。

Metaによる分類システムの信頼度のしきい値とストライクポリシーの変更は、イスラエルとガザ地区の紛争に関するものに限定され、一時的な措置として意図されています。2023年12月11日時点において、Metaは信頼度のしきい値を10月7日より前のレベルに戻していません。

3. 事例の説明

本事例のコンテンツは、11月の第2週にInstagramで投稿された動画に関連するもので、この動画には、ガザ地区北部でのイスラエルによる地上戦中におけるガザ市のアル・シファ病院またはその周辺の空爆直後の様子と見られるものが映っています。当該Instagram投稿には、子どもを含む、地面に横たわる死体や、負傷したり泣いていたりする人たちの様子が映っています。1人の子どもは頭部の重度の怪我により死亡しているように見えます。動画の下に表示されるアラビア語と英語のキャプションでは、同病院が、イスラエル軍を指す「usurping occupation」(不当な侵略)の標的になっていると述べ、人権団体や報道機関をタグ付けしています。

FacebookおよびInstagramのコンテンツに適用されるMetaの暴力や過激な描写を含むコンテンツに関するコミュニティ規定は、「内臓が見えるものを描写している場合、医療現場以外での人体や死体の動画」を禁止しています。当該ポリシーは、投稿時において、「不快なコンテンツに指定」という警告表示を付けて、18歳以上の人のみが閲覧できるようにしている場合に限り、「事故や殺人による1人または複数の人の暴力的な死を見せる画像」を許可しています。この規則は、「死の瞬間やその直後」および「生命を脅かす出来事に直面している人」の画像にも適用されることを明確にするため、本事例のコンテンツが復元された後の11月29日に更新されました。

Metaの自動システムは、暴力や過激な描写を含むコンテンツに関するコミュニティ規定に違反しているとして本事例のコンテンツを削除しました。この決定に対する当該利用者の異議申し立ては、Metaの分類システムによってコンテンツの違反の「信頼度が高い」と示されたため、自動的に拒否されました。その後、当該利用者はMetaの決定について委員会に異議を申し立てました。

委員会がこの事例を選定した後、Metaは、当該動画に内臓が映っていることを最終的に判断できなかったと述べました。その結果、Metaは、当該コンテンツは違反に該当するかどうかの「グレーゾーン」にあるものの、それを削除すべきではなかったと結論付けました。さらに、この投稿は、内臓が見えていたとしても、問題意識の喚起のために共有されたため、「不快なコンテンツに指定」の警告表示を付けたうえで残すべきであったとMetaは説明しました。同社は、暴力と過激な描写を含むコンテンツに関するポリシーの基本理念に則り、このようなコンテンツは「人権侵害、武力紛争、テロ行為などの重要な問題」などに関する意識を喚起するために共有された場合、許可されることを繰り返し述べました。

これに基づき、Metaは、当初の決定を撤回し、警告表示を付けたうえで当該コンテンツを復元しました。この警告表示は対象のコンテンツが不快な可能性があることを利用者に伝えます。成人の利用者は警告表示をクリックして対象の投稿を閲覧できますが、Metaは、18歳未満のInstagram利用者のフィードからそれを削除するとともに、成人のInstagram利用者へのおすすめからも削除しています。また、Metaは、同じ動画を個別のインスタンスとしてメディアマッチングサービスバンクに追加しました。これにより、このインスタンスに一致する他の動画は警告表示付きで自動的にプラットフォームに残され、18歳以上の利用者しか閲覧できないようになります。

4. 迅速審査の正当化

監督委員会の定款では、「コンテンツが今すぐにも実害を及ぼしかねない特別な状況」における迅速審査について規定しており、決定はMetaに対して拘束力を持ちます(憲章第3条第7.2項、定款第2条第2.1.2項)。迅速プロセスでは、通常の予定表に基づき審査される事例と同じレベルで広範な調査、外部との相談またはパブリックコメントの公募を行う必要はありません。対象事例は、審議の時点で委員会に提供されている情報に基づき、委員会の全メンバーの投票ではなく、5名のパネリストによって決定されます。

監督委員会は、対立的状況下における表現の自由の重要性という観点から、本事例と「イスラエルから拉致された人質」(2023-050-FB-UA)というもう1つの事例を選定しました。表現の自由はイスラエルとハマスの紛争という背景において危険にさらされています。これらの事例はともに、10月7日の攻撃とそれに続くイスラエルの軍事行動が起きて以降、当該地域の利用者が委員会に提出している異議申し立ての代表的なものです。また、委員会の「危機的および対立的状況」という優先事項にも該当します。これらの事例でのMetaの決定は「今すぐにも実害を及ぼしかねない」という、迅速審査を正当化するための基準を満たしており、その結果、委員会およびMetaは委員会の迅速手続きに基づき審査を進めることに合意しています。

Metaは、委員会への情報提出において「このコンテンツの取り扱い方に関する決定は困難であり、競合価値および妥協が絡んでくる」ことを認識し、この問題に対する委員会の意見を求めています。

5. 利用者からの陳述書の提出

この投稿の作成者は、委員会への申し立ての中で、暴力を扇動しておらず、子どもを含むパレスチナ人が苦しむ様子を映したコンテンツをシェアしたと述べています。さらに、削除という措置は、パレスチナ人の苦しみに対する偏見に基づいていると付け加えています。当該利用者は、自身の異議申し立てが委員会によって審査されることについて通知されました。

6.

委員会のメンバーは、イスラエルの軍事的な対応とその正当性に関しては意見の相違があるものの、一連の出来事によって影響を受けるすべての人びとの表現の自由に対する権利およびその他の人権をMetaが尊重することの大切さと、危機的状況下でのコミュニケーション能力の重要性に関しては満場一致で同意しています。

委員会は、このコンテンツをInstagramから削除するというMetaの当初の決定を無効と判断しました。また、当該コンテンツを「不快なコンテンツに指定」という警告表示を付けてプラットフォームに復元することは、Metaのコンテンツポリシー、価値観および人権保障責任に沿うものであると判断しています。しかし、復元済みのコンテンツを、おすすめとして提示される可能性から除外するという形で降格させるMetaの措置は、表現の自由を尊重するという同社の責任に沿っていないと委員会は結論付けます。

6.1 Metaのコンテンツポリシーへの準拠

委員会は、本事例の動画に「内臓が見えるもの」が映っているかどうかを判断するのが困難であるという点はMetaに同意します。情報へのアクセスを保護し、紛争による影響に関する問題意識を喚起するための情報と手段を提供することの公益的価値が例外的に高い本事例の背景を踏まえれば、暴力と過激な描写を含むコンテンツに関するポリシーに違反するかどうかの「グレーゾーンにある」コンテンツは削除すべきではありません。当該コンテンツには、血まみれの頭部外傷を描写した、ある1人の人物の暴力的な死が映った画像を含んでいるため、Metaは、同社のポリシーに従い、警告表示を適用して、18歳以上の成人しか閲覧できないようにするべきでした。

また、この動画に内臓が見えていた場合でも、暴力行為を非難し、その問題意識を喚起する当該投稿の文言は、「不快なコンテンツに指定」という警告表示を付けてプラットフォームに残し、18歳未満の利用者が閲覧できないようにするべきであったことも示していたというMetaの事後的な判断にも委員会は同意します。コミュニティ規定は、適用されるポリシーの文言(「内臓が見えるものを描写している場合の、医療現場以外での人体や死体の動画」)に関連する警告表示について定めていません。委員会は、スーダンの過激な描写を含む動画に関する事例で、Metaが同社の「以下のコンテンツの投稿は禁止されています」ポリシーの文言に従うように審査担当者に指示していることを説明しました。当該ポリシーの基本理念には、「人権侵害、武力紛争、テロ行為などの重要な問題に関する議論においては、利用者がこうした状況を非難し、こうした状況に関する認識を高めることができるよう、過激な描写を含むコンテンツを(一定の制限付きで)許可する」と記載されています。しかし、コミュニティ規定の規則は、当該ポリシーの基本理念の例外が適用される警告表示の追加を選択肢として審査担当者に与えることなく、医療以外の文脈で「内臓が見えるもの」を描写する動画をすべて禁止しています。Metaの自動システムでは、暴力行為を非難し、その問題意識を喚起するという文脈で過激な描写を含む動画に対する警告表示の適用が設定されていないと考えられます。また、適用される分類システムが、こうした文脈があるコンテンツを追加の評価のために人間の審査担当者に回すことができるのかも定かではありません。

6.2 Metaの人権保障責任の遵守

Metaの人権保障責任に則り、暴力や過激な描写を含むコンテンツの同社のモデレーションでは、情報を求め、受け、伝える自由を含む、表現の自由に対する権利が尊重される必要があります(市民的及び政治的権利に関する国際規約(ICCPR)第19条第2項)。アルメニアの戦争捕虜の動画に関する事例で委員会が述べたとおり、市民的及び政治的権利に関する国際規約第19条に基づく表現の自由の保護規定は、「武力紛争下でも関係し続け、武力紛争下で適用される国際人道法の相互に補強および補完する規則とともにMetaの人権保障責任を規定する」ものです。国連ビジネスと人権に関する指導原則は、紛争状況で事業運営するビジネスに対して、より大きな責任を課しています(「ビジネス、人権、紛争影響地域: 行動の促進に向けて」A/75/212)。

委員会は、過去の事例において、FacebookやInstagramなどのソーシャルメディアが、報道などの暴力的イベントに関するリアルタイム情報を発信するうえで重要な媒体となることを強調しています(報道におけるタリバンへの言及に関する事例などを参照)。とりわけ武力紛争下、特にジャーナリストのアクセスが制限されている場合には、重要な役割を担います。さらに、暴力的な攻撃および人権侵害を描写するコンテンツは、公益的価値が非常に高いものです(スーダンの過激な描写を含む動画に関する事例を参照)

国が表現を制限する場合、国際人権法に基づき、その制限は合法性、正当な目的、および必要性と相応性の各要件を満たさなければなりません(ICCPR第19条第3項)。これらの要件はよく「3要素のテスト」と呼ばれます。委員会は、審査対象であるコンテンツに関する個別の決定、およびこれがコンテンツガバナンスに対するMetaの幅広いアプローチについて示す内容の両方に関して、この枠組みを用い、人権に対するMetaの自主的な取り組みを解釈します。これを行うにあたり、委員会は、これらの権利が、政府に対して適用される場合と比べて民間のソーシャルメディア企業に対して適用される場合にはどう異なるのかについて慎重に検討するよう試みています。それでもなお、表現の自由に関する国連特別報告者が述べているとおり、「企業には政府と同じ義務はないものの、影響力が高いため、表現の自由に対する権利の保護に関して、企業も政府と同様の問題を評価する必要があります」(報告書A/74/486第41項)。

合法性という観点では、表現の自由に対する制限は、何が認められて何が認められないかについての指針を提供できるように、アクセスしやすくかつ明確である必要があります。委員会は、暴力や過激な描写を含むコンテンツに関するコミュニティ規定の規則が、当該ポリシーの目的を定めるその基本理念に完全に沿っていないという懸念を過去に表明しました(スーダンの過激な描写を含む動画およびナイジェリアでの教会襲撃事件後の動画に関する事例を参照)。委員会は、スーダンの過激な描写を含む動画の事例での勧告1と勧告2の重要性を繰り返します。この件では、暴力や過激な描写を含むコンテンツに関するコミュニティ規定を修正し、人権侵害に関する問題意識の喚起やその記録を目的としてシェアする場合は人体または死体の動画を許可するようにMetaに求めました(当該事例では、体の切断が映っていたことが取り上げられていました)。Metaは、これらの勧告に応えてポリシー策定プロセスを実施しており、次回の四半期別更新でその進捗状況を委員会に対し報告する予定です。委員会の見解としては、この勧告は、内臓が見えているものが映っている動画に関する規則に適用されるべきものであり、具体的には問題意識の喚起(事実報告を含む)および非難の例外が適用される施行措置としての警告表示を促すべきものです。

ICCPR第19条第3項に基づき、表現は、規定された、限定的な一連の理由により制限されることがあります。過去に、委員会は、暴力や過激な描写を含むコンテンツに関するポリシーには、描写された個人のプライバシーを含む他者の権利を保護するという正当な目的があると判断しています(スーダンの過激な描写を含む動画およびナイジェリアでの教会襲撃事件後の動画に関する事例を参照)。加えて、本事例は、18歳未満の利用者に対し当該コンテンツへのアクセスを制限するという措置が未成年の健康への権利を保護するという正当な目的に沿っていることを示しています(子どもの権利条約第24条)。

必要性と相応性の原則は、表現の自由に対するいかなる制限も「その保護機能の達成に適したものでなければならず、その保護機能を達成する可能性がある手段の中で最も干渉性の低いものでなければならず、保護すべき利益に相応でなければならない」(一般的意見34、第34項)と規定しています。

委員会は、暴力や過激な描写を含むコンテンツに関連し、警告表示が「コンテンツを見たい利用者には過度な負担を与えない一方で、その他の利用者にはコンテンツの性質を伝え、コンテンツを見るかどうかの判断を任せるようにするもの」であるという判断を過去に下しています(スーダンの過激な描写を含む動画に関する事例を参照)。警告表示は、不快な可能性があるコンテンツを利用者が不意に目にすることを防ぐことができます。被害者の権利は、暴力を受け亡くなった様子(またはその直後の様子)を見せる動画や写真(亡くなった方の家族から削除のリクエストがあった場合)に削除するというMetaのポリシーによってさらに保護されています。本事例のコンテンツは、地面に横たわる人体を遠くから撮影した静止画像を見せていたロシア語の詩に関する事例のコンテンツとは区別することができます。このコンテンツでは、被害者の顔は見えておらず、暴力があったことを示す明らかな手掛りは見つかりませんでした。この事例で警告表示を適用することは、審査担当者に対するMetaの指示との一貫性を欠き、表現に対する必要または相応な制限ではありませんでした。本事例のコンテンツはナイジェリアでの教会襲撃事件後の動画に関する決定でのコンテンツにより類似しており、死体や負傷者が近距離から撮影され、暴力があったことが極めて明らかです。

この事例では、子どもの負傷者や死体の描写が当該動画を極めて不快なものにしています。このような場合、不快なコンテンツを閲覧するか否かの選択権を利用者に与えることは相応の措置です(アルメニアの戦争捕虜の動画に関する事例を参照)。

委員会は、人権侵害の可能性、戦争法違反、紛争またはテロ行為に関する問題意識を喚起するコンテンツを、成人向けのおすすめから除外する措置は、その極めて高い公益的価値を鑑みれば、表現の自由に対する必要かつ相応な制限ではないと判断します。警告表示とおすすめからの除外は個別の役割を持ち、場合によっては、とりわけ対立的状況下においては、切り離されるべき措置です。Instagramでのおすすめは、予測される利用者の興味・関心に基づきコンテンツを提案する自動システムによって生成されます。このおすすめシステムからコンテンツを削除することは、この措置がない場合にコンテンツが得ていた可能性のあるリーチを狭めることを意味します。暴力的な対立の高まりなど、公益上の重要な事柄について非難、報告あるいは意識を喚起するコンテンツが成人の利用者にのみ表示されるようすでに制限されている限りにおいて、こうした慣行は、相応でない方法で表現の自由に干渉すると委員会は判断します。

委員会は、危機への即時対応では、例外的な臨時の措置が必要なことがあり、場合によっては、安全に関する懸念を優先し、表現の自由に対してより厳格な制限を一時的かつ相応的に講じることは正当であると認識しています。例えば、こうした対応の一部は、クライストチャーチ・コールで確立された「テロリストおよび暴力的過激主義者関連のコンテンツ」に対抗するための取り組みにおいて要約されています。しかし、委員会は、クライストチャーチ・コールでは、人権および基本的自由に沿った形でそのようなコンテンツに対応する必要性が強調されていることを指摘します。潜在的な戦争犯罪、人道に対する犯罪、または重大な人権侵害について問題意識を喚起または非難することを目的とした過激な描写を含むコンテンツを過剰に削除するという判断の誤りは、安全に関する懸念をもって正当化できるものではないと委員会は考えます。こうした制限は、紛争に巻き込まれている現地の人びとの安全のために必要とされる情報を妨げることにもなりかねません。

ストライクを課さないなどの措置は、対立的状況下におけるコンテンツの削除に関する信頼度のしきい値を下げるといった緊急措置に起因する施行の誤りが及ぼす潜在的に不相応な悪影響を緩和するのに役立ちます。しかし、こうした措置は、潜在的な人権侵害や人道法違反に関する問題意識を喚起するコンテンツや対立的状況下におけるその他の重要な情報を共有するための利用者の能力を保護するのには十分ではありません。

委員会は、危機的状況下および紛争地帯でのコンテンツモデレーションに関し、原則に基づいた、透明性のある枠組みを構築する必要性を繰り返し強調してきました(ハイチの警察署での動画およびティグレ州広報局に関する事例を参照)。主要なソーシャルメディア企業が表現の自由の不要な抑圧を回避するために必要な資源を充てなければならないのは、まさに、刻々と変化する対立が起きている時期です。こうした時期には、しばしばジャーナリストの情報源が身体的攻撃またはその他の攻撃の標的となるため、ソーシャルメディアでの一般市民によるニュース報道は特に不可欠になります。

また委員会は、戦争や政情不安の状況では、侵害に関する問題意識の喚起や侵害の記録を目的として、過激な描写や暴力行為を含むコンテンツが利用者によって撮影され、プラットフォーム上でシェアされることが増えるという見解も過去に示しています(スーダンの過激な描写を含む動画の事例を参照)。イスラエルとガザ地区の紛争では、驚くほど多くの民間人が死傷し、そのうち子どもの死傷者が高い割合を占めています。人道危機の状況が悪化する中、こうした許可は特に重要になります。委員会は、暴力や過激な描写を含むコンテンツに関するポリシーについて、Metaが継続的なポリシー策定プロセスを実施していることは認識していますが、本事例のようなコンテンツをおすすめから削除するのではなく、警告表示付きで許可する一時的な措置を即座に講じることができるよう準備することをMetaに対し期待します。

委員会は、このコンテンツが投稿されたときのガザ地区の状況では、10月7日の攻撃が起きたときにMetaが直面した一連の課題は関係していないことに着目しています。ガザ地区では、ジャーナリストによる当該地域へのアクセスが制限され、インターネット接続が遮断されている中、現地の人びとから情報を得ることが困難な状況が続いています。さらに、10月7日の攻撃直後とは異なり、本事例で取り上げられているガザ地区の状況では、ソーシャルメディアを利用して残虐行為を配信するテロリストの関与はありませんでした。対照的に、武力紛争という状況下では、Metaは、市民への危害についての問題意識を喚起する情報、および国際人道法や国際人権法の違反が起きているかどうかを判断するうえで関連している可能性のある情報を提供するコンテンツが、Metaの措置によって共有しづらくならないようにする必要があります。コンテンツが現地で起きている出来事について問題意識を喚起したり非難したりするために共有されたどうかという問いは、本事例のようなコンテンツを評価する審査担当者にとっての開始点であるべきです。また、Metaの自動システムは、例外が適用されることで恩恵を受けるコンテンツを誤って削除することがないように設計される必要があります。

また本事例は、危機対応という文脈において自動モデレーションが人間によって十分に監督されていない場合に、重要な公益的価値のある発言が誤って削除されかねないことも示しています。当該コンテンツを削除するという当初の決定と利用者による異議申し立ての却下は両方とも、人間による審査なしに、分類システムのスコアに基づいて自動的に行われました。さらに、10月7日の攻撃の後に、暴力や過激な描写を含むコンテンツに関するポリシーに基づきコンテンツ削除のしきい値を下げるというMetaの危機対応が状況を悪化させていた可能性があります。これは、あるコンテンツの違反の可能性について、それを削除するために普段求められるものよりも比較的低いスコアが分類システムによって示された場合でも、Metaがこのコンテンツを削除することを意味します。

委員会は、Metaが人権保障の取り組みに沿って自動システムを導入できるよう、コロンビア警察に関連する風刺画の事例の勧告1を再認識することをMetaに求めます。この事例で、委員会は、異議申し立て率が高く、かつ異議申し立ての成功率も高いコンテンツは、メディアマッチングサービスバンクから削除する可能性について再評価されるよう確保することをMetaに要求しました。この勧告に応じて、Metaは同社のメディアマッチングサービスバンク全体の管理改善に取り組む指定の担当グループを設立しました(これに関するMetaの最新の更新についてはこちらを参照)。委員会は、このグループにとって、武力紛争という状況下におけるメディアマッチングサービスの利用に対して特段の注意を払うことは重要であることを指摘します。委員会は、乳がんの症状とヌードに関する事例(勧告3および勧告6)で、利用者のコンテンツに対して施行措置を講じるために自動機能が使用される場合について利用者に情報を伝えるとともに、コミュニティ規定に従った自動機能による削除決定の件数と、それらの決定のうち後に人間による審査を経て撤回された件数の比率データを開示するようMetaに対し勧告しました。この点は、違反の可能性が高いコンテンツに関する信頼度のしきい値が大幅に引き下げられていると報告されている場合には特に重要です。委員会は、勧告6の履行をさらに推し進め、勧告3の履行の証拠を委員会と共有することをMetaに強く求めます。

表現の自由に対して制限を課す場合は、国籍、民族、宗教、信条、政治的意見その他の意見などに基づく差別なく、制限が課されなければなりません(ICCPR第2条第1項および第26条)。コミュニティ規定の差別的な施行は、表現の自由の基本的側面を揺るがすものです。アルジャジーラの投稿のシェアに関する事例において、委員会は、イスラエルおよび占領下のパレスチナ地域でのMetaによるコンテンツモデレーションにおける過誤が不均等に分散していることについて深刻な懸念を抱いたため、独立した調査を実施するよう要求しました(アルジャジーラの投稿のシェアに関する決定、勧告3)。この勧告に応じてMetaが委託したBusiness for Social Responsibility (BSR)による「Human Rights Impact Assessment (人権への影響の評価)」では「意図しない偏見が見られたさまざまな事例が特定されており、こうした事例では、Metaのポリシーおよび慣行が、外部の広範な動的要因と組み合わさって、パレスチナ人およびアラビア語話者の利用者に対し人権上のさまざまな影響をもたらしている」ことが明らかになっています。委員会は、Metaに対し、このBSR報告に応じて同社が約束したことを果たすよう促します。

最後に、Metaには、潜在的な人権侵害および国際人道法の違反の証拠を保持する責任があります。この点については、当該BSR報告(勧告21)でも勧告され、市民団体によって支持されています。コンテンツがMetaのプラットフォームから削除された場合でも、このような証拠を残すことは今後の説明責任のために極めて重要なことです(スーダンの過激な描写を含む動画およびアルメニアの戦争捕虜の動画に関する事例を参照)。Metaはコミュニティ規定に違反するすべてのコンテンツを1年間保持すると説明していますが、委員会は、より長期的な説明責任という目的上、とりわけ潜在的な戦争犯罪、人道に対する犯罪および重大な人権侵害に関連するコンテンツを特定し、より永続的でアクセスしやすい方法で保持することを強く求めます。委員会は、Metaがアルメニアの戦争捕虜の動画に関する事例での勧告1を履行することに同意していることに着目しています。この勧告では、Metaに対し、残虐行為による犯罪や重大な人権侵害を是正または訴追するための捜査や法的手続きを支援するために情報を保全し、必要に応じて関係当局と共有するためのプロトコルを策定することを求めています。Metaは、「残虐行為による犯罪や国際人権法の重大な違反の潜在的な証拠の保持に対する一貫性あるアプローチを策定する取り組み」の最終段階に入っており、このアプローチに関するブリーフィングを近々委員会に提供する予定であることを委員会に伝えています。委員会は、Metaが上記の勧告を完全に履行することを期待します。

*手続きに関する注記:

監督委員会による迅速決定は、5名のパネリストにより準備されます。これは、委員会全員の過半数をもって承認される必要はありません。委員会の決定は、必ずしもメンバー全員の個人的見解を反映したものではありません。

मामले के निर्णयों और नीति सलाहकार राय पर लौटें