Overturned
Berichterstattung eines schwedischen Journalisten über sexuelle Gewalt an Minderjährigen
February 1, 2022
Das Oversight Board hat Metas Entscheidung aufgehoben, einen Beitrag zu entfernen, in dem Vorfälle sexueller Gewalt gegen zwei Minderjährige beschrieben werden.
Zusammenfassung des Falls
Hinweis: Beachte bitte vor dem Lesen, dass die folgende Entscheidung potenziell sensibles Material in Bezug auf Inhalte über sexualisierte Gewalt gegen Minderjährige beinhaltet.
Das Oversight Board hat Metas Entscheidung aufgehoben, einen Beitrag zu entfernen, in dem Vorfälle sexueller Gewalt gegen zwei Minderjährige beschrieben werden. Gemäß dem Board verstößt der Beitrag nicht gegen den Gemeinschaftsstandard zu sexueller Ausbeutung, Missbrauch und Nacktdarstellung von Kindern. Im breiteren Kontext des Beitrags wird deutlich, dass der Nutzer über ein Thema öffentlichen Interesses berichtet und den sexuellen Missbrauch Minderjähriger verurteilt.
Zum Fall
Im August 2019 veröffentlichte ein Nutzer in Schweden auf seiner Facebook-Seite ein Stock-Foto eines jungen Mädchens, das im Sitzen seinen Kopf in den Händen hält, sodass sein Gesicht nicht zu erkennen ist. Das Foto verfügt über eine Bildunterschrift in Schwedisch, in der Vorfälle sexueller Gewalt gegen zwei Minderjährige beschrieben werden. Der Beitrag beinhaltet Details zu Vergewaltigungen zweier nicht namentlich genannter Minderjähriger unter Angabe ihres Alters und des Ortes, an dem die erste Straftat begangen wurde. Außerdem teilt der Nutzer in dem Beitrag die Urteile, die wegen ihrer Straftaten gegen die zwei nicht namentlich genannten Täter verhängt wurden.
Im Beitrag wird kritisiert, das schwedische Strafrechtssystem sei zu mild, wodurch Verbrechen begünstigt würden. Ferner fordert der Nutzer, ein Register für Sexualstraftäter auf nationaler Ebene einzurichten. Darüber hinaus werden im Kommentarbereich des Beitrags Quellen genannt, in denen die Straftaten durch gerichtliche Aktenzeichen identifiziert und mit der Berichterstattung durch lokale Medien verknüpft werden.
Der Beitrag enthält explizite Details der schädlichen Folgen der Straftat auf das erste Opfer. Außerdem enthält er Zitate, die dem Täter zugeschrieben werden. Demnach soll er vor Freunden mit der Tat geprahlt und das minderjährige Opfer in explizit sexueller Sprache erwähnt haben. Während der Nutzer den Inhalt im August 2019 auf Facebook veröffentlichte, wurde er zwei Jahre später, im September 2021, von Meta gemäß dessen Regeln zu sexueller Ausbeutung, Missbrauch und Nacktdarstellung von Kindern entfernt.
Wichtige Erkenntnisse
Gemäß dem Board verstößt dieser Beitrag nicht gegen den Gemeinschaftsstandard zu sexueller Ausbeutung, Missbrauch und Nacktdarstellung von Kindern. Die präzise und klinische Art, wie die Folgen von Vergewaltigung in dem Bericht beschrieben werden, sowie die Wiedergabe der explizit sexuellen Aussage des Täters stellten keine Sprache dar, durch die Kinder sexuell missbraucht würden, noch wurde ein/e Minderjährige/r in einem „sexualisierten Kontext“ gezeigt.
Das Board schließt zudem, dass der Beitrag keine/n Minderjährige/n in einem „sexualisierten Kontext“ zeigt, da im breiteren Kontext des Beitrags deutlich wird, dass der Nutzer über ein Thema öffentlichen Interesses berichtet und den sexuellen Missbrauch Minderjähriger verurteilt.
Das Board weist darauf hin, dass Meta in seinen öffentlich zugänglichen Gemeinschaftsstandards Schlüsselbegriffe wie „Darstellung“ und „Sexualisierung“ nicht definiert. Darüber hinaus hat Meta dem Board zwar mitgeteilt, dass es die „Berichterstattung“ über Vergewaltigung und sexuellen Missbrauch erlaubt, doch weder erklärt das Unternehmen dies in seinen öffentlich zugänglichen Richtlinien noch definiert es den Unterschied zwischen „Darstellung“ und „Berichterstattung“. Die nachfolgende Empfehlung zielt auf diese Punkte ab.
Es ist besorgniserregend, dass Meta nach zwei Jahren den Beitrag von der Plattform genommen hat, ohne eine angemessene Erklärung zum Auslöser des Entfernens zu geben. Das Entfernen lässt sich nicht durch inhaltliche Änderungen der Richtlinien während dieses Zeitraums erklären.
Die Entscheidung des Oversight Boards
Das Oversight Board hebt die Entscheidung von Meta auf, den Inhalt zu entfernen, und verlangt, dass der Beitrag wiederhergestellt wird.
In einer Stellungnahme zur Richtlinie empfiehlt das Board folgende Maßnahmen:
- Explizite Darstellung und Sexualisierung sollten im Gemeinschaftsstandard zu sexueller Ausbeutung, Missbrauch und Nacktdarstellung von Kindern definiert werden. Meta sollte deutlich machen, dass nicht jede explizite Formulierung eine explizite Darstellung oder Sexualisierung bedeutet, und den Unterschied zwischen legalen, klinischen oder medizinischen Begriffen und expliziten Inhalten erklären. Meta sollte darüber hinaus den Unterschied zwischen sexuellem Missbrauch von Kindern und der Berichterstattung zu sexuellem Missbrauch von Kindern eindeutig klarstellen. Das Board wird die Empfehlung als umgesetzt betrachten, wenn die Schlüsselbegriffe und die Unterscheidung in den Gemeinschaftsstandard aufgenommen wurden.
- Vornehmen eines Richtlinienentwicklungsprozesses, einschließlich als Diskussion im Richtlinienforum zum Bestimmen, ob und wie ein Verbot der funktionalen Identifizierung von Kindesopfern sexueller Gewalt in die Gemeinschaftsstandards aufzunehmen ist. Dieser Prozess sollte Interessenvertreter und Experten zur funktionalen Identifizierung und der Rechte des Kindes beinhalten. Das Board wird diese Empfehlung als umgesetzt betrachten, wenn Meta das Protokoll des Forums für Produktrichtlinien veröffentlicht, in dem dieses Thema behandelt wurde.
* Fallzusammenfassungen bieten einen Überblick über den Fall und haben keinen Präzedenzwert.
Ausführliche Fallentscheidung
1. Zusammenfassung der Entscheidung
Das Oversight Board hebt die Entscheidung von Meta auf, den Inhalt von Facebook zu entfernen. Der Beitrag berichtet über die Vergewaltigung von zwei Minderjährigen und verwendet hierbei explizite Sprache, um den Missbrauch sowie die Folgen für eines der Opfer zu beschreiben. Meta wandte den Gemeinschaftsstandard zu sexueller Ausbeutung, Missbrauch und Nacktdarstellung von Kindern an, um den Beitrag zu entfernen, und leitete den Fall an das Oversight Board weiter. Das Board stellt fest, dass der Inhalt nicht gegen die Richtlinie gegen Darstellungen sexuellen Missbrauchs von Kindern verstößt und wiederhergestellt werden sollte.
2. Beschreibung des Falls
Im August 2019 veröffentlichte ein Nutzer in Schweden auf seiner Facebook-Seite ein Stock-Foto eines jungen Mädchens, das im Sitzen seinen Kopf in den Händen hält, sodass sein Gesicht nicht zu erkennen ist. Das Foto verfügt über eine Bildunterschrift in Schwedisch, in der Vorfälle sexueller Gewalt gegen zwei Minderjährige beschrieben werden. Der Beitrag beinhaltet Details zu Vergewaltigungen zweier nicht namentlich genannter Minderjähriger unter Angabe ihres Alters und des Ortes, an dem die erste Straftat begangen wurde. Außerdem teilt der Nutzer in dem Beitrag die Urteile, die wegen ihrer Straftaten gegen die zwei nicht namentlich genannten Täter verhängt wurden. Einer der Straftäter habe angeblich keine freiheitsentziehende Strafe erhalten, weil er zum Zeitpunkt der Straftat selbst noch minderjährig gewesen sei. Ferner wurde berichtet, dass der Täter des anderen genannten Falls erst kürzlich eine Haftstrafe wegen eines Gewaltverbrechens gegen eine andere Frau verbüßt habe. Der Nutzer kritisiert, das schwedische Strafrechtssystem sei zu mild, wodurch Verbrechen begünstigt würden. Ferner fordert der Nutzer, ein Register für Sexualstraftäter auf nationaler Ebene einzurichten. Der Nutzer nennt im Kommentarbereich des Beitrags Quellen, in denen die Straftaten durch gerichtliche Aktenzeichen identifiziert und mit der Berichterstattung durch lokale Medien verknüpft werden. Zu der Zeit, in der dieser Inhalt veröffentlicht wurde, waren Diskussionen in Bezug auf Strafen für den sexuellen Übergriff auf Kinder Teil der Debatte über eine größere Strafrechtsreform in Schweden. Die Facebook-Seite des Nutzers dient zum Veröffentlichen von Beiträgen zu Personen, die Kinder sexuell missbrauchen, und ruft zu einer Reform der bestehenden Strafen für Sexualverbrechen in Schweden auf.
Im Beitrag wird umfassend und explizit berichtet, welche Schäden das erste Opfer erlitten hat, einschließlich einer Beschreibung seiner körperlichen und psychischen Verletzungen, der Belästigungen, denen es online und offline ausgesetzt war, sowie der psychologischen Unterstützung, die das Kind erhalten hat. Der Beitrag enthält auch Zitate, die dem Täter zugeschrieben werden, in denen er angeblich bei Freunden mit der Vergewaltigung angibt und sich in explizit sexueller Sprache auf die Minderjährige bezieht. Der Beitrag beschreibt, dass der Täter seinen Freunden gegenüber erwähnte, dass „das Mädchen ‚eng‘ gewesen war und er ihnen stolz seine blutigen Hände gezeigt habe“.
Der Beitrag wurde etwa zwei Millionen Mal aufgerufen und verfügt über 2.000 Kommentare und 20.000 Reaktionen. Laut Meta wurde der Beitrag auf einer Seite mit öffentlichen Privatsphäre-Einstellungen geteilt, was bedeutet, dass jeder den veröffentlichten Beitrag sehen konnte. Die Seite hat etwa 100.000 Follower, wovon 95 % aus Schweden kommen.
Von der Veröffentlichung im August 2019 bis zum 1. September 2021 sendeten acht Nutzer Feedback, um ihn als potenzielle Hassrede, Gewalt und Anstiftung zu Gewalt sowie Mobbing und Belästigung anzuzeigen. Der Prozess für Nutzer, um Feedback zu einem Beitrag zu geben und um einen angeblichen Verstoß zu melden, ist unterschiedlich; die Nutzer haben jedoch beide Optionen. Feedback sendet Signale an Meta, die in ihrer Gesamtheit betrachtet werden und Einfluss darauf haben können, wie Inhalte in dem Feed eines spezifischen Nutzers priorisiert werden. Meldet ein Nutzer einen Beitrag als möglichen Verstoß, wird der Beitrag von Meta in Bezug auf Compliance mit seinen Richtlinien überprüft. Ein Nutzer meldete den Beitrag am 5. September 2019 wegen Verstoßes gegen die Mobbing- und Belästigungsrichtlinie. Dies löste eine automatische Prüfung aus, die jedoch ergab, dass der Beitrag gegen keine Regeln verstößt, sodass dieser online blieb. Im August 2021 identifizierte Metas Technologie den Beitrag als potenziellen Verstoß. Nach einem Review durch einen Mitarbeiter wurde festgestellt, dass der Beitrag gegen die Richtlinie zu sexueller Ausbeutung, Missbrauch und Nacktdarstellung von Kindern verstößt, und wurde entfernt. Das Konto des Content-Creators erhielt eine Verwarnung, was zu zwei verschiedenen Funktionsbeschränkungen führte. Eine der Funktionsbeschränkungen verhinderte, dass der Nutzer auf Facebook live gehen, Werbeprodukte verwenden und Messenger-Räume erstellen oder ihnen beitreten kann. Die andere, eine 30-tägige Funktionsbeschränkung, verhinderte, dass der Nutzer – mit Ausnahme privater Nachrichten – keine neuen Inhalte erstellen kann. Nachdem der Nutzer die Entscheidung angefochten hatte und ein weiterer Review durch einen Mitarbeiter stattgefunden hatte, wurde der Beitrag zwar nicht wiederhergestellt, jedoch wurde die mit dieser Entfernung verbundene Verwarnung aufgehoben. Meta hob die Verwarnung auf, weil das Unternehmen feststellte, dass der Beitrag dazu dienen sollte, auf dieses Thema aufmerksam zu machen. Meta weist in seinem Transparency Center darauf hin, dass es „von der Schwere des Inhalts, dem Kontext, in dem er geteilt wurde, und dem Zeitpunkt, zu dem er gepostet wurde, abhängt“, ob die Plattform eine Verwarnung vornimmt. Es wird jedoch nicht ausdrücklich erwähnt, dass eine Verwarnung aufgehoben oder zurückbehalten werden kann, wenn der Zweck der Veröffentlichung des Inhalts darin besteht, die Öffentlichkeit zu sensibilisieren.
Laut Meta wurden im Jahr 2021 fünf Beiträge von dieser Seite entfernt, alle wegen Verstoßes gegen die Richtlinie zu sexueller Ausbeutung, Missbrauch und Nacktdarstellung von Kindern. Drei der entfernten Beiträge wurden nach einer zusätzlichen Überprüfung wiederhergestellt, in der anerkannt wurde, dass die Beiträge fälschlicherweise entfernt wurden. Die mit diesen Löschungen verbundenen Verwarnungen wurden mit der Wiederherstellung der Beiträge aufgehoben.
Als dieser Beitrag entfernt wurde, verringerte Meta zudem die Reichweite der Seite und entfernte sie aus den Empfehlungen. Meta erklärt durch das Transparency Center, dass Seiten oder Gruppen, die wiederholt gegen Metas Richtlinien verstoßen aus den Empfehlungen entfernt und in ihrer Reichweite eingeschränkt werden können. Das Transparency Center gibt keine Informationen zur Länge dieser Strafmaßnahme an. Meta informierte das Board, dass eine Seite so lange aus den Empfehlungen entfernt bleibt, wie sie die Verwarnungsgrenze überschreitet. Die Verwarnungsgrenze beträgt drei Verwarnungen für einen Standardverstoß und eine Verwarnung für einen schwerwiegenden Verstoß (z. B. ein Verstoß, der mit sexuellem Missbrauch von Kindern, Selbstmord oder Terrorismus in Verbindung steht).
3. Befugnis und Umfang
Das Board hat die Befugnis, Entscheidungen zu überprüfen, die Meta zur Überprüfung vorlegt (Satzung Artikel 2, Abschnitt 1; Artikel 2 der Geschäftsordnung, Abschnitt 2.1.1). Das Gremium kann die Entscheidung von Meta bestätigen oder aufheben (Artikel 3 der Satzung, Abschnitt 5), und seine Entscheidung ist für das Unternehmen verbindlich (Artikel 4 der Satzung). Meta muss außerdem die Umsetzbarkeit seiner Entscheidung in Bezug auf identische Inhalte mit parallelem Kontext auswerten (Artikel 4 der Satzung). Die Entscheidungen des Boards können Stellungnahmen zu den Richtlinien mit unverbindlichen Empfehlungen umfassen, auf die Meta antworten muss (Artikel 3 der Satzung, Abschnitt 4; Artikel 4).
4. Relevante Standards
Bei seiner Entscheidung hat das Oversight Board die folgenden Standards berücksichtigt:
I. Facebook-Gemeinschaftsstandards
Der Grundgedanke dieser Richtlinie zu sexueller Ausbeutung, Missbrauch und Nacktdarstellung von Kindern sieht vor, dass Meta keine Inhalte zulässt, die „Kinder sexuell missbrauchen oder gefährden“. Gemäß dieser Richtlinie entfernt Meta Inhalte, „die die sexuelle Ausbeutung von Kindern androhen, darstellen, gutheißen, unterstützen, Anleitungen dazu geben, Absichtserklärungen dazu abgeben, die Mitwirkung daran zu geben oder Links dazu teilen.“ Außerdem verbietet Meta Inhalte „(einschließlich Fotos, Videos, Kunst aus der realen Welt, digitale Inhalte und verbale Darstellungen), die Kinder in einem sexualisierten Kontext zeigen“. Diese Richtlinie verbietet auch Inhalte, die mutmaßliche Opfer der sexuellen Ausbeutung von Kindern namentlich oder bildlich identifizieren oder verspotten, verbietet jedoch nicht die funktionale Identifizierung eines Minderjährigen.
II. Metas Werte
Die Werte von Meta werden in der Einleitung der Facebook-Gemeinschaftsstandards dargelegt. Der Wert der „Mitsprache“ hat laut dieser Einleitung „höchste Priorität“:
Ziel unserer Gemeinschaftsstandards ist es schon immer gewesen, einen Ort zu schaffen, an dem Menschen sich und ihre Meinung frei ausdrücken können. [ Wir möchten], dass die Nutzerinnen und Nutzer offen über die Themen sprechen können, die ihnen wichtig sind. Das gilt auch dann, wenn einige Personen möglicherweise unterschiedlicher Meinung sind oder Inhalte anstößig finden.
Meta beschränkt die „Mitsprache“ zugunsten von vier anderen Werten, von denen drei für diesen Fall relevant sind:
„Sicherheit“: Inhalte, die Nutzerinnen und Nutzer bedrohen, haben das Potenzial, andere einzuschüchtern, auszugrenzen oder mundtot zu machen. Deshalb sind sie auf Facebook nicht gestattet.
„Privatsphäre“: Wir setzen uns für den Schutz von Privatsphäre und personenbezogenen Informationen ein. Im Rahmen einer sicheren Privatsphäre können unsere Nutzerinnen und Nutzer sie selbst sein, selbst entscheiden, wie und wann sie etwas auf Facebook teilen, und sich leichter mit anderen vernetzen.
„Würde“: Wir sind der Ansicht, dass alle Menschen gleich an Würde und Rechten sind. Deshalb erwarten wir, dass sie die Würde anderer achten und andere nicht belästigen oder erniedrigen.
III. Menschenrechtsstandards
Die UN-Leitprinzipien für Wirtschaft und Menschenrechte (United Nations Guiding Principles on Business and Human Rights, UNGPs) geben einen freiwilligen Rahmen für die menschenrechtliche Verantwortung von Privatunternehmen vor. 2021 veröffentlichte Meta seine Unternehmensrichtlinie zu Menschenrechten, in der sich das Unternehmen zur Achtung der Menschenrechte gemäß den UN-Leitprinzipien verpflichtete. Das Board hat bei seiner Analyse dieses Falls folgende Menschenrechtsstandards berücksichtigt:
- Das Recht auf Meinungsfreiheit und freie Meinungsäußerung: Artikel 19 des Internationalen Pakts über bürgerliche und politische Rechte (International Covenant on Civil and Political Rights, ICCPR); Allgemeiner Kommentar Nr. 34 des Menschenrechtsausschusses (2011); Berichte des UN-Sonderberichterstatters für Meinungsfreiheit und freie Meinungsäußerung: A/74/486 (2019); Berichte des UN-Sonderberichterstatters für Meinungsfreiheit und freie Meinungsäußerung: A/HRC/17/27 (2011).
- Das Wohl des Kindes: Art. 3, Übereinkommen über die Rechte des Kindes ( CRC); Allgemeiner Kommentar Nr. 25, Ausschuss für die Rechte des Kindes, 2021.
- Das Recht auf körperliche und geistige Gesundheit: Artikel 12, Internationaler Pakt über wirtschaftliche, soziale und kulturelle Rechte ( ICESCR); Artikel 17 und 19 der CRC über das Recht von Kindern auf Zugang zu Informationen zur Förderung ihrer körperlichen und geistigen Gesundheit und auf Schutz vor jeder Form von körperlicher oder geistiger Gewalt.
- Das Recht auf Schutz des Privatlebens: Artikel 17, ICCPR; Artikel 16, CRC; Abschließende Beobachtungen, Nepal, Ausschuss für die Rechte des Kindes, 21. Sept, 2005, CRC/C/15/Add.261, Absatz 45, 46.
5. Stellungnahme des Nutzers
Nach der Weiterleitung durch Meta und der Entscheidung des Boards, den Fall anzunehmen, erhielt der Nutzer eine Nachricht, in der er über die Überprüfung durch das Board informiert wurde und die Möglichkeit bekam, eine Stellungnahme an das Board zu richten. Der Nutzer reichte keine Stellungnahme ein.
6. Erläuterung der Entscheidung von Meta
Meta erklärte in seiner Begründung, dass der Inhalt entfernt wurde, weil er gegen den Gemeinschaftsstandard zu sexueller Ausbeutung, Missbrauch und Nacktdarstellung von Kindern verstößt. Meta erklärte, dass der Verstoß des Beitrags in zwei Zeilen begründet ist. Eine davon beschreibt die Folgen der Vergewaltigung im Detail und in der anderen wird die explizit sexuelle Aussage des Täters aufgeführt, in der er die Minderjährige als „eng“ beschreibt. Meta verwies auf Expertenergebnisse aus einer Vielzahl von Quellen, darunter das Rape, Abuse and Incest National Network (RAINN), die britische „2021 Tackling Child Sexual Abuse Strategy“ und die EU-Strategie für eine wirksamere Bekämpfung des sexuellen Kindesmissbrauchs sowie mehrere wissenschaftliche Artikel, wonach die Darstellung von Vergewaltigungen den Opfern durch Retraumatisierung, Verletzung der Privatsphäre und Förderung von Belästigungen schaden kann.
Meta erklärte auch, dass einige seiner Richtlinien zwar Ausnahmen vorsehen, um die Weitergabe von Inhalten zu ermöglichen, deren Veröffentlichung andernfalls verletzend wäre, sofern sie veröffentlicht werden, um das Bewusstsein zu schärfen oder schädliche Handlungen zu verurteilen. Allerdings liege die Herausforderung darin, festzustellen, wo das Risiko [einer erneuten Traumatisierung] beginnt und der Nutzen der Bewusstseinsbildung endet, was Meta dazu veranlasst hat, explizite Darstellungen zu verbieten, selbst wenn sie in gutem Glauben und zur Bewusstseinsbildung geteilt werden. Meta gibt in seiner Begründung gegenüber dem Board an, dass es die Berichterstattung über Vergewaltigung und sexuelle Übergriffe ohne explizite Beschreibung duldet. Des Weiteren erklärte Meta, dass in seiner Definition von „Darstellung“ das Zeigen von Bildern, Ton, Wortbeschreibungen oder Übertragungen enthalten ist.
In seiner Begründung erklärte Meta, dass die Werte „Privatsphäre“, „Sicherheit“ und „Würde“ von Minderjährigen den Wert der Mitsprache überwiegen, da explizite Inhalte die Kinder reviktimisieren können. Meta fügte hinzu, dass der Beitrag das Opfer zwar nicht namentlich nenne, die im Beitrag angegebenen Informationen jedoch dazu verwendet werden könnten, das Opfer zu identifizieren, was wiederum zu Diskriminierung führen könnte.
Meta erklärte auch, dass das Übereinkommen über die Rechte des Kindes (CRC) als Leitfaden für die Festlegung seiner Richtlinien und Werte diente, und zitierte den Allgemeinen Kommentar Nr. 25 (2021) des UN-Ausschusses für die Rechte der Kinder, um Richtlinien und Praktiken zum Schutz von Kindern vor „anerkannten und neu auftretenden Risiken aller Formen von Gewalt im digitalen Umfeld“ umzusetzen. Meta gab gegenüber dem Board an, dass das Risiko der Reviktimisierung zu der Entscheidung führte, dass das Löschen des Beitrags erforderlich war. Meta erwägt zwar, eine Ausnahmeregelung aufgrund des Nachrichtenwerts für explizite Inhalte anzuwenden, wenn das öffentliche Interesse an der Äußerung besonders groß und das Risiko eines Schadens gering ist, doch in diesem Fall stellte Meta fest, dass das Risiko eines Schadens den Wert der Äußerung für das öffentliche Interesse überwiegt. Laut Meta hat Facebook die Ausnahmeregelung aufgrund des Nachrichtenwerts für Verstöße gegen die Richtlinie zu sexueller Ausbeutung von Kindern im vergangenen Jahr sechs Mal angewendet.
7. Einreichungen Dritter
Das Board erhielt in diesem Fall zehn öffentliche Stellungnahmen von Interessengruppen, darunter Hochschulen und Organisationen der Zivilgesellschaft, die sich mit den Rechten von Opfern sexueller Übergriffe, den Rechten von Kindern und der Meinungsfreiheit befassen. Drei davon stammten aus Europa, zwei aus Lateinamerika und der Karibik und fünf stammten aus den USA und Kanada. Die Beiträge befassen sich mit Themen wie der Bedeutung des Schutzes der Privatsphäre von Opfern, der Gefahr der Entfernung von Beiträgen von Opfern oder Organisationen, die sich für die Prävention von sexueller Ausbeutung und sexuellem Missbrauch von Kindern einsetzen, der Rolle von Metas Plattformdesign bei der Förderung von reißerischen Beiträgen und der Notwendigkeit von mehr Transparenz und Klarheit in Bezug auf das Inhaltsmoderationssystem der Plattform.
Am 30. November 2021 fand eine virtuelle Gesprächsrunde mit sieben Interessengruppen und Organisationen statt, die sich für Opfer von häuslicher und sexueller Gewalt gegen Frauen und Kinder einsetzen. In der Diskussion wurde eine Reihe von Themen angesprochen, die mit dem Inhalt des Falles zusammenhängen, einschließlich der Unterscheidung zwischen dem, was die Öffentlichkeit als anschauliche Beschreibungen einer Vergewaltigung empfinden könnte, und den tatsächlichen klinischen Beschreibungen der Tat und ihrer Folgen; der sekundären Ausbeutung oder Viktimisierung von Opfern zum Zweck des Sammelns von Spenden; der Einbeziehung von Opfern, indem man sie fragt, was sie wollen, und ihre bewusste Zustimmung einholt, wenn man über an ihnen begangene Verbrechen berichtet; und der Tatsache, dass die Handlungsfähigkeit der Opfer von größter Bedeutung ist.
Die öffentlichen Kommentare, die zu diesem Fall eingereicht wurden, können hier eingesehen werden.
8. Analyse des Oversight Boards
Das Board prüft anhand von drei Gesichtspunkten, ob dieser Inhalt wiederhergestellt werden sollte: die Facebook-Gemeinschaftsstandards; die öffentlich gemachten Werte von Meta und dessen menschrechtsbezogenen Pflichten. Das Board kommt zu dem Schluss, dass der Inhalt keinen Verstoß gegen die Facebook-Gemeinschaftsstandards darstellt und wiederhergestellt werden sollte. Es entspricht Metas Werten und seiner Verantwortung hinsichtlich der Menschenrechte, diesen Inhalt wiederherzustellen. Das Board empfiehlt Änderungen an Metas Inhaltsrichtlinien, um die Begriffe Sexualisierung, explizite Darstellung und Berichterstattung klar zu definieren.
8.1. Einhaltung der Gemeinschaftsstandards
Das Board kommt zu der Entscheidung, dass dieser Beitrag nicht gegen den Gemeinschaftsstandard zu sexueller Ausbeutung, Missbrauch und Nacktdarstellung von Kindern verstößt und der Inhalt nicht hätte entfernt werden sollen. Das Board erkennt an, dass die präzise und klinische Art, wie die Folgen von Vergewaltigung in dem Bericht beschrieben werden, sowie die Wiedergabe der explizit sexuellen Aussage des Täters keine Sprache darstellen, durch die Kinder sexuell missbraucht würden, noch wurde ein/e Minderjährige/r in einem „sexualisierten Kontext“ gezeigt.
Das Board schließt zudem, dass der Beitrag keine/n Minderjährige/n in einem „sexualisierten Kontext“ zeigt, da im breiteren Kontext des Beitrags deutlich wird, dass der Nutzer über ein Thema öffentlichen Interesses berichtet und den sexuellen Missbrauch Minderjähriger verurteilt. Die Nutzer wiederholte die Sprache, die von schwedischen Nachrichtenmedien während der Berichterstattung über die Aussagen in den Gerichtsverfahren der Vergewaltigungen verwendet wurde.
8.2. Einhaltung der Werte von Meta
Das Board hält die Entscheidung von Meta, diesen Beitrag zu entfernen, für nicht mit seinem Wert der „Mitsprache“ vereinbar. Das Board stimmt zu, dass die Werte „Privatsphäre“, „Sicherheit“ und „Würde“ bei Inhalten, die den sexuellen Missbrauch von Minderjährigen beschreiben, äußerst wichtig sind. Das Board ist jedoch der Ansicht, dass die beiden beanstandeten Sätze nicht das inhaltliche Niveau erreichten, ab dem sie Kinder sexuell ausbeuten. Darüber hinaus bilden das öffentliche Interesse daran, die Aufmerksamkeit auf dieses Thema zu lenken und die Öffentlichkeit zu informieren oder sich für rechtliche und politische Reformen einzusetzen, den Kern des Wertes „Mitsprache“. Bei der Abwägung der verschiedenen Werte, die in diesem Fall eine Rolle spielen, weist das Board auch darauf hin, dass es wichtig ist, die Fürsprecher und Opfer des sexuellen Missbrauchs von Kindern nicht zum Schweigen zu bringen. Das Board erkennt auch an, dass sich manche Opfer nicht trauen, ihre Meinung zu äußern, weil sie Angst haben, dass Details des Angriffs auf der Plattform viral gehen.
8.3. Erfüllung der menschenrechtlichen Verantwortung von Meta
Das Board ist der Ansicht, dass die Wiederherstellung des Inhalts in diesem Fall im Einklang mit Metas menschenrechtlicher Verantwortung steht.
Meinungsfreiheit und Artikel 19 ICCPR
Artikel 19 des Internationalen Pakts über bürgerliche und politische Rechte (ICCPR) sieht einen umfassenden Schutz des Rechts auf freie Meinungsäußerung über alle Medien und ohne Rücksicht auf Grenzen vor. Jedoch kann dieses Recht unter bestimmten wenigen und begrenzten Bedingungen eingeschränkt sein, die als dreiteilige Prüfung der Gesetzmäßigkeit (Klarheit), der Legitimität und der Notwendigkeit bekannt sind. Obwohl der Internationale Pakt über bürgerliche und politische Rechte (ICCPR) für Meta nicht dieselben Verpflichtungen wie für Staaten vorsieht, hat sich Meta verpflichtet, die Menschenrechte zu achten, wie in den UNGPs dargelegt. Diese Verpflichtung umfasst die international anerkannten Menschenrechte, wie sie unter anderem im Internationalen Pakt über bürgerliche und politische Rechte (ICCPR) und das CRC festgelegt sind. Der UN-Sonderberichterstatter für Meinungsfreiheit und freie Meinungsäußerung hat vorgeschlagen, dass Artikel 19 Absatz 3 des Internationalen Pakts über bürgerliche und politische Rechte einen nützlichen Rahmen für die Moderation von Inhalten durch Plattformen bietet (A/HRC/38/35, Abs. 6)
I. Gesetzmäßigkeit (Klarheit und Zugänglichkeit der Regeln)
Das Erfordernis der Gesetzmäßigkeit im internationalen Menschenrecht verlangt, dass jede Einschränkung der Meinungsfreiheit (a) ausreichend zugänglich ist, sodass der Einzelne hinreichend erkennen kann, wie das Gesetz seine Rechte einschränkt, und (b) dass das Gesetz ausreichend präzise formuliert sein muss, damit der Einzelne sein Verhalten steuern kann.
Wie in Abschnitt 8.1 oben erwähnt, kommt das Board zu dem Schluss, dass dieser Beitrag nicht gegen Metas Richtlinie zum sexuellen Missbrauch von Kindern verstoßen hat, weshalb seine Löschung nicht mit den anwendbaren Regeln vereinbar ist. Das Board erklärt weiterhin, dass die Richtlinie eine klare Definition der Schlüsselbegriffe und Beispiele für Grenzfälle benötigt. Die Begriffe „Darstellung“ und „Sexualisierung“ sind in den öffentlich zugänglichen Gemeinschaftsstandards nicht definiert. Wenn Meta die Schlüsselbegriffe nicht definiert oder entsprechende Ausnahmen bekanntgibt, können die Nutzer nicht verstehen, wie sie die Regeln einhalten können.
Das Board stellt fest, dass die „Bekannten Fragen“ und die internen Umsetzungsstandards (IIS) von Meta, also Leitlinien, die Inhaltsprüfern zur Verfügung gestellt werden, um sie bei der Beurteilung von Inhalten zu unterstützen, die einen Verstoß gegen einen der Gemeinschaftsstandards von Facebook darstellen könnten, spezifischere Kriterien enthalten, was die Sexualisierung eines/r Minderjährigen auf der Plattform im Rahmen der Richtlinie zu sexueller Ausbeutung, Missbrauch und Nacktdarstellung von Kindern darstellt.
Meta hat dem Board durch seine Begründung für diesen Fall mitgeteilt, dass es die „Berichterstattung“ über Vergewaltigung und sexuellen Missbrauch erlaubt, doch weder erklärt Meta dies in seinen öffentlich zugänglichen Richtlinien noch definiert es den Unterschied zwischen „Darstellung“ und „Berichterstattung“. Das Board stellt fest, dass weder in den öffentlichen Richtlinien noch den Bekannten Fragen und IIS der Unterschied zwischen der verbotenen expliziten Darstellung oder Sexualisierung eines/r Minderjährigen und der nicht verletzenden Berichterstattung über die Vergewaltigung und sexuelle Ausbeutung eines/r Minderjährigen erörtert wird.
Das Board hält es für besorgniserregend, dass der Inhalt des Falls zwei Jahr auf der Plattform bestanden hat und dann ohne angemessene Erklärung zum Grund der Löschung entfernt wurde. Das Entfernen lässt sich nicht durch inhaltliche Änderungen der Richtlinien während dieses Zeitraums erklären. Das Board fragte, ob das Senden des Inhalts zu einem manuellen Review auf eine Änderung am Classifier zurückzuführen sei. Meta gab an, dass eine Kombination aus maschinellem Lernen/künstlichem Lernen (eine Vorhersage, die ein Algorithmus darüber trifft, ob ein bestimmter Inhalt wahrscheinlich gegen eine bestimmte Richtlinie verstößt) und der Anzahl der Aufrufe des Beitrags über einen Zeitraum von zwei Wochen der Auslöser dafür war, den Beitrag zum Review durch einen Mitarbeiter zu schicken. In seiner Antwort auf die Fragen des Boards gab Meta nicht an, ob es eine Änderung an seinen Classifiern gab, die dazu geführt hatte, dass der Inhalt im Jahr 2019 als nicht verletzend eingestuft worden war, aber durch Metas Technologie im Jahr 2021 als potenziell verletzend und als überprüfungsbedürftig gekennzeichnet wurde.
II. Legitimes Ziel
Einschränkungen der Meinungsfreiheit sollten ein legitimes Ziel verfolgen, wie etwa den Schutz der Rechte anderer. Das Board stimmt zu, dass der Facebook-Gemeinschaftsstandard zu sexueller Ausbeutung, Missbrauch und Nacktdarstellung von Kindern darauf abzielt , Schaden abseits des Internets für Minderjährige zu verhindern, die eventuell mit Inhalten auf Facebook in Verbindung stehen können. Daher dienen die Beschränkungen in dieser Richtlinie dem legitimen Ziel, die Rechte von Kindern auf körperliche und geistige Gesundheit (Artikel 12 ICESCR, Artikel 19 CRC) im Einklang mit dem Wohl des Kindes (Artikel 3 CRC) zu schützen.
III. Notwendigkeit und Verhältnismäßigkeit
Der Grundsatz der Notwendigkeit und Verhältnismäßigkeit gemäß Menschenrechtsgesetzen verlangt, dass Einschränkungen der Meinungsfreiheit „dazu geeignet sein müssen, ihre Schutzfunktion zu erfüllen, die am wenigsten einschneidenden Instrumente unter denjenigen sein müssen, die ihre Schutzfunktion erfüllen können [und] verhältnismäßig zu den zu schützenden Interessen sein müssen“ (Allgemeine Bemerkung Nr. 34, Absatz 34). Der Grundsatz der Verhältnismäßigkeit verlangt die Berücksichtigung der jeweiligen Ausdrucksform (Allgemeine Bemerkung Nr. 34, Abs. 34).
In seiner Fallentscheidung 2020-006-FB-FBR Abschnitt 8.3 stellte das Board klar, dass Meta drei Dinge nachweisen muss, um zu belegen, dass es das am wenigsten in die Persönlichkeitsrechte eingreifende Instrument gewählt hat, um das legitime Ziel zu erreichen:
(1) Das Ziel bezüglich des Kindeswohls konnte nicht durch Maßnahmen erreicht werden, die die Meinungsfreiheit nicht einschränken.
(2) Unter den die Meinungsfreiheit einschneidenden Maßnahmen hat Meta das am wenigsten einschneidende Mittel gewählt.
(3) Die gewählte Maßnahme trägt tatsächlich zur Erreichung des Ziels bei und ist nicht unwirksam oder kontraproduktiv (A/74/486, Absatz 52).
Die Analyse, ob die Ziele durch Maßnahmen erreicht werden können, die nicht gegen die Meinungsfreiheit verstoßen, setzt voraus, dass man die gesamte Bandbreite der von Meta getroffenen Entscheidungen und der verfügbaren Optionen zur Behebung des Schadens kennt. Dies erfordert Transparenz gegenüber dem Board in Bezug auf die Verstärkung und wie Metas Plattformdesign möglicherweise reißerische Inhalte begünstigt. Das Board bat Meta um Informationen oder interne Untersuchungen darüber, inwieweit seine Designentscheidungen für die Facebook-Plattform, einschließlich seiner Entscheidungen oder Prozesse, die sich darauf auswirken, welche Beiträge begünstigt werden, Anreize für eine reißerische Berichterstattung über Themen bieten, die Kinder betreffen. Weder gab Meta dem Board eine klare Antwort auf die Frage noch stellte Meta Forschungsergebnisse zu dem Thema bereit. Um öffentliche Kontrolle von Metas Maßnahmen zu ermöglichen, ist Transparenz unerlässlich. Durch die fehlenden Details in Metas Antwort auf die Frage des Boards sowie die nicht vorhandene Offenlegung, wie sich die Designentscheidungen der Plattform hinsichtlich der Verstärkung auf die Sprache auswirken, ist das Board nicht in der Lage, das am wenigsten einschränkende Instrument zur Wahrung der Rechte des Kindes in Übereinstimmung mit seinem Wohl vollständig zu bestimmen.
Das Board kommt zu dem Schluss, dass das Entfernen dieses Inhalts, in dem es um Sexualstraftaten gegen Minderjährige geht, ein Thema von öffentlichem Interesse und Gegenstand öffentlicher Debatten, nicht das am wenigsten eingreifende Instrument zur Förderung der Rechte des Kindes darstellt. Im Allgemeinen Kommentar Nr. 34 wird die Bedeutung der politischen Meinungsäußerung in Artikel 19 des ICCPR hervorgehoben, einschließlich des Rechts auf freie Meinungsäußerung im „politischen Diskurs“, in „Aussagen zu eigenen und öffentlichen Angelegenheiten“ und in der „Erörterung von Menschenrechten“, was auch die Erörterung des Strafrechtssystems eines Landes und die Berichterstattung über dessen Funktionsweise in bestimmten Fällen einschließt.
Das Board ist sich der Schäden außerhalb der Plattform bewusst, denen Opfer sexuellen Missbrauchs durch frei verfügbare Darstellungen dieses Missbrauchs auf der Plattform ausgesetzt sind. Das Board unterscheidet jedoch zwischen der das Kind sexualisierenden Sprache des Täters und dem Beitrag des Nutzers, der den Täter zitiert, um das Bewusstsein für ein Thema von öffentlichem Interesse zu schärfen. Das Board stimmt mit der Meinung von Organisationen überein, die für und mit Opfern sexuellen Missbrauchs arbeiten, dass es wichtig ist, den Schutz von Zeugenaussagen von Opfern oder anderen Inhalten zu berücksichtigen, die darauf abzielen, die Öffentlichkeit zu informieren und sich für die Reform rechtlicher, sozialer und kultureller Hindernisse zur Verhinderung der sexuellen Ausbeutung von Kindern einzusetzen.
Das Board beriet darüber, ob eine Warnmeldung möglicherweise die am wenigsten in die Persönlichkeitsrechte eingreifende Maßnahme zum Schutz des Kindeswohls ist. Der Gemeinschaftsstandard zum sexuellen Missbrauch Erwachsener besagt beispielsweise, dass Warnmeldungen auf Inhalte angewendet werden, die Erzählungen oder Aussagen über den sexuellen Missbrauch Erwachsener enthalten, die entweder vom Opfer oder von einem Dritten (nicht dem Opfer) geteilt werden und die 1) das Opfer unterstützen, 2) die Tat verurteilen oder 3) der allgemeinen Sensibilisierung dienen, was durch den Kontext oder die Bildunterschrift bestimmt wird. In einem Blog-Beitrag im Newsroom von Meta über die Bekämpfung von Fehlinformationen erklärte das Unternehmen, dass 95 % der Nutzer nicht auf einen Inhalt klicken, wenn eine Warnmeldung darauf angewendet wird. Da dem Board keine Informationen über das Ausgangsniveau des Interaktion vorliegen, kann es keine Schlussfolgerung über die Auswirkungen von Warnmeldungen ziehen, insbesondere in Bezug auf Inhalte, die über den sexuellen Missbrauch von Kindern berichten.
Schlussendlich wägte das Board auch das Potenzial für Schaden abseits des Internets ab, wenn die Berichterstattung ausreichend Informationen enthält, um ein Kind zu identifizieren. Inhalte, die zu einer funktionalen oder „puzzleartigen“ Identifizierung eines/r Minderjährigen führen können, der/die Opfer sexuellen Kindesmissbrauchs geworden ist, berühren das Recht von Kindern auf freie Meinungsäußerung (ICCPR, Art. 19), Privatsphäre (CRC, Art. 16) und Sicherheit (CRC, Art. 19). Eine funktionale Identifizierung kann vorliegen, wenn der Inhalt ausreichend separate Informationen liefert oder zusammenstellt, um eine Person zu identifizieren, ohne sie zu benennen. In diesem Fall kann das Board nicht feststellen, ob die zur Verfügung gestellten Informationen zusammen mit den Links zu Medienberichten die Wahrscheinlichkeit der Identifizierung der Opfer erhöhen könnten.
Einige Mitglieder des Boards betonten jedoch, dass Meta bei Zweifeln darüber, ob ein bestimmter Inhalt zu einer funktionalen Identifizierung des Kindesopfers führen kann, im Einklang mit den internationalen Menschenrechtsprinzipien die Privatsphäre sowie die körperliche und geistige Gesundheit des Kindes schützen sollte. Für diese Mitglieder des Boards ist die Verstärkungsfunktion der Plattform ein Schlüsselfaktor bei der Beurteilung, ob der/die Minderjährige/r identifiziert werden kann und somit der Schutz von Kindern, die Opfer von sexuellem Missbrauch sind, gewährleistet ist.
Der aktuelle Gemeinschaftsstandard zu sexueller Ausbeutung, Missbrauch und Nacktdarstellung von Kindern verbietet „Inhalte, die mutmaßliche Opfer von sexueller Ausbeutung von Kindern namentlich oder bildlich identifizieren oder verhöhnen“. Andere Richtlinien zum Verhindern der Identifizierung eines/r Minderjährigen oder eines Opfers einer Straftat (z. B. Gemeinschaftsstandard zum zusätzlichen Schutz von Minderjährigen;das Propagieren und Organisieren von Schaden und Verbrechen) weisen erhebliche Lücken in Bezug auf die funktionale Identifizierung von Minderjährigen auf, die Opfer sexuellen Missbrauchs sind.
9. Entscheidung des Oversight Boards
Das Oversight Board hebt die Entscheidung von Meta auf, den Inhalt zu entfernen, und verlangt, dass der Beitrag wiederhergestellt werden muss.
10. Stellungnahme zu den Richtlinien
Content-Richtlinie
- Meta sollte explizite Darstellung und Sexualisierung im Gemeinschaftsstandard zu sexueller Ausbeutung, Missbrauch und Nacktdarstellung von Kindern definieren. Meta sollte deutlich machen, dass nicht jede explizite Formulierung eine explizite Darstellung oder Sexualisierung bedeutet, und den Unterschied zwischen legalen, klinischen oder medizinischen Begriffen und expliziten Inhalten erklären. Meta sollte darüber hinaus den Unterschied zwischen sexuellem Missbrauch von Kindern und der Berichterstattung zu sexuellem Missbrauch von Kindern eindeutig klarstellen. Das Board wird die Empfehlung als umgesetzt betrachten, wenn die Schlüsselbegriffe und die Unterscheidung in den Gemeinschaftsstandard aufgenommen wurden.
- Meta sollte einen Richtlinienentwicklungsprozess vornehmen, einschließlich als Diskussion im Richtlinienforum zum Bestimmen, ob und wie ein Verbot der funktionalen Identifizierung von Kindesopfern sexueller Gewalt in dein Gemeinschaftsstandards aufzunehmen ist. Dieser Prozess sollte Interessenvertreter und Experten zur funktionalen Identifizierung und der Rechte des Kindes beinhalten. Das Board wird diese Empfehlung als umgesetzt betrachten, wenn Meta das Protokoll des Forums für Produktrichtlinien veröffentlicht, in dem dieses Thema behandelt wurde.
* Anmerkung zur Vorgehensweise:
Die Entscheidungen des Oversight Board werden von einem Panel aus fünf Mitgliedern vorbereitet und von einer Mehrheit des Gremiums bestätigt. Entscheidungen des Gremiums geben nicht zwangsläufig die persönliche Meinung aller Mitglieder wieder.
Für diese Fallentscheidung wurde eine unabhängige Studie vom Gremium in Auftrag gegeben. Ein unabhängiges Forschungsinstitut mit Sitz an der Universität Göteborg und ein Team aus über 50 Sozialwissenschaftlern auf sechs Kontinenten sowie mehr als 3.200 Länderexperten aus der ganzen Welt stellten ihr Expertenwissen zum soziopolitischen und kulturellen Kontext zur Verfügung. Duco Advisors, eine Beratungsfirma mit Schwerpunkt auf die Schnittstelle zwischen Geopolitik, Vertrauen und Sicherheit sowie Technologie, trug ebenfalls Forschungsarbeit bei.