Décision sur plusieurs affaires

Berichte über israelische Vergewaltigungsopfer

Ein*e Nutzer*in legte gegen die Entscheidung von Meta, zwei Facebook-Beiträge zu entfernen, die sexuelle Gewalt beschreiben, die von Hamas-Kämpfern während der Terroranschläge auf Israel am 7. Oktober 2023 verübt wurde, Einspruch ein. Nachdem das Gremium Meta auf die Einsprüche aufmerksam gemacht hatte, hob das Unternehmen seine ursprünglichen Entscheidungen auf und stellte die Beiträge wieder her.

2 cas inclus dans ce lot

Renversé

FB-YCJP0Q9D

Fall bezüglich gefährlicher Personen und Organisationen auf Facebook

Plate-forme
Facebook
Sujet
Geschlechtergerechtigkeit,Gewalt,Krieg und Konflikte
Standard
Gefährliche Personen oder Organisationen
Emplacement
Israel,Palästinensische Gebiete
Date
Publié le 4 avril 2024
Renversé

FB-JCO2RJI1

Fall bezüglich gefährlicher Personen und Organisationen auf Facebook

Plate-forme
Facebook
Sujet
Geschlechtergerechtigkeit,Gewalt,Krieg und Konflikte
Standard
Gefährliche Personen oder Organisationen
Emplacement
Israel,USA,Palästinensische Gebiete
Date
Publié le 4 avril 2024

Dies ist eine zusammenfassende Entscheidung. In zusammenfassenden Entscheidungen werden Fälle untersucht, in denen Meta seine ursprüngliche Entscheidung über einen Inhalt rückgängig gemacht hat, nachdem das Oversight Board das Unternehmen darauf aufmerksam gemacht hat. Außerdem enthalten diese Entscheidungen Informationen über die von Meta eingeräumten Fehler. Sie werden von einem Gremium von Oversight Board-Mitgliedern genehmigt, nicht vom gesamten Board, beinhalten keine öffentlichen Kommentare und haben keinen Präzedenzwert für das Gremium. Zusammenfassende Entscheidungen führen unmittelbar zu Änderungen an den Entscheidungen von Meta, wobei sie diese Korrekturen transparent machen, und gleichzeitig zeigen sie auf, wo Meta seine Durchsetzung verbessern könnte.

Zusammenfassung des Falls

Ein*e Nutzer*in legte gegen die Entscheidung von Meta, zwei Facebook-Beiträge zu entfernen, die sexuelle Gewalt beschreiben, die von Hamas-Kämpfern während der Terroranschläge auf Israel am 7. Oktober 2023 verübt wurde, Einspruch ein. Nachdem das Gremium Meta auf die Einsprüche aufmerksam gemacht hatte, hob das Unternehmen seine ursprünglichen Entscheidungen auf und stellte die Beiträge wieder her.

Beschreibung des Falls und Hintergrundinformationen

Im Oktober 2023 lud ein*e Facebook-Nutzer*in nacheinander zwei voneinander unabhängige Beiträge mit identischem Inhalt hoch, in denen ein Video einer Frau zu sehen war, die die Vergewaltigung israelischer Frauen durch die Hamas während der Terroranschläge vom 7. Oktober beschrieb. Die Bildunterschrift enthält eine „Trigger-Warnung“, und der*die Sprecher*in im Video warnt Nutzer*innen vor drastischen Inhalten. Das Video zeigt außerdem Aufnahmen von zwei verschiedenen Frauen, die von der Hamas entführt wurden, wobei in einem Clip eine Frau schwer verletzt mit dem Gesicht nach unten auf der Ladefläche eines Transporters liegt und in einem anderen eine verletzte Frau aus einem Fahrzeug gezerrt wird. Diese Bilder fanden in der Zeit nach dem Anschlag weite Verbreitung. Der erste Beitrag wurde etwa 4.000 Mal geteilt, der zweite Beitrag weniger als 50 Mal.

Beide Beiträge wurden zunächst von Meta entfernt, weil sie gegen den Gemeinschaftsstandard zu gefährlichen Organisationen und Personen verstießen. Gemäß dieser Richtlinie verbietet das Unternehmen unter allen Umständen Bilder von Dritten, die den Moment eines Terrorangriffs auf identifizierbare Opfer darstellen, selbst wenn sie geteilt werden, um den Anschlag zu verurteilen oder die Öffentlichkeit auf ihn aufmerksam zu machen. Gemäß Metas Gemeinschaftsstandard zu Gewalt und Anstiftung zu Gewalt entfernt das Unternehmen außerdem „Darstellungen von Entführungen bzw. Menschenraub, außer es ist klar erkennbar, dass die Inhalte von einem Opfer oder dessen Familie als Hilferuf bzw. zur Information, Verurteilung oder Sensibilisierung geteilt werden.“

Gleich zu Beginn des Terrorangriffs der Hamas am 7. Oktober begann Meta, seine Richtlinien zu gefährlichen Organisationen und Personen strikt auf Videos anzuwenden, die Momentaufnahmen von einzelnen Angriffen auf sichtbare Opfer zeigen. Meta erläuterte diese Vorgehensweise in seinem Newsroom-Post vom 13. Oktober mit den Worten, man habe dies getan, „um der Sicherheit der von der Hamas entführten Personen Vorrang zu geben.“ In diesen beiden Fällen wurden die Inhalte jeweils entfernt, weil sie gegen die Meta-Richtlinie zu gefährlichen Organisationen und Personen verstießen.

Nach dieser Entscheidung begannen viele Nachrichtensender, entsprechendes Bildmaterial auszustrahlen, und auch Nutzer*innen begannen damit, ähnliche Inhalte zu posten, um auf die Anschläge aufmerksam zu machen und sie zu verurteilen. Daraufhin aktualisierte Meta um den 20. Oktober herum seine Richtlinien. Nutzer*innen sollte es nun gestattet sein, dieses Filmmaterial ausschließlich im Kontext der Sensibilisierung oder Verurteilung der Gräueltaten zu teilen. Außerdem wurde eine Warnmeldung hinzugefügt, die Nutzer*innen darauf hinweist, dass das Filmmaterial verstörend sein könnte. Meta veröffentlichte diese Änderung seiner Richtlinien in einem Update vom 5. Dezember zu seinem ursprünglichen Newsroom-Beitrag vom 13. Oktober (siehe Aus Israel entführte Geiseln, um weitere Details und Hintergrundinformationen zu erhalten).

In beiden Fällen entfernte Meta zunächst die entsprechenden Inhalte von Facebook. Der*Die Nutzer*in legte gegen Metas Entscheidungen Einspruch beim Oversight Board ein. Nachdem das Gremium Meta auf diese Fälle aufmerksam gemacht hatte, stellte das Unternehmen fest, dass die Beiträge angesichts der aktualisierten Ausnahmeregelung nicht mehr gegen seine Richtlinien verstießen, und stellte beide wieder her.

Befugnis und Wirkungsbereich des Oversight Boards

Das Board ist befugt, die Entscheidungen von Meta nach dem Einspruch von Personen zu prüfen, deren Inhalt entfernt wurde (Artikel 2 der Satzung, Abschnitt 1; Artikel 3 der Geschäftsordnung, Abschnitt 1).

Wenn Meta einen Fehler einräumt und seine Entscheidung in einem Fall, der dem Oversight Board zur Überprüfung vorliegt, rückgängig macht, kann das Oversight Board diesen Fall für eine zusammenfassende Entscheidung auswählen (Artikel 2 der Geschäftsordnung, Abschnitt 2.1.3). Das Board überprüft die ursprüngliche Entscheidung, um das Verständnis für Prozesse der Inhaltsmoderation zu verbessern, Fehler zu reduzieren und für mehr Fairness gegenüber Facebook- und Instagram-Nutzer*innen zu sorgen.

Bedeutsamkeit des Falls

Die beiden Fälle zeigen, wie schwierig es für Meta ist, Richtlinien zu Inhalten in einer hochriskanten Konfliktsituation durchzusetzen, die sich ständig und schnell weiterentwickelt. Wie das Gremium in seiner beschleunigten Entscheidung „Aus Israel entführte Geiseln“ feststellte, schützte Metas ursprüngliche Richtlinie zum Verbot von Inhalten, die Geiseln darstellen, die Würde dieser Geiseln. Sie sollte außerdem sicherstellen, dass die Geiseln keiner öffentlichen Zurschaustellung ausgesetzt werden. Das Gremium stellte jedoch auch fest, dass unter außergewöhnlichen Umständen, wenn ein zwingendes öffentliches Interesse oder das lebenswichtige Interesse von Geiseln dies erfordert, vorübergehende und begrenzte Ausnahmen gerechtfertigt sein können. In Anbetracht des Kontextes steht die Wiedereinführung dieser Art von Inhalten im Einklang mit Metas Content-Richtlinien, Werten und seiner menschenrechtlichen Verantwortung, den Inhalt unter Hinzufügung einer Warnmeldung für verstörende Inhalte wiederherzustellen. Dies würde auch im Einklang mit dem humanitären Völkerrecht und der Praxis stehen, mutmaßliche Verstöße zu dokumentieren, um Verantwortliche später zur Rechenschaft ziehen zu können und die Öffentlichkeit darauf aufmerksam zu machen. In diesem Fall stellte das Gremium außerdem fest, dass Meta zu lange brauchte, um die Anwendung dieser Ausnahmeregelung für alle Nutzer*innen einzuführen. Außerdem ist die sich schnell ändernde Herangehensweise des Unternehmens an die Moderation von Inhalten während des Konflikts mit einem anhaltenden Mangel an Transparenz einhergegangen.

Das Oversight Board hat bereits Empfehlungen ausgesprochen, die für diesen Fall relevant sind. Das Gremium empfahl, dass Meta Ausnahmen von seinen Gemeinschaftsstandards „unter Angabe ihrer Dauer und ihrer Ablaufdaten ankündigen [sollte], um Nutzer[*innen] der Plattformen über Richtlinienänderungen, die bestimmte Ausdrücke erlauben, zu benachrichtigen“ (Protest-Slogan gegen die Regierung im Iran, Empfehlung Nr. 5). Wie aus den veröffentlichten Informationen hervorgeht, hat Meta diese Empfehlung teilweise umgesetzt. Das Gremium hat Meta bereits früher empfohlen, Beweise für mögliche Kriegsverbrechen, Verbrechen gegen die Menschlichkeit und schwere Menschenrechtsverletzungen im Interesse einer zukünftigen Rechenschaftspflicht aufzubewahren (Gewaltdarstellendes Video aus dem Sudan, Empfehlung Nr. 1 und Video armenischer Kriegsgefangener, Empfehlung Nr. 1). Meta hat sich bereit erklärt, diese Empfehlung zu implementieren. Die entsprechenden Maßnahmen werden derzeit noch umgesetzt. Das Oversight Board betont, dass Meta entsprechend dieser Empfehlungen handeln muss, um sicherzustellen, dass menschenrechtsrelevante Richtlinien zu Inhalten auf seinen Plattformen korrekt durchgesetzt werden.

Entscheidung

Das Oversight Board hebt die ursprüngliche Entscheidung von Meta auf, zwei Beiträge zu entfernen. Das Oversight Board erkennt an, dass Meta seine ursprünglichen Fehler korrigiert hat, nachdem das Board das Unternehmen auf diese beiden Fälle aufmerksam gemacht hat.

Retour aux décisions de cas et aux avis consultatifs politiques