पलट जाना
Al-Shifa-Krankenhaus
19 दिसम्बर 2023
Das Oversight Board hebt die ursprüngliche Entscheidung von Meta auf, den Inhalt von Instagram zu entfernen. Es ist der Ansicht, dass es im Einklang mit Metas Content-Richtlinien und seiner menschenrechtlichen Verantwortung steht, den Inhalt unter Hinzufügung einer Warnmeldung für verstörende Inhalte wiederherzustellen.
In den Wochen nach der Veröffentlichung dieses Falls werden wir hier eine hebräische Übersetzung hochladen. Eine arabische Übersetzung wird über den Tab „Sprache“ im Menü oben auf diesem Bildschirm verfügbar sein.
לקריאת החלטה זו בעברית יש ללחוץ כאן.
1. Zusammenfassung
Dieser Fall bezieht sich auf ein emotionales Video, das die Folgen eines Angriffs auf oder nahe des Al-Shifa-Krankenhauses in Gaza während der israelischen Bodenoffensive zeigt. Es ist mit einer Bildunterschrift versehen, die den Angriff verurteilt. Metas automatisierte Systeme entfernten den Beitrag, weil er gegen den Gemeinschaftsstandard zu gewaltdarstellendem Inhalt verstieß. Nachdem der*die Nutzer*in diese Entscheidung bei Meta erfolglos angefochten hatte, legte er*sie beim Oversight Board Einspruch ein. Nachdem das Board den Fall zur Überprüfung identifiziert hatte, hob Meta seine Entscheidung auf und stellte den Inhalt wieder her, versah ihn allerdings mit einer Warnmeldung. Das Board ist der Ansicht, dass die ursprüngliche Entscheidung, den Inhalt zu entfernen, weder den Content-Richtlinien noch der menschenrechtlichen Verantwortung von Meta entspricht. Das Board stimmt der Entscheidung zu, den Inhalt mit einer Warnmeldung wiederherzustellen, lehnt jedoch die damit verbundene Herabstufung des Inhalts, sodass dieser nicht in den Empfehlungen erscheint, ab. Dieser Fall und der Fall „Aus Israel entführte Geiseln“ ( 2023-050-FB-UA) sind die ersten Fälle, die das Board einer beschleunigten Überprüfung unterzogen hat.
2. Kontext und die Reaktion von Meta
Am 7. Oktober 2023 verübte die Hamas, eine nach dem Meta-Gemeinschaftsstandard zu gefährlichen Organisationen und Personen eingestufte gefährliche Organisation der Stufe 1, vom Gazastreifen aus einen beispiellosen Terrorangriff gegen Israel. Dabei wurden rund 1.200 Menschen getötet und ungefähr 240 Personen als Geiseln entführt ( Außenministerium von Israel). Als Reaktion auf den Terrorangriff startete Israel unmittelbar danach in Gaza eine Militäraktion. Dabei wurden im Gazastreifen bis Mitte Dezember 2023 mehr als 18.000 Menschen getötet (Amt der Vereinten Nationen für die Koordinierung humanitärer Angelegenheiten , auf Grundlage von Daten des Gesundheitsministeriums in Gaza). Beiden Seiten in diesem Konflikt wird die Verletzung des Völkerrechts vorgeworfen. Sowohl der Terrorangriff als auch die darauffolgende Militäraktion Israels waren Gegenstand massiver weltweiter Aufmerksamkeit, Diskussionen, Analysen und Kritik, die zu einem großen Teil auf Social-Media-Plattformen wie Instagram und Facebook stattfanden.
Meta stufte die Ereignisse vom 7. Oktober sofort als Terroranschlag gemäß seiner Richtlinie für gefährliche Organisationen und Personen ein. Gemäß Metas Gemeinschaftsstandards bedeutet das, dass das Unternehmen jeden Inhalt von seinen Plattformen entfernt, der die Anschläge vom 7. Oktober oder ihre Täter „gutheißt, inhaltlich unterstützt oder darstellt“.
Angesichts des rasanten Anstiegs von gewaltdarstellenden Inhalten, die nach dem Terrorangriff und der militärischen Reaktion auf den Meta-Plattformen gepostet wurden, ergriff das Unternehmen mehrere temporäre Maßnahmen, darunter eine Herabsetzung der Konfidenzwerte seines automatischen Klassifizierungssystems für gewaltdarstellende Inhalte (Classifier), die unzulässige gewaltdarstellende Inhalte erkennen und entfernen. Meta setzte das Board darüber in Kenntnis, dass es diese Maßnahmen sprachübergreifend auf aus Israel und Gaza stammende Inhalte anwandte. Aufgrund der geänderten Classifier erhöhte sich die Anzahl automatisch entfernter Inhalte, die mit geringeren Konfidenzwerten gegen die Meta-Richtlinien verstoßen. Anders ausgedrückt: Meta setzte seine automatisierten Tools aggressiver ein, um Inhalte zu entfernen, die gegen seine Richtlinien verstoßen könnten. So wollte Meta den Wert „Sicherheit“ stärker priorisieren: Mehr Inhalte wurden im Vergleich zu der Zeit vor dem 7. Oktober entfernt, als die höheren Konfidenzwerte gegolten hatten. Zwar wurde so die Wahrscheinlichkeit gesenkt, dass unzulässige Inhalte, die vielleicht nicht erkannt werden oder die keinem manuellen Review aufgrund eingeschränkter Kapazitäten unterzogen werden können, von Meta nicht entfernt werden. Gleichzeitig erhöhte sich aber auch die Wahrscheinlichkeit, dass Meta Inhalte, die sich auf den Konflikt beziehen und keinen Verstoß darstellen, fälschlicherweise entfernte.
Wenn Eskalationsteams feststellten, dass bestimmte Videos gegen die Richtlinie zu gewaltdarstellendem Inhalt, die Richtlinie zu Gewalt und Anstiftung zu Gewalt und die Richtlinie zu gefährlichen Organisationen und Personen verstießen, verließ sich Meta auf Media Matching Service-Datenbanken, um übereinstimmende Videos automatisch zu entfernen. Dieser Ansatz gab Anlass zur Sorge, dass Meta seine Richtlinien übermäßig durchsetzte, was beispielsweise zu Kontoeinschränkungen oder -sperrungen für Nutzer*innen führen könnte, die mehrmals gegen Metas Content-Richtlinien verstoßen hatten (manchmal auch als „Facebook-Knast“ bezeichnet). Um diese Sorge zu entkräften, hielt Meta „Verwarnungen“ zurück, die regulär aufgrund der Media Matching Service-Datenbanken automatisch entfernte Beiträge nach sich ziehen würden (laut Meta-Ankündigung in einem Newsroom-Beitrag).
Metas Änderungen an den Classifier-Konfidenzwerten sowie sein Ansatz bei Verwarnungen beschränken sich auf den Israel-Gaza-Konflikt und sind nur als vorübergehende Maßnahmen gedacht. Bis zum 11. Dezember 2023 hat Meta die Konfidenzwerte noch nicht wieder auf die Werte zurückgesetzt, die vor dem 7. Oktober galten.
3. Beschreibung des Falls
Der für diesen Fall relevante Inhalt ist ein in der zweiten Novemberwoche auf Instagram veröffentlichtes Video. Es zeigt die Folgen eines Angriffs auf oder nahe des Al-Shifa-Krankenhauses in Gaza-Stadt während der israelischen Bodenoffensive im Norden des Gazastreifens. Der für diesen Fall relevante Instagram-Post zeigt Menschen, darunter Kinder, die leblos auf dem Boden liegen oder verletzt sind und weinen. Eines der Kinder scheint tot zu sein und eine schwere Kopfverletzung zu haben. In der Bildunterschrift zu dem Video auf Arabisch und Englisch heißt es, dass das Krankenhaus von der „usurping occupation“ (Besatzungsmacht) angegriffen wurde – eine Anspielung auf die israelische Armee. Im Video werden Menschenrechts- und Nachrichtenorganisationen markiert.
Metas Gemeinschaftsstandard zu gewaltdarstellendem Inhalt, der für Facebook- und Instagram-Inhalte gilt,verbietet „[V]ideos von Personen oder Leichen in einem nicht-medizinischen Umfeld, wenn sie ... [s]ichtbare innere Organe zeigen“. Zum Zeitpunkt der Veröffentlichung des Beitrags erlaubte die Richtlinie „[B]ilder, die den gewaltsamen Tod einer oder mehrerer Personen durch Unfall oder Tötung zeigen“, wenn diese hinter einer Warnmeldung für verstörende Inhalte platziert und nur für über 18-Jährige sichtbar sind. Diese Regel wurde am 29. November, nach der Wiederherstellung des fraglichen Inhalts, aktualisiert. Dabei wurde deutlich gemacht, dass sie für den „Moment des Todes oder dessen Folgen“ und für Abbildungen „einer Person in einer lebensbedrohlichen Situation“ gilt.
Metas automatisierte Systeme entfernten den fraglichen Beitrag, weil er gegen den Gemeinschaftsstandard zu gewaltdarstellendem Inhalt verstieß. Der Einspruch, den der*die Nutzer*in gegen diese Entscheidung einlegte, wurde automatisch abgelehnt, da Metas Classifier den Inhalt mit „einem hohen Konfidenzniveau“ als unzulässig einstuften. Der*Die Nutzer*in legte daraufhin Einspruch beim Oversight Board gegen Metas Entscheidung ein.
Nachdem das Board diesen Fall ausgewählt hatte, erklärte Meta, dass es in dem Video innere Organe nicht eindeutig erkennen konnte. Meta kam daher zu dem Schluss, dass die Entfernung des Inhalts falsch gewesen war, der Inhalt jedoch „grenzwertig“ gewesen sei. Meta erklärte außerdem, dass der Beitrag selbst dann, wenn innere Organe sichtbar gewesen wären, nicht hätte entfernt werden sollen. Stattdessen hätte es ihn mit einer Warnmeldung für verstörende Inhalte versehen sollen, da er geteilt wurde, um auf die Situation in Gaza aufmerksam zu machen. Das Unternehmen wiederholte außerdem, dass solche Inhalte gemäß der Richtlinie zu gewaltdarstellendem Inhalt zulässig seien, wenn sie geteilt werden, um „auf wichtige Themen wie Menschenrechtsverletzungen, bewaffnete Konflikte oder terroristische Handlungen“ aufmerksam zu machen.
Aus diesem Grund hob Meta seine ursprüngliche Entscheidung auf und stellte den Inhalt mit einer Warnmeldung wieder her. Die Warnmeldung weist Nutzer*innen darauf hin, dass sie den Inhalt als verstörend empfinden könnten. Erwachsene Nutzer*innen können auf die Meldung klicken, um den Beitrag zu sehen, doch Meta entfernt solche Beiträge aus den Feeds von unter 18-jährigen Instagram-Nutzer*innen und aus den Empfehlungen für erwachsene Instagram-Nutzer*innen. Meta fügte außerdem einen weiteren Beitrag mit demselben Video zur Media Matching Service-Datenbank hinzu, damit Beiträge mit diesem Video nicht automatisch entfernt, sondern mit einer Warnmeldung versehen und nur Nutzer*innen über 18 Jahren angezeigt werden.
4. Begründung für die beschleunigte Überprüfung
Die Satzung des Oversight Boards erlaubt eine beschleunigte Überprüfung, wenn „außergewöhnliche Umstände [vorliegen], etwa wenn Inhalte unmittelbar zu ernsthaften Konsequenzen in der realen Welt führen könnten“ und seine Entscheidungen für Meta bindend sind (Satzung, Art. 3, Abschnitt 7.2; Satzung, Art. 2, Abschnitt 2.1.2). Die beschleunigte Überprüfung schließt die umfangreichen Recherchen, externen Konsultationen und öffentlichen Kommentare aus, die für Fälle gelten, die nach den üblichen Zeitplänen geprüft werden. Der Fall wird zum Zeitpunkt der Beratung des Boards anhand der ihm verfügbaren Informationen entschieden. Die Entscheidung trifft ein Panel aus fünf Mitgliedern; eine einstimmige Entscheidung des gesamten Boards ist nicht notwendig.
Das Oversight Board wählte diesen Fall und den Fall „Aus Israel entführte Geiseln“ (2023-050-FB-UA) aus, weil das Recht auf freie Meinungsäußerung in Konfliktsituationen wichtig ist und im Kontext des Israel-Hamas-Konflikts gefährdet wurde. Beide Fälle sind repräsentativ für die Einsprüche, die Nutzer*innen aus der Region seit den Angriffen vom 7. Oktober und den darauffolgenden Militäraktionen Israels beim Board einlegen. Beide Fälle fallen unter die Priorität „Krisen- und Konfliktsituationen“ des Oversight Boards. Metas Entscheidungen erfüllen in beiden Fällen das Kriterium „unmittelbarer ernsthafter Konsequenzen in der realen Welt“, das eine beschleunigte Überprüfung rechtfertigt. Daher haben sich das Board und Meta darauf geeinigt, die beschleunigten Verfahren des Boards anzuwenden.
In seinen Einreichungen an das Board räumte Meta ein, dass „die Entscheidung, wie es mit diesen Inhalten umgehen soll, schwierig ist, sich widersprechende Werte involviert und Kosten-Nutzen-Abwägungen erfordert“. Meta begrüßte die Meinung des Boards zu dieser Frage.
5. Einreichungen von Nutzer*innen
Der*Die Autor*in des Beitrags gab bei seinem*ihrem Einspruch an das Board an, dass der Beitrag nicht zu Gewalt aufrufe, sondern das Leid der palästinensischen Bevölkerung, insbesondere von Kindern, zeige. Der*Die Nutzer*in wies außerdem darauf hin, dass die Entfernung für die palästinensische Bevölkerung von Nachteil sei. Der*Die Nutzer*in wurde darüber informiert, dass das Board den Einspruch geprüft hatte.
6. Entscheidung
Die Mitglieder des Boards sind im Hinblick auf die Militäraktion Israels und deren Rechtfertigung zwar unterschiedlicher Meinung, sie sind sich jedoch einig, wie wichtig es ist, dass Meta das Recht auf freie Meinungsäußerung und die anderen Menschenrechte aller Personen, die von diesen Ereignissen betroffen sind, sowie ihre Fähigkeit, in dieser Krise miteinander zu kommunizieren, schützt.
Das Oversight Board hebt die ursprüngliche Entscheidung von Meta auf, den Inhalt von Instagram zu entfernen. Es ist der Ansicht, dass es im Einklang mit Metas Content-Richtlinien und seiner menschenrechtlichen Verantwortung steht, den Inhalt unter Hinzufügung einer Warnmeldung für verstörende Inhalte wiederherzustellen. Das Board stellt jedoch auch fest, dass Metas Herabstufung des wiederhergestellten Inhalts, die einen Ausschluss aus den Empfehlungen nach sich ziehen kann, nicht der Verantwortung des Unternehmens zum Schutz der Meinungsfreiheit entspricht.
6.1 Einhaltung der Content-Richtlinien von Meta
Das Board stimmt mit Meta überein, dass es schwierig ist, festzustellen, ob das für diesen Fall relevante Video „[s]ichtbare innere Organe“ zeigt. In diesem Fall, bei dem ein außergewöhnlich hohes öffentliches Interesse besteht, den Zugriff auf Informationen zu schützen und Möglichkeiten zur Sensibilisierung für die Folgen des Konflikt zu schaffen, sollten Inhalte, die in Bezug auf die Richtlinie zu gewaltdarstellendem Inhalt „grenzwertig“ sind, nicht entfernt werden. Da der Inhalt den gewaltsamen Tod eines Menschen und eine blutige Kopfverletzung zeigt, hätte Meta ihn gemäß seinen Richtlinien mit einer Warnmeldung versehen und nur Personen über 18 Jahren zugänglich machen sollen.
Das Board stimmt auch mit Metas späterer Feststellung überein, dass das Video, selbst wenn es sichtbare innere Organe gezeigt hätte, aufgrund seiner Bildunterschrift, die die Gewalt verurteilt oder auf sie aufmerksam macht, nicht hätte gelöscht werden, sondern mit einer Warnmeldung für verstörende Inhalte versehen und nur Nutzer*innen ab 18 Jahren zugänglich gemacht werden sollen. Der Gemeinschaftsstandard sieht in Bezug auf den anwendbaren Richtlinienabschnitt „[V]ideos von Personen oder Leichen in einem medizinischen Umfeld, wenn sie ... [s]ichtbare innere Organe zeigen“ keine Warnmeldungen vor. Im Fall Gewaltdarstellendes Video aus dem Sudan erklärte das Board, dass Meta seine Reviewer*innen auffordert, seine Richtlinien zu untersagten Inhalten zu befolgen. Im Grundgedanken heißt es: „[i]m Kontext von Diskussionen über wichtige Themen wie Menschenrechtsverletzungen, bewaffnete Konflikte oder Terrorakte gestatten wir Gewaltdarstellungen (mit einigen Einschränkungen), um Menschen dabei zu unterstützen, diese Situationen zu verurteilen und auf sie aufmerksam zu machen.“ Der Gemeinschaftsstandard verbietet jedoch das Zeigen „sichtbarer innerer Organe“ in einem nicht medizinischen Kontext in allen Videos, ohne Reviewer*innen die Option zu geben, eine Warnmeldung hinzuzufügen, wenn die Ausnahmeregelung zum Grundgedanken der Richtlinie greift. Metas automatisierte Systeme scheinen nicht so ausgelegt zu sein, dass sie Videos mit Gewaltdarstellungen mit einer Warnmeldung versehen, wenn aus dem Kontext ersichtlich wird, dass die Gewalt verurteilt oder auf sie aufmerksam gemacht wird. Es ist auch nicht ersichtlich, ob die entsprechenden Classifier in diesem Kontext in der Lage wären, die Inhalte zu einer weiteren Überprüfung an menschliche Reviewer*innen weiterzuleiten.
6.2 Erfüllung der menschenrechtlichen Verantwortung von Meta
Gemäß Metas menschenrechtlicher Verantwortung muss seine Moderation gewaltdarstellender Inhalte das Recht auf freie Meinungsäußerung respektieren. Dazu gehört auch die Freiheit, Informationen einzuholen, zu erhalten und zu vermitteln (Art. 19 , Abs. 2 des Internationalen Pakts über bürgerliche und politische Rechte (International Covenant on Civil and Political Rights, ICCPR). Wie das Board im Fall Video armenischer Kriegsgefangener feststellte, bleibt dieser Schutz der freien Meinungsäußerung gemäß Artikel 19 des Internationalen Pakts über bürgerliche und politische Rechte (International Covenant on Civil and Political Rights, ICCPR) auch „in bewaffneten Konflikten bestehen und sollte weiterhin Metas Menschenrechtsverantwortung prägen, neben den sich gegenseitig verstärkenden und ergänzenden Regeln des internationalen humanitären Völkerrechts, die in solchen Konflikten gelten.“ Die UN-Leitprinzipien für Wirtschaft und Menschenrechte erlegen Unternehmen eine erhöhte Verantwortung für die Wahrung der Sorgfaltspflicht in Konfliktsituationen auf („Business, human rights and conflict-affected regions: towards heightened action“, A/75/212, deutsch: „Wirtschaft, Menschenrechte und von Konflikten betroffene Regionen: Hin zu verstärkten Maßnahmen“).
Das Board hat bereits in früheren Fällen betont, dass Social-Media-Plattformen wie Facebook und Instagram ein wichtiges Mittel sind, um Informationen über gewalttätige Ereignisse in Echtzeit zu übermitteln, etwa im Rahmen von Nachrichtenmeldungen (siehe z. B. Erwähnungen der Taliban in einer Nachrichtenmeldung). Sie sind besonders im Kontext bewaffneter Konflikte wichtig, vor allem wenn Journalist*innen nur eingeschränkten Zugriff auf Informationen haben. Außerdem sind Inhalte, die gewalttätige Angriffe und Menschenrechtsverletzungen zeigen, von großem öffentlichem Interesse (siehe Gewaltdarstellendes Video aus dem Sudan).
Wenn Regierungen das Recht auf freie Meinungsäußerung einschränken, erfordern die internationalen Menschenrechte, dass die Anforderungen der Gesetzmäßigkeit, des rechtmäßigen Ziels und der Notwendigkeit und Verhältnismäßigkeit erfüllt werden (Artikel 19 Absatz 3, ICCPR). Diese Anforderungen werden häufig auch als „dreiteilige Prüfung“ oder „drei Merkmale“ bezeichnet. Das Board nutzt diesen Ansatz, um Metas freiwillige menschenrechtliche Verpflichtungen zu bewerten, sowohl in Bezug auf die jeweilige Inhaltsentscheidung als auch darauf, was dies über die grundsätzliche Herangehensweise von Meta an Content-Governance aussagt. Dabei versucht das Board, darauf zu achten, dass diese Rechte auf private Social-Media-Unternehmen anders angewandt werden können als auf Regierungen. Dennoch stellte der UN-Sonderberichterstatter für Meinungsfreiheit fest, dass Unternehmen, obgleich sie nicht dieselben Verpflichtungen wie Regierungen haben, „dennoch eine derartige Wirkung haben, dass sie dieselben Arten von Fragen im Zusammenhang mit dem Schutz des Rechts auf Meinungsfreiheit prüfen müssen“ (Bericht A/74/486, Absatz 41).
Es ist aus rechtlichen Gründern erforderlich, dass jede Einschränkung der freien Meinungsäußerung zugänglich und klar genug formuliert sein sollte, um eine Orientierung dafür zu bieten, was erlaubt ist und was nicht. Das Board hatte bereits Bedenken geäußert, dass die Regeln des Gemeinschaftsstandards zu gewaltdarstellendem Inhalt nicht vollständig mit dem Grundgedanken der Richtlinie übereinstimmen, der die Ziele der Richtlinie darlegt (siehe Gewaltdarstellendes Video aus dem Sudan und Video nach Anschlag in Kirche in Nigeria). Das Board wiederholt die Bedeutung der Empfehlungen Nr. 1 und Nr. 2, die es im Fall „Gewaltdarstellendes Video aus dem Sudan“ gegeben hatte und die Meta dazu aufforderten, seinen Gemeinschaftsstandard zu gewaltdarstellendem Inhalt so anzupassen, dass er Videos von Personen oder Leichen mit sichtbaren Verstümmelungen erlaubt, um auf Menschenrechtsverletzungen aufmerksam zu machen oder sie zu dokumentieren. Meta hat als Reaktion auf diese Empfehlungen damit begonnen, seine Richtlinien anzupassen, und hat vor, das Board in seinem nächsten vierteljährlichen Update über seine Fortschritte zu informieren. Nach Ansicht des Boards sollte diese Empfehlung auch für Videos gelten, die sichtbare innere Organe zeigen, und insbesondere Warnmeldungen als Durchsetzungsmaßnahme vorsehen, wenn die Ausnahmeregelungen zur Sensibilisierung (einschließlich faktische Berichterstattung) und zur Verurteilung greifen.
Gemäß Artikel 19, Abs. 3 des ICCPR darf die Meinungsäußerung unter bestimmten festgelegten Umständen eingeschränkt werden. Das Board hat bereits in der Vergangenheit festgestellt, dass die Richtlinie zu gewaltdarstellendem Inhalt das legitime Ziel verfolgt, die Rechte anderer zu schützen, einschließlich des Rechts auf Privatsphäre der abgebildeten Person (siehe Gewaltdarstellendes Video aus dem Sudan und Video nach Anschlag in Kirche in Nigeria). Der vorliegende Fall zeigt außerdem, dass die Beschränkung des Zugriffs auf den Inhalt für unter 18-Jährige das legitime Ziel verfolgte, das Recht auf Gesundheit von Minderjährigen zu schützen (Übereinkommen über die Rechte des Kindes, Artikel 24).
Der Grundsatz der Notwendigkeit und Verhältnismäßigkeit verlangt, dass Einschränkungen der Meinungsfreiheit „geeignet sein müssen, ihre Schutzfunktion zu erfüllen; sie müssen das am wenigsten einschneidende Instrument unter denjenigen sein, die ihre Schutzfunktion erfüllen können“, und „sie müssen in einem angemessenen Verhältnis zu dem zu schützenden Interesse stehen“ (Allgemeine Bemerkung Nr. 34, Abs. 34).
Das Board hatte zuvor in Bezug auf gewaltdarstellende Inhalte festgestellt, dass eine Warnmeldung „keine unzumutbare Belastung für diejenigen darstellt, die den Inhalt sehen möchten. Zugleich informiert sie andere über die Art des Inhalts und ermöglicht es ihnen, zu entscheiden, ob sie ihn sehen möchten oder nicht“ (siehe Gewaltdarstellendes Video aus dem Sudan). Warnmeldungen verhindern, dass Nutzer*innen unfreiwillig potenziell verstörende Inhalte sehen. Die Rechte der Opfer werden außerdem durch Metas Richtlinie geschützt, Videos und Fotos zu entfernen, die den gewaltsamen Tod einer Person (oder dessen unmittelbare Folgen) zeigen, wenn ein Familienmitglied dies beantragt. Der Inhalt in diesem Fall unterscheidet sich von dem im Fall Russisches Gedicht, der ein Standbild einer auf dem Boden liegenden Person aus großer Entfernung zeigte, auf dem das Gesicht des Opfers nicht zu sehen war und es keine eindeutigen sichtbaren Anzeichen von Gewalt gab. In diesem Fall entsprach das Hinzufügen einer Warnmeldung nicht Metas Empfehlungen für Reviewer*innen und war weder eine notwendige noch eine verhältnismäßige Einschränkung der freien Meinungsäußerung. Der für diesen Fall relevante Inhalt ähnelt eher dem Inhalt im Fall Video nach Anschlag in Kirche in Nigeria, der tote und verletzte Menschen aus der Nähe zeigte, mit sehr eindeutigen sichtbaren Anzeichen von Gewalt.
In diesem Fall macht das Zeigen verletzter und toter Kinder das Video besonders verstörend. Unter solchen Umständen ist es eine notwendige und verhältnismäßige Maßnahme, die Nutzer*innen entscheiden zu lassen, ob sie diesen verstörenden Inhalt sehen möchten (siehe auch Video armenischer Kriegsgefangener).
Das Board ist der Ansicht, dass der Ausschluss von Inhalten, die auf mögliche Menschenrechtsverletzungen und Verstöße gegen das Kriegsrecht, auf Konflikte oder Terrorakte aufmerksam machen, aus den Empfehlungen für Erwachsene keine notwendige oder verhältnismäßige Einschränkung der freien Meinungsäußerung darstellt, da ein sehr großes öffentliches Interesse an solchen Inhalten besteht. Warnmeldungen und der Ausschluss aus den Empfehlungen erfüllen unterschiedliche Funktionen und sollten in manchen Fällen voneinander isoliert betrachtet werden, insbesondere in Krisensituationen. Empfehlungen auf Instagram werden von automatisierten Systemen generiert, die Nutzer*innen Inhalte anhand ihrer vorhergesagten Interessen vorschlagen. Das Entfernen von Inhalten aus den Empfehlungen bedeutet, dass diese Inhalte einer geringere Reichweite erhalten. Das Board ist der Ansicht, dass diese Methode das Recht auf freie Meinungsäußerung unverhältnismäßig beeinträchtigt, da sie auf Inhalte angewandt wird, die bereits auf erwachsene Nutzer*innen beschränkt sind und gepostet werden, um auf Angelegenheiten von öffentlichem Interesse zu aufmerksam zu machen, diese zu verurteilen oder über sie zu berichten, wie etwa die Entwicklung eines gewaltsamen Konflikts.
Das Board erkennt an, dass unmittelbare Reaktionen auf eine Krise außergewöhnliche, vorübergehende Maßnahmen erfordern können und dass es in manchen Kontexten legitim ist, Sicherheitsbedenken zu priorisieren und das Recht auf freie Meinungsäußerung vorübergehend und verhältnismäßig stärker einzuschränken. Manche dieser Maßnahmen sind zum Beispiel in den Verpflichtungen zur Bekämpfung „terroristischer und gewalttätiger extremistischer Inhalte“ aus dem Christchurch Call enthalten. Das Board merkt allerdings an, dass der Christchurch Call betont, wie wichtig es ist, auf solche Inhalte in einer Weise zu reagieren, die mit den Menschenrechten und Grundfreiheiten vereinbar ist. Das Board ist der Ansicht, dass Sicherheitsbedenken es nicht rechtfertigen, Gewaltdarstellungen fälschlicherweise zu entfernen, die auf mögliche Kriegsverbrechen, Verbrechen gegen die Menschlichkeit oder schwere Menschenrechtsverletzungen aufmerksam machen oder diese verurteilen sollen. Solche Einschränkungen können sogar den Zugriff auf Informationen erschweren, die für die Sicherheit der von diesen Konflikten betroffenen Menschen vor Ort notwendig sind.
Maßnahmen wie das Zurückbehalten von Verwarnungen tragen dazu bei, die potenziell unverhältnismäßigen negativen Auswirkungen von Durchsetzungsfehlern aufgrund von Notfallmaßnahmen wie der Herabsetzung der Konfidenzwerte für die Entfernung von Inhalten in Konfliktsituationen abzuschwächen. Sie reichen jedoch nicht aus, um die Möglichkeit der Nutzer*innen zum Teilen von Inhalten, die auf mögliche Menschenrechtsverletzungen und Verstöße gegen das humanitäre Völkerrecht aufmerksam machen, und anderen wichtigen Informationen in Konfliktsituationen zu schützen.
Das Board hat wiederholt auf die Notwendigkeit hingewiesen, ein prinzipientreues und transparentes Rahmenwerk für die Moderation von Inhalten in Krisensituationen und Konfliktgebieten zu entwickeln (siehe Video von haitianischer Polizeistation und Kommunikationsbüro Tigray). Gerade in Zeiten sich schnell entwickelnder Konflikte müssen große Social-Media-Unternehmen die notwendigen Ressourcen bereitstellen, um sicherzustellen, dass die freie Meinungsäußerung nicht unnötig eingeschränkt wird. In solchen Zeiten sind journalistische Quellen oft physischen und anderen Angriffen ausgesetzt, was die Berichterstattung durch normale Bürger*innen in den sozialen Medien besonders wichtig macht.
Das Board hat auch schon zuvor festgestellt, dass es im Kontext von Kriegen oder politischen Unruhen mehr gewaltdarstellende Inhalte gibt, die von Nutzer*innen aufgenommen und auf der Plattform geteilt werden, um auf Missstände aufmerksam zu machen oder sie zu dokumentieren (siehe Gewaltdarstellendes Video aus dem Sudan). In Situationen wie dem Israel-Gaza-Konflikt, in denen eine alarmierende Anzahl von Zivilist*innen getötet oder verletzt wird, darunter auch sehr viele Kinder, und sich die humanitäre Krise immer weiter verschärft, sind diese Arten von Inhalten besonders wichtig. Das Board erkennt zwar an, dass Meta seine Content-Richtlinie zu gewaltdarstellendem Inhalt derzeit anpasst, erwartet aber, dass Meta schnell temporäre Maßnahmen ergreifen kann, um diese Art von Inhalten mit Warnmeldungen zuzulassen und sie nicht aus den Empfehlungen zu entfernen.
Das Board weist darauf hin, dass die Situation in Gaza zum Zeitpunkt der Veröffentlichung dieses Inhalts nicht die gleichen Herausforderungen für Meta mit sich brachte wie die Angriffe vom 7. Oktober. In Gaza ist es schwierig, Informationen von den Menschen vor Ort zu erhalten. Journalist*innen haben nur eingeschränkten Zugang zu dem Gebiet und die Internetverbindung ist unterbrochen. Außerdem ging es in diesem Fall, im Gegensatz zu der Situation unmittelbar nach den Angriffen vom 7. Oktober, nicht darum, dass terroristische Gruppen ihre Gräueltaten über Social Media bekannt gaben. Im Kontext bewaffneter Konflikte sollte Meta allerdings sicherstellen, dass seine Handlungen es nicht erschweren, Inhalte zu teilen, die auf das Leid der Zivilbevölkerung aufmerksam machen und für die Feststellung von Verstößen gegen das humanitäre Völkerrecht und die internationalen Menschenrechte relevant sein können. Die Frage, ob ein Inhalt geteilt wurde, um auf die Ereignisse vor Ort aufmerksam zu machen oder sie zu verurteilen, sollte der Ausgangspunkt jeder Person sein, die ihn prüft. Metas automatisierte Systeme sollten so konzipiert sein, dass sie Inhalte, für die eine Ausnahmeregelung gilt, nicht fälschlicherweise entfernen.
Der Fall zeigt außerdem, dass eine unzureichende menschliche Aufsicht der automatisierten Moderation im Kontext einer Reaktion auf eine Krise zu einer irrtümlichen Entfernung von Inhalten führen kann, die von erheblichem öffentlichem Interesse sind. Sowohl die ursprüngliche Entscheidung zur Entfernung dieses Inhalts als auch die Ablehnung des Einspruchs des*der Nutzers*Nutzerin erfolgten automatisch anhand eines Classifier-Werts ohne manuellen Review. Dieses Problem wurde eventuell dadurch verschärft, dass Meta seine Konfidenzwerte für die Entfernung von Inhalten gemäß der Richtlinie zu gewaltdarstellendem Inhalt als Reaktion auf die Angriffe vom 7. Oktober herabsetzte. Das bedeutet, dass Meta diese Inhalte selbst dann entfernt, wenn der Classifier einen niedrigeren Wert als normalerweise erforderlich für die Wahrscheinlichkeit eines Verstoßes feststellt.
Damit Meta seine automatisierten Systeme so einsetzt, dass sie mit seinen menschenrechtlichen Verpflichtungen vereinbar sind, erinnert das Board Meta an seine Empfehlung Nr. 1 im Fall Karikatur der kolumbianischen Polizei. In diesem Fall forderte das Board Meta auf, sicherzustellen, dass bei Inhalten mit einer hohen Einspruchsquote sowie einer hohen Erfolgsquote bei diesen Einsprüchen erneut überprüft wird, ob diese unter Umständen aus den Datenbanken des Media Matching Service entfernt werden sollten. Als Reaktion auf diese Empfehlung richtete Meta eine Arbeitsgruppe ein, die sich für die Verbesserung der Governance in seinen Media Matching Service-Datenbanken einsetzt (siehe Metas aktuelle Updates dazu hier). Das Board merkt an, dass es für diese Gruppe wichtig ist, der Nutzung von Media Matching Services im Kontext bewaffneter Konflikten besondere Aufmerksamkeit zu widmen. Im Fall Symptome von Brustkrebs und Nacktdarstellung (Empfehlung Nr. 3 und Nr. 6) empfahl das Board Meta, Nutzer*innen zu informieren, wenn automatisierte Durchsetzungsmaßnahmen gegen ihre Inhalte ergriffen werden, und Daten über die Anzahl der automatisierten Entscheidungen zur Entfernung von Inhalten gemäß dem Gemeinschaftsstandard und den Anteil dieser Entscheidungen, die anschließend nach einem manuellen Review aufgehoben werden, offenzulegen. Dies ist vor allem dann wichtig, wenn die Konfidenzwerte für wahrscheinlich unzulässige Inhalte nachweislich erheblich gesenkt wurden. Das Board rät Meta dringend, die Empfehlung Nr. 6 vollständig umzusetzen, und ihm Nachweise über die Umsetzung von Empfehlung Nr. 3 vorzulegen.
Einschränkungen der Meinungsfreiheit müssen diskriminierungsfrei sein, also auch aufgrund von Nationalität, ethnischer Herkunft, Religion, Weltanschauung bzw. politischer oder sonstiger Anschauungen (Artikel 2, Absatz 1, und Artikel 26 ICCPR). Eine diskriminierende Durchsetzung der Gemeinschaftsstandards untergräbt diesen grundlegenden Aspekt der Meinungsfreiheit. Im Fall Geteilter Beitrag zu Al Jazeera äußerte das Board ernsthafte Bedenken, dass die Fehler bei Metas Moderation von Inhalten aus Israel und den besetzten palästinensischen Gebieten ungleich verteilt sein könnten, und verlangte eine unabhängige Untersuchung (Geteilter Beitrag zu Al Jazeera, Empfehlung Nr. 3). Die menschenrechtliche Folgenabschätzung von Business for Social Responsibility (BSR), die Meta auf diese Empfehlung hin in Auftrag gab, identifizierte „verschiedene Fälle unabsichtlicher Voreingenommenheit, in denen Metas Richtlinien und Verfahren in Kombination mit weiter gefassten externen Dynamiken dazu führen, dass die Menschenrechte palästinensischer und arabischsprachiger Nutzer*innen auf unterschiedliche Weise eingeschränkt werden.“ Das Board fordert Meta auf, die Verpflichtungen, die es aufgrund des BSR-Berichts einging, zu erfüllen.
Schließlich ist Meta verpflichtet, Nachweise über mögliche Menschenrechtsverletzungen und Verstöße gegen das humanitäre Völkerrecht aufzubewahren. Dies wird auch im BSR-Bericht (Empfehlung Nr. 21) empfohlen und von Bürgerrechtsgruppen befürwortet. Selbst wenn Inhalte von Metas Plattformen entfernt werden, ist es entscheidend, Nachweise über diese Entfernungen im Interesse einer zukünftigen Rechenschaftspflicht aufzubewahren (siehe Gewaltdarstellendes Video aus dem Sudan und Video armenischer Kriegsgefangener). Meta hat zwar erklärt, dass es alle Inhalte, die gegen seine Gemeinschaftsstandards verstoßen, ein Jahr lang aufbewahrt, doch das Board rät Meta dringend, Inhalte, die sich speziell auf mögliche Kriegsverbrechen, Verbrechen gegen die Menschlichkeit und schwere Menschenrechtsverletzungen beziehen, zu identifizieren und sie dauerhafter und zugänglicher aufzubewahren, um eine langfristige Rechenschaftspflicht zu ermöglichen. Das Board merkt an, dass Meta sich verpflichtet hat, die Empfehlung Nr. 1 im Fall Video armenischer Kriegsgefangener umzusetzen. In dieser Empfehlung wurde Meta dazu aufgefordert, ein Protokoll zu entwickeln, das die Aufbewahrung von Informationen und gegebenenfalls deren Weitergabe an die zuständigen Behörden vorsieht, um Ermittlungen und Gerichtsverfahren zur Beseitigung oder Verfolgung von Gräueltaten oder schweren Menschenrechtsverletzungen zu unterstützen. Meta setzte das Board darüber in Kenntnis, dass es sich bei der Entwicklung eines „einheitlichen Ansatzes für die Aufbewahrung potenzieller Nachweise über Gräueltaten und schwerer Verstöße gegen internationale Menschenrechte“ in der Endphase befinde und damit rechne, dem Board in Kürze eine Zusammenfassung dieses Ansatzes vorlegen zu können. Das Board erwartet von Meta, die oben aufgeführte Empfehlung vollständig umzusetzen.
* Anmerkung zur Vorgehensweise:
Die beschleunigten Entscheidungen des Oversight Board werden von Panels aus fünf Mitgliedern vorbereitet und sind keine Mehrheitsentscheidungen des gesamten Boards. Entscheidungen des Oversight Boards geben nicht zwangsläufig die persönliche Meinung aller Mitglieder wieder.