Publié
Bezeichnung von als gefährlich eingestuften Personen als „Shaheed“
26 mars 2024
In dieser beratenden Stellungnahme wird Metas Vorgehensweise bei der Moderation des Wortes „shaheed“ analysiert, die wichtige Fragen zur Auswirkung der Richtlinie zu gefährlichen Organisationen und Personen auf die freie Meinungsäußerung aufwirft.
Zusammenfassung
Das Oversight Board stellt fest, dass Metas Vorgehensweise bei der Moderation von Inhalten, in denen als gefährlich eingestufte Personen mit dem Begriff „shaheed“ bezeichnet werden, die freie Meinungsäußerung erheblich und unverhältnismäßig einschränkt. Meta interpretiert jede Verwendung von „shaheed“ in Bezug auf Personen, die Meta als „gefährlich“ eingestuft hat, als Verstoß gegen die Richtlinien und entfernt die entsprechenden Inhalte. Laut Meta hat der Begriff „shaheed“ im Rahmen der Gemeinschaftsstandards zu mehr Inhaltsentfernungen geführt als irgendein anderes Wort oder eine andere Formulierung auf Meta-Plattformen. Terroristische Gewalt hat schwerwiegende Folgen. Durch sie werden unschuldige Menschen getötet, Menschenrechte eingeschränkt und die Grundfeste der Gesellschaft untergraben. Jegliche Einschränkungen der freien Meinungsäußerung, die solche Gewalttaten verhindern sollen, müssen jedoch notwendig und verhältnismäßig sein. Unangemessene Entfernungen von Inhalten sind oft nicht zielführend und können sogar kontraproduktiv sein.
Das Board geht mit seinen Empfehlungen von der Meinung aus, dass Meta unbedingt effektive Maßnahmen ergreifen muss, um sicherzustellen, dass Personen über seine Plattformen andere nicht zu Gewalttaten anstiften oder dafür anwerben. Extremisten verwenden das Wort „shaheed“ manchmal, um Personen anzupreisen oder zu verherrlichen, die bei der Verübung terroristischer Gewalttaten sterben. Meta muss beim Umgang mit dieser Bedrohung jedoch auch den Respekt für alle Menschenrechte bewahren, einschließlich der freien Meinungsäußerung.
Am 7. Oktober 2023, während das Board diese beratende Stellungnahme abschließend bearbeitete, verübte die Hamas (eine nach der Meta-Richtlinie zu gefährlichen Organisationen und Personen eingestufte gefährliche Organisation der Stufe 1) einen beispiellosen Terrorangriff gegen Israel. Dabei wurden geschätzt 1.200 Menschen getötet und ungefähr 240 Personen als Geiseln entführt (Außenministerium von Israel). Laut Nachrichtenmeldungen wird angenommen, dass bis zum 6. Februar 2024 mindestens 30 der schätzungsweise 136 Geiseln, die sich Anfang Januar weiterhin in Gefangenschaft der Hamas befanden, verstorben sind. Gemäß der Richtlinie zu gefährlichen Organisationen und Personen stufte Meta diese Ereignisse sofort als Terroranschlag ein. Kurz nach dem Terrorangriff startete Israel eine Militäraktion. Dabei wurden in Gaza bis zum 4. März mehr als 30.000 Menschen getötet (Amt der Vereinten Nationen für die Koordinierung humanitärer Angelegenheiten, auf Grundlage von Daten des Gesundheitsministeriums in Gaza). Berichten aus dem Januar zufolge wird geschätzt, dass 70 % der Todesopfer Frauen und Kinder sind.
Nach diesen Ereignissen vertagte das Board die Veröffentlichung dieser beratenden Stellungnahme, um sicherzustellen, dass seine Empfehlungen die Verwendung der Meta-Plattformen und des Worts „shaheed“ in diesem Kontext berücksichtigen würden. Durch diese zusätzlichen Untersuchungen wurden die Empfehlungen des Boards zur Moderation des Worts „shaheed“ bestätigt, auch angesichts des extremen Stresses, den diese Ereignisse hervorgerufen haben. Diese Empfehlungen stellen sicher, dass Meta bei der Reaktion auf Krisen alle Menschenrechte stärker achtet. Gleichzeitig betont das Board, dass Metas Richtlinien in diesem Bereich globale Wirkung ausüben, die weit über diesen Konflikt hinausgeht. Das Board erkennt zwar an, dass die aktuellen Ereignisse in Israel und Palästina besonders relevant sind, seine Empfehlungen gelten jedoch ebenfalls global und sind nicht auf einen bestimmten Kontext beschränkt.
Nach Ansicht des Boards ist Metas Vorgehensweise bei der Moderation des Worts „shaheed“ zu weit gefasst und schränkt die freie Meinungsäußerung und den gesellschaftlichen Diskurs unverhältnismäßig ein. Es kann etwa vorkommen, dass Beiträge mit Berichten über Gewalt und als gefährlich eingestufte Personen fälschlicherweise entfernt werden. Bei seiner Vorgehensweise berücksichtigt Meta auch nicht die verschiedenen Bedeutungen des Worts „shaheed“, die oft keine Verherrlichung oder Befürwortung beinhalten. Dadurch werden oft Beiträge entfernt, die von arabischsprachigen Personen sowie Personen, die andere Sprachen sprechen, stammen (insbesondere von Muslimen), ohne dass dadurch der Zweck der Richtlinie zu gefährlichen Organisationen und Personen erfüllt wird. Weiterhin verbieten Metas Richtlinien beispielsweise die Verherrlichung, Unterstützung und Darstellung von als gefährlich eingestuften Personen, Organisationen und Veranstaltungen sowie die Anstiftung zu Gewalt. Bei korrekter Durchsetzung reduzieren diese Richtlinien die Gefahr, die von der Verwendung der Meta-Plattformen zu terroristischen Zwecken ausgeht. Dementsprechend empfiehlt das Board Meta, das allgemeine Verbot des Begriffs „shaheed“ als Bezug auf als gefährlich eingestufte Personen aufzuheben. Meta sollte seine Richtlinie dahingehend anpassen, dass der Kontext von Inhalten stärker berücksichtigt wird, die dieses Wort enthalten.
Hintergrund
Im Februar 2023 fragte Meta das Board, ob Inhalte weiterhin entfernt werden sollten, die sich mit dem arabischen Begriff „shaheed“ (شهيد in arabischer Schrift) auf Personen beziehen, die gemäß der Richtlinie zu gefährlichen Organisationen und Personen als gefährlich eingestuft werden. „Shaheed“ wird auch in vielen nicht arabischen Sprachen als Lehnwort verwendet, teilweise mit angepasster Schreibweise.
Das Unternehmen bezeichnet das Wort „shaheed“ als einen „ehrenvollen“ Begriff, der von vielen Gemeinschaften auf der ganzen Welt, in verschiedenen Kulturen, Religionen und Sprachen verwendet wird. Es bezeichnet eine Person, die unerwartet (etwa durch einen Unfall) oder ehrenvoll (etwa im Krieg) verstorben ist. Das Unternehmen erkennt an, dass der Begriff mehrere Bedeutungen hat und es in der englischen Sprache keine direkte Entsprechung gibt. Er wird jedoch meistens mit „martyr“ (deutsch: Märtyrer) übersetzt. Meta merkt an, das Wort „martyr“ habe im Englischen meist eine positive Konnotation und bezeichne eine Person, die für eine gerechte Sache gelitten hat oder gestorben ist. Deshalb sei das Unternehmen zu dem Schluss gekommen, dass der Begriff „shaheed“ gemäß der Richtlinie zu gefährlichen Organisationen und Personen eine Anpreisung darstellt.
Meta nimmt an, dass der Begriff „shaheed“ in Bezug auf eine als gefährlich eingestufte Person immer eine „Anpreisung“ gemäß der Richtlinie zu gefährlichen Organisationen und Personen darstellt, und verbietet diese Verwendung des Begriffs deshalb grundsätzlich. Meta hat anerkannt, dass die Richtlinien aufgrund der vielfältigen Bedeutungen des Begriffs möglicherweise häufig auf Äußerungen angewandt werden, die nicht dazu dienen, eine als gefährlich eingestufte Person anzupreisen, insbesondere bei Äußerungen in arabischer Sprache. Außerdem wendet Meta die Ausnahmen der Richtlinie zu gefährlichen Organisationen und Personen nicht dahingehend an, dass die Verwendung des Begriffs „shaheed“ erlaubt ist, um über gefährliche Entitäten zu berichten, sie zu missbilligen oder neutral darüber zu diskutieren. Dies gilt auch nach den neuesten Aktualisierungen der Richtlinie, die im Dezember 2023 vorgenommen wurden. Dabei wurde der Begriff „Anpreisung“ komplett entfernt; stattdessen sind „Verherrlichung“ und „unklare Verweise“ verboten.
Aufgrund dieser Bedenken leitete Meta im Jahr 2020 einen Prozess zur Entwicklung von Richtlinien ein, um seinen Umgang mit dem Begriff „shaheed“ neu zu bewerten. Dabei wurde jedoch kein Konsens innerhalb des Unternehmens erreicht, und es wurde keine neue Vorgehensweise beschlossen.
Bei seinem Antrag auf diese beratende Stellungnahme zur Richtlinie legte Meta dem Board drei Optionen vor:
- Den aktuellen Stand der Richtlinie beibehalten.
- Die Verwendung von „shaheed“ in Bezug auf gefährliche Personen in Beiträgen zulassen, die die Bedingungen für die Ausnahme vom Verbot von „Anpreisung“ erfüllen (beispielsweise Berichterstattung, neutrale Diskussion oder Missbilligung), sofern der Beitrag keine sonstige Anpreisung oder „Anzeichen von Gewalt“ enthält. Als Beispiele für diese Anzeichen schlug Meta unter anderem visuelle Darstellungen von Waffen sowie Bezüge auf Militärjargon oder reale Gewalt vor.
- Die Verwendung von „shaheed“ in Bezug auf gefährliche Personen in Beiträgen zulassen, sofern der Beitrag keine sonstige Anpreisung oder Anzeichen von Gewalt enthält. Im Gegensatz zur zweiten Option würde dies unabhängig davon gelten, ob der Inhalt unter eine der oben genannten Ausnahmeregelungen fällt.
Das Board hat auch andere mögliche Richtlinien in Erwägung gezogen. Aus den in dieser beratenden Stellungnahme genannten Gründen entsprechen die Empfehlungen des Boards stark der dritten Option. Das Board empfiehlt jedoch weniger Anzeichen von Gewalt als von Meta vorgeschlagen und erfordert, dass Ausnahmen zu Richtlinien für Berichterstattung, neutrale Diskussionen und Missbilligung von gefährlichen Entitäten und deren Handlungen allgemeiner angewandt werden.
Wichtige Erkenntnisse und Empfehlungen
Das Oversight Board stellt fest, dass Metas aktuelle Vorgehensweise bei der Moderation von Inhalten, in denen mit dem Begriff „shaheed“ auf gefährliche Personen Bezug genommen wird, zu weit gefasst ist und die freie Meinungsäußerung erheblich und unverhältnismäßig einschränkt.
Der Begriff „Shaheed“ hat große kulturelle und religiöse Bedeutung. Er wird manchmal zur Anpreisung von Personen verwendet, die bei der Verübung von Gewalttaten sterben, und kann sie sogar „verherrlichen“. Der Begriff wird jedoch oft bei der Berichterstattung, in neutralen Kommentaren, akademischen Diskussionen, Debatten über Menschenrechte oder auf passivere Weise verwendet, auch in Bezug auf gefährliche Personen. Unter anderem bezeichnet „shaheed“ häufig Personen, die im Dienst ihres Landes oder ihrer Überzeugung sterben oder unerwartet gesellschaftspolitischer Gewalt oder Naturkatastrophen zum Opfer fallen. In einigen muslimischen Gemeinschaften wird „shaheed“ sogar als Rufname oder Nachname verwendet. Es gibt starke Hinweise darauf, dass die vielfältigen Bedeutungen von „shaheed“ dazu führen, dass viele Inhalte entfernt werden, die nicht als Anpreisung von Terroristen oder deren Gewalttaten gedacht sind.
Indem Meta grundsätzlich Inhalte entfernt, die gefährliche Personen mit „shaheed“ bezeichnen, ignoriert das Unternehmen absichtlich die sprachliche Komplexität und die vielfachen Verwendungsweisen des Worts und behandelt es konstant und ausschließlich als Entsprechung des englischen Worts „martyr“. Dadurch werden die freie Meinungsäußerung und die Medienfreiheit erheblich beeinträchtigt und der gesellschaftliche Diskurs wird unangemessen eingeschränkt. Außerdem stellt diese Vorgehensweise einen schweren Verstoß gegen die Grundsätze der Gleichberechtigung und Nichtdiskriminierung dar. Arabischsprachige Personen sowie Personen, die andere Sprachen mit „shaheed“ als Lehnwort sprechen, sind von dieser übermäßigen Durchsetzung besonders stark betroffen. Meta könnte die Richtlinie zu gefährlichen Organisationen und Personen auf andere Weise durchsetzen und dabei weiterhin die Sicherheit seiner Nutzer*innen fördern und sein Ziel verfolgen, Verherrlichung von Terrorismus von seinen Plattformen zu entfernen. Die aktuelle Richtlinie ist somit unverhältnismäßig und unnötig.
Um Metas Richtlinien und Durchsetzungsmethoden im Zusammenhang mit dem Begriff „shaheed“ stärker mit Menschenrechtsstandards in Einklang zu bringen, spricht das Board folgende Empfehlungen aus (siehe Abschnitt 6 für vollständige Empfehlungen):
1. Meta sollte nicht mehr annehmen, dass das Wort „shaheed“ als Bezug auf eine gefährliche Person oder unbenannte Mitglieder gefährlicher Organisationen in jedem Fall einen Verstoß gegen die Richtlinien darstellt und dass keine Ausnahmeregelungen angewandt werden können. Inhalte, in denen eine gefährliche Person als „shaheed“ bezeichnet wird, sollten nur in zwei Fällen als „unklarer Verweis“ entfernt werden. Erstens: wenn mindestens eines von drei Anzeichen von Gewalt vorliegt – eine visuelle Darstellung einer Waffe, eine Absichtserklärung oder Befürwortung der Verwendung oder Mitführung einer Waffe oder ein Bezug auf ein als gefährlich eingestuftes Ereignis. Zweitens: wenn der Inhalt anderweitig gegen die Meta-Richtlinien verstößt (z. B. wegen Verherrlichung oder wenn der Bezug auf eine gefährliche Person aus anderen Gründen als der Verwendung von „shaheed“ einen unklaren Verweis darstellt). In beiden Fällen sollten die Ausnahmeregelungen für Berichterstattung, neutrale Diskussion und Missbilligung dennoch infrage kommen.
2. Um das Verbot von „unklaren Verweisen“ eindeutiger zu gestalten, sollte Meta mehrere Beispiele für unzulässige Inhalte angeben, darunter einen Beitrag, in dem eine gefährliche Person als „shaheed“ bezeichnet wird und außerdem mindestens eines der drei Anzeichen von Gewalt vorliegt, die in Empfehlung 1 beschrieben werden.
3. Meta sollte außerdem seine internen Richtlinienanweisungen aktualisieren, um klarzustellen, dass die Bezeichnung gefährlicher Personen als „shaheed“ keinen Richtlinienverstoß darstellt, es sei denn, der Beitrag enthält zusätzlich Anzeichen von Gewalt, und dass selbst mit diesen Signalen die Ausnahmeregelungen für Berichterstattung, neutrale Diskussion und Missbilligung weiterhin infrage kommen.
Falls Meta diese Empfehlungen akzeptiert und umsetzt, würde das Unternehmen gemäß seinen bestehenden Regeln weiterhin Inhalte entfernen, die gefährliche Personen „verherrlichen“, ihre Gewalt oder ihren Hass als Errungenschaft darstellen, ihre gewalttätigen oder hasserfüllten Handlungen legitimieren oder rechtfertigen oder anderweitig eine als gefährlich eingestufte Entität unterstützen oder darstellen. Aus diesen Empfehlungen des Boards ergibt sich folgende Vorgehensweise: Meta sollte den Begriff „shaheed“ als Bezug auf eine gefährliche Person nicht mehr in allen Fällen als unzulässig erachten, sondern den entsprechenden Inhalt nur entfernen, wenn auch andere Richtlinienverstöße vorliegen (z. B. Verherrlichung) oder ein „unklarer Verweis“ wegen Anzeichen von Gewalt vorliegt. Für solche Inhalte sollten die Ausnahmeregelungen für Berichterstattung, neutrale Diskussion und Missbilligung von gefährlichen Personen dennoch infrage kommen.
Das Board empfiehlt Meta außerdem folgende Maßnahmen:
4. Meta sollte das Verfahren detaillierter erläutern, mit dem Entitäten und Ereignisse gemäß der Richtlinie zu gefährlichen Organisationen und Personen als gefährlich eingestuft werden, um die Transparenz dieser Liste zu verbessern. Meta sollte außerdem zusammengefasste Informationen über die gesamte Anzahl der Entitäten in den einzelnen Stufen der Liste gefährlicher Entitäten veröffentlichen sowie darüber, wie viele Entitäten im vergangenen Jahr hinzugefügt oder entfernt wurden.
5. Meta sollte ein transparentes und wirksames Verfahren zur regelmäßigen Prüfung der Einstufungen einführen und Entitäten von der Liste entfernen, die die veröffentlichten Kriterien nicht mehr erfüllen. So wird sichergestellt, dass die Liste gefährlicher Organisationen und Personen aktuell bleibt und keine Organisationen, Personen oder Ereignisse enthält, die Metas Definition nicht mehr entsprechen.
6. Meta sollte erläutern, mit welchen Methoden es die Genauigkeit von Prüfungen durch Mitarbeiter*innen und durch automatisierte Systeme bei der Durchsetzung der Richtlinie zu gefährlichen Organisationen und Personen bewertet. Meta sollte außerdem regelmäßig die Ergebnisse der Leistungsbewertungen von Classifiern teilen, die bei der Durchsetzung dieser Richtlinie verwendet werden. Diese Ergebnisse sollten so bereitgestellt werden, dass sie sprach- und/oder regionsübergreifend vergleichbar sind.
7. Meta sollte klar erläutern, wie Classifier verwendet werden, um Prognosen über Richtlinienverstöße zu generieren, und wie das Unternehmen Schwellenwerte für die Entscheidung festlegt, ob keine Maßnahme erforderlich ist, der Inhalt durch eine*n Mitarbeiter*in geprüft wird oder der Inhalt entfernt wird. Diese Informationen sollten Stakeholder*innen im Transparency Center des Unternehmens bereitgestellt werden.
Vollständige beratende Stellungnahme
1. Antrag von Meta
I. Antrag auf beratende Stellungnahme zur Richtlinie
1. In seinem Antrag (auf Englisch und Arabisch verfügbar) stellte Meta dem Oversight Board die Frage, ob es weiterhin Inhalte mit dem Wort „shaheed“ (شهيد) (sowie seinen Singular- und Pluralformen und Lehnwortvarianten in arabischer Sprache und anderen Sprachen) entfernen soll, wenn es sich auf Personen bezieht, die gemäß der Richtlinie für gefährliche Organisationen und Personen als gefährlich eingestuft werden, oder ob ein anderer Ansatz besser mit den Werten und der Menschenrechtsverantwortung des Unternehmens vereinbar wäre. Meta bat außerdem um Empfehlungen für ähnliche Content-Fragen, die in Zukunft auftreten könnten.
II. Metas Ansatz
2. Metas Richtlinie zu gefährlichen Organisationen und Personen verbot zuvor „die Anpreisung, inhaltliche Unterstützung oder Darstellung bestimmter Organisationen und Personen“ und bestimmter „unzulässiger Gewaltereignisse“. Am 29. Dezember 2023 aktualisierte Meta diese Richtlinie, indem es das Verbot der Anpreisung entfernte und Verbote von „Verherrlichung“ und „unklaren Verweisen“ hinzufügte. Das Board zog die etwaigen Auswirkungen dieser Richtlinienänderungen auf seine Erkenntnisse und Empfehlungen ebenfalls in Erwägung.
3. Dieser Antrag auf beratende Stellungnahme betraf das Verbot der Anpreisung gefährlicher Personen und nicht die parallel dazu bestehenden Verbote inhaltlicher Unterstützung oder Darstellung. Im Vergleich zur Darstellung und inhaltlichen Unterstützung betrachtete Meta „Anpreisung“ als den am wenigsten schwerwiegenden Verstoß. Meta nimmt nur die gefährlichsten Entitäten in „Stufe 1“ der Liste auf, darunter terroristische, Hass- und kriminelle Organisationen. Wenn Meta ein Ereignis als „unzulässiges Gewaltereignis“ einstuft, werden die Täter*innen ebenfalls als gefährliche Personen der Stufe 1 eingestuft, sodass es verboten ist, sie zu verherrlichen (zuvor „anzupreisen“). Zu diesen Ereignissen zählen „Terroranschläge, Hassveranstaltungen, tatsächliche und versuchte Gewaltzufügung mit mehreren Opfern, Serienmorde oder Hassverbrechen“. Meta unterhält zwar seine eigene, nicht öffentliche Liste gefährlicher Entitäten, doch die Einstufungen basieren mindestens teilweise auf den entsprechenden Listen der US-Regierung (d. h. Metas Liste ist mindestens so umfangreich wie die Listen der US-Regierung, von denen sie abgeleitet ist). In den Gemeinschaftsstandards wird erklärt, dass unter anderem folgende Entitäten zu Stufe 1 gehören: „Specially Designated Narcotics Trafficking Kingpins (SDNTKs)“, „Foreign Terrorist Organizations (FTOs)“ und „Specially Designated Global Terrorists (SDGTs)“. Diese Listen der US-Regierung sind hier, hier bzw. hier öffentlich einsehbar.
4. Vor der Aktualisierung der Richtlinie am 29. Dezember 2023 wurde „Anpreisung“ von Meta wie folgt definiert: „sich positiv über eine benannte Organisation oder ein benanntes Ereignis äußern“, „einer benannten Organisation oder einem benannten Ereignis Erfolg zusprechen“, „eine benannte Organisation durch Behauptungen legitimieren, dass ihr hasserfülltes, gewalttätiges oder kriminelles Verhalten rechtlich, moralisch oder auf andere Weise gerechtfertigt oder vertretbar ist“ oder „sich ideologisch einer benannten Organisation oder einem benannten Ereignis anpassen“. Diese Definition oder Reihe von Beispielen wurde zur Richtlinie hinzugefügt, um sie besser verständlich zu gestalten, und folgte einer Empfehlung des Oversight Boards zu einem unserer ersten Fälle (Entscheidung zum Fall Nazi-Zitat, Empfehlung Nr. 2). Seit der Aktualisierung der Richtlinie im Dezember 2023 wird „Verherrlichung“ wie folgt definiert: „die gewalttätigen oder hasserfüllten Handlungen einer als gefährlich eingestuften Entität legitimieren oder verteidigen, durch die Behauptung, dass es für diese Handlungen eine moralische, rationale oder sonstige Rechtfertigung gibt, die sie akzeptabel oder angemessen macht“ oder „die Gewalt oder den Hass einer als gefährlich eingestuften Entität als Erfolg oder Errungenschaft darstellen oder feiern“. Allgemein gibt Meta in der neuen Richtlinie außerdem an, dass „unklare oder kontextlose Verweise [entfernt werden], wenn die Absicht des Nutzers nicht klar erkennbar war.“ Die Richtlinie gibt an, dass dazu auch „unklarer Humor“ sowie „Verweise ohne einordnenden Text oder positive Verweise [gehören], die die Gewalt oder den Hass der als gefährlich eingestuften Entitäten nicht verherrlichen“. Die Richtlinie enthält jedoch keine Beispiele für Beiträge, die gegen diese Regel verstoßen würden. Meta hat dem Board mitgeteilt, dass weiterhin alle Inhalte entfernt werden, die gefährliche Personen als „shaheed“ bezeichnen. Das Unternehmen nimmt an, dass „shaheed“ als Bezeichnung dieser Personen unabhängig vom Kontext einen Richtlinienverstoß darstellt, sodass der Begriff als Bezeichnung gefährlicher Personen praktisch komplett verboten ist. Das Ausmaß dieses Verbots lässt sich teilweise anhand der oben genannten Listen der US-Regierung veranschaulichen, da Metas Richtlinien verbieten, irgendeine Person (oder irgendein Mitglied einer Organisation) auf seiner eigenen davon abgeleiteten Liste als „shaheed“ zu bezeichnen (oder als eine andere Übersetzung des Begriffs „martyr“). Dazu zählen auch Entitäten auf verschiedenen Kontinenten. Das Verbot ist außerdem nicht auf terroristische Organisationen oder Organisationen, die eine bestimmte Ideologie verfolgen, beschränkt.
5. Das Unternehmen beschreibt das Wort „shaheed“ als einen „ehrenvollen“ Begriff, der von vielen Gemeinschaften in verschiedenen Kulturen, Religionen und Sprachen verwendet wird. Das Unternehmen erkennt an, dass der Begriff „mehrere Bedeutungen“ hat und „für jemanden verwendet wird, der unerwartet oder vorzeitig stirbt, manchmal auch für einen ehrenvollen Tod, z. B. bei einem Unfall oder in einem Konflikt oder Krieg“. Meta gibt an, dass es in der englischen Sprache keine direkte Entsprechung für den Begriff gibt. Er wird jedoch auf Englisch meistens mit „martyr“ übersetzt. Mit seinem Antrag an das Board vor den Richtlinienänderungen im Dezember 2023 merkte Meta an, das Unternehmen gehe davon aus, dass „shaheed“ dem englischen Begriff „martyr“ entspreche. Deshalb sei das Unternehmen zu dem Schluss gekommen, dass der Begriff gemäß der Richtlinie zu gefährlichen Organisationen und Personen eine Anpreisung darstellt. Der einzige Bezug auf diese Regel in den öffentlichen Gemeinschaftsstandards war ein Beispiel für Aussagen, die gegen das Verbot von Anpreisungen verstoßen würden. Meta gab unter anderem eine Aussage als Beispiel an, in der ein verurteilter Terrorist aus den USA als „Märtyrer“ bezeichnet wird. In der arabischen Version der Richtlinie nutzte Meta dasselbe Beispiel, wobei das Wort „martyr“/„Märtyrer“ als „shaheed“ übersetzt wurde. Dieses Beispiel wurde bei der Aktualisierung des öffentlichen Gemeinschaftsstandards im Dezember 2023 entfernt. Meta hat dem Board jedoch mitgeteilt, dass der Begriff weiterhin unzulässig ist und Moderator*innen angewiesen werden, ihn zu entfernen.
6. Meta wendet die Ausnahmen der Richtlinie zu gefährlichen Organisationen und Personen nicht auf die Verwendung des Begriffs „shaheed“ als Bezeichnung einer gefährlichen Person an. Diese Ausnahmen gestatten ansonsten Inhalte, die über gefährliche Personen berichten, sie neutral diskutieren oder missbilligen. Eine Entfernung von Inhalten, in denen „shaheed“ als „Anpreisung“ einer gefährlichen Person bewertet wird, führt zu schweren Verwarnungen gegen den*die Urheber*in des Inhalts. Bei mehreren schweren Verwarnungen können Maßnahmen wie die Sperrung oder Kündigung des Kontos oder der Seite schneller verhängt werden. In den öffentlichen Gemeinschaftsstandards wird nicht erklärt, warum die Ausnahmen nicht auf den Begriff „shaheed“ anwendbar sind.
7. Meta hat erklärt, dass sein Umgang mit „shaheed“ zur Förderung von Sicherheit beiträgt, weil solche Inhalte aus Sicht des Unternehmens zum Risiko von Schäden abseits des Internets beitragen könnten. Gleichzeitig hat Meta anerkannt, dass das englische Wort „martyr“ keine angemessene Übersetzung von „shaheed“ ist. Angesichts der vielfältigen Bedeutungen von „shaheed“ und der Schwierigkeiten, den Kontext und die Absicht von Nutzer*innen in großem Umfang zu berücksichtigen, räumte Meta ein, dass es Äußerungen entfernt, die zu keinem Risiko von Schäden beitragen und nicht dazu gedacht sind, eine bestimmte Person zu lobpreisen, insbesondere im arabischsprachigen Raum. Dazu zählt beispielsweise die Entfernung von Inhalten, bei denen „shaheed“ im Rahmen von Berichterstattung oder neutralen Diskussionen über den vorzeitigen Tod einer gefährlichen Person verwendet wird, ohne dass diese Person oder ihr Verhalten angepriesen oder verherrlicht wird.
8. Am 29. August 2023 aktualisierte Meta die Ausnahmeregelung zur Richtlinie zu gefährlichen Organisationen und Personen und fügte Definitionen von „Nachrichtenmeldungen“, „neutralen Diskussionen“ und „Missbilligung“ hinzu sowie anschauliche Beispiele dieser Ausnahmen. Gleichzeitig weitete Meta die Beschreibung dieser Ausnahmeregelung aus, um anzuerkennen, dass Personen „im Kontext des sozialen und politischen Diskurses“ auf gefährliche Entitäten Bezug nehmen können. Alle anschaulichen Beispiele für zulässige Inhalte wurden bei der Aktualisierung der Richtlinie im Dezember 2023 entfernt; die Ausnahmeregelung selbst besteht jedoch weiterhin. Die Beispiele wurden bei einer Aktualisierung der Richtlinie am 8. Februar 2024 erneut hinzugefügt. Es wird jedoch weder in der Aktualisierung im Dezember 2023 noch in der im Februar 2024 explizit erklärt, dass diese Ausnahmen nicht für unklare oder kontextlose Verweise auf gefährliche Personen gelten, da diese Art von Inhalt dadurch definiert ist, dass die Absicht nicht klar gezeigt wird.
9. 2020 leitete Meta einen Prozess zur Entwicklung von Richtlinien ein, um seinen Umgang mit dem Begriff „shaheed“ neu zu bewerten. Dazu gehörten ein Recherchebericht und eine Befragung von Interessengruppen. Eine wichtige Erkenntnis aus dieser Beteiligung von Stakeholder*innen bestand nach Aussage von Meta darin, dass die Bedeutung von „shaheed“ vom Kontext abhängt und dass der Begriff in einigen Fällen nicht mehr mit Lobpreisung in Verbindung gebracht werden kann. Gleichzeitig wird „shaheed“ zweifellos in manchen Fällen als Anpreisung einer gefährlichen Person verwendet und auch als solche verstanden. Es ist grundsätzlich schwierig, die Absicht des*der Urheber*in anhand eines einzelnen Beitrags zu ermitteln, insbesondere bei der massenhaften Moderation von Beiträgen. Wie im Antrag beschrieben, ermittelte Meta bei diesem Prozess zwei mögliche Alternativen zum aktuellen Umgang mit dem Wort „shaheed“. Es gab jedoch keinen Konsens unter den Interessenvertretungen darüber, welche Option besser wäre, und Meta legte sich nicht auf einen neuen Ansatz fest. Das Unternehmen betont, dass – aufgrund der großen Menge an Inhalten auf seinen Plattformen – die Frage, ob die Durchsetzung irgendeiner abgeänderten Richtlinie in großem Umfang praktikabel ist, ein zentrales praktisches Anliegen darstellt.
III. Richtlinienänderungen, die Meta dem Board zur Prüfung vorgelegt hat
10. Bevor das Verbot von „Anpreisungen“ durch ein Verbot von „Verherrlichung“ und „unklaren Verweisen“ ersetzt wurde, legte Meta dem Board die folgenden möglichen Richtlinien zur Prüfung vor:
1) Weiterhin sämtliche Inhalte entfernen, die „shaheed“ als Bezeichnung für eine Person verwenden, die gemäß der Richtlinie für gefährliche Organisationen und Personen als gefährlich eingestuft wird.
2) Inhalte erlauben, die sich auf eine bestimmte Person als „shaheed“ beziehen, wenn die folgenden Bedingungen erfüllt sind: (i) der Begriff wird in einem Kontext verwendet, der im Rahmen der Richtlinie für gefährliche Organisationen und Personen erlaubt ist (z. B. Missbilligung, Nachrichtenberichterstattung, akademische Debatte, sozialer und politischer Diskurs); (ii) der Inhalte enthält keine zusätzlichen Lobpreisungen, keine Darstellung oder inhaltliche Unterstützung einer gefährlichen Person (z. B. ein Beitrag verherrlicht nicht explizit eine*n Täter*in eines Terroranschlags oder legitimiert dessen*deren Gewalt); und (iii) der Inhalt enthält keine Anzeichen von Gewalt. Meta schlug folgende Anzeichen vor: eine visuelle Darstellung einer Waffe; eine Absichtserklärung oder Befürwortung der Nutzung oder Mitführung einer Waffe; Bezüge auf Militärjargon; Bezüge auf Brandstiftung, Plünderung oder anderweitige Sachbeschädigung; Bezüge auf bekannte reale Gewalttaten und Absichtserklärungen, Handlungsaufrufe, Darstellung, Unterstützung oder Befürwortung von Gewalt gegen Menschen.
3) Inhalte entfernen, die sich mit „shaheed“ auf eine Person beziehen, die gemäß den Richtlinien von Meta für gefährliche Organisationen und Personen als gefährlich eingestuft wurde, jedoch nur dann, wenn weitere Anpreisungen, Darstellungen oder inhaltliche Unterstützung einer solchen Person oder Anzeichen von Gewalt vorliegen. Diese Anzeichen sind dieselben wie unter Option 2 beschrieben.
11. Ziel der zweiten und dritten Option besteht jeweils darin, bei der Prüfung von Verwendungen des Worts „shaheed“ den Kontext stärker einzubeziehen; die beabsichtigten Ergebnisse der beiden Optionen weichen anscheinend nicht wesentlich voneinander ab. Die beiden Optionen wirken umso ähnlicher, da Meta den Geltungsbereich der kontextabhängigen Ausnahmen zu den Verboten von Anpreisungen (jetzt Verherrlichungen) allgemein ausgeweitet hat (siehe Abs. 8 oben). Das Board fragte Meta über die Unterschiede zwischen diesen beiden Optionen bei der Anwendung und den Ergebnissen und kam zu dem Schluss, dass der wesentliche Unterschied darin besteht, dass Meta gemäß der zweiten Option prüfen und bestätigen müsste, dass eine der Ausnahmen für den Inhalt gilt (Berichterstattung, neutrale Diskussion, Missbilligung). Unter der dritten Option würde dieser Schritt jedoch entfallen, und Meta müsste nur prüfen, ob der Beitrag außerdem zusätzliche Anpreisung (jetzt „Verherrlichung“ oder „unklare Verweise“) oder eines der sechs aufgelisteten Anzeichen von Gewalt enthält. Alle von Meta vorgeschlagenen Optionen würden bedeuten, dass jegliche Inhalte, die als gefährlich eingestufte Personen benennen oder darstellen und deren Absicht uneindeutig oder unklar ist, grundsätzlich als unzulässig behandelt werden, sodass die Klarstellung der Absicht die Pflicht des*der Urheber*in ist. Mit den Änderungen im Dezember 2023 wurde diese Regelung in den Gemeinschaftsstandard zu gefährlichen Organisationen und Personen aufgenommen. Darin wird nun erklärt, dass die Richtlinie zu Entitäten der Stufe 1 und als gefährlich eingestuften Ereignissen „unklare oder kontextlose Verweise“ verbietet. Dazu gehören unter anderem „unklarer Humor, Verweise ohne einordnenden Text oder positive Verweise, die die Gewalt oder den Hass der als gefährlich eingestuften Entitäten nicht verherrlichen“. Beispielsweise würde ein Foto einer gefährlichen Person ohne begleitenden Text oder Kommentar gemäß dem Verbot unklarer Verweise entfernt werden, da die Absicht des*der Nutzer*in nicht ausreichend klar ist.
12. Neben den von Meta vorgelegten Optionen prüfte das Board auch andere Möglichkeiten und berücksichtigte dabei die Änderungen der Richtlinie im Dezember 2023. Da Meta mit seinem Antrag das Board außerdem direkt bat, Richtlinienempfehlungen zu ähnlichen künftigen Herausforderungen auszusprechen, prüfte das Board ähnliche Themen mit Bezug auf Metas Durchsetzung und Transparenz in Bereichen, die für diese beratende Stellungnahme relevant sind, die sich aber auch allgemeiner auf die freie Meinungsäußerung und andere Menschenrechte auswirken könnten.
IV. Fragen des Oversight Boards an Meta
13. Das Oversight Board stellte Meta zu diesem Fall 41 schriftliche Fragen. Die Fragen betrafen den Grundgedanken des Gemeinschaftsstandards zu gefährlichen Organisationen und Personen, Belege dafür, dass Schäden dadurch entstehen könnten, dass „Anpreisungen“ auf den Meta-Plattformen zugelassen werden, Metas Durchsetzungsprozesse durch Mitarbeiter*innen und automatisierte Systeme, Metas Einstufungsverfahren und Liste der als gefährlich eingestuften Entitäten, Metas Verwarnungssystem und die praktischen Auswirkungen einer Umsetzung von Richtlinienoption 2 oder 3. Im Oktober 2023 stellte das Board weitere Fragen zu Inhaltstrends bezüglich des Worts „shaheed“ im Zusammenhang mit dem Terrorangriff gegen Israel am 7. Oktober und der anhaltenden militärischen Reaktion durch Israel. Außerdem fragte das Board, ob Meta seine Analyse der Richtlinienoptionen, die es dem Board mit seinem Antrag vorgelegt hatte, angesichts der aktuellen Krise geändert hatte. Das Board stellte drei weitere Fragen zu Metas Richtlinienaktualisierung vom 29. Dezember 2023. Insgesamt wurden 40 Fragen beantwortet; eine Frage wurde teilweise beantwortet. Meta stellte dem Board nur die Liste der als gefährlich eingestuften Entitäten der Stufe 1 zur Verfügung, aber nicht die Listen der Entitäten der Stufen 2 und 3. Meta erklärte dazu, dass nur die „Anpreisung“ von Entitäten der Stufe 1 verboten ist.
2. Beteiligung von Stakeholder*innen
14. Das Oversight Board hat 101 öffentliche Kommentare zu diesem Fall erhalten, die die Bedingungen für Einreichungen erfüllten. Insgesamt 72 Kommentare stammten aus den USA und Kanada, 15 aus dem Nahen Osten und Nordafrika, acht aus Europa, drei aus dem Asien-Pazifik-Raum und Ozeanien, zwei aus Lateinamerika und der Karibik und einer aus Zentral- und Südasien. Alle Kommentare gingen vor dem 10. April 2023 ein. Klicke hier, um die öffentlichen Kommentare zu lesen, deren Urheber*innen der Veröffentlichung zugestimmt haben.
15. Die Einreichungen deckten viele Themen ab. Viele Kommentare erklärten die verschiedenen Bedeutungen des Begriff „shaheed“ und wiesen darauf hin, dass es sich negativ auf die freie Meinungsäußerung – insbesondere politische Rede und Dokumentation zu Menschenrechten – auswirkt, dass Meta den Begriff standardmäßig als „Anpreisung“ bewertet. Die Einreichungen betrafen auch Bedenken zur Nutzung der Automatisierung bei der Durchsetzung von Richtlinien sowie zu Metas Liste der als gefährlich eingestuften Entitäten, Transparenzfragen und potenzielle Voreingenommenheit beim Einstufungsverfahren. Andere Kommentator*innen äußerten Bedenken, dass die Richtlinienänderungen zur Normalisierung terroristischer Gruppen und einer Zunahme von Gewalttaten führen könnten, insbesondere in Israel und den besetzten palästinensischen Gebieten.
16. Das Board veranstaltete drei regionale Round-Table-Gespräche mit Stakeholder*innen aus Südwestasien und Nordafrika, Subsahara-Afrika und Südostasien. Außerdem wurden zwei themenbezogene Round-Table-Gespräche abgehalten: eines zur Automatisierung bei der Inhaltsmoderation und eines zu den Themen Terrorismusbekämpfung und Menschenrechte. Die Teilnehmer*innen bestätigten, dass das Word „shaheed“ verschiedene Bedeutungen hat. Personen können damit als Märtyrer bezeichnet werden, unter anderem, wenn sie beim Begehen von Terroranschlägen gestorben sind, doch „shaheed“ wird auch oft in anderen Zusammenhängen verwendet. Unter anderem können damit die Opfer solcher Anschläge bezeichnet werden. Viele Teilnehmer*innen, darunter betroffene Community-Mitglieder und Expert*innen für Terrorismusbekämpfung oder Inhaltsmoderation, äußerten Bedenken hinsichtlich Voreingenommenheit der Richtlinie und sprachen über ihre negativen Auswirkungen auf die freie Meinungsäußerung, besonders für den arabischsprachigen Raum und andere Communitys, die das Wort „shaheed“ verwenden. Außerdem wurde der Mangel an Beweisen für einen kausalen Zusammenhang zwischen der Verwendung von „shaheed“ als Bezeichnung für gefährliche Personen und Schäden abseits des Internets angesprochen. Dieser Punkt wurde auch von Expert*innen für nationale Sicherheit und Terrorismusbekämpfung betont. Gleichzeitig wurden Bedenken geäußert, dass es zur Normalisierung gefährlicher Personen und ihrer Organisationen führen könnte, wenn der Begriff überhaupt nicht moderiert wird, sodass sie über soziale Medien Mitglieder und inhaltliche Unterstützung gewinnen könnten. Weiterhin wurden Bedenken zur Qualität der Automatisierungssysteme geäußert, die Meta bei der Inhaltsmoderation des Begriffs nutzt; einige Teilnehmer*innen forderten mehr Transparenz in Bezug auf die Verwendung dieser Systeme, auf Metas Liste der als gefährlich eingestuften Entitäten und auf das Einstufungsverfahren.
17. Einen Bericht zu unseren Round-Table-Gesprächen mit Stakeholder*innen findest du hier (eine Version in arabischer Sprache ist hier verfügbar).
3. Befugnis und Wirkungsbereich des Oversight Boards
18. Meta kann vom Oversight Board beratende Stellungnahmen zu Richtlinien beantragen (Artikel 3 der Satzung, Abschnitt 7.3), und das Board kann diese Anträge nach seinem Ermessen annehmen oder ablehnen (Artikel 2 der Geschäftsordnung, Abschnitt 2.1.3) Diese Stellungnahmen haben beratende Wirkung (Satzung; Artikel 3, Abschnitt 7.3). Meta ist verpflichtet, auf Stellungnahmen innerhalb von 60 Tagen nach der Veröffentlichung zu antworten (Artikel 2 der Geschäftsordnung, Abschnitt 2.3.2). Das Board überwacht die Implementierung von Empfehlungen, zu deren Umsetzung sich Meta verpflichtet hat, und kann sich in seinen Fallentscheidungen auf frühere Empfehlungen beziehen.
4. Quellen der Befugnis und Leitfäden
I. Vorherige Empfehlungen des Oversight Boards
19. In vorherigen Fällen hat das Oversight Board Meta wiederholt empfohlen, für mehr Klarheit in Bezug auf die Richtlinie „Gefährliche Organisationen und Personen“ zu sorgen, deren Geltungsbereich einzuschränken sowie die Fairness und Transparenz des Durchsetzungsverfahrens zu verbessern.
20. In Bezug auf die Verbesserung der Klarheit und Einschränkung des Geltungsbereichs hat das Board folgende Empfehlungen an Meta ausgesprochen:
- Die Definition von „Anpreisung“ in den bekannten Fragen in den internen Leitlinien für Moderator*innen eingrenzen (Erwähnungen der Taliban in einer Nachrichtenmeldung, Empfehlung Nr. 3).
- Seine internen Implementierungsstandards überarbeiten, um klarzustellen, dass die Ausnahme für „Berichterstattung“ in der Richtlinie zu gefährlichen Personen und Organisationen positive Aussagen zu als gefährlich eingestuften Entitäten im Rahmen der Berichterstattung zulässt, und erläutern, wie dies von der verbotenen „Anpreisung“ zu unterscheiden ist (Erwähnungen der Taliban in einer Nachrichtenmeldung, Empfehlung Nr. 4).
- Der Richtlinie Kriterien und anschauliche Beispiele hinzufügen, durch die die Ausnahmen für neutrale Diskussionen, Verurteilung und Nachrichtenberichterstattung deutlicher erklärt werden (Geteilter Beitrag zu Al Jazeera, Empfehlung Nr. 1).
- Einen Hinweis zum Grundgedanken der Richtlinie hinzufügen, dass die Achtung der Menschenrechte und des Rechts auf freie Meinungsäußerung den Wert „Sicherheit“ fördern kann, und ausführlicher darauf eingehen, welche „Schäden in der realen Welt“ durch die Richtlinie verhindert werden sollen, wenn „Mitsprache“ unterdrückt wird (Einzelhaft von Öcalan, Empfehlung Nr. 4).
- Erläutern, wie Nutzer*innen die mit ihren Beiträgen verfolgten Absichten deutlich machen können, damit die Ausnahmeregelungen zur Richtlinie auf die Beiträge angewandt werden können (Einzelhaft von Öcalan, Empfehlung Nr. 6).
- Zentrale Begriffe aus der Richtlinie zu gefährlichen Personen und Organisationen erklären und Beispiele für deren Anwendung nennen, darunter die Bedeutung des Begriffs „Anpreisung“, und Nutzer*innen genauer erklären, wie sie ihre Absicht deutlich machen können (Nazi-Zitat, Empfehlung Nr. 2).
21. In Bezug auf das Verwarnungssystem hat das Board folgende Empfehlungen an Meta ausgesprochen:
- Das Verfahren für Verwarnungen und Sanktionen zur Einschränkung von Profilen, Seiten, Gruppen und Konten auf Facebook und Instagram klar, umfassend und verständlich erklären (Sperrung des ehemaligen US-Präsidenten Trump, Empfehlung Nr. 15).
- Seine öffentliche Erläuterung zu seinem zweistufigen Verwarnungssystem erweitern, zugänglicher gestalten und mehr Informationen über „schwere Verwarnungen“ bereitstellen (Erwähnungen der Taliban in einer Nachrichtenmeldung, Empfehlung Nr. 2).
- Nutzer*innen einfach zugängliche Informationendarüber zur Verfügung stellen, wie viele Verstöße, Verwarnungen und Strafen gegen sie verhängt wurden und welche Konsequenzen das für zukünftige Verstöße hat (Sperrung des ehemaligen US-Präsidenten Trump, Empfehlung Nr. 16).
22. In Bezug auf Transparenz hat das Board folgende Empfehlungen an Meta ausgesprochen:
- Seine Liste der als gefährlich eingestuften Entitäten veröffentlichen oder zumindest einige anschauliche Beispiele öffentlich bereitstellen (Nazi-Zitat, Empfehlung Nr. 3).
- Bei seinen Berichten zur Durchsetzung von Richtlinien die Anzahl der Profil-, Seiten- und Kontobeschränkungen angeben (zusätzlich zu Entfernungen von Inhalten), wobei die Informationen nach Region und Land aufgeschlüsselt werden sollten (Sperrung des ehemaligen US-Präsidenten Trump, Empfehlung Nr. 17).
- Umfassendere Informationen zu Fehlerquoten bei der Durchsetzung von Regelungen zu „Anpreisung“ und „Unterstützung“ von gefährlichen Personen und Organisationen bereitstellen, aufgeschlüsselt nach Region und Sprache (Einzelhaft von Öcalan, Empfehlung Nr. 12).
- Mehr Informationen zu Fehlerraten in Transparenzberichten veröffentlichen und nach Land und Sprache aufschlüsseln (Punjabi-Besorgnis hinsichtlich des RSS in Indien, Empfehlung Nr. 3).
23. In Bezug auf Automatisierung hat das Board folgende Empfehlungen an Meta ausgesprochen:
- Nutzer*innen darüber in Kenntnis setzen, wenn Automatisierung genutzt wird, um Durchsetzungsmaßnahmen bezüglich ihrer Inhalte zu ergreifen, einschließlich verständlicher Beschreibungen dazu, was dies bedeutet (Symptome von Brustkrebs und Nacktdarstellung, Empfehlung Nr. 3).
- Die Transparenzberichterstattung dahingehend ausweiten, dass Daten zur Anzahl der automatisierten Entfernungsentscheidungen pro Gemeinschaftsstandard sowie der Anteil derjenigen Entscheidungen, die nach einem manuellen Review wieder aufgehoben wurden, offengelegt werden (Symptome von Brustkrebs und Nacktdarstellung, Empfehlung Nr. 6).
- In seinen Transparenzberichten Fehlerquoten zu Inhalten veröffentlichen, die fälschlicherweise in die Datenbanken des Media Matching Service aufgenommen wurden; diese sind nach Content-Richtlinie aufzuschlüsseln. Dieser Bericht sollte Angaben dazu enthalten, wie Inhalte in die Datenbanken gelangen und welche Maßnahmen das Unternehmen ergreift, um Fehler in diesem Prozess zu verringern (Karikatur der kolumbianischen Polizei, Empfehlung Nr. 3).
- Eine öffentliche Erklärung der automatischen Priorisierung und Schließung von Einsprüchen bereitstellen (Protest-Slogan gegen die Regierung im Iran, Empfehlung Nr. 7).
24. Der Implementierungsstatus dieser vorherigen Empfehlungen zum Zeitpunkt des Abschlusses dieser Stellungnahme ist hier zu finden (eine Version in arabischer Sprache ist hier verfügbar).
II. Werte und menschenrechtliche Verantwortung von Meta
25. Die Analyse und Empfehlungen des Boards in dieser beratenden Stellungnahme stützen sich auf Metas Werte und menschenrechtliche Verantwortung.
26. Meta erklärt, dass seine Verpflichtung zur Meinungsfreiheit zwar „höchste Priorität“ hat, jedoch zur Wahrung von vier anderen Werten eingeschränkt werden kann. Von diesen vier Werten hat der Wert „Sicherheit“ für diese beratende Stellungnahme die größte Bedeutung. Um den Wert „Sicherheit“ zu gewährleisten, „entfernt [Meta] Inhalte, die zu einem Risiko für die physische Sicherheit von Personen beitragen könnten“. Außerdem sind „Inhalte, die Nutzer bedrohen“, verboten, da sie „das Potenzial [haben], andere einzuschüchtern, auszugrenzen oder mundtot zu machen“.
27. Am 16. März 2021 gab Meta seine Unternehmensrichtlinie für Menschenrechte bekannt. Darin legt das Unternehmen seine Verpflichtung zur Einhaltung der UN-Leitprinzipien für Wirtschaft und Menschenrechte (UN Guiding Principles on Business and Human Rights; UNGPs) dar. Die UNGPs, die 2011 vom UN-Menschenrechtsrat verabschiedet wurden, geben einen freiwilligen Rahmen für die Menschenrechtspflichten von Privatunternehmen vor. Diese Pflichten besagen unter anderem, dass Unternehmen „Menschenrechtsverletzungen vermeiden und negative Auswirkungen auf die Menschenrechte, in die sie involviert sind, angehen sollten“ (Prinzip 11, UNGPs). Von Unternehmen wird erwartet, dass sie: „(a) es vermeiden, durch ihre eigenen Aktivitäten negative Auswirkungen auf die Menschenrechte zu verursachen oder dazu beizutragen, und solche Auswirkungen angehen, wenn sie auftreten; (b) versuchen, negative Auswirkungen auf die Menschenrechte, die durch ihre Geschäftsbeziehungen direkt mit ihren Verfahren, Produkten oder Diensten zusammenhängen, zu vermeiden oder abzumildern, selbst wenn sie nicht zu diesen Auswirkungen beigetragen haben“ (Prinzip 13, UNGPs).
28. In seinem Antrag an das Board erkennt Meta an, dass seine Vorgehensweise bei der Inhaltsmoderation das Recht auf freie Meinungsäußerung beeinträchtigen kann. Artikel 19, Abs. 2 des Internationalen Pakts über bürgerliche und politische Rechte (ICCPR) gewährt diesem Recht aufgrund seiner Bedeutung für den politischen Diskurs umfassenden Schutz. Der Menschenrechtsausschuss hat angemerkt, dass dieser Schutz auch für zutiefst anstößige Äußerungen gilt (Allgemeine Bemerkung Nr. 34, Abs. 11, 13 und 38). Wenn Regierungen das Recht auf freie Meinungsäußerung einschränken, müssen die Anforderungen der Gesetzmäßigkeit, des rechtmäßigen Ziels und der Notwendigkeit und Verhältnismäßigkeit erfüllt werden (Artikel 19, Absatz 3, ICCPR). Diese Anforderungen werden häufig auch als „dreiteilige Prüfung“ bezeichnet. Das Board nutzt diesen Ansatz, um Metas freiwillige Verpflichtung zu den Menschenrechten zu bewerten, sowohl in Bezug auf die jeweilige Inhaltsentscheidung als auch auf die grundsätzliche Herangehensweise von Meta an Content-Governance. Der UN-Sonderberichterstatter für Meinungs- und Ausdrucksfreiheit stellte fest, dass Unternehmen, obgleich sie „nicht dieselben Verpflichtungen wie Regierungen haben, [...] dennoch eine derartige Wirkung haben, dass sie dieselben Arten von Fragen im Zusammenhang mit dem Schutz des Rechts auf Meinungsfreiheit ihrer Nutzer[*innen] prüfen müssen“ (Bericht A/74/486, Absatz 41).
29. Das Recht auf freie Meinungsäußerung ist allen Menschen gleichermaßen garantiert. Einschränkungen dieses Rechts dürfen keine diskriminierende Wirkung haben, etwa auf Basis von Religion, Weltanschauung, Sprache oder nationaler Herkunft (Artikel 2 und 26, ICCPR).
Gesetzmäßigkeit (Klarheit und Zugänglichkeit der Regeln)
30. Jede Einschränkung der freien Meinungsäußerung sollte zugänglich und in Umfang, Bedeutung und Wirkung so klar formuliert sein, dass sie Nutzer*innen und Inhaltsprüfer*innen darüber informiert, welche Inhalte erlaubt bzw. verboten sind. Mangelnde Klarheit oder Präzision kann zu einer uneinheitlichen und willkürlichen Durchsetzung der Regeln führen (Bericht des UN-Sonderberichterstatters A/HRC/38/35, Abs. 46). Das Board hat die mangelnde Klarheit der Richtlinie zu gefährlichen Organisationen und Personen in der Vergangenheit kritisiert und Empfehlungen an Meta zur Verbesserung der Richtlinie ausgesprochen (Einzelhaft von Öcalan, Empfehlungen Nr. 4 und 6); Geteilter Beitrag zu Al Jazeera, Empfehlung Nr. 1; Erwähnungen der Taliban in einer Nachrichtenmeldung, Empfehlungen Nr. 3 und 4). Meta hat daraufhin die Empfehlungen des Boards umgesetzt und seine Definition des Begriffs „Anpreisung“ besser verständlich gemacht.
31. Die Aktualisierung der Richtlinie zu gefährlichen Organisationen und Personen im Dezember 2023 warf jedoch neue Fragen zur Rechtmäßigkeit auf. Meta stellt zwar Beispiele für Beiträge bereit, die gegen die Verbote von „Darstellung“, „Unterstützung“ und „Verherrlichung“ verstoßen, jedoch nicht für „unklare Verweise“. Die Empfehlungen des Boards in dieser beratenden Stellungnahme zielen darauf ab, die Klarheit und Verständlichkeit der Regeln zu verbessern.
Legitimes Ziel
32. Artikel 19, Abs. 3 des ICCPR besagt, dass jede Einschränkung der freien Meinungsäußerung einem legitimen Ziel dienen muss, etwa dem Schutz der Rechte anderer oder allgemeinen gesellschaftlichen Interessen wie der nationalen Sicherheit (siehe auch Allgemeine Bemerkung Nr. 34, Abs. 21 und 30). Im Grundgedanken zur Richtlinie zu gefährlichen Organisationen und Personen erklärt Meta, dass das Ziel der Richtlinie darin besteht, „Schaden in der echten Welt zu verhindern“. Das Board hat in mehreren Fällen festgestellt, dass dies dem legitimen Ziel entspricht, die Rechte anderer zu schützen, etwa das Recht auf Leben (Artikel 6, ICCPR). Das Board hat auch zuvor anerkannt, dass die Anpreisung gefährlicher Entitäten die Rechte anderer gefährden kann und dass ein legitimes Ziel damit verfolgt wird, diese Gefährdung durch das Verbot der Anpreisung in der Richtlinie zu gefährlichen Organisationen und Personen zu reduzieren (Erwähnungen der Taliban in einer Nachrichtenmeldung).
Notwendigkeit und Verhältnismäßigkeit
33. Einschränkungen der Meinungsfreiheit „müssen dazu geeignet sein, ihre Schutzfunktion zu erfüllen; sie müssen die am wenigsten einschneidenden Instrumente unter denjenigen sein, die ihre Schutzfunktion erfüllen können; sie müssen im Verhältnis zu den zu schützenden Interessen stehen“ (Allgemeine Bemerkung Nr. 34, Abs. 34).
34. Die Resolution 1624 des UN-Sicherheitsrats (2005) ruft Staaten dazu auf, soweit notwendig und angemessen und entsprechend ihren völkerrechtlichen Verpflichtungen die Anstiftung zum Verüben eines oder mehrerer Terroranschläge gesetzlich zu verbieten (Abs. 1a). Spätere Resolutionen haben Besorgnis darüber geäußert, dass das Internet von terroristischen Vereinigungen genutzt wird (Resolution 2178 (2014) und Resolution 2396 (2017) des UN-Sicherheitsrats). Diese Resolutionen bestätigen zwar, dass Staaten entsprechend ihren Verpflichtungen nach internationalen Menschenrechtsgesetzen Terrorismus bekämpfen und verhindern müssen, doch die UN-Sonderberichterstatterin zum Schutz der Menschenrechte bei Terrorismusbekämpfung hat Bedenken zur Ungenauigkeit der Gesetze geäußert, mit denen Staaten versuchen, diesen Verpflichtungen nachzukommen, insbesondere in Bezug auf Äußerungen im Internet. Außerdem bemängelt sie, dass der Schwerpunkt dieser Gesetze auf dem Inhalt der Äußerungen liegt und nicht auf dem Absicht des*der Urheber*in oder den Auswirkungen der Äußerungen auf andere (Bericht A/HRC/40/52, Abs. 37). Die Sonderberichterstatterin stellte abschließend fest, dass die Kriminalisierung terroristischer Propaganda eine hinreichende Wahrscheinlichkeit erfordert, dass die betreffende Äußerung erfolgreich eine Person zu einem Terroranschlag anstiften würde, sodass ein gewisser kausaler Zusammenhang oder ein tatsächliches Risiko dieses Resultats gegeben ist (ebd.). Die gemeinsame Erklärung zum Internet und zu Maßnahmen zur Terrorismusbekämpfung des UN-Sonderberichterstatters zur Meinungs- und Ausdrucksfreiheit, des OSZE-Beauftragten für Medienfreiheit und des OAS-Sonderberichterstatters für freie Meinungsäußerung vom 21. Dezember 2005 besagt, dass Staaten keine Äußerungen durch Strafmaßnahmen einschränken und sanktionieren dürfen, ohne eindeutig zu demonstrieren, dass mit der fraglichen Äußerung andere Personen direkt und absichtlich zu Terrorakten aufgerufen werden und die Äußerung die Wahrscheinlichkeit eines Terroraktes direkt erhöht (S. 39). Der Sonderberichterstatter zur Meinungs- und Ausdrucksfreiheit setzt im Bericht A/HRC/17/27 (16. Mai 2011, Abs. 36) ebenfalls einen hohen Maßstab und merkt an, dass Äußerungen nur zum Schutz der nationalen Sicherheit oder zur Terrorismusbekämpfung eingeschränkt werden sollten, wenn (a) die Äußerung dazu dient, unmittelbar zu Gewalt anzustiften; (b) die Äußerung wahrscheinlich zu solcher Gewalt anstiften wird und (c) eine direkte und unmittelbare Verbindung zwischen der Äußerung und der Wahrscheinlichkeit oder der Verübung solcher Gewalt besteht. Laut dem Menschenrechtsausschuss müssen Maßnahmen zur Terrorismusbekämpfung, die bestimmte Äußerungen verbieten, enge Definitionen von Begriffen wie „Ermutigung“, „Verherrlichung“ und „Anpreisung“ verwenden und dürfen die entscheidende Rolle der Medien dabei, die Öffentlichkeit über Terrorakte zu informieren, nicht unangemessen einschränken (Allgemeine Bemerkung Nr. 34, Abs. 30 und 46).
35. Diese Prinzipien und Standards dienten dem Board für seine Analyse als wichtiger Ausgangspunkt, doch die Pflichten und Einschränkungen, die die internationalen Menschenrechtsgesetze Staaten auferlegen, sind nicht identisch mit der Verantwortung und dem Ermessensspielraum von Privatunternehmen in diesem Bereich. Eine strafrechtliche Verfolgung durch einen Staat ist nicht gleichzusetzen mit der Moderation von Inhalten auf einer Social-Media-Plattform. Das Board erkennt an, dass Meta als Privatunternehmen (und kein Staat) manchmal die freie Meinungsäußerung stärker einschränken kann, als ein Staat dies berechtigterweise tun könnte und dies auch tut. Dabei berücksichtigt das Unternehmen sowohl seine Werte (siehe Abs. 27–28 oben) als auch die besonderen Herausforderungen der massenhaften Inhaltsmoderation. Der UN-Sonderberichterstatter zur Meinungs- und Ausdrucksfreiheit hat Folgendes ausgesagt: „Bei Konflikten zwischen den Regeln des Unternehmens und internationalen Standards muss das Unternehmen im Voraus eine begründete Erklärung der Richtlinienabweichung vorlegen, die auf die Abweichung eingeht“ (Bericht des Sonderberichterstatters zur Meinungs- und Ausdrucksfreiheit über Hassrede im Internet, A/74/486, 9. Oktober 2019, Abs. 48). In vielen seiner bisherigen Entscheidungen ist das Board bei der Prüfung der Verhältnismäßigkeit der Frage nachgegangen, wie internationale Standards, die für Staaten entwickelt wurden, auf die menschenrechtliche Verantwortung eines Unternehmens angewandt werden sollten. Dies ist auch das Ziel dieser beratenden Stellungnahme.
36. In früheren Entscheidungen des Boards zum Gemeinschaftsstandard zu gefährlichen Organisationen und Personen wurde auch Metas menschenrechtliche Verantwortung in Bezug auf die „Anpreisung“ von als gefährlich eingestuften Entitäten untersucht. Es ist ein legitimes Ziel, zu verhindern, dass gefährliche Entitäten Meta-Plattformen missbrauchen, um Menschen zu Gewalt anzustiften, anzuwerben oder anderweitig inhaltliche Unterstützung zu gewinnen. Das Board hat jedoch verschiedene Fälle gefunden, in denen die Weite oder Ungenauigkeit des Verbots der „Anpreisung“ die freie Meinungsäußerung von Nutzer*innen unnötig und unverhältnismäßig eingeschränkt hat. Das Board hat beispielsweise die Entfernung eines Beitrags einer auf Urdu erscheinenden Zeitung rückgängig gemacht. Dieser Beitrag betraf eine Ankündigung der Taliban, Schulen und Hochschulen wieder für Frauen und Mädchen öffnen zu wollen. Das Board stellte fest, dass dieser Beitrag keine „Anpreisung“ darstellte (Erwähnungen der Taliban in einer Nachrichtenmeldung). Ebenso hat das Board die Entfernung eines Beitrags rückgängig gemacht, in dem ein Zitat fälschlicherweise Joseph Goebbels zugeschrieben wird (Nazi-Zitat), da aus dem Kontext klar hervorging, dass der Beitrag keine Anpreisung der Nazi-Ideologie darstellte, sondern Teil des politischen Diskurses in den USA war. Das Board hat auch die Entfernung eines Beitrags aufgehoben, in dem ein Nachrichtenartikel von Al Jazeera geteilt wird. Der Artikel berichtet über eine Gewaltdrohung einer als gefährlich eingestuften Terrorgruppe und hätte auf der Plattform verbleiben sollen. Dieser Fall hat Bedenken zu der möglicherweise diskriminierenden Wirkung der Meta-Richtlinien aufgeworfen (Geteilter Beitrag zu Al Jazeera). In zusammenfassenden und beschleunigten Entscheidungen hat das Board außerdem Meta aufgefordert, mehrere Entfernungen von Facebook- und Instagram-Beiträgen rückgängig zu machen, die ursprünglich wegen Anpreisung gefährlicher Personen entfernt wurden (Anti-Kolonialführer Amílcar Cabral; Libanesischer Aktivist; Umgang mit Antisemitismus; Wahlbezirk in Nigeria; Die Bildung von Mädchen in Afghanistan; Erwähnung von Al-Shabaab; Lob sei Gott und Aus Israel entführte Geiseln). Viele dieser Entscheidungen sind trotz Metas kürzlicher Änderungen der Richtlinie zu gefährlichen Organisationen und Personen weiterhin relevant. Das Board wird diese Richtlinie in künftigen Fällen weiterhin prüfen, unter anderem hinsichtlich der neuen Regeln zu Verherrlichung und „unklaren Verweisen“.
6. Empfehlungen und Analysen
37. Das Oversight Board spricht an Meta sieben Empfehlungen zu den Themen Content-Richtlinien, Durchsetzung und Transparenz aus. Das Board ist der Ansicht, dass diese Empfehlungen im großen Maßstab umsetzbar sind und nicht nur Metas Einhaltung seiner Werte „Mitsprache“ und „Sicherheit“, sondern auch den Respekt für freie Meinungsäußerung und andere Menschenrechte sowie die Transparenz des Unternehmens fördern werden.
6.1 Metas Richtlinie zum Wort „shaheed“
Empfehlung 1 – Content-Richtlinie: Meta sollte nicht mehr annehmen, dass das Wort „shaheed“ als Bezug auf eine gefährliche Person oder unbenannte Mitglieder gefährlicher Organisationen in jedem Fall einen Verstoß gegen die Richtlinien darstellt und dass keine Ausnahmeregelungen angewandt werden können. Inhalte, in denen eine gefährliche Person als „shaheed“ bezeichnet wird, sollten nur in zwei Fällen als „unklarer Verweis“ entfernt werden. Erstens: wenn mindestens eines von drei Anzeichen von Gewalt vorliegt – eine visuelle Darstellung einer Waffe, eine Absichtserklärung oder Befürwortung der Verwendung oder Mitführung einer Waffe oder ein Bezug auf ein als gefährlich eingestuftes Ereignis. Zweitens: wenn der Inhalt anderweitig gegen die Meta-Richtlinien verstößt (z. B. wegen Verherrlichung oder wenn der Bezug auf eine gefährliche Person aus anderen Gründen als der Verwendung von „shaheed“ einen unklaren Verweis darstellt). In beiden Fällen sollten die Ausnahmeregelungen für Berichterstattung, neutrale Diskussion und Missbilligung dennoch infrage kommen.
Das Board wird diese Empfehlung als umgesetzt erachten, wenn Meta seine öffentlichen Gemeinschaftsstandards mit der Erläuterung aktualisiert, dass es nicht zulässig ist, gefährliche Personen als „shaheed“ zu bezeichnen, wenn eines oder mehrere der drei aufgelisteten Anzeichen von Gewalt vorhanden sind.
Empfehlung 2 – Content-Richtlinie: Um das Verbot von „unklaren Verweisen“ eindeutiger zu gestalten, sollte Meta mehrere Beispiele für unzulässige Inhalte angeben, darunter einen Beitrag, in dem eine gefährliche Person als „shaheed“ bezeichnet wird und außerdem mindestens eines der drei Anzeichen von Gewalt vorliegt, die in Empfehlung 1 beschrieben werden.
Das Board wird diese Empfehlung als umgesetzt erachten, wenn Meta seine Gemeinschaftsstandards mit Beispielen für „unklare Verweise“ aktualisiert.
Empfehlung 3 – Durchsetzung: Meta sollte außerdem seine internen Richtlinienanweisungen aktualisieren, um klarzustellen, dass die Bezeichnung gefährlicher Personen als „shaheed“ keinen Richtlinienverstoß darstellt, es sei denn, der Beitrag enthält zusätzlich Anzeichen von Gewalt, und dass selbst mit diesen Signalen die Ausnahmeregelungen für Berichterstattung, neutrale Diskussion und Missbilligung weiterhin infrage kommen.
Das Board wird diese Empfehlung als umgesetzt erachten, wenn Meta seine internen Anweisungen dahingehend aktualisiert, dass die Ausnahmeregelungen für Berichterstattung, neutrale Diskussion und Missbilligung für die Verwendung des Worts „shaheed“ infrage kommen, und diese aktualisierten Anweisungen mit dem Board teilt.
38. Es ist unerlässlich, dass Meta verhindert, dass seine Plattformen zur Anstiftung zu terroristischer Gewalt missbraucht werden; dies ist ein legitimes Ziel der Richtlinien zur Content-Moderation. Metas menschenrechtliche Verantwortung schließt jedoch ein, dass jegliche Einschränkungen der freien Meinungsäußerung notwendig und verhältnismäßig sein müssen – nicht zuletzt, um Mitgliedern von Gemeinschaften, die von solcher Gewalt betroffen sind, Mitsprache zu ermöglichen. Auch wenn eine mögliche Bedeutung des Worts „shaheed“ dem englischen Wort „martyr“ (deutsch: „Märtyrer“) entspricht und auf diese Weise verwendet wird, stellt das Board fest, dass es nicht notwendig oder verhältnismäßig ist, dass Meta alle Inhalte entfernt, die gefährliche Personen mit dem Wort „shaheed“ bezeichnen. Der Grund dafür ist, dass ein grundsätzliches Verbot die sprachliche Komplexität des Begriffs ignoriert, zu einer übermäßigen Entfernung von Äußerungen führt, die Medienfreiheit und den bürgerlichen Raum unangemessen einschränkt und sich stark negativ auf Gleichberechtigung und Nichtdiskriminierung auswirkt. Darüber hinaus werden die Verbote von „Verherrlichung“ und „unklaren Verweisen“ in der Richtlinie allgemein weiterhin gelten, falls diese Empfehlung angenommen und umgesetzt wird. Deshalb sollte Meta Inhalte nicht mehr entfernen, nur weil sie das Wort „shaheed“ enthalten. Stattdessen sollte Meta den jeweiligen Kontext stärker berücksichtigen und die Anzeichen von Gewalt klar und eng definieren, auf deren Basis die Verwendung von „shaheed“ als schädlich eingestuft wird. Wie unten erklärt, unterstützt das Board nur zwei der in Metas Antrag vorgeschlagenen Signale vollständig und empfiehlt, dass ein weiteres Signal in eingeschränkter Form verwendet wird. Die anderen drei Signale, die Meta vorgeschlagen hat (und die in den Anweisungen für Prüfer*innen zur Durchsetzung der separaten Richtlinie zu Gewalt und Anstiftung zu Gewalt aufgeführt sind), sind für die Richtlinie zu gefährlichen Organisationen und Personen zu weit gefasst. Gleichzeitig empfiehlt das Board Meta, Ausnahmeregelungen auf Inhalte anzuwenden, die Anzeichen von Gewalt enthalten, in denen aber gefährliche Entitäten missbilligt werden oder über sie berichtet oder neutral diskutiert wird. Die obigen Empfehlungen gelten für die Singular- und Pluralform von „shaheed“ und für die Varianten des Worts in den vielen Sprachen, die es als Lehnwort übernommen haben.
39. Das Board hat sich zur Bewertung der Risiken, wenn die Verwendung des Begriffs „shaheed“ als Bezeichnung für gefährliche Entitäten auf den Meta-Plattformen zugelassen wird, mit Expert*innen und Stakeholder*innen beraten. Einige Stakeholder*innen äußerten Sorgen, dass die Meta-Plattformen terroristischen Organisationen ermöglichen, Propaganda zu betreiben und Mitglieder anzuwerben, und dass die Plattformen zu Diskriminierung oder Gewalt beitragen, unter anderem gegen jüdische Menschen (siehe öffentliche Kommentare, z. B. PC-11123 – CyberWell Ltd; PC-11153 – Stop Antisemitism Now; PC-11194 – Committee for Accuracy in the Middle East; PC-11068 – Canadian Antisemitism Education Foundation). Es gibt zwar keine Studien, die einen konkreten kausalen Zusammenhang zwischen „shaheed“ und einer Zunahme solcher Gewalt oder Diskriminierung belegen (wie zuvor in Metas Antrag auf Seite 10 angemerkt, der auf zuvor von Meta durchgeführten Beratungen mit Expert*innen und Stakeholder*innen basierte), doch in einzelnen Fällen stand ein Wunsch nach einem Märtyrertod in Verbindung mit Gewalttaten. Allgemeiner sind Sorgen weit verbreitet, dass gewalttätige Organisationen soziale Medien nutzen können, um Mitglieder anzuwerben, Personen zu Terrorakten anzustiften, Terrorismus zu normalisieren und Extremismus zu unterstützen. In den ausgiebigen Gesprächen des Boards mit Stakeholder*innen und Expert*innen, darunter ein Round-Table-Gespräch mit Expert*innen für Terrorismusbekämpfung (siehe Round-Table-Gespräche mit Stakeholder*innen), wurden diese Annahmen und Sorgen bestätigt.
40. Die negativen Auswirkungen auf die freie Meinungsäußerung dadurch, dass Inhalte mit dem Begriff „shaheed“ entfernt werden, wurden auch in zahlreichen Einreichungen an das Board von Expert*innen und Stakeholder*innen beschrieben (siehe öffentliche Kommentare, z. B. PC-11196 – Integrity Institute; PC-11164 – SMEX, PC-11183 ECNL EFF, PC-11190 – Brennan Centre; PC-11188 – Digital Rights Foundation). Dazu zählt die Entfernung von Äußerungen, in denen der Begriff „shaheed“ nicht verwendet wird, um gefährliche Entitäten anzupreisen oder zu verherrlichen, sondern um über Gewalt durch terroristische oder sonstige gefährliche Organisationen zu berichten oder an neutralen politischen oder akademischen Diskussionen über gefährliche Personen teilzunehmen.
41. Die folgenden Beispiele sollen Metas Umgang mit Inhalten, in denen eine gefährliche Person als „shaheed“ bezeichnet wird, verdeutlichen:
- Eine Regierungsbehörde teilt auf den Meta-Plattformen eine Pressemitteilung, die den Tod einer gefährlichen Person bestätigt. Dabei wird der Ehrentitel „shaheed“ neben dem Namen der Person verwendet. Dieser Beitrag würde entfernt werden, da Meta annimmt, dass der Begriff „shaheed“ einen Verstoß darstellt, selbst wenn der Kontext darauf hindeutet, dass es sich um eine neutrale Diskussion handelt.
- Ein*e Nutzer*in teilt ein Foto von einem Protest, an dem er*sie teilnimmt, ohne dass das Ziel des Protests in einer Bildunterschrift klar erklärt wird. Im Foto sind mehrere Schilder zu sehen, auf denen eine verstorbene gefährliche Person genannt und als „shaheed“ bezeichnet wird. Dieser Beitrag würde entfernt werden, da Meta annimmt, dass das Bild mit Schildern, auf denen die gefährliche Person als „shaheed“ bezeichnet wird, einen Verstoß darstellt.
- Ein*e Menschenrechtsaktivist*in teilt einen Beitrag, in der die staatliche Hinrichtung einer gefährlichen Person beschrieben wird. In diesem Beitrag wird diese Person als „shaheed“ bezeichnet, und die Maßnahmen zur Terrorismusbekämpfung einer Regierung werden verurteilt. Dieser Beitrag würde entfernt werden, da Meta annimmt, dass der Begriff „shaheed“ einen Verstoß darstellt, unabhängig vom Kontext einer Berichterstattung.
- Ein besorgtes Community-Mitglied postet eine Beschwerde über den Zustand einer örtlichen Straße. Diese Straße ist nach einer als gefährlich eingestuften Person benannt, und der Straßenname enthält den Ehrentitel „shaheed“. Dieser Beitrag würde entfernt werden, da Meta annimmt, dass der Begriff „shaheed“ einen Verstoß darstellt, obwohl die Erwähnung der gefährlichen Person im Rahmen einer Diskussion über lokale Themen nebensächlich ist.
- Ein Familienmitglied einer Person, die bei einem Terroranschlag getötet wurde, bezeichnet diese Person als „shaheed“ und verurteilt die Terrorist*innen, die als gefährliche Personen eingestuft sind. Obwohl dieser Beitrag keinen Verstoß darstellt, ist die Verwendung von „shaheed“ in einem Kontext, in dem die Täter*innen ebenfalls genannt werden, beispielhaft für Inhalte, die aufgrund Metas kategorischer Vorgehensweise oft irrtümlich entfernt werden können.
42. Einige Stakeholder*innen äußerten Sorgen, dass ein weniger restriktiver Umgang mit dem Wort „shaheed“ im großen Maßstab zur Normalisierung von Terrorismus beitragen könnte. In manchen Fällen stellt „shaheed“ unstrittig eine Art von Befürwortung oder Unterstützung einer Person und ihrer Gewalttaten dar und ist auch als solche gedacht. Das Board ist jedoch nicht der Ansicht, dass dieser Umstand das komplette Verbot des Worts gemäß der Richtlinie rechtfertigt. Angesichts der Informationen, die dem Board von Stakeholder*innen, einschließlich Expert*innen für Terrorismusbekämpfung, bereitgestellt wurden oder die Meta in früheren Studien und Gesprächen mit Stakeholder*innen erhalten hat, entscheidet das Board, dass Bedenken hinsichtlich der möglichen stark schädlichen Auswirkungen solcher Fälle weniger schwer wiegen als die konkreten negativen Auswirkungen der bestehenden Richtlinie auf die freie Meinungsäußerung. Dies trifft besonders angesichts der Tatsache zu, dass die Richtlinien selbst nach einer Umsetzung der Empfehlungen des Boards weiterhin Regeln enthalten würden, die Gewalt und andere Schäden durch die Verwendung der Meta-Plattformen durch Terrorist*innen und deren Unterstützer*innen verhindern.
43. Das Board hat auch berücksichtigt, dass das Wort „shaheed“ verschiedene Bedeutungen hat und oft verwendet wird, um über Themen von öffentlichem Interesse zu berichten, statt zu Gewalt oder Hass anzustiften. Die Durchsetzung eines kompletten Verbots bedeutet, dass viele Inhalte entfernt werden, von denen keine Risiken ausgehen, die durch Metas Richtlinien minimiert werden sollen. Bei der Inhaltsmoderation im großen Maßstab muss ein gewisser Anteil menschlicher Fehler manchmal in Kauf genommen werden. Meta muss jedoch die Vor- und Nachteile seines Vorgehens auf Basis seiner menschenrechtlichen Verantwortung abwägen. Auf Basis all dieser Überlegungen kommt das Board zu dem Schluss, dass seine empfohlene Vorgehensweise am besten geeignet ist, um die menschenrechtliche Verantwortung von Meta insgesamt zu erfüllen.
Kultureller und religiöser Stellenwert des Begriffs „shaheed“ und Vielfalt der Bedeutungen
44. Der Begriff „Shaheed“ hat einen hohen kulturellen und religiösen Stellenwert und wird in vielen verschiedenen Zusammenhängen mit verschiedenen Bedeutungen verwendet. Die an das Board eingereichten öffentlichen Kommentare und vom Board in Auftrag gegebene Untersuchungen haben weitere Einblicke zu diesem Begriff geliefert. „Shaheed“ kann „Zeugnis ablegen“ oder „bekunden“ bedeuten. Das Wort wird auch als muslimischer Vorname und in einigen Regionen (z. B. Westasien und Nordafrika) als Nachname verwendet (siehe öffentliche Kommentare, z. B. PC-11196 – Integrity Institute; PC-11164 – SMEX). „Shaheed“ kann außerdem Personen bezeichnen, die bei der Ausführung religiöser Aufgaben sterben. Im Rahmen bewaffneter Konflikte oder gewalttätiger Anschläge, unter anderem auch von Vorfällen, an denen als gefährlich eingestufte Organisationen beteiligt sind, werden die Opfer von Gewalt und Terrorismus manchmal im Gedenken als „shaheed“ bezeichnet (siehe öffentliche Kommentare, z. B. PC-11164 – SMEX; PC-11197, ein Kommentar der Regierung Neuseelands, die Opfer des Terroranschlags in Christchurch als „shuhada“, der Pluralform von „shaheed“, bezeichnete; PC-11196, in dem das Integrity Institute darauf hinweist, dass muslimische Randgruppen, wie etwa die Rohingya, Geflüchtete als „shaheed“ bezeichnen, die wegen Verfolgung aufgrund ihrer Religion oder ihres Glaubens gezwungen wurden, Myanmar zu verlassen). Das Board hat bei Memetica eine quantitative Analyse von Inhalten in Auftrag gegeben, die auf den Meta-Plattformen gepostet wurden und weiterhin bestehen. Diese Analyse ergab, dass Personen, die im Dienst ihres Landes oder ihrer Überzeugung sterben oder unerwartet gesellschaftspolitischer Gewalt oder Naturkatastrophen zum Opfer fallen, oft als „shaheed“ bezeichnet werden. In diesen Beiträgen wird „shaheed“ zwar nicht unbedingt mit einer als gefährlich eingestuften Person in Verbindung gebracht, doch die zuvor genannten Beispiele (siehe Abs. 41) veranschaulichen, dass die verschiedenen Bedeutungen und Verwendungen von „shaheed“ auch in diesem Kontext relevant sind.
45. Nach den terroristischen Angriffen der Hamas gegen Israel im Oktober 2023 und der darauf folgenden Militäraktion Israels in Gaza gab das Board eine weitere Untersuchung der Inhaltstrends zur Verwendung von „shaheed“ in Auftrag. Von den 12.000 öffentlichen Beiträgen, die im Rahmen dieser Analyse geprüft wurden, waren nur zwei solidarisch mit der Hamas. Fast alle Verwendungen des Begriffs „shaheed“ bezogen sich auf palästinensische Todesopfer im Gazastreifen, ohne dass eine als gefährlich eingestufte Organisation oder Person erwähnt wurde. In einigen Beiträgen trauerten Palästinenser*innen um verstorbene Angehörige; andere Beiträge zeigten verletzte palästinensische Kinder und/oder die Zustände nach Luftangriffen in Gaza. Es wurden weitere Fragen an Meta gestellt, da der wissenschaftliche Zugriff auf Inhaltstrends auf öffentliche Inhalte beschränkt ist, die auf den Plattformen bestehen bleiben; Inhalte, die Meta wegen Verstößen seiner Richtlinie zu gefährlichen Organisationen und Personen entfernt hat, sind nicht in diesen Trenddaten enthalten. Metas Antwort bestätigte die Erkenntnisse der Untersuchung. Nach Ansicht des Unternehmens waren in den Inhaltstrends während der Krise keine Änderungen bei der Verwendung oder Interpretation des Worts „shaheed“ im Vergleich zum Zeitraum vor diesen Ereignissen erkennbar.
46. Angesichts dieser verschiedenen Bedeutungen führt Metas Annahme, dass das Wort „shaheed“ unweigerlich einen Richtlinienverstoß darstellt, Schäden abseits des Internets verursacht und deshalb immer entfernt werden sollte, zu einer globalen Einschränkung der freien Meinungsäußerung, die behoben werden muss. Meta erklärte, dass „shaheed“ auf seinen Plattformen wahrscheinlich das am häufigsten moderierte Wort darstellt. Verschiedene Stakeholder*innen beobachteten, dass Inhalte, in denen über gefährliche Entitäten und Gewalt berichtet wird, oft von Meta entfernt werden (Antrag auf beratende Stellungnahme zur Richtlinie, Seite 3). Dieser Umgang mit „shaheed“ ist ein Beispiel dafür, wie das Unternehmen bei der Richtliniendurchsetzung im großen Maßstab leicht erkennbare Abgrenzungen ohne Spielraum bei der Interpretation priorisiert. In der Praxis können solche Abgrenzungen manchmal angemessen sein, da bei der Inhaltsmoderation im großen Maßstab oft schwierige Kompromisse nötig sind. Das Board kommt jedoch zu dem Schluss, dass in diesem Fall die Annahme, dass „shaheed“ als Bezeichnung für eine gefährliche Person immer entfernt werden sollte, nicht gerechtfertigt ist und nicht weiter eingesetzt werden darf. Meta gesteht ein, dass bei seinem Ansatz absichtlich der sprachliche und kulturelle Kontext ignoriert wird, sodass die Richtlinie auf zwei Arten übermäßig durchgesetzt wird. Erstens führt dieser Ansatz zur Entfernung von Inhalten, die nicht als Anpreisung oder Verherrlichung gedacht sind. Diese Inhalte verstoßen dennoch gegen die Richtlinie, da Meta annimmt, dass das Wort „shaheed“ immer einen Verstoß darstellt. Zweitens werden aufgrund dieses Ansatzes mehr Inhalte fälschlicherweise entfernt, in denen „shaheed“ in Verbindung mit Personen verwendet wird, die nicht als gefährlich eingestuft sind, da er eine kategorische Vorgehensweise in der Arbeitsweise der Prüfer*innen verankert und sie davon abhält, den Kontext genauer zu untersuchen.
47. Ungeachtet der verschiedenen Bedeutungen von „shaheed“ merkt das Board an, dass die Beispiele zum Verbot von „Anpreisung“ von gefährlichen Organisationen und Personen nicht auf verschiedene Märkte angepasst wurden, sondern lediglich direkt in die jeweilige Sprache übersetzt wurden. Der einzige Hinweis in den Gemeinschaftsstandards auf Metas Umgang mit dem Wort „shaheed“ war ein Beispiel, in dem ein verurteilter Terrorist als „Märtyrer“ bezeichnet wird. Dieses Beispiel wurde unter dem allgemeinen Verbot von Anpreisung aufgeführt. Dieses Beispiel wurde in verschiedenen Sprachen verwendet und wurde für die arabischsprachige Version der Richtlinie als „shaheed“ übersetzt, obwohl die Begriffe nicht unbedingt die gleiche Bedeutung haben. Das Board merkt an, dass dieses Beispiel bei der Aktualisierung der Richtlinie im Dezember 2023 entfernt wurde. Obwohl die Übersetzung in diesem Beispiel nicht unbedingt inkorrekt war, entspricht es nicht den Tatsachen, anhand dieses einen Beispiels zu behaupten, dass „shaheed“ immer gleichbedeutend mit „martyr“/„Märtyrer“ ist.
48. Aus diesen Gründen sind die Schlussfolgerungen des Boards zu „shaheed“ in dieser beratenden Stellungnahme nicht automatisch auf den Begriff „martyr“ und dessen Übersetzungen in andere Sprachen anwendbar. „Martyr“ und „shaheed“ sind keine äquivalenten Begriffe, da „martyr“ in der englischen Sprache und in englischsprachigen Regionen weniger Bedeutungsvielfalt hat. Für andere Sprachen muss Meta prüfen, welche Begriffe die Kriterien für „Verherrlichung“ erfüllen, und dabei die Empfehlungen in dieser beratenden Stellungnahme berücksichtigen. In jedem Fall befürwortet das Board keine Ansätze, die das Wort „shaheed“ losgelöst vom Kontext des jeweiligen Inhalts grundsätzlich verbieten. Diese Beiträge sollten in ihrer Gänze überprüft werden, was auch früheren Entscheidungen des Boards zu vergleichbaren Fällen entspricht. Außerdem sollte Meta entsprechend seinen öffentlichen Richtlinien sicherstellen, dass Ausnahmeregelungen den Menschen gestatten, über als gefährlich eingestufte Personen zu berichten, sie zu missbilligen oder neutral über sie zu diskutieren, auch wenn dabei der Begriff „martyr“ verwendet wird (bzw. entsprechende Begriffe in anderen Sprachen, die tatsächlich Verherrlichung oder einen positiven Bezug darstellen). Diese Empfehlung unterstreicht auch, wie wichtig es ist, dass interne Anweisungen für Prüfer*innen auf den jeweiligen lokalen Kontext und die Feinheiten der jeweiligen Sprache angepasst werden (das Board hat in der Entscheidung zum Fall Myanmar Bot ein ähnliches Anliegen geäußert, worauf Empfehlung Nr. 1 zu jenem Fall basierte).
49. In mehreren Fällen hat das Board Meta angewiesen, die Abwägung zwischen klar abgegrenzten Regeln, die im großen Maßstab durchgesetzt werden können, und einer stärkeren Berücksichtigung des Kontexts bei der Durchsetzung anzupassen, oft mit einer stärkeren Gewichtung der freien Meinungsäußerung und Mitsprache der Nutzer*innen (z. B. um Berichterstattung über gefährliche Entitäten zu respektieren; siehe Erwähnungen der Taliban in einer Nachrichtenmeldung und Geteilter Beitrag zu Al Jazeera). Die Verwendung des Worts „shaheed“ war zwar nicht Gegenstand von früheren Fällen, doch das Board hat bereits davor gewarnt, bei Bezügen auf gefährliche Entitäten automatisch böse Absicht anzunehmen (siehe Nazi-Zitat). In verschiedenen öffentlichen Kommentaren wurde betont, dass Metas Annahme, dass „shaheed“ immer eine „Anpreisung“ darstellt, aufgrund von Fehlern durch Moderator*innen oder das automatisierte System zu einer fälschlichen Durchsetzung der Richtlinie gegen Personen führen könnte, die den Opfern von Terroranschlägen gedenken (siehe öffentliche Kommentare, z. B. PC-11164 – SMEX, S. 1; Kommentar PC-11197 der Regierung Neuseelands). Die Entfernung solcher Inhalte könnte sogar im Widerspruch zum Zweck der Richtlinie zu gefährlichen Organisationen und Personen stehen, da auf diese Weise Diskussionen über terroristische Gewalt und Maßnahmen zur Bekämpfung der Ideologien, auf denen diese Gewalt fußt, verhindert werden können (siehe z. B. PC-11164 – SMEX).
Respekt für Medienfreiheit und den bürgerlichen Raum
50. Das Board ist besonders besorgt über die Auswirkungen von Metas Ansatz auf den Journalismus und den gesellschaftlichen Diskurs. Diese Auswirkungen sind insbesondere an Orten zu spüren, wo terroristische oder sonstige gefährliche Organisationen häufig Gewalt verüben oder gefährliche Entitäten Gebiete kontrollieren oder anderweitig über politische Macht verfügen. Diese Bedenken wurden in verschiedenen öffentlichen Kommentaren geäußert (siehe öffentliche Kommentare, z. B. PC-11196 – Integrity Institute; PC-11157 – Palestine Institute for Public Diplomacy). Medienorganisationen und andere Kommentator*innen können davon abgeschreckt werden, über als gefährlich eingestufte Entitäten zu berichten, da sie Inhaltsentfernungen vermeiden möchten, die zu schweren Maßnahmen wie der Entfernung von Seiten oder Gruppen oder der Deaktivierung von Konten führen könnten. In einigen Fällen können Inhalte auch unvorhersehbar entfernt werden, beispielsweise ein Bericht über einen Protest gegen ein Regierungsmitglied, bei dem Personen mit Schildern Unterstützung für als gefährlich eingestufte Personen ausdrücken, die von diesem Regierungsmitglied getötet wurden. Personen, die in solchen Situationen sterben, können wegen sprachlicher, kultureller oder religiöser Konventionen als „shaheed“ bezeichnet werden, unter anderem, wenn sie bei der Verübung von Gewalttaten gestorben sind.
51. Es ist wichtig, auf die Komplexität der Situationen hinzuweisen, in denen als gefährlich eingestufte Entitäten Gewalt verüben können. Dazu gehören Situationen, die als bewaffnete Konflikte bewertet werden können, Widerstand gegen Besatzungsmächte und zivile Unruhen. Bei der Berichterstattung über solche Situationen stellen sich für Medien besondere Herausforderungen, da sie lokalen sprachlichen, kulturellen oder religiösen Konventionen Rechnung tragen und gleichzeitig die Inhaltsrichtlinien von Meta einhalten müssen. Diese Bedenken werden durch die mangelnde Transparenz in Bezug auf Metas Liste der als gefährlich eingestuften Entitäten verschärft sowie dadurch, dass Nutzer*innen nicht wissen, welche Organisationen und Personen auf dieser Liste stehen. Die Berichterstattung über diese Situationen kann oft auch Anzeichen von Gewalt beinhalten, wie etwa die Darstellung einer Waffe, die abgesehen von der Ausnahmeregelung zu Berichterstattung, neutraler Diskussion und Missbilligung als Indizien für Richtlinienverstöße gelten. Deshalb muss Meta eine Ausnahmeregelung auf Inhalte anwenden, in denen eine gefährliche Entität neutral diskutiert oder missbilligt wird oder darüber berichtet wird.
52. Das Verbot kann außerdem dazu führen, dass Personen in Regionen, wo gefährliche Entitäten aktiv sind oder über politische Macht verfügen, nur schwer ihre Meinung und Kritik äußern können. Um direkte Konfrontationen und Sicherheitsrisiken zu vermeiden, formulieren diese Personen ihre Äußerungen manchmal auf respektvolle Weise, die nicht unbedingt als Anpreisung ausgelegt werden sollte. Sanktionen gegen solche Äußerungen sind besonders besorgniserregend, da soziale Medien speziell in Krisengebieten und Ländern mit eingeschränkter Pressefreiheit eine wichtige Plattform für den öffentlichen Diskurs darstellen.
Gleichheit und Nichtdiskriminierung
53. Da das Wort „shaheed“ besonders im arabischsprachigen Raum sowie in anderen Sprachen mit „shaheed“ als Lehnwort (insbesondere von Muslimen) häufig und in vielen verschiedenen Bedeutungen verwendet wird, sind diese Gemeinschaften besonders stark von Metas Vorgehensweise betroffen. Dieser Umstand wirft starke Bedenken bezüglich der Verantwortung des Unternehmens auf, das Recht auf Gleichheit und Nichtdiskriminierung aller Nutzer*innen bei der Ausübung ihres Rechts auf freie Meinungsäußerung zu achten. Dieser Punkt wurde in vielen öffentlichen Kommentaren betont (siehe z. B. PC-11183 ECNL EFF, PC-11190 – Brennan Centre; PC-11188 – Digital Rights Foundation; PC-11196 – Integrity Institute; siehe auch den BSR-Bericht über die Auswirkungen von Metas Aktivitäten in Israel und Palästina). Das Entwicklungsprogramm der Vereinten Nationen (UN Development Programme, UNDP) hebt in einem Bericht zur „Unterbrechung des Wegs in den Extremismus“ hervor, dass neben anderen grundlegenden Ursachen Ungleichheit, Ausgrenzung, Chancenlosigkeit und die Wahrnehmung von Ungerechtigkeit stark zu extremistischer Gewalt beitragen. Das Board befürchtet, dass Metas Ansatz mit dieser Richtlinie die Marginalisierung und Ausgrenzung bestimmter Gemeinschaften verschärfen und sogar dem angegebenen Ziel, Gewalt zu bekämpfen, entgegenwirken kann. Das UNDP betont, dass Unternehmen bei der Inhaltsmoderation auf Online-Plattformen sicherstellen sollten, dass Maßnahmen zur Bekämpfung von gewaltsamem Extremismus nicht unabsichtlich dazu beitragen, dass bestimmte Personen stigmatisiert und zu Zielen von Gewalt werden.
Weniger einschneidende Methoden zur Verhinderung von Schäden
54. Bei der Bewertung der Notwendigkeit und Verhältnismäßigkeit der Richtlinie muss auch geprüft werden, ob es weniger einschneidende Möglichkeiten gibt, dasselbe legitime Ziel zu erreichen. Um die Empfehlungen des Boards in dieser Stellungnahme umzusetzen, dürfte Meta nicht mehr alle Verwendungen des Worts „shaheed“, die sich auf gefährliche Personen beziehen, grundsätzlich entfernen. Trotzdem könnten Inhalte, die dieses Wort enthalten, unter enger gefassten Umständen weiterhin entfernt werden, wenn die Verbindung zu Schäden eindeutiger und deutlicher ist. Die Empfehlungen würden Meta erlauben, weiterhin Inhalte zu entfernen, in denen gefährliche Personen als „shaheed“ bezeichnet werden, wenn sie außerdem einen anderen Richtlinienverstoß (z. B. Verherrlichung oder unklare Verweise) oder Anzeichen von Gewalt enthalten. Auf diese Weise bleibt eine wichtige Einschränkung weiterhin bestehen, doch die negativen Auswirkungen der Richtlinie werden reduziert, beispielsweise die übermäßige Durchsetzungen gegen bestimmte sprachliche und religiöse Gruppen.
55. Anzeichen von Gewalt neben einer Bezeichnung einer gefährlichen Person als „shaheed“ sind ein deutlicheres Indiz dafür, dass die Absicht des*der Urheber*in des Beitrags darin besteht, sich positiv über die Person zu äußern, da dadurch eine Assoziation mit Gewalt entsteht (sofern die Ausnahmeregelung für Berichterstattung, neutrale Diskussion oder Missbilligung nicht anwendbar ist). In seinem Antrag schlug Meta die folgenden Anzeichen von Gewalt vor, die aus den internen Anweisungen zur Richtlinie zu Gewalt und Anstiftung zu Gewalt übernommen wurden: (1) eine visuelle Darstellung einer Waffe; (2) eine Absichtserklärung oder Befürwortung der Verwendung oder Mitführung einer Waffe; (3) ein Bezug auf Militärjargon; (4) ein Bezug auf Brandstiftung, Plünderung oder sonstige Sachbeschädigung; (5) ein Bezug auf bekannte reale Gewalttaten und (6) Absichtserklärungen, Handlungsaufrufe, Darstellung, Unterstützung oder Befürwortung von Gewalt gegen Menschen. Das Board stellt fest, dass einige dieser Anzeichen hilfreiche Indizien dafür darstellen, dass ein Schadensrisiko vom Inhalt ausgehen könnte, was nicht allein aus der Verwendung von „shaheed“ geschlossen werden kann. Andere Anzeichen sind für diesen Zweck jedoch weniger hilfreich. Die öffentliche Richtlinie zu Gewalt und Anstiftung zu Gewalt erwähnt dreimal „zeitweise Anzeichen für ein erhöhtes Gewaltrisiko“, jeweils in Bezug auf Regeln, die auf Gewaltrisiken an bestimmten Orten und bei zeitlich begrenzten Ereignissen abzielen, beispielsweise bei Wahllokalen oder Protesten. Eine undifferenzierte Anwendung dieser Signale auf den Umgang mit „shaheed“ in allen Zusammenhängen, wenn kein ähnlich wahrscheinliches oder unmittelbares Schadensrisiko besteht, kann zu einer unverhältnismäßigen Durchsetzung führen.
56. Das Board stellt fest, dass für den größeren Geltungsbereich der Richtlinie zu gefährlichen Organisationen und Personen die Anzeichen von Gewalt enger gefasst werden sollten. Eine visuelle Darstellung einer Waffe und eine Absichtserklärung oder Befürwortung der Verwendung oder Mitführung einer Waffe sollten jeweils als Indizien dafür verstanden werden, dass vom Inhalt mit höherer Wahrscheinlichkeit ein Schadensrisiko ausgeht. Das Board stellt jedoch fest, dass „Bezug auf bekannte reale Gewalttaten“ zu weit gefasst ist und zu viele Situationen abdeckt, die nicht mit der von gefährlichen Organisationen oder Personen verübten Gewalt in Verbindung stehen. Deshalb sollte dieses Anzeichen enger definiert werden und sich nur auf Ereignisse beziehen, die laut der Meta-Richtlinie zu gefährlichen Organisationen und Personen als gefährlich eingestuft sind. Dazu zählen etwa Terroranschläge, Hassveranstaltungen, tatsächliche und versuchte Gewaltzufügung mit mehreren Opfern, Serienmorde oder Hassverbrechen. Die drei vom Board empfohlenen Anzeichen ermöglichen eine stärkere Berücksichtigung des Kontexts, sodass Inhalte mit dem Wort „shaheed“, die sich eindeutiger auf terroristische Gewalttaten beziehen, weiterhin entfernt werden.
57. Die anderen von Meta vorgeschlagenen Anzeichen – Bezüge auf „Militärjargon“ und auf „Brandstiftung, Plünderung oder sonstige Sachbeschädigung“ – sind zu weit gefasst und würden zu einer ungenauen Durchsetzung der Richtlinie führen. Das letzte vorgeschlagene Anzeichen – „Absichtserklärungen, Handlungsaufrufe, Darstellung, Unterstützung oder Befürwortung von Gewalt gegen Menschen“ – stellt bereits einen Verstoß gegen den Gemeinschaftsstandard zu Gewalt und Anstiftung zu Gewalt dar. Deshalb wäre es redundant und unnötig, es ebenfalls hier als Anzeichen von Gewalt aufzuführen.
58. Unabhängig von Metas dritter vorgeschlagener Richtlinienoption merkt das Board an, dass selbst Bezüge auf gefährliche Personen in Kombination mit diesen Anzeichen von Gewalt nicht unbedingt diese Personen oder ihre Taten verherrlichen sollen. In seinem Antrag (Seite 9–10) erklärt Meta das Potenzial einer übermäßigen Durchsetzung und verweist dabei auf Praktiken in pakistanischen Nachrichtenmedien. Nach Ansicht des Boards ist es üblich, bei der Berichterstattung über den Tod einer gefährlichen Person Bilder dieser Person mit Waffen oder der von dieser Person verursachten Zerstörung zu zeigen, ohne dabei diese Taten zu verherrlichen. Deshalb müssen Prüfer*innen großer Datenmengen geschult werden, Inhalte bestehen zu lassen, wenn sie eine klare Absicht zeigen, über die Entität zu berichten, sie zu missbilligen oder neutral darüber zu diskutieren.
59. Weiterhin würden die vom Board empfohlenen Richtlinienänderungen viele andere Inhaltsrichtlinien unberührt lassen, die verhindern, dass Terrorist*innen und ihre Unterstützer*innen über Meta-Plattformen Schäden in der realen Welt verursachen. Inhalte, die eine als gefährlich eingestufte Person der Stufe 1 mit „shaheed“ bezeichnen, würden unter folgenden Umständen entfernt werden:
- wenn sie eines oder mehrere der oben genannten Anzeichen von Gewalt enthalten.
- wenn sie einen anderen Verstoß gegen die Richtlinie zu gefährlichen Organisationen und Personen enthalten (z. B. Darstellung, Unterstützung oder Verherrlichung einer gefährlichen Person). Verherrlichung schließt beispielsweise ein, die gewalttätigen oder hasserfüllten Handlungen einer gefährlichen Person zu legitimieren, zu verteidigen oder als Errungenschaft zu feiern.
- wenn sie einen anderen Richtlinienverstoß enthalten, beispielsweise Hassrede oder Gewalt bzw. Anstiftung zu Gewalt.
- wenn sie „unklare oder kontextlose Verweise“ enthalten. Dazu gehören etwa „unklarer Humor, Verweise ohne einordnenden Text oder positive Verweise, die die Gewalt oder den Hass der als gefährlich eingestuften Entitäten nicht verherrlichen“.
60. Die Empfehlungen des Boards halten Meta also nicht davon ab, von Nutzer*innen zu verlangen, dass sie ihre Absicht deutlich machen, wenn sie eine als gefährlich eingestufte Person der Stufe 1 als „shaheed“ bezeichnen. Meta könnte lediglich nicht mehr ausschließlich auf Basis des Begriffs „shaheed“ einen Beitrag als Verstoß einstufen. Meta kann außerdem durch die aktive Teilnahme am Global Internet Forum to Counter Terrorism und die Verwendung von dessen Hash-Abgleichsdatenbank sicherstellen, dass Inhalte entfernt werden, die Schäden in der realen Welt verursachen können. Die Empfehlungen des Boards werden Meta ermöglichen, die Richtlinien gegen Inhalte, die zu Risiken von Gewalt beitragen, klarer, stärker kontextbasiert und verhältnismäßiger durchzusetzen und gleichzeitig die freie Meinungsäußerung und Nichtdiskriminierung besser zu unterstützen.
Prüfung der alternativen Richtlinienoptionen
61. Aus diesen Gründen kommt das Board zu dem Schluss, dass eine Beibehaltung des aktuellen Stands der Richtlinie (was Meta dem Board als eine zu prüfende Möglichkeit vorgelegt hat) die ungerechtfertigten Einschränkungen der freien Meinungsäußerung stärker verankern würde, von denen arabischsprachige und verwandte Sprachgemeinschaften sowie Muslime überproportional betroffen sind. Metas zweiter Richtlinienvorschlag ähnelt dem dritten, den das Board empfiehlt, dadurch, dass die Verwendung des Worts „shaheed“ im Kontext analysiert werden soll, sodass die Verwendung des Worts in Verbindung mit gefährlichen Personen unter bestimmten Umständen zulässig ist. Tatsächlich gestatten die Änderungen der Richtlinie vom 29. August 2023 laut Meta unter einigen Umständen mehr gesellschaftlichen und politischen Diskurs, etwa in Bezug auf Friedensabkommen, Wahlen, Menschenrechte, Berichterstattung sowie akademische, neutrale und missbilligende Diskussionen. Aus diesem Grund würden die zweite und die dritte Option zu umso ähnlicheren Ergebnissen führen. Der wichtigste Unterschied zwischen diesen Optionen besteht in der technischen Machbarkeit und praktischen Umsetzung im großen Maßstab. Für die zweite Option müsste Meta für fragliche Beiträge zuerst bestätigen, dass eine der Ausnahmeregelungen anwendbar ist, und anschließend prüfen, ob der Beitrag Richtlinienverstöße oder Anzeichen von Gewalt enthält. Mit der dritten Option würden Beiträge direkt auf Richtlinienverstöße und Anzeichen von Gewalt geprüft werden. Laut Meta wäre die technische Ausarbeitung und Umsetzung der zweiten Option deutlich aufwendiger, da eine große Vielfalt möglicher Ausnahmen berücksichtigt werden müsste (die nach den kürzlichen Richtlinienänderungen noch umfangreicher wäre). Diese Ausnahmen sind außerdem stark kontextabhängig. Da es äußerst schwierig ist, diese Entscheidungen korrekt und einheitlich zu fällen, wären wiederum wahrscheinlich deutlich mehr Prüfungen durch Mitarbeiter*innen nötig, und bei der Durchsetzung würde es zu deutlich mehr Fehlern kommen.
62. Nach Auffassung des Boards sollte Meta stattdessen ungeachtet der bestehenden Ausnahmeregelungen alle Verwendungen von „shaheed“ in Bezug auf gefährliche Personen prüfen und die Inhalte entfernen, wenn sie außerdem andere Richtlinienverstöße oder eines der drei in Empfehlung Nr. 1 genannten Anzeichen von Gewalt enthalten. Eine Änderung der Richtlinie, sodass „shaheed“ nur in Kombination mit anderen Richtlinienverstößen oder bestimmten Anzeichen von Gewalt als verbotener Bezug gewertet wird (was eher mit Metas drittem Vorschlag vergleichbar wäre), würde zu weniger irrtümlichen Entfernungen zulässiger Inhalte führen, Äußerungen von öffentlichem Interesse, Medienfreiheit und den gesellschaftlichen Diskurs besser schützen und die negativen Auswirkungen der Richtlinie auf Gleichheit und Nichtdiskriminierung der betroffenen Gruppen reduzieren. Auf die Fragen des Boards nach den Angriffen der Hamas gegen Israel im Oktober 2023 und dem Beginn des darauf folgenden Konflikts hin bestätigte Meta, dass seine Analyse der Skalierbarkeit der ursprünglich vorgeschlagenen Optionen auch nach diesen Ereignissen unverändert blieb. Nach Ansicht des Boards wären die Empfehlungen, die auf Metas dritter Option basieren, im Falle einer ähnlich schweren Krise am wenigsten fehleranfällig, vorausgesetzt, die Ausnahmeregelungen für Berichterstattung, neutrale Diskussion und Missbilligung bleiben gültig. Das Board erkennt an, dass diese Ausnahmeregelungen die Skalierbarkeit der neuen Richtlinie gemäß Metas dritter Option komplexer gestalten werden, aber kommt zu dem Schluss, dass sie für einen angemessenen Schutz der freien Meinungsäußerung in Verbindung mit der Moderation des Worts „shaheed“ unerlässlich sind.
63. Eine Minderheit der Mitglieder des Boards stimmt dieser Schlussfolgerung nicht zu und würde es bevorzugen, eine Beibehaltung der aktuellen Richtlinie oder die zweite von Meta vorgelegte Option zu empfehlen. Einige dieser Mitglieder betonen, dass das Wort „shaheed“ tatsächlich von terroristischen Organisationen verwendet wird, um Personen anzupreisen und zu verherrlichen, die Gewalttaten verüben, was einen Anreiz für die Radikalisierung und Anwerbung neuer Mitglieder darstellen kann. Für diese Mitglieder des Boards stellt diese Tatsache bereits eine ausreichend schwere Gefahr von Schäden in der realen Welt dar, dass die Beibehaltung des aktuellen kategorischen Verbots gerechtfertigt ist, trotz der anerkannten negativen Auswirkungen auf die freie Meinungsäußerung. Andere Mitglieder betrachteten es als Grund für einen vorsichtigeren Ansatz, dass nicht genügend Daten über das Ausmaß von realen Schäden in Verbindung mit der Verwendung von „shaheed“ auf den Meta-Plattformen sowie über die Häufigkeit einer übermäßigen Durchsetzung der Richtlinie vorliegen. Einige Mitglieder des Boards betrachten außerdem die zweite Option (bei der die Bedeutung und Verwendung von „shaheed“ nur geprüft würde, wenn vorher festgestellt wurde, dass bestimmte Ausnahmeregelungen anwendbar sind) als einen stärker zielgerichteten Kompromiss, ungeachtet der technischen Herausforderungen und Machbarkeit im großen Maßstab. Das Board hat diese Alternativen ausgiebig geprüft und diskutiert. Aus den in den obigen Abschnitten dargelegten Gründen kommt die Mehrheit zu dem Schluss, dass die Empfehlungen auf Basis von Metas dritter Optionen einen vorzuziehenden Kompromiss darstellen.
Verwarnungen und Sanktionen
64. Die Beibehaltung anderer Einschränkungen im Rahmen der Richtlinie zu gefährlichen Organisationen und Personen mag zwar gerechtfertigt sein, doch Meta muss sicherstellen, dass diese Einschränkungen und jegliche Sanktionen, die bei Verstößen verhängt werden, verhältnismäßig sind. Meta hat dem Board zuvor mitgeteilt, dass es bei allen Verstößen gegen die Richtlinie zu gefährlichen Organisationen und Personen eine schwere Verwarnung verhängt, auch bezüglich des früheren Verbots der „Anpreisung“. Schwere Verwarnungen können schneller zu Sanktionen auf Kontoebene führen. Dazu zählen etwa zeitlich begrenzte Funktionseinschränkungen, vorübergehende Sperrungen des Kontos oder eine dauerhafte Deaktivierung von Profilen oder Seiten. Diese Maßnahmen können das Recht auf freie Meinungsäußerung der Nutzer*innen stark einschränken (dies wurde auch in öffentlichen Kommentaren betont; siehe z. B. PC-11190 – Brennan Centre). Das Board hat Meta bereits zuvor empfohlen, sein Verwarnungssystem klarer und transparenter zu gestalten (Erwähnungen der Taliban in einer Nachrichtenmeldung, Empfehlung Nr. 2; Sperrung des ehemaligen US-Präsidenten Trump, Empfehlung Nr. 15). Daraufhin hat Meta in seinem Transparency Center Informationen zum Verwarnungssystem veröffentlicht und Nutzer*innen die Möglichkeit gegeben, zu überprüfen, welche Sanktionen Meta gegen ihr Konto verhängt hat. Meta hat sein System für Standardverwarnungen kürzlich aktualisiert, um die Verhältnismäßigkeit zu verbessern. Daraus ist für die Öffentlichkeit jedoch nicht eindeutig erkennbar, ob die Anwendung von „schweren Verwarnungen“ ebenfalls aktualisiert wurde.
65. Meta hat bekanntgegeben, dass Änderungen am System für die Durchsetzung der Richtlinie zu gefährlichen Organisationen und Personen in Arbeit sind. Die Erläuterung zur Aktualisierung der Richtlinie vom Dezember 2023 enthält jedoch keine Informationen darüber, ob und wie das Durchsetzungssystem geändert werden soll (z. B. in Bezug auf schwere Verwarnungen). Das Board begrüßt Änderungen am Durchsetzungssystem, wenn dadurch bei tatsächlichen Verstößen verhältnismäßigere Sanktionen verhängt werden (entsprechend den früheren Empfehlungen des Boards). Schwere Verwarnungen sind bei weniger schwerwiegenden und semantisch uneindeutigen Verstößen gegen die Richtlinie zu gefährlichen Organisationen und Personen nicht verhältnismäßig. Somit wird die Richtlinie weiterhin stark übermäßig durchgesetzt, und Nutzer*innen werden dabei unfair behandelt.
6.2 Transparenzverbesserung und Prüfung der Liste
Empfehlung 4 – Transparenz: Um die Transparenz der Liste der als gefährlich eingestuften Entitäten und Ereignisse zu verbessern, sollte Meta das Verfahren detaillierter erläutern, mit dem Entitäten und Ereignisse als gefährlich eingestuft werden. Meta sollte außerdem regelmäßig zusammengefasste Informationen über die Liste veröffentlichen, beispielsweise die gesamte Anzahl der Entitäten in den einzelnen Stufen der Liste sowie darüber, wie viele Entitäten im vergangenen Jahr zu den einzelnen Stufen hinzugefügt oder daraus entfernt wurden.
Das Oversight Board wird diese Empfehlung als umgesetzt betrachten, wenn Meta die gewünschten Informationen in seinem Transparency Center veröffentlicht.
Empfehlung 5 – Durchsetzung: Um sicherzustellen, dass die Liste gefährlicher Organisationen und Personen aktuell bleibt und keine Organisationen, Personen oder Ereignisse enthält, die Metas Definition nicht mehr entsprechen, sollte Meta ein transparentes und wirksames Verfahren zur regelmäßigen Prüfung der Einstufungen einführen und Entitäten und Ereignisse von der Liste entfernen, die die veröffentlichten Kriterien nicht mehr erfüllen.
Das Oversight Board wird diese Empfehlung als umgesetzt betrachten, wenn Meta ein solches Prüfungsverfahren eingeführt und eine Erläuterung dazu im Transparency Center veröffentlicht hat.
66. Unter der früheren Richtlinie zu gefährlichen Organisationen und Personen waren „Anpreisung“ und die Verwendung des Begriffs „shaheed“ nur verboten, wenn auf eine gefährliche Person der Stufe 1 auf Metas Liste Bezug genommen wurde (dazu zählten auch Täter*innen eines als gefährlich eingestuften „unzulässigen Gewaltereignisses“). Seit der Aktualisierung im Dezember 2023 verbietet die Richtlinie jetzt „unklare Verweise“ und die Verherrlichung aller gefährlichen Entitäten der Stufe 1. Als „unklare Verweise“ gelten unter anderem „unklarer Humor, Verweise ohne einordnenden Text oder positive Verweise, die die Gewalt oder den Hass der als gefährlich eingestuften Entitäten nicht verherrlichen“. Die möglichen negativen Auswirkungen dieser Einschränkungen der freien Meinungsäußerung hängen stark davon ab, welche Entitäten Meta der Stufe 1 zuordnet und welche „unzulässigen Gewaltereignisse“ auf der Liste aufgeführt sind. Bei Round-Table-Gesprächen und in öffentlichen Kommentaren kritisierten viele Stakeholder*innen die fehlende Transparenz und die Abwesenheit eines ordnungsgemäßen Verfahrens im Zusammenhang mit der Liste und forderten eine Veröffentlichung der Liste (siehe öffentliche Kommentare, z. B. PC-11164 – SMEX, S. 3; PC-11157 – Palestine Institute for Public Diplomacy). Ein*e Stakeholder*in äußerte Sorgen, dass eine allgemeine Veröffentlichung der Liste Sicherheitsprobleme verursachen könnte. Da die Liste für die Bewertung des Geltungsbereichs von Metas Richtlinien äußerst wichtig ist, hat das Unternehmen dem Board eine Liste der als gefährlich eingestuften Organisationen und Personen der Stufe 1 sowie eine Erklärung zum Einstufungsverfahren zur Verfügung gestellt. Das Board hat diese Dokumente ausgiebig geprüft, wie im Folgenden besprochen.
67. Wie zuvor angemerkt, werden viele der Listen, auf denen Metas Stufe 1 basiert, von der Regierung der USA öffentlich bereitgestellt. Dazu zählen folgende Listen: „Specially Designated Narcotics Trafficking Kingpins (SDNTKs)“, „Foreign Terrorist Organizations (FTOs)“ und „Specially Designated Global Terrorists (SDGTs)“. Diese umfangreichen Listen umfassen Entitäten (und ihre Mitglieder) in stark politisch geprägten Zusammenhängen auf mehreren Kontinenten, nicht nur terroristische Entitäten. Der Umfang und die Vielfalt dieser Listen deuten auf die mögliche Tragweite und Auswirkungen der Verbote unter Metas Richtlinie zu gefährlichen Organisationen und Personen hin, unter anderem des kategorischen Verbots von „shaheed“ als Bezug auf gefährliche Personen.
68. Meta hat erklärt, dass sein Verfahren zur Prüfung und Bestätigung von Entitäten, die zur Liste gefährlicher Organisationen und Personen hinzugefügt werden, auf Beratungen mit verschiedenen internen Expert*innen, Prüfungen interner Daten und ausgiebiger Forschung beruht. Meta hat auch ein Verfahren zur Dokumentierung weiterer Mitglieder, Pseudonyme, Symbole, Slogans, Untergruppen oder Medienabteilungen eingeführt, die mit bereits als gefährlich eingestuften Organisationen und Personen in Verbindung stehen. 2022 hat Meta laut seiner Bewertung der Bedrohung durch gefährliche Organisationen und Personen auf seiner Plattform weniger als 1.000 Entitäten als gefährlich eingestuft. Kriminelle Entitäten stellten den größten Anteil der eingestuften Entitäten dar, dicht gefolgt von terroristischen Entitäten und Hassentitäten. Meta verfügt außerdem über ein Verfahren zur Entfernung von Entitäten von der Liste. Dabei wird normalerweise untersucht, ob die Kriterien für die Einstufung als gefährliche Organisation oder Person weiterhin auf eine Entität zutreffen, und es werden aktive Maßnahmen berücksichtigt, die die Entität unternommen hat, um ihre Gewalttaten einzustellen und Frieden zu stiften. Dieses Verfahren wird aktuell überarbeitet, wurde 2022 jedoch weniger als zehnmal durchgeführt. Meta hat erklärt, dass es frühere Einstufungen kontinuierlich neu prüft, um sie möglichst aktuell zu halten und das Gefahrenpotenzial gefährlicher Organisationen und Personen korrekt zu berücksichtigen.
69. Meta hat erklärt, dass eine Veröffentlichung der Liste gefährlicher Entitäten oder Ereignisse oder eine Benachrichtigung von Entitäten, wenn sie zur Liste hinzugefügt werden, die Effektivität der Durchsetzung beeinträchtigen und die Sicherheit vieler Mitarbeiter*innen von Meta gefährden könnte. Einige der Entitäten, die erfahren haben, dass sie auf der Liste stehen, haben rechtliche Schritte gegen Meta unternommen (siehe Fall Facebook gegen CasaPound vom 29. April 2020, Landesgericht Rom, Italien, und Analyse hier). Das Board merkt an, dass Meta in einigen Fällen die Einstufung bestimmter Gruppen nach Medienanfragen offengelegt hat und dass einige Einstufungen in Entscheidungen des Oversight Boards veröffentlicht wurden.
70. Das Board hat Meta bereits zuvor empfohlen, seine Liste der als gefährlich eingestuften Entitäten zu veröffentlichen oder zumindest einige anschauliche Beispiele öffentlich bereitzustellen (Nazi-Zitat, Empfehlung Nr. 3). Meta hat die Liste nicht veröffentlicht und nach einer Machbarkeitsprüfung auch keine weiteren Updates zu dieser Empfehlung gegeben. Wenn Meta die Umsetzung dieser Empfehlung weiterhin ablehnt, sollte das Unternehmen zumindest andere Maßnahmen unternehmen, um mehr Transparenz in Bezug auf die Liste zu gewähren. Durch eine Veröffentlichung zusammengefasster Daten, mehr Transparenz zum Einstufungsverfahren und ein effektiveres Verfahren zur Entfernung von Entitäten von der Liste könnte Meta seine Regeln und Verfahren für Nutzer*innen besser nachvollziehbar machen. Außerdem könnten Dritte dadurch Metas Einstufungen sowie deren Auswirkungen auf freie Meinungsäußerung und andere Menschenrechte besser überprüfen und hinterfragen. Meta könnte auch erwägen, Zugriff auf Daten zu Forschungszwecken zu gewähren, um mehr Transparenz zu schaffen und gleichzeitig die Liste geheim zu halten.
6.3 Daten zur Bewertung der Genauigkeit der Durchsetzung und Tests von Classifiern
Empfehlung 6 – Transparenz: Um die Durchsetzung der Richtlinien transparenter zu gestalten, etwa mit Hinblick auf regionale Unterschiede zwischen Märkten und Sprachen, sollte Meta erläutern, mit welchen Methoden es die Genauigkeit von Prüfungen durch Mitarbeiter*innen und durch automatisierte Systeme bei der Durchsetzung der Richtlinie zu gefährlichen Organisationen und Personen bewertet. Meta sollte außerdem regelmäßig die Ergebnisse der Leistungsbewertungen von Classifiern teilen, die bei der Durchsetzung dieser Richtlinie verwendet werden. Diese Ergebnisse sollten so bereitgestellt werden, dass sie sprach- und/oder regionsübergreifend vergleichbar sind.
Das Board wird diese Empfehlung als umgesetzt erachten, sobald Meta diese Informationen im Transparency Center veröffentlicht und in seinen Bericht zur Durchsetzung der Gemeinschaftsstandards aufnimmt.
Empfehlung 7 – Transparenz: Meta sollte klar verständliche Erklärungen dazu bereitstellen, wie Classifier genutzt werden, um Prognosen über Richtlinienverstöße zu generieren. Außerdem sollte Meta die Abläufe beschreiben, wie es Schwellenwerte für die Entscheidung festlegt, ob keine Maßnahme erforderlich ist, der Inhalt durch eine*n Mitarbeiter*in geprüft wird oder der Inhalt entfernt wird. Diese Informationen sollten im Transparency Center des Unternehmens bereitgestellt werden.
Das Oversight Board wird diese Empfehlung als umgesetzt betrachten, wenn Meta die gewünschten Informationen in seinem Transparency Center veröffentlicht.
71. Viele Stakeholder*innen haben bei Round-Table-Gesprächen oder in öffentlichen Kommentaren betont, dass die Durchsetzung der Meta-Richtlinie zu gefährlichen Organisationen und Personen und der Umgang mit dem Wort „shaheed“ bei der Prüfung durch Mitarbeiter*innen und automatisierte Systeme oft zu Fehlern bei der Durchsetzung führen, von denen Muslime und entsprechende Sprachgemeinschaften überproportional betroffen sind (siehe öffentliche Kommentare, z. B. PC-11183 ECNL EFF, PC-11190 – Brennan Centre; PC-11188 – Digital Rights Foundation; PC-11196 – Integrity Institute; siehe auch den BSR-Bericht über die Auswirkungen von Metas Aktivitäten in Israel und Palästina). Meta hat in seinem Antrag auch anerkannt, dass dies eine Folge seines Umgangs mit dem Wort „shaheed“ ist. Um die Transparenz, Genauigkeit und Fairness der menschlichen und automatisierten Durchsetzungsverfahren von Meta zu verbessern, äußert das Board die zwei oben dargelegten Empfehlungen.
72. Meta hat erklärt, dass es die Genauigkeit der Richtliniendurchsetzung durch Mitarbeiter*innen und automatisierte Systeme regelmäßig misst. Manuelle Prüfer*innen werden regelmäßigen Audits durch externe Partner unterzogen; diese Audits wiederum werden zusätzlich von Metas Global Operations Team geprüft.
73. Das Board hat Meta bereits zuvor empfohlen, seine Transparenzberichterstattung zu verbessern, um die Öffentlichkeit besser über Fehlerquoten zu informieren. Dazu sollte Meta diese Informationen bezüglich „Anpreisung“ und „Unterstützung“ von gefährlichen Organisationen und Personen (Einzelhaft von Öcalan, Empfehlung Nr. 12) bzw. zu allen Gemeinschaftsstandards (Punjabi-Besorgnis hinsichtlich des RSS in Indien, Empfehlung Nr. 3) nach Land und Sprache aufgeschlüsselt veröffentlichen. Meta hat daraufhin erklärt, dass es nach einer Machbarkeitsprüfung die Umsetzung dieser Empfehlung abgelehnt hat (Einzelhaft von Öcalan, Empfehlung Nr. 12; Metas vierteljährliches Update zum Oversight Board, 4. Quartal 2021, Seite 21) und sich stattdessen auf langfristige Bestrebungen konzentriert, Kennzahlen zur Genauigkeit nach Profil-, Seiten- und Kontoeinschränkungen sowie nach Standort zu definieren, aber nicht nach Sprache (Punjabi-Besorgnis hinsichtlich des RSS in Indien, Empfehlung Nr. 3; Metas vierteljährliches Update zum Oversight Board, 2. Quartal 2023, Seite 59). Angesichts weit verbreiteter Bedenken zu unverhältnismäßiger Durchsetzung der Richtlinie zu gefährlichen Organisationen und Personen, wie von Metas Umgang mit „shaheed“ veranschaulicht, und der mangelnden Offenlegung nützlicher Daten zur Durchsetzung seitens Meta wiederholt das Board diese Empfehlungen und weist erneut darauf hin, wie wichtig es ist, dass das Unternehmen mehr Informationen zur Durchsetzung nach Standort bereitstellt.
74. Die Daten, die Meta aktuell im Transparency Center bereitstellt, bieten nicht genügend Informationen über die Genauigkeit der Prüfung durch Mitarbeiter*innen oder automatisierte Systeme. Um externe Kontrolle seiner Methoden zu ermöglichen, muss Meta erläutern, wie es die Genauigkeit von Prüfungen durch Mitarbeiter*innen und durch automatisierte Systeme bei der Durchsetzung der Richtlinie zu gefährlichen Organisationen und Personen bewertet. Um mehr Transparenz bezüglich der Leistung von Classifiern zu bieten, sollte Meta verschiedene Kennzahlen bekanntgeben, darunter Präzision (Anteil der korrekt als Verstöße erkannten Inhalte an allen Inhalten, die als Verstöße markiert werden) und Erkennungsquote (Anteil der Inhalte, die der Classifier als Verstöße markiert, an allen existierenden Verstößen). Indem Meta Informationen zur Genauigkeit der Prüfung durch Mitarbeiter*innen nach Region und die Leistung von Classifiern in verschiedenen Sprachen veröffentlicht, kann das Unternehmen Rechenschaft darüber ablegen, wie es seinen menschenrechtlichen Pflichten nachkommt. Das Board wiederholt deshalb seine früheren Empfehlungen und rät Meta dringend, die empfohlenen Änderungen umzusetzen.
75. Bei der Durchsetzung seiner Gemeinschaftsstandards verlässt sich Meta auf automatisierte Systeme, wie etwa Classifier. Classifier-Modelle teilen Daten anhand eines Trainingsdatensatzes in eine oder mehrere „Klassen“ ein (z. B. Verstoß oder zulässig). Um Metas Moderation von Inhalten im großen Maßstab zu bewerten, ist es notwendig, zu verstehen, wie diese Systeme funktionieren und wie genau sie arbeiten. Im Abschnitt „Durchsetzung“ im Transparency Center stellt Meta einige grundlegende Informationen dazu bereit, wie es automatisierte Systeme nutzt, um Verstöße zu erkennen. Im Abschnitt „Funktionen“ erklärt Meta das Ranking und die Kuratierung von Inhalten. In seinen Berichten zur Durchsetzung der Gemeinschaftsstandards veröffentlicht Meta bereits Informationen darüber, welchen Anteil aller Inhalte das Unternehmen entfernt, bevor sie gemeldet werden (d. h. durch automatische Erkennung). Diese Daten weisen auf die Bedeutung der automatischen Erkennung hin, bieten aber keine detaillierten Informationen über die Verwendung und Genauigkeit von Metas automatisierten Systemen, insbesondere in Bezug auf automatische Entfernungen. Diese Empfehlungen sollen dazu führen, dass Meta mehr Transparenz zu seiner Verwendung von Algorithmen schafft.
76. Auf Fragen des Boards hin hat Meta erklärt, dass der Classifier für gefährliche Organisationen und Personen in der Sprache „allgemeines Arabisch“ basierend auf den Meta-Richtlinien eine Erstprüfung durchführt. Classifier sollen Inhalte erkennen, die möglicherweise gegen die Richtlinien verstoßen. Das Board stellt fest, dass Meta im Abschnitt Durchsetzung im Transparency Center diese wichtige Rolle der Classifier detailliert erklären sollte, entsprechend früheren Entscheidungen des Boards (siehe Symptome von Brustkrebs und Nacktdarstellung, Empfehlung Nr. 3; Karikatur der kolumbianischen Polizei, Empfehlung Nr. 3). Insbesondere müssen Nutzer*innen transparent über das ungefähre Konfidenzniveau informiert werden, bei dem Sanktionen gegen Inhalte verhängt bzw. nicht verhängt werden oder die Inhalte zur Prüfung an Mitarbeiter*innen weitergeleitet werden, sowie über die Faktoren, die diese Entscheidungen beeinflussen.
77. Meta hat erklärt, dass der Schwerpunkt bei seinen Genauigkeitstests nicht auf einzelnen Arten von Verstößen gegen eine Richtlinie liegt, sondern auf der allgemeinen Genauigkeit in einem Richtlinienbereich. Meta hat angegeben, dass es regelmäßig Kennzahlen überwacht und die Genauigkeitsraten im großen Maßstab prüft. Das Board hat bereits zuvor erklärt, dass es nicht genügt, die Genauigkeit der Durchsetzung der Gemeinschaftsstandards insgesamt zu bewerten (siehe Entscheidung zum Fall Wampumgürtel). Ein System, das im Durchschnitt gut funktioniert, schneidet möglicherweise bei bestimmten Inhaltskategorien schlecht ab, in denen Fehlentscheidungen besonders ausgeprägte Auswirkungen auf die Menschenrechte haben. Deshalb ist es für Meta unerlässlich, zu demonstrieren, dass das Unternehmen entsprechend seiner Sorgfaltspflicht die möglichen negativen Auswirkungen seiner Systeme auf die Menschenrechte ermittelt und minimiert und außerdem Informationen veröffentlicht, um externe Kontrolle dieser Auswirkung zu ermöglichen.
78. Viele Stakeholder*innen haben ausgesagt, dass Metas Algorithmen zur Richtliniendurchsetzung keine Kontextinformationen berücksichtigen und in anderen Sprachen als Englisch häufiger Fehlentscheidungen treffen, wovon muslimische Gemeinschaften überproportional betroffen sind (siehe öffentliche Kommentare, z. B. PC-11190 – Brennan Centre).
79. Einige Stakeholder*innen haben empfohlen, dass Meta zur Moderation des Begriffs „shaheed“ keine Automatisierung mehr nutzt, da die automatisierten Systeme bisher keine Kontextinformationen berücksichtigt haben (siehe öffentliche Kommentare, z. B. PC-11164 – SMEX, S. 4; PC-11157 – Palestine Institute for Public Diplomacy). Andere haben argumentiert, dass Automatisierung nur verwendet werden sollte, um Inhalte für eine Prüfung durch Mitarbeiter*innen zu markieren, aber nicht, um sie automatisch zu entfernen, da Verstöße gegen die Richtlinie zu gefährlichen Organisationen und Personen mit schweren Sanktionen verbunden sind (siehe z. B. PC-11183 ECNL EFF, S. 4f). Einige Stakeholder*innen haben vorgeschlagen, dass jeder Beitrag, in dem eine gefährliche Person als „shaheed“ bezeichnet wird, idealerweise von Mitarbeiter*innen geprüft werden sollte, die mit dem lokalen Kontext des*der Urheber*in vertraut sind (siehe PC-11188 – Digital Rights Foundation, S. 2). Andere haben vorgeschlagen, dass Inhalte Standortinformationen enthalten sollten, damit bei manuellen und automatisierten Prüfungen mehr Kontext zur Verfügung steht (siehe z. B. PC-11165 – Taraaz, S. 1). Einige Stakeholder*innen haben Meta außerdem aufgerufen, mehr Informationen über die Genauigkeit seiner automatisierten Durchsetzungssysteme bereitzustellen und mehr Geld in die Verbesserung seiner automatisierten Systeme für andere Sprachen als Englisch zu investieren (siehe z. B. PC-11164 – SMEX, S. 5; PC-11190 – Brennan Centre). Stakeholder*innen haben Meta außerdem aufgefordert, einheitliche Berichte über seine Inhaltsmoderation bereitzustellen, einschließlich umfassender Daten zu Nutzer*innenmeldungen, Sanktionsraten, Arten von Sanktionen, Wirksamkeit von Methoden zur Minderung, Schulungsinformationen und Einspruchsraten (siehe z. B. PC-11196 – Integrity Institute).
80. Einige Expert*innen lehnten ab, dass automatisierte Systeme Inhalte ausschließlich wegen des Worts „shaheed“ als Bezug auf eine als gefährlich eingestufte Entität entfernen, empfahlen aber, den Begriff im Rahmen eines stärker nuancierten Moderationsansatzes zu berücksichtigen (z. B. als Anzeichen dafür, dass Inhalte für die Prüfung auf Verstöße markiert werden sollten, aber nicht für die Entfernung ausschließlich auf Basis dieses Bezugs).
81. Das Board erkennt an, dass Algorithmussysteme bei der Inhaltsmoderation im großen Maßstab unerlässlich sind und dass viele der vorgeschlagenen Ansätze in diesem Maßstab und in Kombination mit automatisierten Systemen nicht realistisch sind. Das Board stellt jedoch auch fest, dass Meta weitere Schritte unternehmen muss, einschließlich der zuvor empfohlenen Maßnahmen, um die Transparenz und Fairness dieser Systeme sicherzustellen.
* Anmerkung zur Vorgehensweise:
Die beratenden Stellungnahmen des Oversight Boards zur Richtlinie werden von einem Panel aus fünf Mitgliedern vorbereitet und von einer Mehrheit des Boards bestätigt. Entscheidungen des Oversight Boards geben nicht zwangsläufig die persönliche Meinung aller Mitglieder wieder.
Für diese beratende Stellungnahme zur Richtlinie wurde eine unabhängige Studie vom Board in Auftrag gegeben. Das Board wurde von einem unabhängigen Forschungsinstitut mit Sitz an der Universität Göteborg unterstützt, das mit einem Team aus mehr als 50 Sozialwissenschaftler*innen auf sechs Kontinenten sowie mehr als 3.200 Länderexpert*innen aus der ganzen Welt zusammenarbeitet. Weitere Unterstützung erhielt das Board durch Duco Advisors, eine Beratungsfirma mit Schwerpunkt auf die Schnittstelle zwischen Geopolitik, Vertrauen, Sicherheit und Technologie. Memetica, eine Organisation, die Open-Source-Forschung zu Trends in sozialen Medien betreibt, führte ebenfalls Analysen durch. Das sprachliche Know-how wurde von Lionbridge Technologies LLC zur Verfügung gestellt, dessen Spezialist*innen insgesamt mehr als 350 Sprachen fließend beherrschen und in 5.000 Orten auf der ganzen Welt arbeiten.
Retour aux décisions de cas et aux avis consultatifs politiques