Overturned
Äußerung zur Kommunistischen Partei Chinas
August 1, 2024
Eine Person legte Einspruch gegen die Entscheidung von Meta ein, einen Kommentar auf Instagram zu entfernen, in dem der „death“ (Tod) der Kommunistischen Partei Chinas gefordert wird.
In zusammenfassenden Entscheidungen werden Fälle untersucht, in denen Meta seine ursprüngliche Entscheidung über einen Inhalt rückgängig gemacht hat, nachdem das Oversight Board das Unternehmen darauf aufmerksam gemacht hat. Außerdem enthalten diese Entscheidungen Informationen über die von Meta eingeräumten Fehler. Sie werden von einem Gremium von Oversight Board-Mitgliedern genehmigt, nicht vom gesamten Board, beinhalten keine öffentlichen Kommentare und haben keinen Präzedenzwert für das Gremium. Zusammenfassende Entscheidungen führen unmittelbar zu Änderungen an den Entscheidungen von Meta, wobei sie diese Korrekturen transparent machen und gleichzeitig aufzeigen, wo Meta seine Durchsetzung verbessern könnte.
Zusammenfassung
Eine Person legte Einspruch gegen die Entscheidung von Meta ein, einen Kommentar auf Instagram zu entfernen, in dem der „death“ (Tod) der Kommunistischen Partei Chinas gefordert wird. Nachdem das Oversight Board Meta auf den Einspruch aufmerksam gemacht hatte, hob das Unternehmen seine ursprüngliche Entscheidung auf und stellte den Beitrag wieder her.
Über den Fall
Im März 2024 hat eine Person auf Instagram einen Kommentar gepostet, in dem es hieß „Death to the Chinese Communist Party!“ („Tod der Kommunistischen Partei Chinas!“), gefolgt von Totenkopf-Emojis. Dies war die Antwort auf einen Beitrag des Kontos einer Nachrichtenagentur, der ein Video von Wang Wenbin, einem ehemaligen Sprecher des chinesischen Außenministeriums, zeigte, der die Verabschiedung eines Gesetzes im US-Repräsentantenhaus verurteilte, das sich auf die Präsenz von TikTok im Land auswirken könnte.
Meta entfernte den Inhalt zunächst von Facebook unter Berufung auf seinen Gemeinschaftsstandard zu Gewalt und Anstiftung zu Gewalt, der „Gewaltandrohungen“ verbietet. Das Unternehmen erklärte, dass das Verbot „bestimmte Forderungen nach dem Tod, wenn sie ein Ziel und eine Methode zur Gewalt enthalten“ einschließt.
Als das Board Meta auf diesen Fall aufmerksam gemacht hatte, stellte das Unternehmen fest, dass die Entscheidung, den Kommentar zu entfernen, falsch war, und stellte den Inhalt auf Instagram wieder her. Meta erklärte, dass, gemäß seiner internen Richtlinien für Content-Prüfer*innen, Forderungen nach dem Tod einer Institution, wie der Kommunistischen Partei Chinas, nicht gegen den Standard verstoßen.
Befugnis und Wirkungsbereich des Oversight Boards
Das Board ist befugt, die Entscheidung von Meta nach dem Einspruch der Person zu prüfen, deren Inhalt entfernt wurde (Artikel 2 der Satzung, Abschnitt 1; Artikel 3 der Satzung, Abschnitt 1).
Wenn Meta einen Fehler einräumt und seine Entscheidung in einem Fall, der dem Oversight Board zur Überprüfung vorliegt, rückgängig macht, kann das Oversight Board diesen Fall für eine zusammenfassende Entscheidung auswählen (Artikel 2 der Geschäftsordnung, Abschnitt 2.1.3). Das Board überprüft die ursprüngliche Entscheidung, um das Verständnis für Prozesse der Inhaltsmoderation zu verbessern, Fehler zu reduzieren und für mehr Fairness gegenüber Facebook- Instagram- und Threads-Nutzer*innen zu sorgen.
Bedeutsamkeit des Falls
Dieser Fall macht deutlich, dass Meta seine Richtlinie gegen Gewalt und Anstiftung zu Gewalt nicht konsequent auf metaphorische oder figurative politische Äußerungen anwendet. Dies kann sich unverhältnismäßig stark auf politische Äußerungen auswirken, die kritisch gegenüber Staaten und staatlichen Institutionen sind. Der Fall unterstreicht, wie wichtig es ist, dass Meta bei der Gestaltung seiner Moderationssysteme den Adressaten der Äußerung (in diesem Fall eine politische Partei) berücksichtigt sowie die Verwendung von Übertreibungen oder rhetorischen, ironischen und satirischen Äußerungen zur Kritik an Institutionen.
Zum Thema rhetorische Äußerungen hat das Board im Fall Russisches Gedicht befunden, dass die gewaltverherrlichende Sprache, die in dem Gedicht „Kill him!“ (Töte ihn!) enthalten ist, „als Beschreibung verstanden werden kann, nicht als Befürwortung“ einer bestimmten Einstellung. Das Board stellte fest, dass die Sprache als rhetorisches Mittel zur Unterstreichung der Botschaft des*der Nutzer*in eingesetzt wurde, und dass der betreffende Teil des Contents demzufolge gemäß den internen Richtlinien von Meta zur Richtlinie „Gewalt und Anstiftung zu Gewalt“ zulässig war.
Auch wenn sie sich auf einen anderen Gemeinschaftsstandard bezog (Hassrede) als den, um den es im vorliegenden Fall geht (Gewalt und Anstiftung zu Gewalt), ist die Myanmar Bot-Entscheidung relevant, da sie sich ebenfalls auf Äußerungen bezieht, die an Staaten oder politische Institutionen gerichtet sind. Im betreffenden Fall kam das Board zu dem Schluss, dass der Beitrag nicht gegen den Gemeinschaftsstandard zur Vermeidung von Hassrede verstoßen hat, da die vulgären Ausdrücke in dem Beitrag nicht auf Menschen aufgrund ihrer ethnischen Zugehörigkeit oder nationalen Herkunft abzielten, sondern sich an einen Staat richteten. Das Board betonte Folgendes: „Es sei von entscheidender Bedeutung sicherzustellen, dass Verbote zum Abzielen auf Personen aufgrund geschützter Eigenschaften nicht auf eine Art ausgelegt werden, die Regierungen oder Institutionen vor Kritik schützt.“
Das Board hat Meta zuvor eindringlich aufgefordert, angemessene Verfahren zur Überprüfung von Inhalten in ihrem jeweiligen Kontext einzurichten ( „Two Buttons”-Meme, Empfehlung Nr. 3). Es empfahl zudem Folgendes: „Um Nutzer*innen besser über die verbotenen Arten von Aussagen zu informieren, sollte Meta den Gemeinschaftsstandard zu Gewalt und Anstiftung zu Gewalt wie folgt ergänzen: (i) Erklärung, dass rhetorische Drohungen wie „X soll sterben“-Aussagen generell zulässig sind, außer wenn das Ziel der Drohung eine Hochrisikoperson ist...“ (Protest-Slogan gegen die Regierung im Iran, Empfehlung Nr. 1); und „Meta sollte tendenziell eher skalierte Ausnahmen ausstellen, wenn (i) die Wahrscheinlichkeit, dass dies zu Gewalttaten führt, gering ist, (ii) potenziell verstoßende Inhalte im Kontext von Protesten verwendet werden und (iii) ein hohes öffentliches Interesse besteht“ (Protest-Slogan gegen die Regierung im Iran, Empfehlung Nr. 2).
Meta erklärte, dass die Umsetzung der Empfehlung im Zusammenhang mit dem„Two Buttons“-Meme sowie der Empfehlung Nr. 2 aus der Entscheidung zum Protest-Slogan gegen die Regierung im Iran bereits erfolgt, veröffentlichte aber keine Informationen, die dies belegen. Zu Empfehlung Nr. 1 aus der Entscheidung zum Protest-Slogan gegen die Regierung im Iran erklärte Meta in seinem vierteljährlichen Update zum Oversight Board zum 4. Quartal 2023 Folgendes: „Wir haben unsere Gemeinschaftsstandards zu Hassrede und zu Gewalt und Anstiftung zu Gewalt aktualisiert, indem wir weitere Details darüber angeben, was eine ‚Bedrohung‘ darstellt, und indem wir unsere Durchsetzung auf der Grundlage des Ziels unterscheiden. Im Rahmen dieser Arbeit haben wir auch unsere internen Leitlinien aktualisiert.“
Das Oversight Board ist der Ansicht, dass die vollständige Umsetzung dieser Empfehlungen dazu beitragen könnte, die Zahl der Fehler bei der Durchsetzung der Richtlinie zu Gewalt und Anstiftung zu Gewalt zu verringern.
Entscheidung
Das Oversight Board hebt die ursprüngliche Entscheidung von Meta auf, den Inhalt zu entfernen. Das Oversight Board erkennt an, dass Meta seinen ursprünglichen Fehler korrigiert hat, nachdem das Board das Unternehmen auf den Fall aufmerksam gemacht hat.