Anulado
Entmenschlichende Kommentare über Menschen in Gaza
18 de Abril de 2024
Ein*e Nutzer*in legte Einspruch gegen die Entscheidung von Meta ein, einen Facebook-Beitrag auf der Plattform zu belassen, in dem behauptet wurde, dass die Hamas aus der Bevölkerung von Gaza stamme und sie mit einer „savage horde“ (wilden Horde) verglich. Nachdem das Oversight Board Meta auf den Einspruch aufmerksam gemacht hat, hob das Unternehmen seine ursprüngliche Entscheidung auf und entfernte den Beitrag.
Dies ist eine zusammenfassende Entscheidung. In zusammenfassenden Entscheidungen werden Fälle untersucht, in denen Meta seine ursprüngliche Entscheidung über einen Inhalt rückgängig gemacht hat, nachdem das Oversight Board das Unternehmen darauf aufmerksam gemacht hat. Außerdem enthalten diese Entscheidungen Informationen über die von Meta eingeräumten Fehler. Sie werden von einem Gremium von Oversight Board-Mitgliedern genehmigt, nicht vom gesamten Board, beinhalten keine öffentlichen Kommentare und haben keinen Präzedenzwert für das Gremium. Zusammenfassende Entscheidungen führen unmittelbar zu Änderungen an den Entscheidungen von Meta, wobei sie diese Korrekturen transparent machen, und gleichzeitig zeigen sie auf, wo Meta seine Durchsetzung verbessern könnte.
Zusammenfassung
Ein*e Nutzer*in legte Einspruch gegen die Entscheidung von Meta ein, einen Facebook-Beitrag auf der Plattform zu belassen, in dem behauptet wurde, dass die Hamas aus der Bevölkerung von Gaza stamme und deren „innermost desires“ (innerste Sehnsüchte) widerspiegele und sie mit einer „savage horde“ (wilden Horde) verglich. Nachdem das Oversight Board Meta auf den Einspruch aufmerksam gemacht hat, hob das Unternehmen seine ursprüngliche Entscheidung auf und entfernte den Beitrag.
Über den Fall
Im Dezember 2023 repostete eine Person ein Bild auf Facebook, das neben einem nicht genannten Mann einen Text zeigte, in dem zum Ausdruck gebracht wurde, dass die „general public“ (Öffentlichkeit) in Gaza nicht das „victim“ (Opfer) der Hamas sei, sondern dass die militante Gruppe als „true reflection“ (wahres Spiegelbild) der „the innermost desires of a savage horde“ (innersten Wünsche einer wilden Horde) auftrete. Das gepostete Bild enthielt eine befürwortende Bildunterschrift mit den Worten „the truth“ (die Wahrheit). Der Beitrag hatte weniger als 500 Aufrufe.
Gemäß der Meta-Richtlinie zu Hassrede verbietet Meta Inhalte, die auf eine Person oder eine Personengruppe aufgrund ihrer geschützten Eigenschaften abzielen, wobei insbesondere Vergleiche mit „Untermenschlichkeit“ wie u. a. „Wilde“ als Beispiel genannt werden. In diesem Inhalt ist der Verweis auf „the general public of Gaza“ (die allgemeine Öffentlichkeit von Gaza) ein impliziter Verweis auf Palästinenser*innen in Gaza und zielt damit auf die geschützten Merkmale der ethnischen Zugehörigkeit und der Nationalität ab.
Der*Die Nutzer*in stellte in einer Erklärung an das Oversight Board, in der er gegen diesen Fall Einspruch erhob, fest, dass der Beitrag „entmenschlichende Äußerungen“ darstelle, da er die Menschen in Gaza verallgemeinere.
Nachdem das Gremium Meta auf diesen Fall aufmerksam machte, erklärte das Unternehmen, dass der Inhalt gegen Metas Richtline zu Hassrede verstößt und dass die ursprüngliche Entscheidung des Unternehmens, den Inhalt veröffentlicht zu lassen, falsch war. Daraufhin entfernte das Unternehmen den Inhalt von Facebook.
Befugnis und Wirkungsbereich des Oversight Boards
Das Oversight Board hat die Befugnis, die Entscheidung von Meta nach dem Einspruch der Person zu überprüfen, die einen Inhalt gemeldet hat, der veröffentlicht bleiben durfte (Artikel 2 der Satzung, Abschnitt 1; Artikel 3 der Satzung, Abschnitt 1).
Wenn Meta einen Fehler einräumt und seine Entscheidung in einem Fall, der dem Oversight Board zur Überprüfung vorliegt, rückgängig macht, kann das Oversight Board diesen Fall für eine zusammenfassende Entscheidung auswählen (Artikel 2 der Satzung, Abschnitt 2.1.3). Das Board überprüft die ursprüngliche Entscheidung, um das Verständnis für Prozesse der Inhaltsmoderation zu verbessern, Fehler zu reduzieren und für mehr Fairness gegenüber Facebook- und Instagram-Nutzer*innen zu sorgen.
Bedeutsamkeit des Falls
Dieser Fall verdeutlicht Fehler bei der Durchsetzung der Meta-Richtlinie zu Hassrede, insbesondere in Bezug auf Inhalte, die Menschen aufgrund ihrer geschützten Eigenschaften angreifen. Moderationsfehler können in Zeiten anhaltender bewaffneter Konflikte besonders schädlich sein. Deshalb wären solidere Verfahren zur Moderation von Inhalten erforderlich gewesen.
Bei der Fallentscheidung Knin-Cartoon ging es ebenfalls um Hassrede, die auf eine geschützte Eigenschaft – die ethnische Zugehörigkeit – abzielte und sich auf eine ethnische Gruppe als Ratten bezog, ohne sie explizit zu nennen. In der Fallentscheidung zum Knin-Cartoon war jedoch ein historischer und kultureller Kontext erforderlich, um die symbolische Darstellung einer ethnischen Gruppe interpretieren zu können, während der Inhalt in diesem Fall direkte entmenschlichende Kommentare zu einer ganzen Bevölkerung enthielt, die vernünftigerweise als Bezugnahme auf Menschen mit geschützten Eigenschaften verstanden werden sollten.
In der Fallentscheidung zum Knin-Cartoon empfahl das Oversight Board, dass „Meta den Gemeinschaftsstandard zu Hassrede und die Leitlinien, die den Prüfer*innen zur Verfügung gestellt werden, deutlicher formulieren sollte, indem es erläutert, dass auch implizite Verweise auf geschützte Gruppen gemäß der Richtlinie untersagt sind, wenn der Verweis allgemein verständlich wäre.“ (Fallentscheidung zum Knin-Cartoon, Empfehlung Nr. 1). Nach eigenen Angaben hat Meta diese Empfehlung teilweise umgesetzt. Im 4. Quartal 2022 meldete Meta, dass es die Gemeinschaftsstandards und die Richtlinien für Reviewer*innen ergänzt hat, um klarzustellen, dass implizite Hassrede entfernt wird, wenn sie von Prüfer*innen großer Datenmengen zur Expert*innenprüfung eskaliert wird und Meta die Absicht des*der Nutzer*in nachvollziehen kann. Das Oversight Board betrachtet diese Empfehlung als teilweise umgesetzt, da die Aktualisierungen nicht am Gemeinschaftsstandard zur Vermeidung von Hassrede vorgenommen wurden, sondern nur an der allgemeinen Einführung der Gemeinschaftsstandards.
Das Oversight Board ist der Ansicht, dass die vollständige Umsetzung dieser Empfehlungen dazu beitragen könnte, die Anzahl der Fehler bei der Durchsetzung der Meta-Richtlinie zu Hassrede zu verringern.
Entscheidung
Das Oversight Board hebt die ursprüngliche Entscheidung von Meta auf, den Inhalt veröffentlicht zu lassen. Das Oversight Board erkennt an, dass Meta seinen ursprünglichen Fehler korrigiert hat, nachdem das Board das Unternehmen auf den Fall aufmerksam gemacht hat.
Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas