Decisión de casos múltiples
Negative Klischees über Afroamerikaner*innen
18 de abril de 2024
Das Board hat drei Facebook-Beiträge mit rassistischen Inhalten geprüft, die Meta auf der Plattform bestehen gelassen hatte. Nachdem das Gremium Meta auf die Einsprüche aufmerksam gemacht hatte, hob das Unternehmen seine ursprünglichen Entscheidungen auf und entfernte die Beiträge.
3 casos incluidos en el paquete
FB-LHBURU6Z
Fall bezüglich Hassrede auf Facebook
FB-1HX5SN1H
Fall bezüglich Hassrede auf Facebook
FB-ZD01WKKW
Fall bezüglich Hassrede auf Facebook
Dies ist eine zusammenfassende Entscheidung. In zusammenfassenden Entscheidungen werden Fälle untersucht, in denen Meta seine ursprüngliche Entscheidung über einen Inhalt rückgängig gemacht hat, nachdem das Oversight Board das Unternehmen darauf aufmerksam gemacht hat. Außerdem enthalten diese Entscheidungen Informationen über die von Meta eingeräumten Fehler. Sie werden von einem Gremium von Oversight Board-Mitgliedern genehmigt, nicht vom gesamten Board, beinhalten keine öffentlichen Kommentare und haben keinen Präzedenzwert für das Gremium. Zusammenfassende Entscheidungen führen unmittelbar zu Änderungen an den Entscheidungen von Meta, wobei sie diese Korrekturen transparent machen, und gleichzeitig aufzeigen, wo Meta seine Durchsetzung verbessern könnte.
Zusammenfassung
Das Board hat drei Facebook-Beiträge mit rassistischen Inhalten geprüft, die Meta auf der Plattform bestehen gelassen hatte. Die Beiträge enthalten Karikaturen oder manipulierte Bilder von Afroamerikaner*innen, die beleidigende Klischees enthalten, darunter abwesende Väter, Sozialhilfebezug und das Plündern von Geschäften. Diese Fälle verdeutlichen Fehler bei der Durchsetzung der Richtlinien zu Hassrede und Mobbing und Belästigung von Meta. Nachdem das Gremium Meta auf die Einsprüche aufmerksam gemacht hatte, hob das Unternehmen seine ursprünglichen Entscheidungen auf und entfernte die Beiträge.
Über die Fälle
Ende 2023 erhielt das Board drei separate Einsprüche zu drei verschiedenen auf Facebook geposteten Bildern, die negatives Material über Afroamerikaner*innen enthielten.
Im ersten Beitrag, der etwa 500.000 Mal aufgerufen wurde, postete ein*e Nutzer*in ein computergeneriertes Bild von einem brennenden Geschäft, in dem Afroamerikaner*innen als Cartoonfiguren in Kapuzensweatshirts dargestellt werden, die mit Artikeln aus dem Geschäft rennen. Der Name des Geschäfts „Target“ wurde im Bild zu „Loot“ („Plündern“) geändert. In der Bildunterschrift beschreibt der*die Nutzer*in das Bild als den nächsten Pixar-Film.
Der zweite Beitrag enthält ein computergeneriertes Bild, das ebenfalls ein Filmplakat imitiert. Darin ist eine afroamerikanische Frau mit übertriebenen Körpermerkmalen und einem mit Maissnacks beladenen Einkaufswagen zu sehen. Als Filmtitel wird „EBT“ angegeben – der Name eines Sozialhilfesystems in den USA. Am oberen Bildrand, wo auf Filmplakaten üblicherweise Schauspieler*innen genannt werden, stehen die Namen Trayvon Martin und George Floyd, bei denen es sich um zwei afroamerikanische Opfer von Gewalt handelt. Martin wurde 2012 erschossen, Floyd wurde 2020 von Polizisten getötet. Diese Todesfälle lösten Proteste gegen Ungleichbehandlung verschiedener Ethnien im Justizsystem der USA aus.
Der dritte Beitrag, der etwa 14 Millionen Mal aufgerufen wurde, enthält ein Meme mit der Behauptung: „Adobe has developed software that can detect photoshop in an image“ („Adobe hat Software entwickelt, die erkennen kann, ob ein Bild mit Photoshop manipuliert wurde“). Unter der Behauptung wird ein Bild einer Frau gezeigt, deren Gesicht mit bunten Markierungen bedeckt ist (meistens verwendet, um Wärmeerkennung darzustellen), wodurch impliziert wird, dass Teile dieses Bildes bearbeitet wurden. Daneben wird ein Bild einer afroamerikanischen Familie am Esstisch gezeigt, auf dem der Vater und das Essen auf dem Tisch mit denselben bunten Markierungen versehen sind. Dadurch soll impliziert werden, dass diese Elemente durch Bildbearbeitung hinzugefügt wurden. Der Beitrag spielt auf ein weit verbreitetes negatives Klischee an, laut dem afroamerikanische Kinder in den USA oft ohne Vater aufwachsen. Der historische Ursprung dieses Klischees ist komplex und basiert auf institutionellem Rassismus und wirtschaftlicher Ungleichheit.
Meta ließ trotz der Einsprüche von Nutzer*innen ursprünglich alle drei Beiträge auf Facebook bestehen. In ihren Einsprüchen an das Board argumentierten dieselben Nutzer*innen, dass die Inhalte schädliche, rassistische Klischees über Afroamerikaner*innen darstellten.
Nachdem das Board Meta auf diese Fälle aufmerksam gemacht hatte, entschied das Unternehmen, dass alle Beiträge gegen den Gemeinschaftsstandard zu Hassrede verstießen. Dieser Gemeinschaftsstandard verbietet direkte Angriffe auf Personen aufgrund geschützter Eigenschaften, unter anderem aufgrund ihrer ethnischen Zugehörigkeit. Die Richtlinie verbietet außerdem ausdrücklich Inhalte, die „auf eine Person oder Personengruppe abzielen“ und dafür „menschenverachtende Äußerungen“ in Form von „Vergleichen zu Straftätern wie u. a. Dieben“, „die Verspottung des Begriffs „Hassverbrechen“, konkreter Hassdelikte oder der Opfer von Hassverbrechen“ und „Verallgemeinerungen, die Minderwertigkeit aufgrund ... moralischer Einschränkungen“ anführen.
Meta stellte außerdem fest, dass der zweite Beitrag, der die Namen Trayvon Martin und George Floyd enthält, auch gegen den Gemeinschaftsstandard gegen Mobbing und Belästigung verstößt. Darunter wird das „Bejubeln oder Verspotten des Todes oder einer Krankheit“ jeglicher Personen entfernt. Das Unternehmen erklärte, dass das Bild die Namen zweier verstorbener Personen, nämlich Trayvon Martin und George Floyd enthielt. Der Inhalt verharmlose ihre Tötungen, indem angedeutet werde, dass sie in einem fiktiven Animationsfilm Hauptrollen spielen.
Das Unternehmen entfernte deshalb alle drei Beiträge.
Befugnis und Wirkungsbereich des Oversight Boards
Das Oversight Board hat die Befugnis, die Entscheidung von Meta nach dem Einspruch der Person zu überprüfen, die einen Inhalt gemeldet hat, der veröffentlicht bleiben durfte (Artikel 2 der Satzung, Abschnitt 1; Artikel 3 der Geschäftsordnung, Abschnitt 1).
Wenn Meta einen Fehler einräumt und seine Entscheidung in einem Fall, der dem Oversight Board zur Überprüfung vorliegt, rückgängig macht, kann das Oversight Board diesen Fall für eine zusammenfassende Entscheidung auswählen (Artikel 2 der Geschäftsordnung, Abschnitt 2.1.3). Das Board überprüft die ursprüngliche Entscheidung, um das Verständnis für Prozesse der Inhaltsmoderation zu verbessern, Fehler zu reduzieren und für mehr Fairness gegenüber Facebook- und Instagram-Nutzer*innen zu sorgen.
Bedeutsamkeit der Fälle
In den drei vorliegenden Fällen hat Meta die Beiträge trotz Beschwerden von Nutzer*innen bestehen gelassen und hat damit die effektive Durchsetzung seiner Richtlinien zu Hassrede und Mobbing und Belästigung vernachlässigt. Zwei dieser Beiträge wurden besonders oft aufgerufen. Diese Moderationsfehler, bei denen nicht gegen Richtlinienverstöße vorgegangen wird, können sich negativ auf Mitglieder von Gruppen mit geschützten Eigenschaften auswirken und zur Diskriminierung in ihrem sozialen Umfeld beitragen. Das Board hat es zu einer strategischen Priorität ernannt, Meta dazu anzuhalten, stärker gegen Hassrede gegen marginalisierte Gruppen vorzugehen.
2022 empfahl das Board, dass „Meta den Gemeinschaftsstandard zu Hassrede und die Leitlinien, die den Prüfer*innen zur Verfügung gestellt werden, deutlicher formulieren sollte, indem es erläutert, dass auch implizite Verweise auf geschützte Gruppen gemäß der Richtlinie untersagt sind, wenn der Verweis allgemein verständlich wäre.“ (Entscheidung zum Knin-Cartoon, Empfehlung Nr. 1). Meta vermeldete, dass es diese Empfehlung teilweise umgesetzt hatte.
Entscheidung
Das Oversight Board hebt die ursprüngliche Entscheidung von Meta auf, die drei Beiträge veröffentlicht zu lassen. Das Oversight Board erkennt an, dass Meta seinen ursprünglichen Fehler korrigiert hat, nachdem das Board das Unternehmen auf die beiden Fälle aufmerksam gemacht hat.
Volver a Decisiones de casos y opiniones consultivas sobre políticas