أسقط
Rede eines brasilianischen Generals
تم النشر بتاريخ 22 حَزِيران 2023
Das Oversight Board hebt die ursprüngliche Entscheidung von Meta, ein Facebook-Video nicht veröffentlicht zu lassen, in dem ein brasilianischer General die Menschen zu Folgendem aufrief: „go to the National Congress and the Supreme Court“ („geht zum Nationalkongress und zum Obersten Gerichtshof“).
Zusammenfassung des Falls
Das Oversight Board hat die ursprüngliche Entscheidung von Meta aufgehoben, ein Facebook-Video nicht veröffentlicht zu lassen, in dem ein brasilianischer General die Menschen zu Folgendem aufruft: „hit the streets“ („geht auf die Straße“) und „go to the National Congress and the Supreme Court“ („geht zum Nationalkongress und zum Obersten Gerichtshof“). Das Gremium erkennt zwar an, dass Meta während und nach den Wahlen mehrere Maßnahmen zur Risikobewertung und -minderung ergriffen hat, doch angesichts des potenziellen Risikos, dass seine Plattformen im Zusammenhang mit den Wahlen dazu genutzt werden, zu Gewalt anzustiften, sollte Meta seine Bemühungen, negative Folgen zu verhindern, abzumildern und diesen entgegenzuwirken, kontinuierlich verstärken. Das Oversight Board empfiehlt Meta, einen Rahmen für die Bewertung seiner Bemühungen um Wahlintegrität zu entwickeln und so zu verhindern, dass seine Plattformen zur Förderung politischer Gewalt genutzt werden.
Über den Fall
Die brasilianischen Präsidentschaftswahlen im Oktober 2022 waren stark polarisiert. Es kam zu weitverbreiteten koordinierten Online- und Offline-Behauptungen, die die Legitimität der Wahlen infrage stellten. Dazu gehörten Aufrufe, die dazu aufforderten, militärisch einzugreifen und in Regierungsgebäude einzudringen, um den Übergang zu einer neuen Regierung zu verhindern. Auch nach dem Amtsantritt des neu gewählten Präsidenten Luiz Inácio Lula da Silva am 1. Januar 2023 ging das erhöhte Risiko politischer Gewalt nicht zurück. Es kam weiterhin zu zivilen Unruhen, Protesten und Lagern vor Militärstützpunkten.
Zwei Tage später, am 3. Januar 2023, postete ein*e Facebook-Nutzer*in ein Video zu den brasilianischen Wahlen von 2022. Darin wird auf Portugiesisch dazu aufgerufen, den brasilianischen Kongress zu „besiege“ („belagern“) – als „the last alternative“ („letzte Alternative“). Das Video zeigt außerdem einen Ausschnitt aus einer Rede eines prominenten brasilianischen Generals, der die Wiederwahl des ehemaligen Präsidenten Jair Bolsonaro unterstützt. In dem Video ruft der uniformierte General die Menschen zu Folgendem auf: „hit the streets“ („geht auf die Straße“) und „go to the National Congress … [and the] Supreme Court“ („geht zum Nationalkongress ... [und zum] Obersten Gerichtshof“). Darauf folgt eine Reihe von Bildern, darunter eines, das ein Feuer auf der Praça dos Três Poderes (Platz der drei Gewalten) in Brasília zeigt, wo sich die Büros des Präsidenten, der Kongress und der Oberste Gerichtshof Brasiliens befinden. Der portugiesische Text, der das Bild überlagert, lautet auf Englisch: „Come to Brasília! Let’s Storm it! Let’s besiege the three powers.“ („Kommt nach Brasília. Stürmen wir es! Belagern wir die drei Gewalten.“) Ein Text über einem anderen Bild lautet: „[We] demand the source code“ („Wir fordern den Quellcode“) – ein Slogan, mit dem die Demonstrierenden die Zuverlässigkeit der elektronischen Wahlautomaten in Brasilien infrage stellen.
An dem Tag, an dem der Inhalt gepostet wurde, meldete ihn ein*e Nutzer*in, weil er gegen Metas Gemeinschaftsstandard zu Gewalt und Anstiftung zu Gewalt verstieß, der Aufrufe zum gewaltsamen Eindringen in Orte verbietet, an denen Anzeichen für ein erhöhtes Risiko bestehen. Insgesamt meldeten vier Personen den Inhalt sieben Mal zwischen dem 3. und 4. Januar. Nach der ersten Meldung wurde der Inhalt von einem*einer Inhaltsprüfer*in untersucht und als nicht gegen die Meta-Richtlinien verstoßend eingestuft. Der*Die Nutzer*in legte gegen diese Entscheidung Einspruch ein. Die Entscheidung wurde jedoch durch eine*n zweite*n Inhaltsprüfer*in bestätigt. Am nächsten Tag wurden die anderen sechs Meldungen von fünf verschiedenen Moderator*innen geprüft. Sie kamen alle zu dem Schluss, dass der Inhalt nicht gegen die Richtlinien von Meta verstößt.
Am 8. Januar drangen Anhänger*innen des ehemaligen Präsidenten Bolsonaro in den Nationalkongress, den Obersten Gerichtshof und die Büros des Präsidenten auf dem Praça dos Três Poderes (Platz der drei Gewalten) in Brasília ein, schüchterten die Polizei ein und zerstörten Eigentum. Am 9. Januar erklärte Meta die Ausschreitungen vom 8. Januar zu einem „unzulässigen Ereignis“ („violating event“) im Rahmen seiner Richtlinie für gefährliche Personen und Organisationen und kündigte an, „Inhalte, die diese Aktionen unterstützen oder loben“ („content that supports or praises these actions“) zu entfernen. Das Unternehmen teilte außerdem mit, dass es „Brasilien als Ort mit erhöhtem Risiko eingestuft“ („designated Brazil as a Temporary High-Risk Location“) und „Inhalte entfernt habe, die dazu aufriefen, zu den Waffen zu greifen oder gewaltsam in den Kongress, den Präsidentenpalast und andere Regierungsgebäude einzudringen“ („been removing content calling for people to take up arms or forcibly invade Congress, the Presidential palace and other federal buildings“).
Nachdem das Board diesen Fall ausgewählt hatte, stellte Meta fest, dass seine wiederholten Entscheidungen, den Inhalt auf Facebook zu belassen, falsch waren. Am 20. Januar 2023, nachdem das Oversight Board diesen Fall in die engere Wahl gezogen hatte, entfernte Meta den Inhalt.
Wichtige Erkenntnisse
Dieser Fall gibt Anlass zur Besorgnis über die Wirksamkeit von Metas Bemühungen um Wahlintegrität – nicht nur im Zusammenhang mit den brasilianischen Parlamentswahlen von 2022. Zwar gilt die Infragestellung der Integrität von Wahlen im Allgemeinen als geschützte Meinungsäußerung, doch können weitverbreitete Behauptungen, mit denen versucht wird, Wahlen zu untergraben, unter bestimmten Umständen zu Gewalt führen. Die Entscheidung, den Beitrag zu entfernen, war im vorliegenden Fall gerechtfertigt durch die Absicht des*der Sprechers*Sprecherin, den Inhalt und die Reichweite der Äußerung sowie durch die Wahrscheinlichkeit eines drohenden Schadens im politischen Kontext Brasiliens zu jener Zeit.
Damit ein Posten gegen die Meta-Regeln zu Inhalten, die zu einem gewaltsamen Eindringen in Orte mit erhöhtem Risiko auffordern, verstößt, muss der Ort als „mit erhöhtem Risiko“ („high-risk“) eingestuft werden und in einem Gebiet (oder der in Nähe eines Gebiets) liegen, das gesondert als „Ort mit vorübergehend erhöhtem Risiko“ („temporary high-risk location“) ausgewiesen ist. Da es sich bei dem Beitrag um einen eindeutigen Aufruf zum gewaltsamen Eindringen in Regierungsgebäude auf dem Praça dos Três Poderes in Brasília („Orte mit erhöhtem Risiko“ an einem „Ort mit vorübergehend erhöhtem Risiko“ in Brasilien) handelte, stellte Metas anfängliche Entscheidung, diesen Inhalt in einer Zeit erhöhter politischer Gewalt veröffentlicht zu lassen, eine klare Abweichung von den eigenen Regeln dar.
Angesichts der zivilen Unruhen in Brasilien zum Zeitpunkt der Veröffentlichung des Inhalts und der weiten Verbreitung ähnlicher Inhalte in den Wochen und Monaten vor den Unruhen des 8. Januar ist das Oversight Board zutiefst besorgt darüber, dass die Moderator*innen von Meta diesen Inhalt wiederholt als zulässig eingestuft und ihn nicht zur weiteren Überprüfung eskaliert haben. Als das Gremium Meta um Informationen über spezifische wahlbezogene Behauptungen auf seinen Plattformen vor, während und nach den brasilianischen Wahlen bat, erklärte das Unternehmen, dass es über keine Daten zur Häufigkeit solcher Behauptungen verfüge. Der Inhalt wurde im vorliegenden Fall erst mehr als zwei Wochen später entfernt, also zu einem Zeitpunkt, zu dem das unzulässige Ereignis, zu dem er aufgerufen hatte, bereits eingetreten war, und auch erst, nachdem das Gremium Meta auf den Fall aufmerksam gemacht hatte.
Als Antwort auf eine Frage des Gremiums erklärte Meta, dass es keine besonderen Kennzahlen zur Messung des Erfolgs seiner Bemühungen um Wahlintegrität im Allgemeinen verwendet. Das Gremium empfiehlt Meta daher, einen Rahmen für die Bewertung der Bemühungen des Unternehmens um Wahlintegrität und für öffentliche Berichte zu diesem Thema zu entwickeln. Dadurch sollen dem Unternehmen relevante Daten zur Verfügung gestellt werden, damit es sein System zur Moderation von Inhalten insgesamt verbessern und entscheiden kann, wie es seine Ressourcen in Wahlkontexten am besten einsetzt. Ohne diese Art von Informationen können weder das Oversight Board noch die Öffentlichkeit die Wirksamkeit von Metas Bemühungen um Wahlintegrität im weiteren Sinne bewerten.
Die Entscheidung des Oversight Boards
Das Oversight Board hebt die ursprüngliche Entscheidung von Meta auf, den Beitrag veröffentlicht zu lassen.
Das Board empfiehlt Meta außerdem folgende Maßnahmen:
- einen Rahmen für die Bewertung seiner Bemühungen um Wahlintegrität zu entwickeln. Dazu gehört auch die Erarbeitung und Weitergabe von Kennzahlen für erfolgreiche Bemühungen um Wahlintegrität, einschließlich solcher Maßnahmen, die sich auf Metas Durchsetzung seiner Content-Richtlinien und seinen Umgang mit Werbeanzeigen beziehen.
- in seinem Transparency Center klarstellen, dass das Unternehmen neben dem Krisenrichtlinienprotokoll auch andere Protokolle anwendet, um potenziellen Schadensrisiken bei Wahlen oder anderen Ereignissen mit erhöhtem Risiko vorzubeugen und zu begegnen.
* Fallzusammenfassungen bieten einen Überblick über den Fall und haben keinen Präzedenzwert.
Ausführliche Fallentscheidung
1. Zusammenfassung der Entscheidung
Das Oversight Board hebt die ursprüngliche Entscheidung von Meta auf, ein Facebook-Video nicht veröffentlicht zu lassen, in dem ein brasilianischer General die Menschen zu Folgendem aufrief: „hit the streets“ („geht auf die Straße“) und „go to the National Congress and the Supreme Court“ („geht zum Nationalkongress und zum Obersten Gerichtshof“). Diesen Aufrufen folgte ein Bild des brennenden Praça dos Três Poderes in Brasília, wo sich diese Regierungsgebäude befinden, mit dem Overlay-Text „Come to Brasília! Let’s storm it! Let’s besiege the three powers.“ („Kommt nach Brasília. Stürmen wir es! Belagern wir die drei Gewalten.“) Nach Ansicht des Oversight Boards handelt es sich bei diesen Äußerungen um klare und unmissverständliche Aufforderungen, in diese Gebäude einzudringen und sie in Beschlag zu nehmen. Hintergrund dafür war, dass die Anhänger*innen Bolsonaros die Wahlergebnisse bestritten und eine militärische Intervention forderten, um den laufenden Regierungswechsel zu stoppen. Nachdem das Gremium diesen Beitrag in die engere Wahl gezogen hatte, hob Meta seine ursprüngliche Entscheidung auf und entfernte ihn von Facebook.
Der Fall gibt Anlass zu größerer Besorgnis über die Wirksamkeit von Metas Bemühungen um Wahlintegrität – nicht nur im Zusammenhang mit den brasilianischen Parlamentswahlen von 2022. Die Integrität von Wahlen infrage zu stellen, gilt im Allgemeinen als geschützte Meinungsäußerung. Aber unter bestimmten Umständen können weitverbreitete Online- und Offline-Behauptungen, mit denen – wie im vorliegenden Fall – versucht wird, Wahlen zu untergraben, zu Gewalt abseits des Internets führen. In Brasilien waren alle Warnsignale vorhanden, dass es zu solchen Gewalttaten kommen würde. Das Gremium erkennt zwar an, dass Meta während und nach den Wahlen mehrere Maßnahmen zur Risikobewertung und -minderung ergriffen hat, doch angesichts des potenziellen Risikos, dass seine Plattformen im Zusammenhang mit den Wahlen dazu genutzt werden, zu Gewalt anzustiften, sollte Meta seine Bemühungen, negative Folgen zu verhindern, abzumildern und diesen entgegenzuwirken, kontinuierlich verstärken. Metas Bemühungen um Wahlintegrität sollten sich auch auf die Zeit nach den Wahlen erstrecken, um das Risiko von Gewalt im Zusammenhang mit einem Machtwechsel zu verringern.
Das Gremium empfiehlt Meta deshalb, einen Rahmen für die Bewertung der Bemühungen des Unternehmens um Wahlintegrität und für öffentliche Berichte zu diesem Thema zu entwickeln. Ein solcher Rahmen sollte Erfolgsmetriken zu den wichtigsten Aspekten von Metas Bemühungen um Wahlintegrität enthalten. Das eröffnet dem Unternehmen nicht nur die Möglichkeit, Fehler zu erkennen und rückgängig zu machen, sondern auch zu verfolgen, wie effektiv seine Maßnahmen in kritischen Situationen sind. Das Gremium empfiehlt Meta außerdem, Klarheit über die verschiedenen Protokolle und Maßnahmen zu schaffen, die es eingeführt hat, um potenzielle Schadensrisiken im Zusammenhang mit Wahlen und anderen Ereignissen mit erhöhtem Risiko zu verhindern und zu bewältigen. Dazu gehört, diese Protokolle zu benennen und ihr jeweiliges Ziel, die Verbindungspunkte zwischen ihnen und ihre Unterschiede zu erläutern. Solche Protokolle müssen effektiver sein, eine klare Weisungskette haben und mit ausreichend Personal ausgestattet sein, insbesondere wenn sie in einem Wahlkontext mit erhöhtem Risiko politischer Gewalt eingesetzt werden. Mit diesen Empfehlungen ließe sich das System zur Content-Moderation insgesamt optimieren, da Meta dadurch besser verhindern könnte, dass seine Plattformen zur Förderung politischer Gewalt genutzt werden, und generell besser dazu in der Lage wäre, auf Gewalt im Zusammenhang mit Wahlen zu reagieren.
2. Beschreibung des Falls und Hintergrundinformationen
Am 3. Januar 2023 postete ein*e Facebook-Nutzer*in ein Video zu den brasilianischen Wahlen von 2022. Darin wird auf Portugiesisch dazu aufgerufen, den brasilianischen Kongress zu „besiege“ („belagern“) – als „the last alternative“ („letzte Alternative“). Das eine Minute und 32 Sekunden lange Video zeigt einen Ausschnitt aus einer Rede eines prominenten brasilianischen Generals und Unterstützers der Wiederwahl des ehemaligen Präsidenten Jair Bolsonaro. In dem Video ruft der uniformierte General die Menschen zu Folgendem auf: „hit the streets“ („geht auf die Straße“) und „go to the National Congress … [and the] Supreme Court“ („geht zum Nationalkongress ... [und zum] Obersten Gerichtshof“). Darauf folgt eine Reihe von Bildern, darunter eines, das ein Feuer auf der Praça dos Três Poderes (Platz der drei Gewalten) in Brasília zeigt, wo sich die Büros des Präsidenten, der Kongress und der Oberste Gerichtshof Brasiliens befinden. Der portugiesische Text, der das Bild überlagert, lautet auf Englisch: „Come to Brasília! Let’s Storm it! Let’s besiege the three powers.“ („Kommt nach Brasília. Stürmen wir es! Belagern wir die drei Gewalten.“) Ein Text über einem anderen Bild lautet: „[We] demand the source code“ („Wir fordern den Quellcode“) – ein Slogan, mit dem die Demonstrierenden die Zuverlässigkeit der elektronischen Wahlautomaten in Brasilien infrage stellen. Das Video wurde über 18.000 Mal abgespielt und nicht geteilt.
Zwei Tage, bevor der Inhalt gepostet wurde, war Bolsonaros Wahlgegner Luiz Inácio Lula da Silva als Präsident Brasiliens vereidigt worden, da er die Stichwahl am 30. Oktober 2022 mit 50,9 Prozent der Stimmen gewonnen hatte. Die Zeit vor, zwischen und nach den beiden Wahlgängen war durch ein erhöhtes Risiko politischer Gewalt gekennzeichnet, das durch Behauptungen über einen drohenden Wahlbetrug angeheizt wurde. Der Grund dafür war, dass die elektronischen Wahlautomaten in Brasilien angeblich anfällig für Hackerangriffe wären. Im Vorfeld der Wahl schürte der damalige Präsident Bolsonaro das Misstrauen in das Wahlsystem, indem er ohne Beweise Betrug vorwarf und behauptete, die elektronischen Wahlautomaten seien nicht zuverlässig. Einige Militärangehörige äußerten ähnliche Behauptungen über Wahlbetrug und sprachen sich dafür aus, das Militär als Schiedsrichter bei Wahlstreitigkeiten einzusetzen. Es wurden mehrere Fälle von politischer Werbunggemeldet, die die Legitimität der Wahlen auf Metas Plattformen angriffen. Dazu gehörten Beiträge und Videos, in denen Justizbehörden angegriffen und ein Militärputsch propagiert wurde. Darüber hinaus veröffentlichte Global Witness einen Bericht zu Brasilien. Darin wurde beschrieben, wie politische Werbung, die gegen die Gemeinschaftsstandards verstieß, von Meta genehmigt und auf den Plattformen des Unternehmens verbreitet wurden. Die Ergebnisse decken sich mit ähnlichen Berichten der Organisation zu anderen Ländern wie Myanmar und Kenia.
Die Zeit nach den Wahlen war von zivilen Unruhen geprägt, zu denen Proteste, Straßenblockaden und die Errichtung von Lagern vor Militärstützpunkten gehörten. Ziel der Unruhen war es, die Streitkräfte dazu aufzurufen, die Wahlergebnisse zu annullieren. Nach Angaben der vom Gremium befragten Expert*innen tauchte das Video im vorliegenden Fall erstmals im Oktober 2022 im Internet auf – kurz nachdem die Wahlergebnisse bekannt waren. Ähnliche Inhalte blieben bis zu den Unruhen am 8. Januar auf verschiedenen Social-Media-Plattformen veröffentlicht. Am 12. Dezember 2022, dem Tag, an dem Lulas Sieg vom Obersten Wahlgericht bestätigt wurde, versuchte eine Gruppe von Pro-Bolsonaro-Demonstrierenden in das Hauptquartier der Bundespolizei in Brasília einzudringen. Es kam zu mehreren Fällen von Vandalismus. Am 24. Dezember 2022 gab es einen versuchten Bombenanschlag in der Nähe des internationalen Flughafens in Brasília. Der für das Attentat verantwortliche Mann wurde verhaftet und gestand, dass es sein Ziel war, die Aufmerksamkeit auf das putschistische Anliegen zu lenken.
Das erhöhte Risiko politischer Gewalt in Brasilien hat sich mit dem Amtsantritt des neu gewählten Präsidenten am 1. Januar 2023 nicht verringert. Nach einer vom Gremium in Auftrag gegebenen Studie erreichten Falschbehauptungen über Wahlautomaten auf den Meta-Plattformen nach dem ersten und zweiten Wahlgang und erneut in den Wochen nach Lulas Sieg einen Höhepunkt. In den Tagen vor dem 8. Januar warben Bolsonaro-Anhänger*innen zudem mit mehreren verschlüsselten Slogans für Proteste in Brasília, die sich speziell gegen Regierungsgebäude richteten. Der größte Teil der logistischen Organisation wurde offenbar über andere Kommunikationskanäle als Facebook abgewickelt.
Internationale Wahlbeobachtungsmissionen wie die Organisation Amerikanischer Staaten und das Carter Center berichteten, dass es keine substanziellen Beweise für Betrug gab und dass die Wahl trotz des Drucks einer stark polarisierten Wähler*innenschaft frei und fair verlaufen war. Das brasilianische Verteidigungsministerium hat die Wahl ebenfalls offiziell beobachtet und berichtet, dass es keine Anzeichen für Unregelmäßigkeiten oder Betrug gab, obwohl es später eine widersprüchliche Erklärung veröffentlichte, dass die Streitkräfte „die Möglichkeit von Betrug nicht ausschließen“. In Brasilien beaufsichtigt das Verteidigungsministerium die Arbeit der Streitkräfte.
Die Spannungen erreichten am 8. Januar ihren Höhepunkt, als Anhänger*innen des ehemaligen Präsidenten Bolsonaro in den Nationalkongress, den Obersten Gerichtshof und die Büros des Präsidenten auf dem Praça dos Três Poderes (Platz der drei Gewalten) in Brasília eindrangen (auf die sich dieser Fall bezieht), die Polizei einschüchterten und Eigentum zerstörten. Rund 1.400 Personen wurden wegen ihrer Teilnahme an den Unruhen vom 8. Januar festgenommen, etwa 600 befinden sich noch immer in Haft.
Nach den Ereignissen vom 8. Januar verurteilten die Vereinten Nationen die Gewaltanwendung und bezeichneten sie als „Höhepunkt der anhaltenden Verdrehung von Tatsachen und der Anstiftung zu Gewalt und Hass durch politische, soziale und wirtschaftliche Akteure, die eine Atmosphäre des Misstrauens, der Spaltung und der Zerstörung geschürt haben, indem sie das Ergebnis demokratischer Wahlen ablehnten.“ Die Vereinten Nationen bekräftigten noch einmal ihr Engagement und ihr Vertrauen in die demokratischen Institutionen Brasiliens. Öffentliche Stellungnahmen und vom Gremium konsultierte Expert*innen wiesen darauf hin, dass Behauptungen, die die Integrität des brasilianischen Wahlsystems vorschnell in Zweifel ziehen, die politische Polarisierung vorantreiben und politische Gewalt abseits des Internets ermöglichen (siehe öffentliche Stellungnahmen des Dangerous Speech Project [PC-11010], von LARDEM – Clínica de Direitos Humanos da Pontifícia Universidade Católica do Paraná [PC-11011], Instituto Vero [PC-11015], ModeraLab [PC-11016], Campaign Legal Center [PC-11017], Center for Democracy & Technology [PC-11018], InternetLab [PC-11019], und Coalizão Direitos na Rede [PC-11020]).
Am 9. Januar 2023 erklärte Meta die Ausschreitungen vom 8. Januar zu einem „unzulässigen Ereignis“ („violating event“) im Rahmen seiner Richtlinie für gefährliche Personen und Organisationen und kündigte an, „Inhalte, die diese Aktionen unterstützen oder loben“ („content that supports or praises these actions“) zu entfernen. Das Unternehmen teilte außerdem mit, dass es Brasilien „im Vorfeld der Wahlen“ „als Ort mit erhöhtem Risiko eingestuft“ („designated Brazil as a Temporary High-Risk Location“) und „Inhalte entfernt habe, die dazu aufriefen, zu den Waffen zu greifen oder gewaltsam in den Kongress, den Präsidentenpalast und andere Regierungsgebäude einzudringen“ („been removing content calling for people to take up arms or forcibly invade Congress, the Presidential palace and other federal buildings“).
Am 3. Januar, also am gleichen Tag, an dem der Inhalt gepostet wurde, meldete ihn ein*e Nutzer*in als Verstoß gegen Metas Gemeinschaftsstandard zu Gewalt und Anstiftung zu Gewalt. Dieser untersagt u. a. Aufrufe zum gewaltsamen Eindringen ... „in Orte, an denen vorübergehend Anzeichen für ein erhöhtes Risiko für Gewalt oder Schaden abseits des Internets bestehen“. Insgesamt meldeten vier Personen den Inhalt sieben Mal zwischen dem 3. und 4. Januar. Nach der ersten Meldung wurde der Inhalt von einem*einer menschlichen Moderator*in geprüft. Dabei wurde festgestellt, dass er nicht gegen die Richtlinien von Meta verstößt. Der*Die Nutzer*in legte gegen diese Entscheidung Einspruch ein. Die Entscheidung wurde jedoch durch einen*eine zweite*n menschliche*n Moderator*in bestätigt. Am nächsten Tag wurden die anderen sechs Meldungen von fünf verschiedenen Moderator*innen geprüft. Sie kamen alle zu dem Schluss, dass der Inhalt nicht gegen die Richtlinien von Meta verstößt. Der Inhalt wurde für eine zusätzliche Überprüfung an Expert*innen für die Richtlinie bzw. das Thema eskaliert. Als Antwort auf eine Frage des Gremiums stellte Meta klar, dass die sieben Personen, die den Inhalt überprüften, in Europa ansässig waren. Laut Meta sprachen sie alle fließend Portugiesisch und verfügten über die sprachlichen und kulturellen Kenntnisse, um brasilianische Inhalte zu überprüfen.
Nachdem das Board diesen Fall ausgewählt hatte, stellte Meta fest, dass seine wiederholten Entscheidungen, den Inhalt auf Facebook zu belassen, falsch waren. Am 20. Januar 2023, nachdem das Gremium den Fall in die engere Wahl gezogen hatte, entfernte Meta den Inhalt, sperrte das Konto des*der Content-Creators*Content-Creatorin und verhängte eine 24-stündige Funktionseinschränkung, die ihn*sie daran hinderte, innerhalb dieses Zeitraums neue Inhalte zu erstellen. Trotz der von Meta ergriffenen Maßnahmen wurde im öffentlichen Kommentar, den die zivilgesellschaftliche Gruppe Ekō beim Oversight Board eingereichten hatte, sowie in anderen Berichten hervorgehoben, dass ähnliche Inhalte auch dann noch auf Facebook zu finden waren, nachdem das Oversight Board Meta auf diesen Fall aufmerksam gemacht hatte (PC-11000).
3. Befugnis und Wirkungsbereich des Oversight Boards
Das Board ist befugt, die Entscheidung von Meta zu überprüfen, nachdem die Person dagegen Einspruch erhoben hatte, dass von ihr gemeldete Inhalte veröffentlicht gelassen wurden (Artikel 2 der Satzung, Abschnitt 1; Artikel 3 der Geschäftsordnung, Abschnitt 1). Das Gremium kann die Entscheidung von Meta bestätigen oder aufheben (Artikel 3 der Satzung, Abschnitt 5), und seine Entscheidung ist für das Unternehmen verbindlich (Artikel 4 der Satzung). Meta muss außerdem die Umsetzbarkeit seiner Entscheidung in Bezug auf identische Inhalte mit parallelem Kontext auswerten (Artikel 4 der Satzung). Die Entscheidungen des Oversight Boards können unverbindliche Empfehlungen umfassen, auf die Meta antworten muss (Artikel 3 der Satzung, Abschnitt 4; Artikel 4). Wo Meta sich verpflichtet, auf Grundlage von Empfehlungen zu handeln, überwacht das Oversight Board die Umsetzung.
Wenn das Gremium Fälle wie diesen auswählt, in denen Meta nachträglich einen Fehler einräumt, überprüft es die ursprüngliche Entscheidung, um besser verstehen zu können, welche Parameter der Richtlinien und welche Prozesse der Content-Moderation zu dem Fehler geführt haben. Das Oversight Board versucht dann, die Probleme zu lösen, die es bei Metas zugrunde liegenden Richtlinien oder Prozessen festgestellt hat. Ziel des Gremiums ist es auch, Empfehlungen an Meta auszusprechen, um so die Genauigkeit der Durchsetzung zu verbessern und die Nutzer*innen weiterhin fair zu behandeln.
4. Quellen der Befugnis und Leitfäden
Das Oversight Board hat bei seiner Analyse dieses Falls folgende Standards und Präzedenzfälle berücksichtigt:
I. Entscheidungen des Oversight Boards:
Zu den relevantesten früheren Entscheidungen des Oversight Board gehören:
- „Sperrung des ehemaligen US-Präsidenten Trump“ (Fallentscheidung 2021-001-FB-FBR): Das Gremium stellte fest, dass es die menschenrechtliche Verantwortung von Meta in Wahlkontexten erforderlich macht, politische Meinungsäußerungen zuzulassen und gleichzeitig ernsthafte Risiken für andere Menschenrechte zu vermeiden.
- „Myanmar Bot“ (Fallentscheidung 2021-007-FB-UA): Das Gremium betonte, wie wichtig der Schutz politischer Äußerungen in Zeiten politischer Krisen ist.
- „Kommunikationsbüro Tigray“ (Fallentscheidung 2022-006-FB-MR): Das Oversight Board unterstrich die Verantwortung von Meta, ein von Prinzipien geleitetes, transparentes System zur Moderation von Inhalten in Konfliktgebieten einzurichten, um das Risiko zu mindern, dass seine Plattformen zur Anstiftung zu Gewalttaten genutzt werden.
- „Knin-Cartoon” (Fallentscheidung 2022-001-FB-UA): Das Gremium forderte Meta dazu auf, mehr Klarheit darüber zu schaffen, wie Inhalte an Expert*innen eskaliert werden.
II.Die Content-Richtlinien von Meta:
Gemeinschaftsstandard zu Gewalt und Anstiftung zu Gewalt
Gemäß dem Gemeinschaftsstandard zu Gewalt und Anstiftung zu Gewalt gestattet Meta keine „Absichtserklärungen, Handlungsaufrufe oder Aussagen, die die Absicht oder Androhung enthalten, Waffen an bestimmte Orte (wie u. a. Gebetsstätten, Bildungseinrichtungen, Wahllokale oder Standorte, an denen die Stimmauszählung oder Verwaltung einer Wahl stattfindet) oder Orte, an denen vorübergehend Anzeichen für ein erhöhtes Risiko für Gewalt oder Schaden abseits des Internets bestehen, zu bringen oder dort zu ergreifen bzw. Aussagen, die ein diesbezügliches Vorhaben enthalten oder unter gewissen Bedingungen ankündigen.“ Der Grundgedanke dieser Richtlinie der Gemeinschaftsstandards besteht darin, „potenziellen Schaden abseits des Internets zu verhindern, der möglicherweise im Zusammenhang mit Inhalten“ auf Metas Plattformen steht. Gleichzeitig ist sich Meta darüber im Klaren, „dass Menschen ihre Verachtung bzw. Geringschätzung oder Ablehnung häufig durch Drohungen oder Aufrufe zur Gewalt ausdrücken, die scherzhaft und nicht ernst gemeint sind.“ Meta entfernt daher Inhalte, wenn das Unternehmen der Ansicht ist, „dass eine echte Gefahr von Körperverletzung oder eine unmittelbare Gefährdung der öffentlichen Sicherheit besteht.“ Bei der Feststellung, ob eine Drohung glaubwürdig ist, berücksichtigt Meta auch „Sprache und Kontext“.
Bei der Analyse des Oversight Boards wurden auch Metas Verpflichtung zur „Mitsprache“, der das Unternehmen „höchste Priorität“ einräumt, sowie „Sicherheit“ berücksichtigt.
III. Menschenrechtliche Verantwortung von Meta
Die UN-Leitprinzipien für Wirtschaft und Menschenrechte (United Nations Guiding Principles on Business and Human Rights, UNGPs), die 2011 vom UN-Menschenrechtsrat verabschiedet wurden, geben einen freiwilligen Rahmen für die menschenrechtliche Verantwortung von Unternehmen vor. Im Jahr 2021 veröffentlichte Meta seine Unternehmensrichtlinie zu Menschenrechten, in der das Unternehmen seine Verpflichtung zur Achtung der Menschenrechte gemäß den UN-Leitprinzipien bekräftigte.
Das Oversight Board hat bei seiner Analyse der menschenrechtlichen Verantwortung von Meta im vorliegenden Fall folgende internationale Standards berücksichtigt:
- Das Recht auf Meinungsfreiheit und freie Meinungsäußerung: Artikel 19 und 20, Internationaler Pakt über bürgerliche und politische Rechte (ICCPR), Allgemeine Bemerkung Nr. 34, Menschenrechtsausschuss, 2011; Research Paper 1/2019 on Elections in the Digital Age (2019): Berichte des UN-Sonderberichterstatters für Meinungsfreiheit und freie Meinungsäußerung: A/HRC/38/35 (2018) und A/74/486 (2019); Aktionsplan von Rabat, Bericht des UN-Hochkommissariats für Menschenrechte: A/HRC/22/17/Add.4 (2013).
- Das Recht, sich friedlich zu versammeln: Artikel 21, ICCPR; Allgemeine Bemerkung Nr. 37 des Menschenrechtsausschusses, 2020;
- Das Recht auf Leben: Artikel 6, ICCPR.
- Das Recht, an der Gestaltung der öffentlichen Angelegenheiten teilzunehmen, und Wahlrecht: Artikel 25, ICCPR.
5. Einreichungen des*der Nutzers*Nutzerin
In ihrem Einspruch beim Oversight Board erklärte die Person, die den Inhalt gemeldet hatte, Folgendes: „have already reported this and countless other videos to Facebook and the answer is always the same, that it doesn’t violate the Community Standards“ („habe dieses und unzählige andere Videos bereits an Facebook gemeldet und die Antwort ist immer die gleiche, dass es nicht gegen die Gemeinschaftsstandards verstößt“). Darüber hinaus brachte die Person das Potenzial des Inhalts, zu Gewalt aufzurufen, mit Aktionen von Menschen in Brasilien in Verbindung, „who do not accept the results of elections“ („die die Ergebnisse der Wahlen nicht akzeptieren“).
6. Einreichungen von Meta
Als das Gremium Meta auf diesen Fall aufmerksam machte, stellte das Unternehmen fest, dass seine ursprüngliche Entscheidung, den Inhalt veröffentlicht zu lassen, falsch war. Meta stellte dem Gremium eine umfassende Analyse des sozialen und politischen Kontextes in Brasilien vor, und zwar vor, während und nach den Präsidentschaftswahlen, um so die – wenn auch verspätete – Entfernung der Inhalte im vorliegenden Fall zu rechtfertigen. Später lieferte Meta dem Gremium die wahrscheinlichen Faktoren, die zu dem fortdauernden Fehler bei der Durchsetzung „beigetragen haben könnten“.
Meta vertrat die Ansicht, dass „die mehrfachen Verweise auf die ‚Belagerung‘ von Orten mit erhöhtem Risiko in der Bildunterschrift und im Video für sich genommen nicht den Grad eines ‚gewaltsamen Eindringens‘ im Sinne der Richtlinie [Gewalt und Anstiftung zu Gewalt] erreichen“. Doch „die Kombination von Aufrufen wie ‚Come to Brasília! Let’s storm it! Let’s besiege the three powers‘ [‚Kommt nach Brasília. Stürmen wir es! Belagern wir die drei Gewalten.‘] mit dem Hintergrundbild, das den brennenden Praça dos Três Poderes [Platz der drei Gewalten] zeigt, macht die Absicht deutlich, gewaltsam in diese zentralen Orte einzudringen.“
Nach Ansicht von Meta kam für diesen Inhalt nicht die Ausnahmeregelung für Inhalte mit hohem Nachrichtenwert infrage, auch wenn das Unternehmen einräumte, dass seine Plattformen „wichtige Orte für den politischen Diskurs sind, insbesondere bei Wahlen“. Im vorliegenden Fall überwiegt der Wert des Inhalts für das öffentliche Interesse nicht das Risiko einer Schädigung angesichts des „eindeutigen Aufrufs zur Gewalt“ und des „erhöhten Risikos von Schaden abseits des Internets nach den brasilianischen Präsidentschaftswahlen und der Amtseinführung von Lula“. Meta fand keinen Hinweis darauf, dass der Inhalt geteilt wurde, um den Aufruf zur Gewalt zu verurteilen oder ein Bewusstsein dafür zu schaffen. Das Unternehmen erklärt, dass seine endgültige Entscheidung, den Inhalt zu entfernen, im Einklang mit seinen Werten und den internationalen Menschenrechtsstandards steht.
Im Umgang mit Wahlen und anderen Krisensituationen hat Meta mehrere Maßnahmen zur Risikobewertung und -minderung eingerichtet. Diese können von verschiedenen Teams durchgeführt und gleichzeitig oder unabhängig voneinander angewendet werden. Je nach der jeweiligen Risikobewertung gibt es unterschiedliche „Stufen“ oder „Grade“ der Intensität:
- Die Richtlinie „Integrity Country Prioritization“ (auch bekannt als „at-risk tiering system“, deutsch: „Einstufung von Ländern als Risikoländer“), die vom Produktteam in den Meta-Technologien verwaltet wird, bietet einen Rahmen für die langfristige Priorisierung von Investitionen in Produktressourcen. Meta beschreibt diesen Prozess zwar als unempfindlich gegenüber kurzzeitigen Krisen, bewertet aber alle Länder zweimal pro Jahr im Hinblick auf neu auftretende Risiken/Bedrohungen.
- Die Integrity Product Operations Centers (IPOCs) bringen funktionsübergreifende Teams von Expert*innen aus dem gesamten Unternehmen zusammen, um „in Echtzeit auf potenzielle Probleme und Trends reagieren zu können“. IPOCs werden eingerichtet, um schnell eine große Anzahl von Problemen zu bewerten, Risiken zu ermitteln und festzulegen, wie sie im Rahmen einer Krise oder einer Hochrisikosituation angegangen werden sollen. IPOCs werden als Election Operation Centers bezeichnet, wenn sie speziell auf Wahlen ausgerichtet sind.
- Election Operation Centers bieten ein „Echtzeit-Monitoring im Hinblick auf wichtige Themen im Zusammenhang mit Wahlen, z. B. Bemühungen, Menschen an der Stimmabgabe zu hindern, vermehrtes Aufkommen von Spam, potenzielle Einmischung aus dem Ausland oder Berichte über Inhalte, die gegen [Metas] Richtlinien verstoßen“, und „überwachen die Nachrichtenberichterstattung und wahlbezogene Aktivitäten in anderen sozialen Netzwerken und traditionellen Medien“. Die Zentren bieten Meta einen „kollektiven Überblick und helfen dabei, nachzuverfolgen, welche Arten von Inhalten viral gehen könnten“. Das Unternehmen kann so die Reaktionszeit auf diese Bedrohungen „beschleunigen“. Ein Teil der Vorbereitungen des Election Operation Center umfasst „eine umfangreiche Szenarienplanung, um potenzielle Bedrohungen – von Belästigung bis hin zur Wähler*innenunterdrückung – durchzuspielen und im Voraus Systeme und Verfahren zu entwickeln, mit denen effektiv darauf reagiert werden kann“.
- Schließlich ist das Krisenrichtlinienprotokoll (Crisis Policy Protocol) der von Meta festgelegte Rahmen für die Entwicklung zeitgebundener, richtlinienspezifischer Reaktionen auf eine sich abzeichnende Krise. Meta hat dieses Protokoll als Reaktion auf die Empfehlung des Oversight Boards im Fall der Sperrung des ehemaligen US-Präsidenten Trump entwickelt. Im Rahmen dieses Protokolls legt Meta drei Krisenkategorien fest, auf deren Grundlage das Unternehmen eine Reihe von Maßnahmen zur Risikominderung ergreift. Eine Krise der Kategorie 1 wird beispielsweise durch „verstärkte Aktivitäten der Strafverfolgungsbehörden oder des Militärs“ oder durch „eine geplante Wahl mit erhöhtem Risiko oder ein Ereignis in einem Spannungsgebiet“ ausgelöst.
Das Election Operation Center für die brasilianischen Parlamentswahlen von 2022 war von September bis November 2022 zu verschiedenen Zeitpunkten im Einsatz, unter anderem während des ersten und zweiten Wahlgangs. Zu dem Zeitpunkt, an dem der Inhalt gepostet wurde (am 3. Januar 2023), gab es jedoch noch kein Election Operation Center (oder IPOC). Meta bezeichnete die „Unruhen nach den Wahlen“ als Krise im Sinne des Krisenrichtlinienprotokolls, das dem Unternehmen bei der Bewertung der Frage helfen soll, wie es Risiken durch Inhalte am besten mindern kann.
Als Antwort auf eine Frage des Oversight Boards zu digitalen Trends auf Metas Plattformen vor, während und nach den Wahlen in Brasilien erklärte das Unternehmen, dass im Rahmen seiner „Arbeit zur Vorbereitung von und Reaktion auf Wahlen eine Reihe von Teams wahlbezogene Trends bei Inhalten ermittelt und in [ihre] Strategie zur Risikominderung integriert haben“. Dazu gehörten: „(i) Risiken im Zusammenhang mit der Anstiftung oder Verbreitung von Gewaltandrohungen; (ii) Fehlinformationen; und (iii) Unternehmensintegrität, was auch Risiken im Zusammenhang mit dem potenziellen Missbrauch von Werbung mit gefährlichen Inhalten umfasst ... oder Versuche, Kampagnen in einer Weise durchzuführen, die die öffentliche Debatte manipuliert oder korrumpiert.“ Meta erklärte, dass die Ergebnisse neben anderen Faktoren dazu beigetragen haben, eine Reihe von Abhilfemaßnahmen im Hinblick auf die Produkte und die Richtlinien zu treffen. Meta verfügt jedoch über keine „Verbreitungsdaten“ zu bestimmten Behauptungen (z. B. Wahlbetrug, Aufrufe, nach Brasília zu kommen oder gewaltsam in Regierungsgebäude einzudringen, Aufrufe zu einer militärischen Intervention), da die Durchsetzungssysteme des Unternehmens im Allgemeinen „so eingerichtet sind, dass sie auf Grundlage der Richtlinien, gegen die [diese Behauptungen] verstoßen, überwacht und erfasst werden“.
Das Gremium stellte Meta 15 schriftliche Fragen. Davon wurden 5 Fragen im Anschluss an eine mündliche Unterrichtung über die Funktionsweise der Election Operation Centers gestellt. Die Fragen bezogen sich auf Folgendes: „Richtlinienhebel“ (policy levers), die zur Verfügung stehen, um auf Metas Plattformen gegen koordiniertes Verhalten vorzugehen; Risiken, die im Vorfeld der brasilianischen Wahlen von 2022 ermittelt wurden; die Beziehung zwischen dem Election Operation Center für die Wahlen in Brasilien und dem Krisenrichtlinienprotokoll (Crisis Policy Protocol); wie Meta die Grenze zieht, wenn es zwischen legitimer politischer Organisierung und gefährlichen koordinierten Aktionen unterscheidet; digitale Trends auf Metas Plattformen in Brasilien vor, während und nach den Wahlen; sowie die sprachlichen Fähigkeiten der Content-Moderator*innen, die den Inhalt dieses Falls überprüften.
Meta beantwortete 13 Fragen. Zwei Fragen beantwortete Meta nicht: eine zum Verhältnis zwischen politischer Werbung und Fehlinformationen und eine weitere zur Anzahl der Löschungen von Seiten und Konten im Rahmen der Einrichtung des Election Operation Centers für die Wahlen in Brasilien im Jahr 2022. Darüber hinaus teilte Meta dem Oversight Board mit, dass das Unternehmen nicht über allgemeinere Daten zur Content-Moderation im Zusammenhang mit den Wahlen in Brasilien im Jahr 2022 verfüge, die es dem Gremium zusätzlich zu der bereits öffentlich mitgeteilten Anzahl von Takedowns mitteilen könne. Außerdem erklärte Meta, dass das Unternehmen seine Performance im Rahmen von Wahlen nicht anhand einer Reihe von bestimmten Erfolgsmaßstäben und Benchmarks bewerte. Meta wies darauf hin, dass bei der Beantwortung der Fragen des Gremiums Prioritäten bei den Ressourcen gesetzt werden müssten. Ferner erklärte das Unternehmen, dass es nicht möglich sei, die angeforderten Daten innerhalb des Zeitrahmens für die Entscheidung des Falles bereitzustellen.
7. Öffentliche Kommentare
Das Oversight Board hat zu diesem Fall 18 öffentliche Kommentare erhalten. Elf der Kommentare stammten aus Lateinamerika und der Karibik, drei aus den USA und Kanada, zwei aus dem Nahen Osten und Nordafrika, einer aus dem Asien-Pazifik-Raum und Ozeanien und einer aus Zentral- und Südasien. Darüber hinaus organisierte das Oversight Board im Februar 2023 einen Rundtisch mit Stakeholdern aus Brasilien und Lateinamerika zum Thema „Content Moderation and Political Transitions“ („Content-Moderation und politische Übergänge“).
Die Einreichungen behandelten folgende Themen: die Häufung gefährlicher Behauptungen über Wahlbetrug und Aufrufe zu einem Militärputsch auf Social-Media-Plattformen vor, während und nach den Wahlen in Brasilien im Jahr 2022; wahlbezogene Desinformation; Metas Bemühungen um Wahlintegrität; Metas Verantwortung für den Schutz der Nutzer*innenrechte im Kontext eines demokratischen Machtwechsels; die Beziehung zwischen Wahlleugnung und politischer Gewalt; und warum es wichtig ist, dass Inhaltsprüfer*innen mit dem lokalen politischen Kontext vertraut sind.
Die öffentlichen Kommentare, die zum vorliegenden Fall eingereicht wurden, können hier eingesehen werden.
8. Analyse des Oversight Boards
Das Gremium untersuchte, ob dieser Inhalt entfernt werden sollte, indem es die Inhaltsrichtlinien, die menschenrechtliche Verantwortung und die Werte von Meta analysierte. Dieser Fall wurde ausgewählt, weil das Oversight Board anhand dieses Beispiels beurteilen kann, wie Meta die friedliche Organisierung auf seinen Plattformen von der Anstiftung oder Koordinierung gewalttätiger Aktionen unterscheidet, insbesondere im Kontext eines Machtwechsels. Darüber hinaus gibt der Fall dem Gremium die Möglichkeit, Metas Bemühungen um Wahlintegrität im Allgemeinen und in Brasilien im Besonderen zu untersuchen. Denn die Zeit nach den Wahlen ist ein entscheidender Moment, in dem die Integrität einer Wahl angreifbar ist und in dem sichergestellt sein sollte, dass die rechtmäßigen Wahlergebnisse respektiert werden. Daher ist das Gremium der Ansicht, dass Metas Bemühungen um Wahlintegrität sich sowohl auf den Wahlprozess selbst als auch auf die Zeit nach der Wahl erstrecken sollten, da letzterer Zeitraum ebenfalls anfällig für Manipulationen, wahlbezogene Fehlinformationen und Gewaltandrohungen ist. Dieser Fall fällt in die strategischen Prioritäten „Wahlen“ und „bürgerlicher Raum“ des Gremiums.
8.1 Einhaltung der Content-Richtlinien von Meta
I. Inhaltsregeln
Gewalt und Anstiftung zu Gewalt
Das Oversight Board ist der Ansicht, dass der Inhalt im vorliegenden Fall gegen das im Gemeinschaftsstandard zu Gewalt und Anstiftung zu Gewalt festgelegte Verbot von Inhalten verstößt, die zum gewaltsamen Eindringen in bestimmte Orte mit erhöhtem Risiko aufrufen. Das Gremium ist zwar der Ansicht, dass Metas Wert der „Mitsprache“ in Wahlprozessen, auch in der Zeit nach einer Wahl, besonders relevant ist, dass aber die Entfernung des Inhalts im vorliegenden Fall notwendig ist, um Metas Wert „Sicherheit“ nachzukommen.
Um gegen die Richtlinie zu verstoßen, die das gewaltsame Eindringen in Orte mit erhöhtem Risiko untersagt, sind zwei Einstufungen erforderlich, die auf ein „erhöhtes Risiko“ hinweisen. Erstens muss der Ort als „mit erhöhtem Risiko“ („high-risk“) eingestuft werden. Zweitens muss dieser in einem Gebiet (oder der in Nähe eines Gebiets) liegen, das gesondert als „Ort mit vorübergehend erhöhtem Risiko“ („temporary high-risk location“) ausgewiesen ist. Metas spezifische Anweisungen an die Inhaltsprüfer*innen lauten, „Handlungsaufrufe, Absichtserklärungen, Befürwortungen und Aufforderungen zu entfernen, die darauf abzielen, gewaltsam in Orte mit erhöhtem Risiko innerhalb eines Orts mit vorübergehend erhöhtem Risiko einzudringen.“
Meta definiert einen „Ort mit erhöhtem Risiko“ („high-risk location“) als einen „ständigen oder vorübergehenden Ort, der aufgrund der Wahrscheinlichkeit, dass er Ziel von Gewalttaten sein könnte, als ‚Ort mit erhöhtem Risiko‘ gilt.“ Zu den Orten mit ständig erhöhtem Risiko gehören „Arbeits- oder Wohnorte von Hochrisikopersonen oder ihren Familien (z. B. der Hauptsitz einer Nachrichtenorganisation, medizinische Zentren, Labors, Polizeistationen, Regierungsbüros usw.); Einrichtungen, die während lokaler, regionaler und nationaler Wahlen als Registrierungszentrum für Wähler*innen, Wahllokal, Wahlauszählungsstelle (z. B. lokale Bibliothek, Regierungsgebäude, Gemeinde- oder Bürger*innenzentrum usw.) oder ein Ort, der für die Verwaltung einer Wahl genutzt wird.“ Nach Ansicht von Meta sind der Nationalkongress Brasiliens, der Oberste Gerichtshof und die Büros des Präsidenten ständige „Orte mit erhöhtem Risiko“, da sie Arbeits- oder Wohnorte von Hochrisikopersonen oder deren Familien sind.
Die zusätzliche Bezeichnung als „Ort mit vorübergehend erhöhtem Risiko“ für das weitere Gebiet oder die nähere Umgebung bezieht sich auf jeden „Ort, der von [Meta] vorübergehend für einen bestimmten Zeitraum [als solcher] ausgewiesen ist.“ Es gibt viele Faktoren, anhand derer ein Ort als „Ort mit vorübergehend erhöhtem Risiko“ eingestuft wird, darunter „ob es in den letzten sieben Tagen bei einer Demonstration an diesem Ort zu schweren Gewalttaten gekommen ist“, „Hinweise auf ein erhöhtes Gewaltrisiko im Zusammenhang mit zivilen Unruhen oder einer umstrittenen Gerichtsentscheidung an diesem Ort“, „eine Bewertung durch die Strafverfolgungsbehörden, interne Sicherheitsberichte oder einen vertrauenswürdigen Partner, dass es an diesem Ort wahrscheinlich zu unmittelbar bevorstehenden Gewalttaten kommen wird“; „Hinweise auf geplante oder aktive Proteste an dem Ort bzw. auf geplante oder aktive Proteste an dem Ort, bei denen der*die Organisator*in dazu aufgerufen hat, Waffen einzusetzen oder an den Ort des Protests zu bringen“ sowie „eine Einschätzung der internen Teams, dass die Sicherheitsbedenken die potenziellen Auswirkungen auf die Ausübung des Rechts auf Selbstverteidigung und Selbstbestimmung überwiegen.“ Sobald ein Ort als „Ort mit vorübergehend erhöhtem Risiko“ ausgewiesen ist, wird die Einstufung an die internen Teams von Meta weitergegeben. Zwar sind solche Einstufungen zeitlich begrenzt, doch verlängert Meta sie gelegentlich. Nach Angaben von Meta führt die Einstufung als Ort mit vorübergehend erhöhtem Risiko zu einer proaktiven Überprüfung von Inhalten, „bevor Nutzer*innen [sie] melden“.
Für die Wahlen von 2022 stufte Meta das gesamte Land Brasilien als Ort mit vorübergehend erhöhtem Risiko ein. Die Einstufung erfolgte ursprünglich am 1. September 2022. Grund dafür war die Einschätzung von Meta, dass im Zusammenhang mit den anhaltenden zivilen und wahlbezogenen Unruhen ein erhöhtes Gewaltrisiko besteht. Die Einstufung wurde bis zum 22. Februar 2023 verlängert, um die Wahlen im Oktober 2022 und deren Nachwirkungen zu berücksichtigen. Zum Zeitpunkt, als der Inhalt dieses Falls gepostet wurde, war die Einstufung bereits erfolgt.
Laut Meta müssen beide Einstufungen vorliegen, damit ein Inhalt gegen die Richtlinie verstößt. Dies war bei dem untersuchten Beitrag der Fall. Meta zufolge trägt diese doppelte Anforderung dazu bei, dass Aufrufe zu Protesten nicht pauschal unterdrückt werden und dass nur Inhalte entfernt werden, die zu Gewalt führen könnten.
In Anbetracht dessen sieht das Gremium die anfänglichen Entscheidungen von Meta, dass die Inhalte während einer Zeit mit erhöhtem Risiko für politische Gewalt auf der Plattform verbleiben sollten, als eine klare Abweichung von seinem eigenen Standard an, da sie einen eindeutigen Aufruf zum gewaltsamen Eindringen in Regierungsgebäude auf dem Praça dos Três Poderes in Brasília (die „Orte mit erhöhtem Risiko“ an einem „Ort mit vorübergehend erhöhtem Risiko“ in Brasilien sind) darstellten.
II. Durchsetzungsmaßnahmen
Nach Angaben von Meta überprüften sieben menschliche Moderator*innen, die über das erforderliche sprachliche und kulturelle Fachwissen verfügten, den Inhalt. Meta weist Prüfer*innen großen Datenmengen nicht dazu an, ihre Entscheidungsgründe zu dokumentieren. Als das Oversight Board diesen Fall auswählte, führten die internen Teams von Meta eine Analyse durch. Diese kam zu dem Schluss, dass drei wahrscheinliche Faktoren zu dem fortdauernden Fehler bei der Durchsetzung „beigetragen haben könnten“: (1) Die Prüfer*innen haben die Absicht des*der Nutzers*Nutzerin (einen Handlungsaufruf) missverstanden, möglicherweise aufgrund fehlender Interpunktion, was dazu führte, dass der Inhalt als neutraler Kommentar über das Ereignis fehlinterpretiert wurde; oder (2) die Prüfer*innen haben eine falsche Entscheidung getroffen, obwohl die korrekten Richtlinien aufgrund mehrerer Aktualisierungen zum Umgang mit Inhalten im Zusammenhang mit Ereignissen mit erhöhtem Risiko in Form verschiedener Quellen vorlagen; oder (3) die Prüfer*innen haben den Verstoß im Video möglicherweise nicht gesehen.
Die Faktoren 1 und 3 deuten darauf hin, dass die Moderator*innen diesen Inhalt nicht sorgfältig geprüft und das Video nicht vollständig angesehen haben, da der darin enthaltene potenzielle Verstoß gegen die Richtlinien von Meta offensichtlich war. Meta gibt jedoch keine Erklärung dafür ab, warum der Inhalt nicht an Fach- und Politikexpert*innen zur weiteren Analyse eskaliert wurde. Der Inhalt wurde nicht eskaliert, obwohl er aus einem Land stammte, das zu dem Zeitpunkt, als der Inhalt veröffentlicht und gemeldet wurde, als „Ort mit vorübergehend erhöhtem Risiko“ ausgewiesen war. Die entsprechende Richtlinie wird nur aktiviert, wenn diese Einstufung vorliegt. Darüber hinaus wurde der Inhalt trotz des allgemeinen Online- und Offline-Kontextes in Brasilien nicht eskaliert (siehe Abschnitt 2).
Meta setzte das Oversight Board bereits darüber in Kenntnis, dass die Inhaltsprüfer*innen nicht immer in der Lage sind, Videos vollständig anzusehen. Dennoch erwartet das Gremium, dass die Inhaltsprüfer*innen in Situationen mit erhöhtem Risiko für Gewalt, in denen bereits bestimmte „Richtlinienhebel“ (policy levers) zum Tragen kamen, dazu angehalten sind, Videos vollständig anzusehen und potenziell unzulässige Inhalte zu eskalieren.
In Bezug auf Faktor 2 gab Meta zwar an, dass es Prüfer*innen großer Datenmengen über Einstufungen von Orten als „Orte mit vorübergehend erhöhtem Risiko“ informiert, räumt aber ein, dass es bei der Bekanntmachung dieser und anderer wahlbezogener Maßnahmen zur Risikominderung möglicherweise zu Defiziten gekommen ist. Die Bekanntmachung dieser Art von Informationen ermöglicht es den Inhaltsprüfer*innen, problematische Inhalte wie das Video im vorliegenden Fall zu erkennen, zu entfernen oder zu eskalieren. Die Tatsache, dass in Brasilien zum damaligen Zeitpunkt bereits verschiedene Bewertungs- und Abhilfemaßnahmen existierten, zeigt, dass diese wahrscheinlich besser formuliert werden müssen und eine klarere Weisungskette haben müssen, damit die Bemühungen des Unternehmens um Wahlintegrität effektiver werden können.
Auch wenn sich Meta letztlich dazu entschlossen hat, den Inhalt zu entfernen, ist das Oversight Board zutiefst besorgt darüber, dass – trotz der zivilen Unruhen in Brasilien zum Zeitpunkt der Veröffentlichung des Inhalts und der weiten Verbreitung ähnlicher Online-Inhalte in den Monaten und Wochen vor den Unruhen des 8. Januar – die Moderator*innen von Meta diesen Inhalt wiederholt als zulässig eingestuft haben und ihn, trotz der darin enthaltenen kontextuellen Hinweise, nicht für eine weitere Überprüfung eskaliert haben. Diese Bedenken werden durch die Tatsache verstärkt, dass Meta auf die Bitte des Gremiums, Informationen über spezifische wahlbezogene Behauptungen auf seinen Plattformen vor, während und nach den brasilianischen Wahlen zu erhalten, erklärte, dass das Unternehmen über keine derartigen Verbreitungsdaten verfügt (siehe Abschnitt 6). Der Inhalt wurde im vorliegenden Fall erst mehr als zwei Wochen später entfernt, also nachdem das unzulässige Ereignis, zu dem er aufgerufen hatte, bereits eingetreten war, und erst nachdem das Gremium Meta auf den Fall aufmerksam gemacht hatte.
Meta nahm das erhöhte Risiko von Gewalt in Brasilien wahr und ergriff – in der Zeit vor, während und nachdem der Inhalt gepostet wurde – zunächst verschiedene Maßnahmen zur Risikobewertung. Das Unternehmen wandte sich außerdem direkt an das Gremium, als es beschloss, die Inhalte zu entfernen. Die Prüfer*innen des Unternehmens haben es jedoch wiederholt versäumt, die Gemeinschaftsstandards angemessen durchzusetzen, insbesondere den Gemeinschaftsstandard zu „Gewalt und Anstiftung zu Gewalt“, der durch die Einstufung als Ort mit vorübergehend erhöhtem Risiko zur Anwendung kommt. Die Tatsache, dass der Inhalt trotz der Klarheit des potenziellen Verstoßes nicht schon vor der Auswahl durch das Gremium eskaliert wurde und dass zu diesem Zeitpunkt ähnliche Inhalte auf Facebook im Umlauf waren (siehe Abschnitte 2 und 8.2), deutet darauf hin, dass die Eskalationskanäle wahrscheinlich nicht klar und effektiv genug sind (siehe Knin-Cartoon-Fall). Der Fall zeigt außerdem, dass Meta seine Sicherheitsvorkehrungen bei Wahlen verbessern muss. Wie das Oversight Board in früheren Entscheidungen festgestellt hat, ist es unabdingbar, dass Prüfer*innen großer Datenmengen über angemessene sprachliche und kontextbezogene Kenntnisse verfügen und mit den erforderlichen Tools und Kanälen ausgestattet sind, um potenziell unzulässige Inhalte zu eskalieren.
III. Transparenz
Das Oversight Board erkennt an, dass Meta große Anstrengungen unternommen hat, um die Integrität der Wahlen in Brasilien im Jahr 2022 zu gewährleisten. Im August 2022, als der Wahlkampf offiziell begann, kündigte Meta öffentlich seine wahlbezogenen Initiativen in diesem Land an. Das Unternehmen arbeitete mit dem brasilianischen Obersten Wahlgericht zusammen, um Posts über Wahlen auf Facebook und Instagram mit einem Label zu versehen, „das die Menschen zu verlässlichen Informationen auf der Justiça Eleitoral-Website führt.“ Nach Angaben von Meta führte dies zu einem „10-fachen Anstieg“ der Besucher*innenzahlen auf der Website. Die Partnerschaft ermöglichte es dem Obersten Wahlgericht auch, potenziell unzulässige Inhalte direkt an Meta zu melden. Meta veranstaltete Schulungen für Wahlbeamt*innen in ganz Brasilien, bei denen die Gemeinschaftsstandards des Unternehmens erläutert wurden und erklärt wurde, wie gegen Fehlinformationen auf Facebook und Instagram vorgegangen wird. Darüber hinaus verbot Meta bezahlte Werbung, die „die Legitimität der bevorstehenden Wahlen infrage stellt“. Außerdem führte das Unternehmen ein Limit für Weiterleitung auf WhatsApp ein, sodass eine Nachricht jeweils nur an eine WhatsApp-Gruppe weitergeleitet werden konnte. Schließlich meldete Meta die Anzahl der Inhalte, die aufgrund verschiedener Gemeinschaftsstandards entfernt wurden, wie z. B. die Richtlinien zu Gewalt und Anstiftung zu Gewalt, zu Hassrede sowie zu Mobbing und Belästigung. Außerdem gab es die Gesamtzahl der Klicks auf Wahl-Labels bekannt, die Nutzer*innen zu maßgeblichen Informationen über die Wahlen in Brasilien führten.
Auf die Frage des Gremiums nach seinen Bemühungen um Wahlintegrität im Zusammenhang mit den Wahlen in Brasilien im Jahr 2022 erklärte Meta jedoch, dass das Unternehmen keine besonderen Metriken verwendet, um den Erfolg seiner Bemühungen um Wahlintegrität im Allgemeinen zu messen. Eine Ausnahme bildeten lediglich die gemeldeten Daten, die Auskunft über Takedowns von Inhalten, Aufrufe und Klicks auf Wahl-Label geben. Das Oversight Board stellt außerdem fest, dass aus den Angaben, die Meta in seinem Transparency Center macht, und dem Austausch mit dem Gremium nicht klar hervorgeht, wie die verschiedenen Maßnahmen und Protokolle zur Risikobewertung, die das Unternehmen anwendet (siehe Abschnitt 6 oben), unabhängig voneinander oder parallel nebeneinander ablaufen sollen. Meta sollte die Verbindungspunkte zwischen diesen verschiedenen Protokollen klären, besser darlegen, wie sie sich voneinander unterscheiden, und erläutern, wie genau die Durchsetzung von Inhaltsrichtlinien durch sie beeinflusst wird.
In einer Reihe von öffentlichen Kommentaren (Ekō [PC-11000], Dangerous Speech Project [PC-11010], ModeraLab [PC-11016], Campaign Legal Center [PC-11017], InternetLab [PC-11019] und Coalizão Direitos na Rede [PC-11020]), die beim Gremium eingingen, wurde festgestellt, dass die Bemühungen des Unternehmens zum Schutz der Wahlen in Brasilien nicht ausreichend wären. Das Oversight Board erkennt die Herausforderungen an, die mit der Moderation von Inhalten in großem Umfang verbunden sind. Doch Metas Verantwortung, negative Auswirkungen auf die Menschenrechte zu verhindern, abzumildern und zu bekämpfen, ist in Wahlkampfsituationen und anderen Kontexten mit erhöhtem Risiko noch größer und erfordert, dass das Unternehmen wirksame Schutzmaßnahmen dagegen ergreift. Der Fehler bei der Durchsetzung, der im vorliegenden Fall auftrat, scheint kein Einzelfall zu sein. Laut Ekō (PC-11000) blieben ähnliche Inhalte auch nach den Unruhen vom 8. Januar auf Facebook veröffentlicht.
Es ist mehr Transparenz erforderlich, um beurteilen zu können, ob die Maßnahmen von Meta in allen Wahlkontexten angemessen und ausreichend sind. Der Mangel an Daten, die dem Gremium zur Überprüfung zur Verfügung standen, untergrub seine Fähigkeit, angemessen beurteilen zu können, ob die Fehler bei der Durchsetzung, die im vorliegenden Fall aufgetreten waren, und die von verschiedenen Stakeholdern geäußerten Bedenken symptomatisch für ein systemisches Problem bei den Richtlinien und den Durchsetzungspraktiken des Unternehmens sind. Dadurch wurden auch die Möglichkeiten des Gremiums beeinträchtigt, spezifischere Empfehlungen für Meta auszusprechen, wie es seine Bemühungen um Wahlintegrität weltweit weiter verbessern kann.
Metas aktuelle Offenlegungen von Daten, bei denen es sich vor allem um Takedowns von Inhalten handelt, vermitteln kein vollständiges Bild vom Erfolg der Maßnahmen zur Wahlintegrität, die Meta in einem bestimmten Markt durchführt. Diese Daten geben beispielsweise weder Aufschluss über die Genauigkeit der Durchsetzung wichtiger Richtlinien im Zusammenhang mit Wahlen, wie etwa dem Gemeinschaftsstandard zu Gewalt und Anstiftung zu Gewalt, noch über den Prozentsatz politischer Werbung, die zunächst von Meta genehmigt wurde, dann aber als Verstoß gegen seine Richtlinien eingestuft wurde. Die Durchführung statistischer Audits mit solchen Metriken würde es Meta nicht nur ermöglichen, Fehler rückgängig zu machen, sondern auch zu verfolgen, wie wirksam die Maßnahmen sind, bei denen es besonders wichtig ist, alles richtig zu machen.
Ohne diese Art von Informationen können weder das Oversight Board noch die Öffentlichkeit die Wirksamkeit von Metas Bemühungen um Wahlintegrität im weiteren Sinne bewerten. Dies ist deshalb so wichtig, weil viele Vorfälle politischer Gewalt oft aus wahlbezogenen Auseinandersetzungen resultieren oder durch diese verschärft werden, bei denen gefährliche Inhalte online geblieben sind und der Gewalt abseits des Internets vorausgingen oder sie begleiteten (siehe „Myanmar Bot“ (2021-007-FB-UA), „Kommunikationsbüro Tigray“ (2022-006-FB-MR), und „Sperrung des ehemaligen US-Präsidenten Trump“ (2021-001-FB-FBR)).
Das Gremium empfiehlt Meta daher, einen Rahmen für die Bewertung der Bemühungen des Unternehmens um Wahlintegrität und für öffentliche Berichte zu diesem Thema zu entwickeln. Dadurch sollen dem Unternehmen relevante Daten zur Verfügung gestellt werden, damit es sein System zur Moderation von Inhalten insgesamt verbessern und entscheiden kann, wie es seine Ressourcen im Zusammenhang mit Wahlen am besten einsetzt. Der Rahmen sollte Meta auch dabei helfen, lokale Kenntnisse effektiv zu nutzen und koordinierte Online- und Offline-Kampagnen zu identifizieren und zu bewerten, die darauf abzielen, demokratische Prozesse zu stören. Darüber hinaus könnte dieser Rahmen Meta dabei helfen, ständige Feedback-Kanäle einzurichten und Maßnahmen für den Fall festzulegen, dass die politische Gewalt nach dem formellen Abschluss der Wahlprozesse weiter anhält. Schließlich stellt das Oversight Board fest, dass, wie oben erläutert, das Zusammenspiel zwischen den verschiedenen Maßnahmen und Protokollen zur Risikobewertung von Meta, z. B. zwischen den IPOCs, der Richtlinie „Integrity Country Prioritization“ und dem Krisenrichtlinienprotokoll (Crisis Policy Protocol, siehe Abschnitt 6) in wahlbezogenen Kontexten überprüft und der Öffentlichkeit besser erklärt werden muss.
8.2 Erfüllung der menschenrechtlichen Verantwortung von Meta
Meinungsfreiheit (Artikel 19 ICCPR)
Das Recht auf Meinungsfreiheit und freie Meinungsäußerung ist eine „zentrale Säule demokratischer Gesellschaften und ein Garant für freie und faire Wahlprozesse sowie einen aussagekräftigen und repräsentativen öffentlichen und politischen Diskurs“ (UN-Sonderberichterstatter für Meinungsfreiheit, Research Paper 1/2019, S. 2). Artikel 19 des Internationalen Pakts über bürgerliche und politische Rechte (ICCPR) sieht einen umfassenden Schutz der Meinungsäußerung vor, insbesondere für politische Äußerungen. In Fällen, in denen Regierungen das Recht auf freie Meinungsäußerung einschränken, müssen die Anforderungen der Gesetzmäßigkeit, des legitimen Ziels sowie der Notwendigkeit und Verhältnismäßigkeit erfüllt werden (Artikel 19 Absatz 3, ICCPR). Diese Anforderungen werden häufig auch als „dreiteilige Prüfung“ oder „drei Merkmale“ bezeichnet. Das Oversight Board nutzt diesen Rahmen, um die freiwilligen Menschenrechtsverpflichtungen von Meta zu interpretieren.
I. Gesetzmäßigkeit (Klarheit und Zugänglichkeit der Regeln)
Das Prinzip der Gesetzmäßigkeit der internationalen Menschenrechtsgesetze erfordert, dass Regeln, die die freie Meinungsäußerung einschränken, klar verständlich und öffentlich einsehbar sein müssen (Allgemeine Bemerkung Nr. 34, Absatz 25). Hinsichtlich der Regeln für Social-Media-Unternehmen erklärte der UN-Sonderberichterstatter für Meinungsfreiheit, dass diese klar und spezifisch sein sollten (A/HRC/38/35, Absatz 46). Personen, die die Meta-Plattformen verwenden, sollten auf die Regeln zugreifen und sie verstehen können. Inhaltsprüfer*innen sollten über klare Anweisungen zu ihrer Durchsetzung verfügen.
Das Oversight Board ist der Ansicht, dass Metas Verbot von Inhalten, die zum gewaltsamen Eindringen in bestimmte Orte mit erhöhtem Risiko aufrufen, im vorliegenden Fall eindeutig geregelt ist und dass die genauen Bedingungen, unter denen das Verbot zur Anwendung kommt, ebenfalls klar sind. Der Inhalt dieses Falls konnte sowohl von dem*der Nutzer*in als auch von den Prüfer*innen der Inhalte leicht als unzulässig erkannt werden, insbesondere vor dem Hintergrund der zivilen Unruhen in Brasilien. Deshalb bewertete das Gremium die Voraussetzung der Gesetzmäßigkeit als gegeben.
II. Legitimes Ziel
Einschränkungen der Meinungsfreiheit (Artikel 19, ICCPR) müssen ein legitimes Ziel verfolgen. Die Richtlinie zu Gewalt und Anstiftung zu Gewalt soll „potenziellen Schaden abseits des Internets [...] verhindern“, indem Inhalte entfernt werden, die „eine echte Gefahr von Körperverletzung oder eine unmittelbare Gefährdung der öffentlichen Sicherheit“ darstellen. Diese Richtlinie dient dem legitimen Ziel, die Rechte anderer zu schützen, z. B. das Recht auf Leben (Artikel 6, ICCPR), sowie die öffentliche Ordnung und die nationale Sicherheit (Artikel 19, Absatz 3, ICCPR). Im Zusammenhang mit Wahlen kann diese Richtlinie auch das legitime Ziel verfolgen, das Wahlrecht anderer Personen sowie ihr Recht, an der Gestaltung der öffentlichen Angelegenheiten teilzunehmen, schützen (Artikel 25, ICCPR).
III. Notwendigkeit und Verhältnismäßigkeit
Der Grundsatz der Notwendigkeit und Verhältnismäßigkeit verlangt, dass Einschränkungen der Meinungsfreiheit „geeignet sein müssen, ihre Schutzfunktion zu erfüllen; sie müssen das am wenigsten einschneidende Instrument unter denjenigen sein, die ihre Schutzfunktion erfüllen können, und sie müssen in einem angemessenen Verhältnis zu dem zu schützenden Interesse stehen“ (Allgemeine Bemerkung Nr. 34, Absatz 33 und 34). Wie in früheren Fällen, in denen es um Anstiftung zu Gewalt ging, hält das Gremium die sechs Faktoren des UN-Aktionsplans von Rabat für relevant, um die Notwendigkeit und Verhältnismäßigkeit der Beschränkung zu bestimmen (siehe z. B. Fall „Sperrung des ehemaligen US-Präsidenten Trump“).
Das Gremium erkennt an, dass in vielen politischen Umgebungen die Anfechtung der Integrität der Wahlen oder des Wahlsystems eine legitime Ausübung des Rechts der Menschen auf freie Meinungsäußerung und Protest ist, selbst wenn es vereinzelt zu Gewalt kommt. Aufgrund ihrer politischen Botschaft genießen solche Aussagen ein erhöhtes Schutzniveau (Allgemeine Bemerkung Nr. 37, Absätze 19 und 32). Das Gremium stellt jedoch fest, dass dies hier nicht der Fall ist. Es gibt einen entscheidenden Unterschied zwischen geschützten politischen Äußerungen und der Anstiftung zur Gewalt, um die Ergebnisse einer rechtmäßigen, demokratischen Wahl zu annullieren. Auf der Grundlage der im Aktionsplan von Rabat dargelegten Faktoren war die Schwelle für eine Beschränkung der Meinungsäußerung in diesem Fall eindeutig erreicht. Das Oversight Board ist der Ansicht, dass mehrere Elemente des Inhalts im vorliegenden Fall für seine Analyse relevant sind: die Aufrufe, den brasilianischen Kongress als „last alternative“ („letzte Alternative“) zu „besiege“ („belagern“) und die „three powers“ („drei Gewalten“) zu „storm“ („stürmen“); das Video mit dem Aufruf eines prominenten brasilianischen Generals, der zu Folgendem aufruft: „hit the streets“ („geht auf die Straße“) und „go to the National Congress … [and the] Supreme Court“ („geht zum Nationalkongress ... [und zum] Obersten Gerichtshof“); das Bild der brennenden Gebäude der Bundesregierung im Hintergrund; sowie die Forderung nach dem „Quellcode“. Sie alle sind im weiteren brasilianischen Kontext der Bolsonaro-Anhänger*innen, die das Wahlergebnis bestritten und einen Militärputsch forderten, ein eindeutiger Aufruf dazu, in Regierungsgebäude einzudringen und die Kontrolle über sie zu übernehmen. Die Entscheidung, den Beitrag zu entfernen, war gerechtfertigt durch die Absicht des*der Sprechers*Sprecherin, den Inhalt und die Reichweite der Äußerung sowie durch die Wahrscheinlichkeit eines drohenden Schadens im politischen Kontext Brasiliens zu jener Zeit.
Der Inhalt wurde in einem Kontext gepostet, in dem ein erhöhtes Risiko politischer Gewalt bestand, da die Streitkräfte immer wieder dazu aufgefordert wurden, die Wahlergebnisse zu annullieren. Gleichzeitig wurde mit verschlüsselten Slogans für Proteste geworben, die sich speziell gegen Regierungsgebäude in Brasília richteten (siehe Abschnitt 2). Diesbezüglich zeigen die Informationen, die das Oversight Board durch mehrere öffentliche Kommentare erhielt, u. a. von ITS Rio – Modera Lab (PC-11016), Coalizão Direitos na Rede (PC-11020), InternetLab (PC-11019) und Ekō (PC-11000), die die vom Oversight Board in Auftrag gegebenen Studien unterstützten, dass ähnliche Inhalte im Vorfeld der Ereignisse vom 8. Januar in den sozialen Medien weitverbreitet waren. Sie unterstreichen auch die Gefahr, dass Bolsonaro-Anhänger*innen die Gebäude am Praça dos Três Poderes (Platz der drei Gewalten) stürmen und das Militär zum Eingreifen drängen könnten, auch in Form eines Militärputsches.
Aus den genannten Gründen ist das Oversight Board der Ansicht, dass die Entfernung des Inhalts mit Metas menschenrechtlichen Verpflichtungen vereinbar ist. Die Entfernung des Inhalts ist eine notwendige und verhältnismäßige Maßnahme, um das Recht auf Leben von Menschen, einschließlich des Lebens von Amtsträger*innen, und die öffentliche Ordnung in Brasilien zu schützen. Die Entfernung dieser und ähnlicher Inhalte ist auch notwendig und verhältnismäßig, um das Wahlrecht der Brasilianer*innen sowie ihr Recht, an der Gestaltung der öffentlichen Angelegenheiten teilzunehmen, zu schützen, und zwar in einem Kontext, in dem Versuche unternommen wurden, einen demokratischen Machtwechsel zu untergraben.
Das fortdauernde Versagen von Metas Prüfungssystemen, den Verstoß in dem Video ordnungsgemäß zu identifizieren bzw. zur weiteren Überprüfung zu eskalieren und den Inhalt des Falls zu entfernen, ist ein ernstes Problem, das Meta nach Ansicht des Gremiums besser in den Griff bekommen wird, wenn es die nachstehenden Empfehlungen umsetzt. Meta hat zwar positive Schritte unternommen, um seine Bemühungen um Wahlintegrität in Brasilien zu verbessern, hat aber nicht genug getan, um den potenziellen Missbrauch seiner Plattformen durch koordinierte Kampagnen, wie sie in Brasilien zu beobachten waren, zu bekämpfen. In diesem Fall schienen die Inhalte, die veröffentlicht gelassen wurden und eine weite Verbreitung fanden, typisch für die Formen der Fehlinformation und Anstiftung zu sein, die Berichten zufolge zu dieser Zeit auf Metas Plattformen in Brasilien zirkulierten. Der Fall belegt außerdem die Behauptung, dass einflussreiche Konten mit erheblicher Mobilisierungskraft auf Metas Plattformen eine Rolle bei der Förderung von Gewalt gespielt haben. Wie in den öffentlichen Kommentaren, die beim Gremium eingegangen sind (siehe Instituto Vero [PC-11015], ModeraLab [PC-11016], InternetLab [PC-11019], Instituto de Referência em Internet e Sociedade [PC-11021]), behauptet wurde, ist die Überprüfung und mögliche Entfernung einzelner Inhalte von Metas Plattformen unzureichend und relativ ineffektiv, wenn diese Inhalte Teil einer organisierten und koordinierten Aktion sind, die darauf abzielt, demokratische Prozesse zu stören. Die Bemühungen um Wahlintegrität und die Krisenprotokolle müssen diese weitreichenden digitalen Trends berücksichtigen.
8.3 Identischer Inhalt mit parallelem Kontext
Das Oversight Board zeigt sich besorgt darüber, dass Inhalte, die dem hier untersuchten Inhalt ähneln, in den Monaten vor den Unruhen vom 8. Januar verbreitet wurden. Angesichts des wiederholten Versäumnisses von Meta, diesen Inhalt als unzulässig zu identifizieren, wird das Gremium besonders darauf achten, dass Meta seine Entscheidung auf identische Inhalte mit parallelem Kontext anwendet, die auf den Plattformen des Unternehmens verblieben sind. Ausgenommen davon sind Inhalte, die geteilt wurden, um die Rede des Generals und die Aufrufe zur Stürmung der Gebäude auf dem Praça dos Três Poderes in Brasília zu verurteilen oder ein Bewusstsein dafür zu schaffen.
9. Entscheidung des Oversight Boards
Das Oversight Board hebt die ursprüngliche Entscheidung von Meta auf, den Inhalt veröffentlicht zu lassen.
10. Empfehlungen
A. Durchsetzung
- Meta sollte einen Rahmen entwickeln, mit dem die Bemühungen des Unternehmens um Wahlintegrität bewertet werden können. Dazu gehört auch die Erarbeitung und Weitergabe von Kennzahlen für erfolgreiche Bemühungen um Wahlintegrität, einschließlich solcher Maßnahmen, die sich auf Metas Durchsetzung seiner Content-Richtlinien und den Umgang des Unternehmens mit Werbeanzeigen beziehen. Das Gremium wird diese Empfehlung als umgesetzt betrachten, wenn Meta diesen Rahmen entwickelt (einschließlich einer Beschreibung der Kennzahlen und der Ziele für diese Kennzahlen), ihn im Transparency Center des Unternehmens offenlegt, mit der Veröffentlichung länderspezifischer Berichte beginnt und alle Änderungen an seinen allgemeinen Bemühungen um Wahlintegrität als Ergebnis dieser Bewertung öffentlich bekannt gibt.
B. Transparenz
- Meta sollte in seinem Transparency Center klarstellen, dass das Unternehmen neben dem Krisenrichtlinienprotokoll auch andere Protokolle anwendet, um potenziellen Schadensrisiken bei Wahlen oder anderen Ereignissen mit erhöhtem Risiko vorzubeugen und zu begegnen. Neben der Benennung und Beschreibung der verschiedenen Protokolle sollte das Unternehmen auch deren jeweiliges Ziel und die Verbindungspunkte zwischen ihnen erläutern und darlegen, inwiefern sie sich voneinander unterscheiden. Das Oversight Board wird diese Empfehlung als umgesetzt betrachten, wenn Meta die Informationen in seinem Transparency Center veröffentlicht.
* Anmerkung zur Vorgehensweise:
Die Entscheidungen des Oversight Boards werden von einem Panel aus fünf Mitgliedern vorbereitet und von einer Mehrheit des Boards bestätigt. Entscheidungen des Gremiums geben nicht zwangsläufig die persönliche Meinung aller Mitglieder wieder.
Für diese Fallentscheidung wurde eine unabhängige Studie vom Gremium in Auftrag gegeben. Das Gremium wurde von einem unabhängigen Forschungsinstitut mit Sitz an der Universität Göteborg unterstützt, das mit einem Team aus über 50 Sozialwissenschaftler*innen auf sechs Kontinenten sowie mehr als 3.200 Länderexpert*innen aus der ganzen Welt zusammenarbeitet. Weitere Unterstützung erhielt das Gremium durch Duco Advisors, eine Beratungsfirma mit Schwerpunkt auf die Schnittstelle zwischen Geopolitik, Vertrauen, Sicherheit und Technologie. Memetica, eine Organisation, die Open-Source-Forschung zu Trends in sozialen Medien betreibt, führte ebenfalls Analysen durch. Das sprachliche Know-how wurde von Lionbridge Technologies LLC zur Verfügung gestellt, dessen Spezialist*innen insgesamt mehr als 350 Sprachen fließend beherrschen und in 5.000 Orten auf der ganzen Welt arbeiten.
العودة إلى قرارات الحالة والآراء الاستشارية المتعلقة بالسياسة