एकाधिक मामले का निर्णय
Wahlordnung der australischen Wahlkommission
9 मई 2024
Das Oversight Board hat die Entscheidungen von Meta bestätigt, zwei separate Facebook-Beiträge zu entfernen, die denselben Screenshot von Informationen enthielten, die von der australischen Wahlkommission im Vorfeld des australischen Referendums für mehr Mitspracherecht für die indigene Bevölkerung im Parlament (Indigenous Voice to Parliament) auf X gepostet worden waren.
2 इस बंडल में केस शामिल हैं
FB-0TGD816L
Fall bezüglich koordiniertem Zufügen von Schaden und Propagieren von Straftaten auf Facebook
FB-8ZQ78FZG
Fall bezüglich koordiniertem Zufügen von Schaden und Propagieren von Straftaten auf Facebook
Zusammenfassung
Das Oversight Board hat die Entscheidungen von Meta bestätigt, zwei separate Facebook-Beiträge zu entfernen, die denselben Screenshot von Informationen enthielten, die von der australischen Wahlkommission (Australian Electoral Commission, AEC) im Vorfeld des australischen Referendums für mehr Mitspracherecht für die indigene Bevölkerung im Parlament (Indigenous Voice to Parliament) auf X gepostet worden waren. Beide Beiträge verstießen gegen den Gemeinschaftsstandard „Koordiniertes Zufügen von Schaden und Begünstigung von Verbrechen“, wonach Inhalte verboten sind, die zur illegalen Teilnahme an einer Wahl aufrufen. Die beiden Fälle zeigen, wie sich aus dem Zusammenhang gerissene Informationen auf das Wahlrecht der Menschen auswirken können. Das Oversight Board empfiehlt, dass Meta seine Regeln zum Betrug bei Wahlen und/oder Volkszählungen deutlicher erläutert, indem es seine Definition von „illegaler Stimmabgabe“ öffentlich bekannt gibt.
Über die Fälle
Am 14. Oktober 2023 fand in Australien das Referendum für mehr Mitspracherecht für die indigene Bevölkerung im Parlament statt. Tage zuvor hatte ein*e Facebook-Nutzer*in in einer Gruppe einen Screenshot eines X-Beitrags des offiziellen AEC-Kontos gepostet. Die gezeigten Informationen enthielten Folgendes: „If someone votes at two different polling places within their electorate, and places their formal vote in the ballot box at each polling place, their vote is counted.“ (Wenn eine Person in zwei verschiedenen Wahllokalen innerhalb ihres Wahlbezirks ihre Stimme abgibt und in jedem Wahllokal ihren offiziellen Stimmzettel in die Wahlurne wirft, wird ihre Stimme gezählt.) In einem weiteren Kommentar aus demselben X-Thread, von dem der*die Nutzer*in einen Screenshot gemacht hat, wird erklärt, dass das Wahlgeheimnis die AEC daran hindert, „knowing which ballot paper belongs to which person“ (zu wissen, welcher Stimmzettel zu welcher Person gehört), während gleichzeitig behauptet wird, dass „the number of double votes received is incredibly low“ (die Zahl der doppelt abgegebenen Stimmen unglaublich gering ist). Der Screenshot zeigt jedoch nicht alle von der AEC geteilten Informationen, einschließlich der Tatsache, dass mehrfaches Wählen eine Straftat ist. Die Bildunterschrift des Beitrags lautete: „vote early, vote often, and vote NO.“ (Wählt früh, wählt oft und wählt NEIN.)
Ein zweiter Beitrag, der von einem*einer anderen Facebook-Nutzer*in geteilt wurde, enthielt denselben Screenshot, aber mit einem Text-Overlay mit folgender Aussage: „so you can vote Multiple times. They are setting us up for a ‘Rigging’ … smash the voting centres … it’s a NO, NO, NO, NO, NO“ (damit ihr mehrmals wählen könnt ... sie wollen uns eine ‚Manipulation‘ anhängen ...zerschlagt die Wahllokale ... es ist ein NEIN, NEIN, NEIN, NEIN, NEIN).
Beim Voice Referendum wurden die Australier*innen gefragt, ob die Verfassung geändert werden sollte, um den Aborigines und Torres-Strait-Insulaner*innen eine stärkere Vertretung im Parlament zu ermöglichen.
In Australien besteht Wahlpflicht, und die AEC meldet eine Wahlbeteiligung von rund 90 % bei allen Wahlen und Referenden seit 1924. Eine mehrfache Stimmabgabe ist illegal und stellt eine Form von Wahlbetrug dar.
Nachdem Metas automatisierte Systeme beide Beiträge erkannt hatten, wurden sie beim manuellen Review von Mitarbeiter*innen entfernt, da sie gegen Metas Richtlinie „Koordiniertes Zufügen von Schaden und Begünstigung von Verbrechen“ verstießen. Beide Nutzer*innen erhoben Einspruch.
Wichtige Erkenntnisse
Das Oversight Board stellt fest, dass beide Beiträge gegen die Regel „Koordiniertes Zufügen von Schaden und Begünstigung von Verbrechen“ verstoßen haben, wonach Inhalte verboten sind, die „die illegale Teilnahme an einer Wahl oder Volkszählung befürworten, Anweisungen dafür bereitstellen oder eine explizite diesbezügliche Absicht zeigen.“ Im ersten Fall ist die Formulierung „vote often“ (wählt oft) in Verbindung mit den Informationen der AEC über das Zählen von Mehrfachstimmen eine klare Aufforderung zur illegalen Stimmabgabe. Eine doppelte Stimmabgabe ist eine Art der „illegalen Stimmabgabe“, wie es in den internen Richtlinien von Meta heißt. Im zweiten Fall kann die Verwendung des Satzes „smash the voting centres“ (zerschlagt die Wahllokale) zusammen mit dem Rest des Text-Overlays so verstanden werden, dass die Menschen dazu aufgefordert werden, die Wahllokale mit Mehrfachstimmen zu überschwemmen. Keiner der Beiträge fällt unter die Richtlinienausnahmen zur Missbilligung bzw. Sensibilisierung, zur Berichterstattung oder im Rahmen von humorvollen bzw. satirischen Kontexten. Was die Sensibilisierung betrifft, so fallen die Beiträge nicht unter diese Ausnahme, da sie über die Erörterung des X-Beitrags des AEC hinausgehen und stattdessen Informationen aus dem Kontext reißen, um zu implizieren, dass die AEC sagt, dass mehr als eine Stimmabgabe gestattet ist.
Nutzer*innen daran zu hindern, andere Personen zum Wahlbetrug aufzurufen, ist ein legitimes Ziel zum Schutz des Wahlrechts. Das Gremium betrachtet die politische Meinungsäußerung als einen wesentlichen Bestandteil des demokratischen Prozesses. In diesen Fällen beteiligten sich beide Nutzer*innen direkt an der öffentlichen Debatte, die durch das Referendum ausgelöst wurde, aber ihre Aufforderungen an andere, sich illegal zu verhalten, beeinträchtigten die politischen Rechte der in Australien lebenden Menschen, insbesondere das Wahlrecht. Während also die Aufrufe „vote NO“ (wählt NEIN) geschützte politische Äußerungen sind, sind die Formulierungen „vote often“ (wählt oft) und „smash the voting centres“ (zerschlagt die Wahllokale) eine andere Sache. Das Oversight Board ist der Ansicht, dass Meta angesichts der häufigen Behauptungen, das Voice Referendum sei gefälscht worden, richtig gehandelt hat, um die demokratischen Prozesse zu schützen, indem es die Verbreitung von Wahlbetrugsversuchen auf seinen Plattformen verhindert hat.
Das Gremium erkennt Metas Bemühungen um das Voice Referendum an. Das Unternehmen identifizierte proaktiv potenziell unzulässige Inhalte im Rahmen der Regeln zur Wahlmanipulation der Gemeinschaftsstandards „Koordiniertes Zufügen von Schaden und Begünstigung“ und „Falschmeldungen“. Die Formulierungen „double vote“ (doppelt abgegebene Stimmen) und „vote multiple times“ (mehrmals wählen) waren in diesem Fall die Keywords, die das keyword-basierte Erkennungssystem des Unternehmens aktivierten. Laut Meta wird das System an lokale Kontexte angepasst. Auf Grundlage der geteilten Informationen stellt das Gremium fest, dass solche Initiativen in Ländern, in denen Wahlen stattfinden, weltweit einheitlich angewandt werden sollten. Meta wird jedoch dazu ermutigt, Erfolgsmetriken zu entwickeln, um die Effektivität der keyword-basierten Erkennung zu bewerten.
Schließlich ist das Gremium der Ansicht, dass die der Öffentlichkeit zugänglichen Regeln des Gemeinschaftsstandards „Koordiniertes Zufügen von Schaden und Begünstigung von Verbrechen“ nicht klar genug formuliert sind. Sie enthalten nicht, was den Reviewer*innen in den internen Richtlinien von Meta zur Verfügung steht, nämlich die Definitionen des Unternehmens für eine „illegale Stimmabgabe“. Da es von entscheidender Bedeutung ist, dass Nutzer*innen in sozialen Medien interagieren können, um Fragen von öffentlichem Interesse über demokratische Ereignisse zu diskutieren, muss Meta Nutzer*innen klar über die entsprechenden Regeln informieren.
Die Entscheidung des Oversight Boards
Das Oversight Board bestätigt in beiden Fällen die Entscheidung von Meta, die Inhalte zu entfernen.
Das Oversight Board empfiehlt Meta folgende Maßnahmen:
- Aufnahme der Definition des Begriffs „illegale Stimmabgabe“ in die öffentlich zugängliche Formulierung der Richtlinie „Koordiniertes Zufügen von Schaden und Begünstigung von Verbrechen“, wonach Inhalte verboten sind, „die eine illegale Teilnahme an einer Wahl oder Volkszählung befürworten, Anweisungen dafür bereitstellen oder eine explizite diesbezügliche Absicht zeigen, es sei denn, sie werden in einem missbilligenden bzw. sensibilisierenden Kontext, in einem Nachrichtenkontext oder in einem humorvollen bzw. satirischen Kontext geteilt.“
* Fallzusammenfassungen bieten einen Überblick über die Fälle und haben keinen Präzedenzwert.
Ausführliche Fallentscheidung
1. Zusammenfassung der Entscheidung
Das Gremium bestätigt die Entscheidungen von Meta, zwei voneinander unabhängige Beiträge auf Facebook zu entfernen, die einen Screenshot eines Beitrags der australischen Wahlkommission (Australian Electoral Commission, AEC) auf X, ehemals Twitter, enthielten. Die Screenshots der AEC, die von den Facebook-Nutzer*innen gepostet wurden, enthielten den folgenden Wortlaut: „If someone votes at two different polling places within their electorate, and places their formal vote in the ballot box at each polling place, their vote is counted.“ (Wenn eine Person in zwei verschiedenen Wahllokalen innerhalb ihres Wahlbezirks ihre Stimme abgibt und in jedem Wahllokal ihren offiziellen Stimmzettel in die Wahlurne wirft, wird ihre Stimme gezählt.) Im ersten Facebook-Beitrag war der Screenshot mit einer Bildunterschrift versehen, in der es heißt: „vote early, vote often, and vote NO.“ (Wählt früh, wählt oft und wählt NEIN.) Im zweiten Facebook-Beitrag hatte der Screenshot ein Text-Overlay, das folgende Aussage enthielt: „so you can vote Multiple times … they are setting us up for a ‘Rigging’ … smash the voting centres … it’s a NO, NO, NO, NO, NO“ (damit ihr mehrmals wählen könnt ... sie wollen uns eine ‚Manipulation‘ anhängen ...zerschlagt die Wahllokale ... es ist ein NEIN, NEIN, NEIN, NEIN, NEIN). Die Bildunterschrift enthielt außerdem ein „Stopp“-Emoji, gefolgt von den Worten „Australian Electoral Commission“ (australische Wahlkommission).
Das Gremium ist der Auffassung, dass beide Beiträge gegen den Gemeinschaftsstandard Koordiniertes Zufügen von Schaden und Begünstigung von Verbrechen verstoßen haben, wonach Inhalte verboten sind, „die eine illegale Teilnahme an einer Wahl oder Volkszählung befürworten, Anweisungen dafür bereitstellen oder eine explizite diesbezügliche Absicht zeigen, es sei denn, sie werden in einem missbilligenden bzw. sensibilisierenden Kontext, in einem Nachrichtenkontext oder in einem humorvollen bzw. satirischen Kontext geteilt.“ Das Gremium stellt fest, dass keine der Ausnahmen anwendbar ist.
Vor dem Hintergrund demokratischer Prozesse wie Wahlen und Volksabstimmungen werfen diese Fälle allgemeinere Bedenken hinsichtlich des Teilens kontextloser Informationen auf, die sich auf das Wahlrecht der Menschen auswirken könnten. Das Gremium empfiehlt Meta, die Richtlinien zum Betrug bei Wahlen und/oder Volkszählungen im Rahmen des Gemeinschaftsstandards „Koordiniertes Zufügen von Schaden und Begünstigung von Verbrechen“ klarer zu erläutern, um klarzustellen, was als „illegale Teilnahme an einer Wahl oder Volkszählung“ gilt.
2. Beschreibung des Falls und Hintergrundinformationen
Am 14. Oktober 2023 fand in Australien das Referendum für mehr Mitspracherecht für die indigene Bevölkerung im Parlament (Indigenous Voice to Parliament Referendum, nachstehend „Voice Referendum“) statt. Einige Tage vor der Wahl teilte ein*e Facebook-Nutzer*in in einer von ihm*ihr verwalteten Gruppe einen Beitrag mit einem Screenshot eines X-Beitrags des offiziellen Kontos der australischen Wahlkommission (Australian Electoral Commission, AEC). Der Beitrag der AEC auf X enthielt den folgenden Wortlaut: „If someone votes at two different polling places within their electorate, and places their formal vote in the ballot box at each polling place, their vote is counted.“ (Wenn eine Person in zwei verschiedenen Wahllokalen innerhalb ihres Wahlbezirks ihre Stimme abgibt und in jedem Wahllokal ihren offiziellen Stimmzettel in die Wahlurne wirft, wird ihre Stimme gezählt.) Der Screenshot zeigt auch einen weiteren Kommentar aus demselben Thread auf X, in dem erklärt wird, dass das Wahlgeheimnis die AEC daran hindert „knowing which ballot paper belongs to which person“ (zu wissen, welcher Stimmzettel zu welcher Person gehört), während gleichzeitig versichert wird, dass „the number of double votes received is incredibly low“ (die Zahl der doppelt abgegebenen Stimmen unglaublich gering ist). Der Screenshot zeigt jedoch nicht alle von der AEC geteilten Informationen, einschließlich der Tatsache, dass mehrfaches Wählen in Australien eine Straftat ist. Im ersten Facebook-Beitrag war der Screenshot mit einer Bildunterschrift versehen, in der es heißt: „vote early, vote often, and vote NO.“ (Wählt früh, wählt oft und wählt NEIN.)
Ein weiterer Beitrag mit demselben Screenshot des AEC-Beitrags auf X wurde einen Tag später von einem*einer anderen Facebook-Nutzer*in auf seinem*ihren Profil geteilt. Dieser Beitrag war mit einem Text-Overlay versehen, das die folgende Aussage enthielt: „so you can vote Multiple times. They are setting us up for a ‘Rigging’ … smash the voting centres … it’s a NO, NO, NO, NO, NO“ (damit ihr mehrmals wählen könnt ... sie wollen uns eine ‚Manipulation‘ anhängen ...zerschlagt die Wahllokale ... es ist ein Nein, Nein, Nein, Nein, Nein). Die Bildunterschrift enthielt außerdem ein „Stopp“-Emoji, gefolgt von den Worten „Australian Electoral Commission“ (australische Wahlkommission).
Beide Beiträge wurden proaktiv von Meta erkannt. Die Formulierungen „double vote“ (doppelt abgegebene Stimmen) und „vote multiple times“ (mehrmals wählen) waren in diesem Fall die Keywords, die die „keyword-basierte Pipeline-Initiative“ („keyword-based pipeline initiative“) des Unternehmens aktivierten. Dieser auf Keywords basierende Erkennungsansatz ist ein systematisches Verfahren, das von Meta eingesetzt wird, um proaktiv „potenziell unzulässige Inhalte, darunter Inhalte im Zusammenhang mit der Manipulation von Wahlen und Volkszählungen“ zu erkennen. Beide Beiträge wurden anschließend automatisch einem manuellen Review durch Mitarbeiter*innen unterzogen. Nach dem manuellen Review wurden beide Beiträge wegen Verstoßes gegen die Richtlinie „Koordiniertes Zufügen von Schaden und Begünstigung von Verbrechen“ entfernt. Meta sprach außerdem eine Standardverwarnung sowie eine 30-tägige Funktionsbeschränkung für beide Nutzer*innenprofile aus, wodurch die Nutzer*innen daran gehindert wurden, in Facebook-Gruppen zu posten oder zu kommentieren, Nachrichtengruppen zu erstellen oder Messenger-Räumen beizutreten.
Das Oversight Board verweist auf den folgenden Kontext, der zu seinen Entscheidungen in diesen Fällen beigetragen hat:
Das Voice Referendum stellte die Frage, ob die australische Verfassung geändert werden sollte, um den First Peoples of Australia (Ersten Völker Australiens) Anerkennung zukommen zu lassen, „indem ein Gremium mit der Bezeichnung Aboriginal and Torres Strait Islander Voice (Stimme der Aborigines und Torres-Strait-Insulaner*innen)“ eingerichtet wird, das „gegenüber dem Parlament und der Exekutivregierung des Commonwealth in Angelegenheiten, die die Aborigines und Torres-Strait-Insulaner*innen betreffen, Stellung nehmen kann.“ Zu den relevanten Hintergrundinformationen über das Voice Referendum gehört die Tatsache, dass die Aborigines und Torres-Strait-Insulaner*innen in Australien zu den sozial und wirtschaftlich am stärksten benachteiligten Gruppen des Landes gehören und eine hohe Arbeitslosigkeit, eine geringere Beteiligung an der Hochschulbildung, schlechte Gesundheitsergebnisse (sowohl körperliche als auch geistige Gesundheit), eine weitaus geringere Lebenserwartung als andere Australier*innen sowie eine hohe Inhaftierungsquote aufweisen. Darüber hinaus sind Aborigines und Torres-Strait-Insulaner*innen Diskriminierung ausgesetzt und unverhältnismäßig stark von geschlechtsspezifischer Gewalt und Polizeigewalt betroffen.
Premierminister Anthony Albanese befürwortete die Verfassungsänderung (für „Ja“), während Australiens wichtigste Oppositionskoalition eine Kampagne gegen die Änderung führte (für „Nein“). Der Vorschlag wurde auf nationaler Ebene und in allen sechs Bundesstaaten mehrheitlich abgelehnt und verfehlte damit die für eine Änderung der australischen Verfassung erforderliche doppelte Mehrheit.
In Australien besteht Wahlpflicht und die AEC berichtet, dass die Wahlbeteiligung bei allen allgemeinen Wahlen und Referenden seit 1924 bei etwa 90 % lag. Auf Grundlage des Commonwealth Electoral Act 1918 und des Referendum (Machinery Provisions) Act 1984 ist die mehrfache Stimmabgabe sowohl auf bundesstaatlicher Ebene als auch auf Landesebene eine Form von Wahlbetrug. Als Reaktion auf die Vorwürfe von Mehrfachabstimmungen beim Voice Referendum hat die AEC einen langen Thread auf X veröffentlicht, in dem erklärt wird, dass Mehrfachabstimmungen „sehr selten“ („very rare“) sind, und die Maßnahmen dargelegt werden, die die AEC ergriffen hat, um diese Praxis zu verhindern. Die AEC erläutert auf ihrer Website, dass jedes Wahllokal identische beglaubigte Listen aller Wähler*innen eines Wahlkreises (Division) erhält, um doppelte Stimmabgaben zu verhindern. Bei der Ausgabe eines Satzes von Stimmzetteln werden die Namen der Wähler*innen im beglaubigten Wähler*innenverzeichnis vermerkt, das bei der Ausgabestelle geführt wird. Begibt sich ein*e Wähler*in zu einer anderen Ausgabestelle, um dort eine weitere ordentliche Stimme abzugeben, so wird auf einem weiteren Exemplar des beglaubigten Verzeichnisses für diesen Wahlkreis vermerkt, dass der*die Wähler*in Stimmzettel erhalten hat. Unmittelbar nach dem Wahltag wird jedes identische beglaubigte Verzeichnis für jeden Wahlkreis durchsucht, um zu prüfen, ob ein Name mehrfach vermerkt wurde. Die AEC führt dann eine Untersuchung durch und schreibt alle Wähler*innen an, die der Mehrfachabstimmung verdächtigt werden. Die Antwort führt dazu, dass das Problem entweder aufgrund eines „Irrtums des*der Wahlleiters*Wahlleiterin“ („polling official error“) oder einer Erklärung, die auf „Sprach-, Lese- oder Schreibschwierigkeiten“ („language or literacy difficulties“) zurückzuführen ist, geklärt wird, oder dass die Person „älter und verwirrt [ist] und mehr als einmal gewählt hat, weil sie vergessen hat, dass sie bereits eine Stimme abgegeben hatte“ („elderly and confused and voted more than once due to forgetting they had already cast a vote“). Kommt es zu keiner Klärung, werden die verbleibenden Fälle von der AEC weiter untersucht und gegebenenfalls an die australische Bundespolizei (Australian Federal Police) zur Prüfung weitergeleitet.
Im Jahr 2019 erklärte die AEC, dass Mehrfachabstimmungen ein „sehr geringes Problem“ darstellten. Nur 0,03 % der Stimmen bei 91,9 % Wahlbeteiligung hatten mehrfache Vermerke, und die meisten Fälle von Mehrfachabstimmungen waren Fehler von Wähler*innen, die älter waren, schlecht lesen und schreiben konnten oder ein unzureichendes Verständnis des Wahlvorgangs besaßen. Die AEC bekräftigte in ihrer öffentlichen Stellungnahme an das Gremium das „vernachlässigbare“ Auftreten von Mehrfachabstimmungen in Australien. Nach Angaben der AEC wurden nur 13 Fälle von offensichtlicher Mehrfachabstimmung von insgesamt 15,5 Millionen Stimmen an die australische Bundespolizei zur weiteren Untersuchung im Zusammenhang mit der Parlamentswahl in Australien im Jahr 2022 weitergeleitet (PC-25006; siehe auch PC-25007).
Nach Angaben vom Gremium konsultierter Expert*innen wurde häufig behauptet, das Voice Referendum sei manipuliert worden, wobei einige Beiträge mit den Hashtags #StopTheSteal und #RiggedReferendum versehen waren. Die journalistische Berichterstattung machte ebenfalls deutlich, dass es im Zusammenhang mit dem Voice Referendum häufig zu Behauptungen von Wahlbetrug kam. Mithilfe der Tools zur Überwachung sozialer Medien, die die vom Gremium konsultierten Expert*innen eingesetzt haben, konnte festgestellt werden, dass bis Februar 2024 Screenshots der Beiträge, die die AEC auf X gepostet hatte, über 475 Mal auf Metas Plattformen geteilt wurden und dabei Tausende von Reaktionen sowie mindestens 30.000 Aufrufe erhielten.
3. Befugnis und Wirkungsbereich des Oversight Boards
Das Gremium ist befugt, die Entscheidung von Meta nach dem Einspruch der Person zu prüfen, deren Inhalt entfernt wurde (Artikel 2 der Satzung, Abschnitt 1; Artikel 3 der Geschäftsordnung, Abschnitt 1).
Das Gremium kann die Entscheidung von Meta bestätigen oder aufheben (Artikel 3 der Satzung, Abschnitt 5), und seine Entscheidung ist für das Unternehmen verbindlich (Artikel 4 der Satzung). Meta muss außerdem die Umsetzbarkeit seiner Entscheidung in Bezug auf identische Inhalte mit parallelem Kontext auswerten (Artikel 4 der Satzung). Die Entscheidungen des Oversight Boards können unverbindliche Empfehlungen umfassen, auf die Meta antworten muss (Artikel 3 der Satzung, Abschnitt 4; Artikel 4). Wenn Meta sich verpflichtet, auf Grundlage von Empfehlungen zu handeln, überwacht das Oversight Board die Umsetzung. Wenn das Oversight Board Fälle identifiziert, die ähnliche Fragen aufwerfen, können diese zusammen einem Gremium zugewiesen werden, um gemeinsam darüber zu beraten. Für jeden einzelnen Inhalt wird eine verbindliche Entscheidung getroffen.
4. Quellen der Befugnis und Leitfäden
Das Gremium hat bei seiner Analyse dieser Fälle folgende Standards und Präzedenzfälle berücksichtigt:
I. Entscheidungen des Oversight Boards
II. Inhaltsrichtlinien von Meta
In Metas Grundgedanken dieser Richtlinie zum Gemeinschaftsstandard Koordiniertes Zufügen von Schaden und Begünstigung von Verbrechen heißt es, dass er darauf abzielt, „Schaden abseits des Internets und Nachahmungstaten zu verhindern“, indem er die „Unterstützung, Organisation, Förderung oder das Zugeben bestimmter krimineller oder schädlicher Aktivitäten verbietet, die auf Personen, Unternehmen oder Tiere abzielen.“ Die Richtlinie verbietet es Nutzer*innen, Inhalte zu posten, „die eine illegale Teilnahme an einer Wahl oder Volkszählung befürworten, Anweisungen dafür bereitstellen oder eine explizite diesbezügliche Absicht zeigen, es sei denn, sie werden in einem missbilligenden bzw. sensibilisierenden Kontext, in einem Nachrichtenkontext oder in einem humorvollen bzw. satirischen Kontext geteilt.“
Darüber hinaus gibt es Arten von Inhalten, die einen Eingriff in Wahlen oder Volkszählungen darstellen, die im Rahmen der Richtlinie entfernt werden können, sofern ein zusätzlicher Kontext vorliegt, der dies rechtfertigt. Dazu gehören „Aufrufe zu koordinierten Eingriffen, die Einfluss auf die Fähigkeit einer Person hätten, an einer offiziellen Volkszählung oder Wahl teilzunehmen“ sowie „Drohungen, sich in ein Wahllokal zu begeben, um die Aktivitäten von Wähler*innen oder Wahlleiter*innen zu überwachen oder zu beobachten, wenn dies mit einem Hinweis auf Einschüchterung verbunden ist.“
Metas Richtlinie zu Gewalt und Anstiftung zu Gewalt zielt darauf ab, „potenziellen Schaden abseits des Internets“ zu verhindern, der möglicherweise im Zusammenhang mit Inhalten steht, die auf Metas Plattformen gepostet wurden. Sie verbietet „Gewaltandrohungen, die zum Tod führen könnten (bzw. andere Formen der schweren Gewalt)“ sowie „Drohungen, sich zu bewaffnen, Waffen an einen Ort mitzunehmen oder sich mit Waffengewalt Zutritt zu einem Ort zu verschaffen“, wie z. B. „Wahllokale oder Standorte, an denen Stimmen ausgezählt bzw. Wahlen organisiert werden.” Sie verbietet außerdem Gewaltandrohungen „ohne bestimmtes Ziel mit Bezug auf Stimmabgabe, Wähler[*innen]registrierung oder Wahlorganisation bzw. -ergebnis.”
Metas Richtlinie zu Falschmeldungen legt fest, wie das Unternehmen mit verschiedenen Kategorien von Fehlinformationen umgeht. „In dem Bemühen, die Integrität von Wahlen und Volkszählungen zu fördern“ entfernt Meta gemäß einer dieser Kategorien „Fehlinformationen, die direkt zu einem Risiko der Beeinträchtigung der Fähigkeit der Menschen zur Teilnahme an diesen [politischen] Prozessen beitragen können.“ Dazu gehören: „Fehlinformationen darüber, wer wahlberechtigt ist, welche Voraussetzungen für eine Wahlberechtigung gelten, wann eine Stimme gültig ist und welche Informationen und/oder Unterlagen zur Teilnahme an der Wahl vorgelegt werden müssen.“
III. Menschenrechtliche Verantwortung von Meta
Die UN-Leitprinzipien für Wirtschaft und Menschenrechte (United Nations Guiding Principles on Business and Human Rights, UNGPs), die 2011 vom UN-Menschenrechtsrat verabschiedet wurden, geben einen freiwilligen Rahmen für die menschenrechtliche Verantwortung von Privatunternehmen vor. Im Jahr 2021 veröffentlichte Meta seine Unternehmensrichtlinie zu Menschenrechten, in der das Unternehmen seine Verpflichtung zur Achtung der Menschenrechte gemäß den UN-Leitprinzipien bekräftigte. Das Oversight Board hat bei seiner Analyse der menschenrechtlichen Verantwortung von Meta in diesem Fall folgende internationale Standards berücksichtigt:
- Das Recht auf Meinungsfreiheit: Artikel 19 des Internationalen Pakts über bürgerliche und politische Rechte (International Covenant on Civil and Political Rights, ICCPR); Allgemeiner Kommentar Nr. 34 des Menschenrechtsausschusses (2011); Berichte des Sonderberichterstatters der Vereinten Nationen für Meinungsfreiheit: A/HRC/38/35 (2018) und A/74/486 (2019).
- Das Wahlrecht und das Recht zur Teilnahme an öffentlichen Angelegenheiten: Artikel 25, ICCPR; Allgemeine Bemerkung Nr. 25 des Menschenrechtsausschusses, 1996;
5. Einreichungen von Nutzer*innen
In ihren Erklärungen gegenüber dem Oversight Board behaupteten beide Nutzer*innen, sie hätten lediglich von der AEC gepostete Informationen geteilt. Der*Die Nutzer*in, der*die den zweiten Beitrag verfasst hatte, behauptete außerdem, sein*ihr Beitrag diene als „warning to others“ (Warnung an andere), dass die „election may be fraudulent“ (Wahl möglicherweise betrügerisch ist), weil sie Mehrfachabstimmungen zulässt, da die Menschen „don’t need to show ID“ (keinen Ausweis vorzeigen müssen), um ihren Namen im Verzeichnis vermerken zu lassen.
6. Einreichungen von Meta
Meta stellte fest, dass beide Beiträge gegen die Richtlinie des Gemeinschaftsstandards „Koordinierte Zufügen von Schaden und Begünstigung von Verbrechen“ verstießen, wonach Inhalte verboten sind, die „die illegale Teilnahme an einer Wahl oder Volkszählung befürworten, Anweisungen dafür bereitstellen oder eine explizite diesbezügliche Absicht zeigen.“ Ausgehend von Metas internen Richtlinien für Inhaltsprüfer*innen gelten Metas Richtlinien zur Wahlmanipulation sowohl für Wahlen als auch für „offizielle Referenden, die von einer national benannten Behörde organisiert werden.“ Der Begriff „illegale Stimmabgabe“ schließt u. a. Folgendes ein: „(a) zweimalige Stimmabgabe; (b) Fälschung von Wahlinformationen, um an einem Ort zu wählen, an dem man nicht wahlberechtigt ist; (c) Fälschung der Wahlberechtigung; und (d) Diebstahl von Stimmzetteln.“
In Bezug auf den ersten Beitrag betonte Meta, dass die Formulierung „vote often“ (wählt oft) „normalerweise so verstanden wird, dass man bei einer Wahl illegal mehr als einmal wählt.“ Darüber hinaus stellte das Unternehmen fest, dass die Formulierung nicht als Humor oder Satire gedacht war, da der*die Nutzer*in dazu aufrief, mit „NEIN“ zu stimmen, was nach Metas Ansicht einen ernsthaften Versuch darstellte, die politische Präferenz des*der Nutzers*Nutzerin zu propagieren. Das Unternehmen teilte dem Gremium außerdem mit, dass es bei der Überprüfung von Inhalten über Wahlen in großem Umfang nicht immer in der Lage ist, die Absicht von Nutzer*innen einzuschätzen, die potenzielle Satire posten.
In Bezug auf den zweiten Beitrag befand Meta die Formulierung „smash the voting centres“ (zerschlagt die Wahllokale) als unzulässig. Das Unternehmen erklärte, der Aufruf des*der Nutzers*Nutzerin „könnte als Befürwortung der Überschwemmung der Wahl mit doppelten Stimmabgaben verstanden werden“, was nach der Richtlinie „Koordiniertes Zufügen von Schaden und Begünstigung von Verbrechen“ unzulässig ist, da sie Aussagen, die „die illegale Teilnahme an einer Wahl oder Volkszählung befürworten“ verbietet.
Nach Ansicht von Meta würde diese Formulierung, wenn sie wörtlich als Aufruf zur Zerstörung der Gebäude der Wahlzentren interpretiert würde, gegen die Richtlinie zu Gewalt und Anstiftung zu Gewalt verstoßen, da diese Richtlinie Folgendes verbietet: (i) Androhungen schwerer Gewalt gegen ein Gebäude, die zum Tod oder zur schweren Verletzung einer am Zielort anwesenden Person führen könnte; und (ii) Gewaltandrohungen „ohne bestimmtes Ziel, aber mit Bezug auf Stimmabgabe, Wähler*innenregistrierung oder Wahlorganisation bzw. -ergebnis“. Nach Metas internen Leitlinien für Inhaltsprüfer*innen müssen Drohungen gegen Orte in „expliziten Begriffen“ wie „in die Luft jagen“, „niederbrennen“, „abschießen“ und auch in allgemeinen Begriffen wie „angreifen“, „überfallen“ und „zerstören“ ausgedrückt werden, damit ein Inhalt als Verstoß gegen diese Richtlinie gilt.
Im Juli 2023 veröffentlichte Meta einen Blogpost zu den Integritätsbemühungen des Unternehmens für das Voice Referendum. Darüber hinaus teilte Meta dem Gremium mit, dass es ein funktionsübergreifendes Team gebildet hat, um mit den Vorbereitungen für das Referendum im April 2023 zu beginnen. Das Team bestand aus Teams mit Sitz im Asien-Pazifik-Raum. Dies entspricht der üblichen Praxis bei nationalen Wahlen. In der letzten Wahlkampfwoche vor der Abstimmung bildete Meta außerdem ein virtuelles Integrity Product Operations Center (IPOC), um sich in einer Zeit erhöhter Spannungen auf das Referendum zu konzentrieren. Das IPOC umfasste zusätzliche Operations-Teams, um schnell auf Eskalationen und kritische Risiken reagieren zu können, die im Vorfeld des Wahltages auftraten. Für das Voice Referendum hat Meta weder das Krisenrichtlinienprotokoll (Crisis Policy Protocol) noch andere Richtlinienhebel (policy levers) eingesetzt.
Meta erläuterte auch die „keyword-basierte Pipeline-Initiative“ des Unternehmens, die potenziell unzulässige Inhalte mit Schlüsselwörtern, sei es in Texten oder Bildern wie Screenshots, identifiziert und automatisch in eine Warteschlange stellt, um sie durch eine „spezielle digitale Pipeline, die nach bestimmten Keywords sucht“ überprüfen zu lassen. Meta teilte dem Gremium mit, dass die Liste viele Wörter und Formulierungen enthält, die von Metas Fehlinformations- und Regionalteams entwickelt wurden. Die Hauptfunktion dieses auf Schlüsselwörtern basierenden Erkennungssystems besteht darin, „die Integrität“ von Wahlen und Volksabstimmungen „zu gewährleisten“, indem „relevante Inhalte systematisch identifiziert und manuell überprüft werden“. Das keyword-basierte Erkennungssystem wurde in diesem Fall aufgrund des virtuellen IPOC aktiviert, das für das Voice Referendum eingerichtet wurde. Meta implementiert die Initiative weltweit. Sie ist nicht auf bestimmte Länder oder Regionen beschränkt, sondern wird an lokale Gegebenheiten angepasst. Laut Meta ist die Keyword-Liste „dynamisch“, kann sich ändern und ist „spezifisch für die Art des jeweiligen Ereignisses“.
Die Initiative zielt darauf ab, die folgenden Bereiche der Meta Gemeinschaftsstandards aktiv durchzusetzen: (i) die „Richtlinie Koordiniertes Zufügen von Schaden und Begünstigung von Verbrechen“, die sich mit „Betrug bei Wahlen und/oder Volkszählungen, einschließlich Angeboten, Stimmen mit Geldgeschenken zu kaufen oder zu verkaufen, und Äußerungen, die eine illegale Teilnahme an einer Wahl oder Volkszählung befürworten oder anweisen“ befasst; und (ii) die Richtlinie zu Falschmeldungen, die sich auf die Beeinflussung von Wähler*innen oder Volkszählungen konzentriert, einschließlich „Fehlinformationen zu Terminen, Orten, Zeiten und Methoden für die Stimmabgabe oder die Wählerregistrierung bzw. die Teilnahme an einer Volkszählung.“ Das keyword-basierte Erkennungssystem für das Voice Referendum wurde nicht entwickelt, um andere Content-Richtlinien in Bezug auf Wahlen oder Abstimmungen aktiv durchzusetzen, wie z. B. die des Gemeinschaftsstandards zu Gewalt und Anstiftung zu Gewalt. Wenn die von der Initiative gekennzeichneten Inhalte jedoch gegen andere Gemeinschaftsstandards verstoßen, werden diese nach einem manuellen Review ebenfalls durchgesetzt.
In diesem Fall waren die Formulierungen „double vote“ (doppelt abgegebene Stimmen) und „vote multiple times“ (mehrmals wählen) die Keywords, die das Erkennungssystem von Meta aktivierten. Der Begriff „double vote“ (doppelt abgegebene Stimmen) wurde in den Facebook-Posts nicht direkt verwendet, erschien aber im Screenshot des AEC-Posts auf X. Jeder Inhalt, der diese Keywords enthält, sei es als Text oder in Bildern wie Screenshots, wird „automatisch gekennzeichnet und in eine Warteschlange für einen manuellen Review eingeordnet, um proaktiv auf Äußerungen zu achten, die Wählerunterdrückung zum Ziel haben.“
Das Gremium stellte Meta 12 schriftliche Fragen zu diesem Fall. Die Fragen bezogen sich auf Metas Richtlinien zu Inhalten, die Wahlmanipulation zum Ziel haben, auf das keyword-basierte Erkennungssystem und auf die Protokolle, die Meta für die Moderation von Inhalten im Zusammenhang mit dem Voice Referendum eingeführt hat. Meta beantwortete alle Fragen.
7. Öffentliche Kommentare
Das Oversight Board hat fünf öffentliche Kommentare zu diesem Fall erhalten, die die Bedingungen für Einreichungen erfüllten. Drei wurden aus dem Asien-Pazifik-Raum und Ozeanien (alle aus Australien), einer aus den USA und Kanada und einer aus Europa eingereicht. Klicke hier, um die öffentlichen Kommentare zu lesen, deren Urheber*innen der Veröffentlichung zugestimmt haben.
Die Beiträge befassten sich mit folgenden Themen: dem soziohistorischen Kontext, der zum Voice Referendum führte, der Geschichte des Wahlbetrugs in Australien, der Verbreitung irreführender und aus dem Zusammenhang gerissener Informationen während des Voice Referendums sowie Metas Content-Richtlinie und seiner Durchsetzungspraxis bei Fehlinformationen im Allgemeinen.
8. Analyse des Oversight Boards
Das Gremium untersuchte, ob diese Beiträge entfernt werden sollten, indem es die Content-Richtlinien, die menschenrechtliche Verantwortung und die Werte von Meta analysierte. Zudem analysierte das Oversight Board die Auswirkungen dieses Falls auf die allgemeine Herangehensweise von Meta an Content-Governance.
Das Oversight Board wählte diese Fälle aus, um angesichts der historischen Anzahl von Wahlen im Jahr 2024 die Richtlinien von Meta zur Content-Moderation und die Durchsetzungspraktiken in Bezug auf irreführende oder aus dem Zusammenhang gerissene Wahlinformationen und Wahlbetrug zu untersuchen. Diese Fälle fallen in die strategische Priorität „Wahlen und bürgerlicher Raum“ des Gremiums.
8.1 Einhaltung der Content-Richtlinien von Meta
I. Inhaltsregeln
Das Gremium ist der Auffassung, dass beide Beiträge gegen die Richtlinie Koordiniertes Zufügen von Schaden und Begünstigung von Verbrechen verstoßen haben, die das Befürworten einer illegalen Teilnahme an einer Wahl oder Volkszählung untersagt. Die Formulierung „vote often“ (wählt oft) im ersten Beitrag ist in Verbindung mit dem Beitrag der AEC auf X über das Zählen von Mehrfachstimmen eine klare Aufforderung, eine solche Praxis anzuwenden. Gemäß den internen Meta-Leitlinien für Inhaltsprüfer*innen ist eine doppelte Stimmabgabe eine Form der „illegalen Stimmabgabe“.
Der zweite Beitrag verstößt ebenfalls gegen die Richtlinie „Koordiniertes Zufügen von Schaden und Begünstigung von Verbrechen“. Er enthielt einen Screenshot des X-Beitrags mit einem Text-Overlay, in dem es heißt: „so you can vote multiple times“ (damit ihr mehrmals wählen könnt). Außerdem werden Menschen zu Folgendem aufgerufen: „smash the voting centres“ (zerschlagt die Wahllokale). Der*Die Nutzer*in könnte einfach versuchen, seine Frustration über die AEC auszudrücken, die angeblich „vote multiple times“ (mehrmals wählen) gestattet. Liest man die Formulierung jedoch zusammen mit dem Rest des Text-Overlays auf dem Screenshot, in dem behauptet wird, die AEC dulde Mehrfachabstimmungen, und in dem sie außerdem beschuldigt wird, Menschen ein „Rigging“ (eine „Manipulation“) anhängen zu wollen, kann man sie eher so verstehen, dass die Menschen dazu aufgefordert werden, die Wahllokale mit Mehrfachstimmen zu überschwemmen. Im Zusammenhang mit den Wahlen in Australien, wo eine Wahlpflicht besteht und die Wahlbeteiligung bei über 90 % liegt, ist die Aufforderung, einmal zu wählen, eine unwahrscheinliche Interpretation von „smash the voting centres“ (zerschlagt die Wahllokale), insbesondere wenn diese Aufforderung auf die Behauptung folgt: „so you can vote multiple times“ (damit ihr mehrmals wählen könnt). Dies wird auch durch die Aufforderung des*der Nutzers*Nutzerin untermauert, wiederholt mit „Nein“ abzustimmen („NO, NO, NO, NO, NO“). In seiner Gesamtheit und im Zusammenhang mit den Wahlen in Australien stellt der Beitrag somit einen Aufruf zur doppelten Stimmabgabe dar, was auf eine „illegale Stimmabgabe“ hinausläuft, die nach der Richtlinie „Koordiniertes Zufügen von Schaden und Begünstigung von Verbrechen“ verboten ist.
Das Gremium erkennt an, dass es zwar möglich ist, dass die Beiträge satirisch gemeint sein könnten, dass aber ihre satirische Absicht nicht eindeutig ist. Das Gremium ist nicht der Ansicht, dass die Beiträge aufgrund der Aussagen in den Bildunterschriften und dem Text-Overlay auf den Bildern implizit satirisch waren. Auch wenn der Grad der Gewissheit in den Handlungsaufforderungen beider Beiträge unterschiedlich ist, so enthalten sie doch beide einen Aufruf zur mehrfachen – und damit „illegalen“ – Stimmabgabe. In Anbetracht der Risiken, die mit Betrugsversuchen im Zusammenhang mit Wahlen verbunden sind, ist das Gremium der Ansicht, dass die Meta-Ausnahmeregelung für Humor oder Satire unter solchen Umständen nur für Inhalte gelten sollte, die ausdrücklich humorvoll sind. Daher erfüllt keiner der beiden Beiträge die Voraussetzungen für diese Ausnahme.
Die Beiträge fallen auch nicht unter die Ausnahmeregelung zur Sensibilisierung gemäß der Richtlinie „Koordiniertes Zufügen von Schaden und Begünstigung von Verbrechen“. Die Screenshots und ein Großteil der von den Nutzer*innen erstellten Inhalte sollten die Aufmerksamkeit auf die Möglichkeit des Wahlbetrugs auf Grundlage der Erklärung der AEC lenken. Sie gingen jedoch darüber hinaus und ermutigten andere Personen aktiv zur illegalen Teilnahme am Voice Referendum durch mehrfache Stimmabgabe, anstatt nur die Beiträge der AEC auf X zu diskutieren. Die Beiträge enthielten keinen zusätzlichen Kontext, der von der AEC im selben Thread auf X zur Verfügung gestellt wurde, wonach die mehrfache Stimmabgabe in Australien eine Straftat ist. Statt dafür zu sensibilisieren, dass eine mehrfache Stimmabgabe möglich ist, reißen beide Beiträge die Mitteilung der AEC aus dem Zusammenhang und implizieren, dass die AEC sagt, es sei gestattet, mehr als einmal zu wählen.
Im Gegensatz zu Meta ist das Gremium nicht der Ansicht, dass eine wörtlichere Auslegung des Wortes „smash“ (zerschlagt) (im Sinne von Zerstörung von Gebäuden) in diesem Fall anwendbar ist, da es keine Anzeichen gibt, die in diese Richtung weisen (z. B. Konfliktkontext oder erhöhte Spannungen mit ausgedehnter Verbreitung von Inhalten, die direkt zu Gewalt anstiften). Deshalb kommt das Gremium zu dem Schluss, dass der zweite Beitrag nicht gegen die Meta-Richtlinie zu Gewalt und Anstiftung zu Gewalt verstößt.
Das Gremium bewertete beide Inhalte auch im Hinblick auf Metas Richtlinie zu Falschmeldungen, da sie die Mitteilung der AEC aus dem Zusammenhang gerissen haben. Das Gremium kam jedoch zu dem Schluss, dass in diesem Fall der Gemeinschaftsstandard „Koordiniertes Zufügen von Schaden und Begünstigung von Verbrechen“ anwendbar ist, da beide Nutzer*innen andere Personen zum Wahlbetrug ermutigen.
II. Durchsetzungsmaßnahmen
Das Gremium begrüßt die Integritätsbemühungen von Meta für das Voice Referendum, einschließlich des von Meta eingeführten keyword-basierten Erkennungssystems. Das Unternehmen erklärte, dass das System zur proaktiven Identifizierung potenziell unzulässiger Inhalte im Rahmen der Richtlinien zur Wahlmanipulation der Gemeinschaftsstandards „Koordiniertes Zufügen von Schaden und Begünstigung von Verbrechen“ sowie „Falschmeldungen“ eingesetzt wurde. Laut Meta ist das keyword-basierte Erkennungssystem an lokale Kontexte angepasst und enthält marktspezifische Begriffe. Ausgehend von den Informationen, die Meta dem Gremium über die Funktionsweise der Initiative mitgeteilt hat, begrüßt das Gremium, dass das keyword-basierte Erkennungssystem eingesetzt wurde und dass es in diesem Fall offenbar funktioniert hat. Initiativen wie diese müssen weltweit in allen Ländern, in denen Wahlen und andere demokratische Prozesse stattfinden, konsequent umgesetzt werden. Das Gremium ist außerdem der Ansicht, dass diese Initiative auch Wahlmanipulation und damit verbundene Maßnahmen im Rahmen des Gemeinschaftsstandards zu Gewalt und Anstiftung zur Gewalt einschließen sollte.
Angesichts der Einschränkungen keyword-basierter Ansätze zur Erkennung gefährlicher Inhalte wird das Gremium die Wirksamkeit von Metas System in anderen wahlbezogenen Fällen weiter prüfen. In diesem Zusammenhang ermutigt das Gremium Meta dazu, Erfolgsmetriken zu entwickeln, um zu bewerten, wie effektiv das keyword-basierte Erkennungssystem – zusammen mit anderen Bemühungen um Wahlintegrität bei der Identifizierung potenziell unzulässiger Inhalte – im Rahmen der wahlrelevanten Richtlinien ist. Dies würde der Empfehlung des Gremiums in der Entscheidung Rede eines brasilianischen Generals entsprechen, wonach Meta „einen Rahmen entwickeln [sollte], mit dem die Bemühungen des Unternehmens um Wahlintegrität bewertet werden können.“
8.2 Erfüllung der menschenrechtlichen Verantwortung von Meta
Meinungsfreiheit (Artikel 19 ICCPR)
Artikel 19 des Internationalen Pakts über bürgerliche und politische Rechte (International Covenant on Civil and Political Rights, ICCPR) sieht einen weitreichenden Schutz für Meinungsäußerungen „jeglicher Art“ vor. Dieses Recht umfasst „die Freiheit, Informationen und Meinungen jeglicher Art einzuholen, zu erhalten und zu vermitteln.“ Der UN-Menschenrechtsausschuss hat hervorgehoben, dass der Wert der Meinungsäußerung besonders groß ist, wenn es um politische Themen, Kandidat*innen und gewählte Vertreter*innen geht (Allgemeine Bemerkung Nr. 34, Abs. 13). Dazu gehören Äußerungen, die „zutiefst beleidigend“ sind, Kritik an öffentlichen Einrichtungen und Meinungen, die falsch sein können (Allgemeine Bemerkung Nr. 34, Abs. 11, 38 und 49).
Der UN-Menschenrechtsausschuss hat betont, dass das Recht auf freie Meinungsäußerung für die Gestaltung der öffentlichen Angelegenheiten und die wirksame Ausübung des Wahlrechts von wesentlicher Bedeutung ist (Allgemeine Bemerkung Nr. 34, Abs. 20). Der Ausschuss stellt ferner fest, dass die freie Kommunikation von Informationen und Ideen über öffentliche und politische Fragen unter den Bürger*innen für die Wahrnehmung des Rechts auf Teilnahme an der Gestaltung der öffentlichen Angelegenheiten und das Wahlrecht von wesentlicher Bedeutung ist, Artikel 25 ICCPR (Allgemeine Bemerkung Nr. 25, Abs. 25). In diesem Fall engagierten sich beide Nutzer*innen im Rahmen des Referendums, einer Angelegenheit von öffentlichem Interesse, um ihre Ansichten darüber mitzuteilen, wie das Ergebnis aussehen sollte, und beteiligten sich somit direkt an der öffentlichen Debatte, die durch das Referendum ausgelöst wurde.
Wenn Staaten das Recht auf freie Meinungsäußerung einschränken, müssen die Anforderungen der Gesetzmäßigkeit, des rechtmäßigen Ziels sowie der Notwendigkeit und Verhältnismäßigkeit erfüllt werden (Artikel 19, Absatz 3, ICCPR). Diese Anforderungen werden häufig auch als „dreiteilige Prüfung“ oder „drei Merkmale“ bezeichnet. Das Gremium nutzt diesen Ansatz, um Metas freiwillige Verpflichtung zu den Menschenrechten zu bewerten, sowohl in Bezug auf die jeweilige Inhaltsentscheidung als auch darauf, was dies über die grundsätzliche Herangehensweise von Meta an Content-Governance aussagt. Wie in früheren Fällen (z. B., Armenier in Aserbaidschan, Video armenischer Kriegsgefangener) stimmt das Gremium mit dem UN-Sonderberichterstatter für das Recht auf Meinungsfreiheit und freie Meinungsäußerung darin überein, dass obgleich „Unternehmen nicht dieselben Verpflichtungen wie Regierungen haben, sie dennoch eine derartige Wirkung haben, dass sie dieselben Arten von Fragen im Zusammenhang mit dem Schutz des Rechts auf Meinungsfreiheit ihrer Nutzer*innen prüfen müssen“ (A/74/486, Absatz 41). Das Oversight Board versucht dabei zu berücksichtigen, inwiefern sich die menschenrechtliche Verantwortung eines privaten Social-Media-Unternehmens von der einer Regierung bei der Umsetzung ihrer Menschenrechtsverpflichtungen unterscheiden kann.
I. Gesetzmäßigkeit (Klarheit und Zugänglichkeit der Regeln)
Regeln, die die Meinungsäußerung einschränken, sollten klar definiert und sowohl denjenigen, die die Regeln durchsetzen, als auch denjenigen, die von ihnen betroffen sind, mitgeteilt werden (Allgemeine Bemerkung Nr. 34, Abs. 25). Die Nutzer*innen sollten in der Lage sein, die Folgen der Veröffentlichung von Inhalten auf Facebook und Instagram abschätzen zu können. Der UN-Sonderberichterstatter für das Recht auf Meinungsfreiheit und freie Meinungsäußerung betonte die Notwendigkeit von „Klarheit und Genauigkeit“ in Richtlinien zur Inhaltsmoderation ( A/HRC/38/35, Abs. 46).
Die für die Öffentlichkeit bestimmten Formulierungen des Gemeinschaftsstandards „Koordiniertes Zufügen von Schaden und Begünstigung von Verbrechen“ sind für die Nutzer*innen nicht ausreichend klar. Da es wichtig ist, dass sich Nutzer*innen in den sozialen Medien engagieren können, um Themen von öffentlichem Interesse im Kontext demokratischer Ereignisse zu diskutieren, muss Meta sicherstellen, dass die Nutzer*innen klar über die geltenden Regeln informiert werden. Dadurch hilft man den Nutzer*innen, abschätzen zu können, ob die von ihnen geposteten Inhalte potenziell unzulässig sind. In diesem Zusammenhang ist das Gremium der Ansicht, dass die in den internen Leitlinien enthaltene Klarstellung, was unter „illegaler Stimmabgabe“ zu verstehen ist, in den öffentlich zugänglichen Gemeinschaftsstandard „Koordinierte Zufügen von Schaden und Begünstigung von Verbrechen“ aufgenommen werden sollte.
II. Legitimes Ziel
Einschränkungen des Rechts auf freie Meinungsäußerung müssen ein legitimes Ziel verfolgen (Artikel 19, Abs. 3, ICCPR), wozu auch der Schutz der „öffentlichen Ordnung“ und der „Rechte anderer“ gehört.
Der Gemeinschaftsstandard „Koordiniertes Zufügen von Schaden und Begünstigung von Verbrechen“ zielt darauf ab, „Schaden abseits des Internets und Nachahmungstaten zu verhindern“, indem er die „Unterstützung, Organisation, Förderung oder das Zugeben bestimmter krimineller oder schädlicher Aktivitäten verbietet.“
Der Schutz des Wahlrechts und der Teilnahme an öffentlichen Angelegenheiten ist ein Ziel, das Metas Richtlinie „Koordiniertes Zufügen von Schaden und Begünstigung von Verbrechen“ legitimerweise verfolgen kann, insbesondere im Zusammenhang mit Wahlen (Artikel 25, ICCPR). Das Gremium ist der Auffassung, dass es ein legitimes Ziel zum Schutz des Wahlrechts ist, Nutzer*innen daran zu hindern, andere zum Wahlbetrug aufzurufen. In der Allgemeinen Bemerkung Nr. 25 zum Wahlrecht heißt es, dass „eine unabhängige Kontrolle des Wahl- und Auszählungsprozesses stattfinden sollte“, damit „die Wähler*innen Vertrauen in die Sicherheit der Stimmabgabe und der Auszählung der Stimmen haben“ (Abs. 20). Außerdem muss der Grundsatz „eine Person, eine Stimme“ gelten, was bedeutet, dass „die Stimme einer wählenden Person der Stimme eines anderen gleichwertig sein sollte“ (Abs. 21). Das Gremium stellt außerdem fest, dass die Richtlinie zur Aufrechterhaltung der „öffentlichen Ordnung“ beiträgt, indem sie Wahllokale und demokratische Prozesse allgemein vor Wahlbeeinflussung schützt.
III. Notwendigkeit und Verhältnismäßigkeit
Nach ICCPR Artikel 19, Abs. 3 verlangt der Grundsatz der Notwendigkeit und Verhältnismäßigkeit, dass Einschränkungen der Meinungsäußerung „dazu geeignet sein müssen, ihre Schutzfunktion zu erfüllen“, und „verhältnismäßig zu den zu schützenden Interessen sein müssen“ (Allgemeine Bemerkung Nr. 34, Abs. 34). Im Rahmen ihrer menschenrechtlichen Verantwortung sollten Social-Media-Unternehmen neben der Löschung auch verschiedene andere mögliche Reaktionen auf problematische Inhalte in Erwägung ziehen, um sicherzugehen, dass Einschränkungen genau auf den Einzelfall abgestimmt sind (A/74/486, Abs. 51).
Das Gremium kommt zu dem Schluss, dass Metas Entfernung der beiden Beiträge von Facebook den Anforderungen der Notwendigkeit und Verhältnismäßigkeit entsprach. Das Gremium stellt fest, dass die Inhalte wenige Tage vor einem bevorstehenden Referendum veröffentlicht wurden, das einen bedeutenden verfassungsrechtlichen Moment in Australien darstellt, insbesondere für die Aborigines und die Torres-Strait-Insulaner*innen. Einerseits ist die politische Meinungsäußerung ein wesentlicher Bestandteil demokratischer Prozesse, und beide Nutzer*innen beteiligten sich direkt an der öffentlichen Debatte, die durch das Referendum ausgelöst wurde. Andererseits beeinträchtigten die Aufrufe der Nutzer*innen zu illegalem Verhalten im Zusammenhang mit dem Referendum die politischen Rechte der in Australien lebenden Menschen, insbesondere das Wahlrecht und das Recht, an der Gestaltung der öffentlichen Angelegenheiten teilzunehmen.
Wendet man diese Standards auf den Inhalt des Falles an, so sind die Aufrufe „vote NO“ (wählt NEIN) in beiden Beiträgen eindeutig geschützte politische Äußerungen. Die Formulierung „vote often“ (wählt oft) im ersten Beitrag und die Formulierung „smash the voting centres“ (zerstört die Wahllokale) im zweiten Beitrag sind jedoch eine andere Sache, da sie andere Personen aktiv dazu ermutigt haben, durch Mehrfachabstimmungen illegal am Voice Referendum teilzunehmen, wie in Abschnitt 8.1 oben näher erläutert. Die vom Gremium konsultierten Expert*innen stellten fest, dass häufig behauptet wurde, das Referendum sei manipuliert worden, während die journalistische Berichterstattung hervorhob, dass es häufig zu Behauptungen von Wahlbetrug kam. Daher ist das Gremium der Ansicht, dass Meta zu Recht Vorsicht walten ließ und im Sinne des Schutzes der demokratischen Prozesse gehandelt hat, indem es verhinderte, dass Wahlbetrugsversuche auf Metas Plattformen verbreitet wurden (Allgemeiner Kommentar Nr. 25). Die Verbreitung von Inhalten, die im Zusammenhang mit Wahlbetrug stehen, kann ein Umfeld schaffen, in dem die Integrität von Wahlprozessen gefährdet wird. Eine Minderheit des Gremiums ist jedoch der Ansicht, dass die Entfernung des Beitrags, der zu „smash the voting centres“ (zerschlagt die Wahllokale) aufruft, die Notwendigkeits- und Verhältnismäßigkeitsprüfung nicht bestanden hat, da Meta keinen „direkten und unmittelbaren Zusammenhang zwischen der Äußerung und der Bedrohung“ herstellen konnte (Allgemeine Bemerkung Nr. 34, Abs. 35). Da der Aufruf des*der Nutzers*Nutzerin, „smash the voting centres“ (zerschlagt die Wahllokale), eine zweideutige Aufforderung zur mehrfachen Stimmabgabe ist, bestand für diese Minderheit des Gremiums kein direkter und unmittelbarer Zusammenhang mit der Bedrohung durch Wahlbetrug.
Das Gremium ist der Ansicht, dass Metas Ansatz, bei der Durchsetzung von Ausnahmen Klarheit von den Nutzer*innen zu erwarten, sinnvoll ist, um beurteilen zu können, ob der Inhalt in einem missbilligenden bzw. sensibilisierenden Kontext, in einem Nachrichtenkontext oder in einem humorvollen bzw. satirischen Kontext geteilt wurde. In den vom Gremium untersuchten Beiträgen gab es keinen eindeutigen Hinweis darauf, dass die Formulierungen „vote often“ (wählt oft) und „smash the voting centres“ (zerschlagt die Wahllokale) rhetorisch gemeint waren und nicht eindeutig für eine Mehrfachabstimmung eintraten – eine Handlung, die die Integrität des Voice Referendums gefährdete. Daher war das Entfernen beider Beiträge notwendig, und Meta reagierte verhältnismäßig.
Darüber hinaus ist eine Minderheit des Gremiums nicht davon überzeugt, dass die Entfernung von Inhalten das am wenigsten einschneidende Mittel ist, das Meta zur Verfügung steht, um gegen Äußerungen im Zusammenhang mit Wahlbetrug vorzugehen. Es ist außerdem der Ansicht, dass Metas Versäumnis, das Gegenteil nachzuweisen, nicht dem Erfordernis der Notwendigkeit und Verhältnismäßigkeit entspricht. Der Sonderberichterstatter erklärte: „[E]benso wie Staaten prüfen sollten, ob eine Einschränkung der Meinungsäußerung den am wenigsten restriktiven Ansatz darstellt, sollten auch Unternehmen eine solche Prüfung vornehmen. Und bei der Bewertung sollten die Unternehmen dazu verpflichtet werden, die Notwendigkeit und Verhältnismäßigkeit öffentlich zu belegen“ (A/74/486, Abs. 51). Für diese Minderheit hätte Meta öffentlich darlegen müssen, warum die Entfernung solcher Beiträge das am wenigsten einschneidende Mittel unter den vielen Instrumenten ist, die ihm zur Verfügung stehen, um wahrscheinliche kurzfristige Schäden abzuwenden, wie z. B. Wahlbetrug. Wenn Meta keine solche Rechtfertigung liefern kann, sollte das Unternehmen transparent zugeben, dass seine Regeln für die Meinungsäußerung von den UN-Menschenrechtsstandards abweichen, und eine öffentliche Rechtfertigung dafür liefern. Die Minderheit ist der Ansicht, dass das Gremium dann in der Lage wäre, die öffentliche Rechtfertigung von Meta zu prüfen, und dass ein öffentlicher Dialog stattfinden könnte, ohne dass die Gefahr bestünde, dass die bestehenden UN-Menschenrechtsstandards verfälscht würden.
9. Entscheidung des Oversight Boards
Das Oversight Board bestätigt Metas Entscheidung, beide Inhalte zu entfernen.
10. Empfehlungen
Content-Richtlinie
1. Um sicherzustellen, dass die Nutzer*innen vollständig über die Arten von Inhalten informiert sind, die gemäß dem Abschnitt „Betrug bei Wahlen und/oder Volkszählungen“ des Gemeinschaftsstandards „Koordiniertes Zufügen von Schaden und Begünstigung von Verbrechen“ verboten sind, sollte Meta seine Definition des Begriffs „illegale Stimmabgabe“ in die öffentlich zugängliche Formulierung der Richtlinie aufnehmen, die Inhalte verbietet, „die eine illegale Teilnahme an einer Wahl oder Volkszählung befürworten, Anweisungen dafür bereitstellen oder eine explizite diesbezügliche Absicht zeigen, es sei denn, sie werden in einem missbilligenden bzw. sensibilisierenden Kontext, in einem Nachrichtenkontext oder in einem humorvollen bzw. satirischen Kontext geteilt.“
Das Gremium wird diese Empfehlung als umgesetzt betrachten, wenn Meta seinen öffentlich zugänglichen Gemeinschaftsstandard „Koordiniertes Zufügen von Schaden und Begünstigung von Verbrechen“ aktualisiert, um diese Änderung zu berücksichtigen.
* Anmerkung zur Vorgehensweise:
Die Entscheidungen des Oversight Boards werden von einem Panel aus fünf Mitgliedern vorbereitet und von der Mehrheit des Gremiums bestätigt. Entscheidungen des Oversight Boards geben nicht zwangsläufig die persönliche Meinung aller Mitglieder wieder.
Für diese Fallentscheidung wurde eine unabhängige Studie vom Board in Auftrag gegeben. Das Gremium erhielt Unterstützung durch Duco Advisors, eine Beratungsfirma mit Schwerpunkt auf die Schnittstelle zwischen Geopolitik, Vertrauen, Sicherheit und Technologie. Memetica, eine Organisation, die Open-Source-Forschung zu Trends in sozialen Medien betreibt, führte ebenfalls Analysen durch.