von Gastautor

Im Visier der Brüsseler Manipulationen: Ungarn-Premier Viktor Orban
Wahlen gelten als Herzstück der Demokratie. Heutzutage sind soziale Medien für viele Bürger zu einer zentralen Informationsquelle für ihre Wahlentscheidung geworden. Doch was passiert, wenn genau in diese digitale Meinungslandschaft – und zwar unmittelbar vor einer Wahl – von außen eingegriffen wird? Genau das lässt sich derzeit im Vorfeld der ungarischen Parlamentswahlen am 12. April 2026 beobachten. Denn die Europäische Kommission hat kürzlich bestätigt, dass das sogenannte Rapid Response System (RRS) aktiviert wurde. Offiziell dient dieses Instrument dazu, „Desinformation“ und „ausländische Einflussnahme“ zu bekämpfen. Tatsächlich ermöglicht es jedoch weitreichende Eingriffe in die digitale Informationslandschaft und damit in den politischen Diskurs selbst.
Das System ist Teil eines größeren EU-Regelwerks und eng mit dem Digital Services Act (DSA) verknüpft. In der Praxis bedeutet das: Von der EU-Kommission ausgewählte Akteure, darunter NGOs und sogenannte „Faktenchecker“, können Inhalte auf großen Plattformen wie Facebook oder Instagram melden. Diese Akteure werden im EU-Jargon als „trusted flagger“ (auf Deutsch: „vertrauenswürdige Meldestellen“) bezeichnet. Ihre Meldungen müssen von den Plattformen priorisiert bearbeitet werden; unterlassen sie dies, drohen rechtliche Konsequenzen. In der Praxis führt dies in den meisten Fällen dazu, dass gemeldete Inhalte gelöscht oder in ihrer Reichweite eingeschränkt werden. Damit entsteht ein Mechanismus, der in Echtzeit darüber mitentscheidet, welche politischen Botschaften sichtbar sind, und welche nicht.
Was gelöscht wird: Unklare Regeln, große Wirkung
Die genauen Kriterien und Verfahren, nach denen Inhalte gemeldet werden, sind in einem „Verhaltenskodex“ festgelegt, der von den beteiligten Organisationen gemeinsam mit der EU-Kommission hinter verschlossenen Türen ausgearbeitet wurde. Dabei geht es ausdrücklich nicht nur um strafbare oder rechtswidrige Inhalte. Vielmehr kommen weit gefasste Kategorien wie „Hassrede“, „Desinformation“, „Nichtdiskriminierung“ oder „Manipulation“ zum Einsatz. Es sind Begriffe, die sich in der Praxis dehnen lassen.
Konkrete Angaben dazu, welche Inhalte tatsächlich betroffen sind, werden nicht veröffentlicht. Transparenz fehlt weitgehend. Ein Blick nach Rumänien zeigt, welche Folgen das haben kann: Dort wurde das RRS bereits im Umfeld der Wahlen 2024–2025 eingesetzt. Die Europäische Kommission verweigerte später die Herausgabe entsprechender Dokumente mit der Begründung, die eigene EU-Transparenzverordnung sei hier nicht anwendbar.
Die sichtbaren Auswirkungen sind dennoch erheblich. So gab TikTok an, im Zusammenhang mit den Wahlen 27 Millionen Mal Beiträge und 11 Millionen Likes nicht mehr angezeigt wurden. Zusätzlich wurden rund 10.000 Werbeanzeigen abgeschaltet und über 27.000 Konten gelöscht. Es liegt nahe, dass die bloße Existenz des Systems bereits eine vorsorgliche Löschdynamik auslöst, also vorweggenommene Zensur erfolgt.
Wer löscht: Ein Netzwerk mit politischer und finanzieller EU-Nähe
Ein genauerer Blick auf die beteiligten „trusted flagger“ verstärkt die Bedenken. Die 44 Organisationen, die den “Verhaltenskodex” unterzeichnet haben, sind nicht nur in ihrer politischen Ausrichtung weitgehend homogen (was das Auswahlverfahren garantiert), sondern entscheidender ist, dass viele von ihnen überwiegend aus EU-Mitteln oder staatlichen Zuschüssen finanziert werden. Dazu gehören unter anderem:
- Democracy Reporting International, im Jahr 2023 zu 47 Prozent von der deutschen Regierung, zu 20 Prozent von der EU und zu 7 Prozent von der niederländischen Regierung finanziert;
- Reporter ohne Grenzen (RSF), im Jahr 2024 zu etwa 65 Prozent von der EU und nationalen Regierungen finanziert);
- Alliance4Europe (allein 688.710 Euro flossen aus Horizon Europe für das Projekt “ADAC.io”);
- Debunk EU (347.542 Euro flossen im Rahmen desselben Projekts);
- GLOBSEC, erhielt 2024 677.721 Euro EU-Fördermittel für Projekte zur „demokratischen Resilienz“.
Trotz dieser engen finanziellen Verflechtungen wird betont, dass die „trusted flagger“ unabhängig seien. Tatsächlich entsteht jedoch eine paradoxe Situation: Organisationen, die überwiegend aus öffentlichen Mitteln finanziert werden, greifen in den öffentlichen Diskurs ein, ohne einer klaren demokratischen Kontrolle zu unterliegen, gerade weil sie formal als „unabhängig“ gelten. Die Verantwortung für Eingriffe wird dadurch faktisch entpolitisiert.
Das Russland-Narrativ: Eine Geschichte mit schwacher Grundlage
Parallel dazu hat sich ein weiteres zentrales Element entwickelt: das Narrativ einer angeblichen russischen Einflussnahme auf die ungarischen Wahlen. Die Grundlage hierfür bilden im Wesentlichen Berichte der Plattform “VSquare”, insbesondere die Artikel des Journalisten Szabolcs Panyi. Bei genauerer Betrachtung zeigen sich jedoch erhebliche Schwächen: Die Vorwürfe stützen sich vor allem auf anonyme Quellen aus „Sicherheitskreisen“, während es an überprüfbaren Belegen für eine koordinierte Einflussoperation fehlt. Auch zentrale Fragen bleiben offen: etwa warum eine solche Operation ausgerechnet von Akteuren innerhalb Ungarns selbst gesteuert werden sollte.
Dennoch wurden diese Berichte von internationalen Medien wie “Politico” und der “Financial Times” aufgegriffen und weiterverbreitet. So entstand schrittweise ein geschlossenes Narrativ, in dem Ungarn bereits als Ziel ausländischer Manipulation erscheint. In diesem Kontext wurde das RRS am 13. März in einer Sitzung der EU-Kommission gemeinsam mit den beteiligten Organisationen aktiviert – mit Verweis auf eben dieses Narrativ.
Erste Auswirkungen: Eingriffe mitten im Wahlkampf
Die Folgen sind bereits sichtbar. Berichten zufolge hat Facebook begonnen, Beiträge von Ministerpräsident Viktor Orbán einzuschränken. Solche Maßnahmen sind besonders sensibel, da sie mitten im Wahlkampf ergriffen werden, also genau dann, wenn politische Kommunikation für die demokratische Meinungsbildung entscheidend ist.
Dass Facebook hier eine Schlüsselrolle spielt, liegt nicht nur an seiner Reichweite in Ungarn. Auch die politischen Verflechtungen sind bemerkenswert: Meta, der Mutterkonzern von Facebook, Instagram und WhatsApp, weist personelle Überschneidungen mit dem politischen Umfeld der Opposition auf. So ist die ehemalige Meta-Prokuristin Dóra Dávid inzwischen Abgeordnete der Partei Tisza im Europäischen Parlament. Auch Oskar Braszczyński, Verantwortlicher für Regierungs- und Sozialpolitik in Mittel- und Osteuropa im Warschauer Büro von Meta, ist ein erklärter Pro-Ukraine- und Pro-LGBTQ-Aktivist.
Ein Eingriff mit unberechenbaren Folgen
Die Aktivierung des RRS so kurz vor der Wahl ist von erheblicher politischer Brisanz. Kurzfristig liegt der Effekt auf der Hand: Insbesondere die Online-Kampagne von Fidesz und Viktor Orbán dürfte durch gezielte Meldungen und Moderationsmaßnahmen beeinträchtigt werden. Doch die langfristigen Folgen könnten noch gravierender sein. Sollte Péter Magyar die Wahl nicht gewinnen, besteht die Gefahr, dass die Aktivierung des Systems im Vorfeld genutzt wird, um Zweifel am Wahlergebnis zu säen oder es gar zu delegitimieren. Das Beispiel Rumänien zeigt, wie schnell eine solche Dynamik eskalieren kann: Dort folgte auf die Aktivierung des Systems schließlich die Annullierung der gesamten Wahl.
In Ungarn ist eher zu erwarten, dass im Land Unruhe erzeugt werden soll, die dann auf EU-Ebene zur Begründung weiterer Maßnahmen gegen Ungarn herangezogen werden soll. Bei einer solchen Eskalation wären dann auch extreme Maßnahmen denkbar, etwa dass die neue Regierung nicht als legitimer Vertreter im EU-Rat anerkannt werden sollte. Im Hinblick darauf, dass Viktor Orbán bei den EU-Gipfeln am 19. März sein Veto hinsichtlich der Ukraine-Hilfen nicht aufgehoben hat, wäre das eine willkommene Entwicklung für viele in Brüssel.
Keine Kommentare:
Kommentar veröffentlichen