Fake-News-Kampagnen von Rechts

„Das sind gezielte Angriffe“

Extremismusforscherin Julia Ebner untersucht, wie Rechtsextreme Falschinformationen im Netz verbreiten. Ein Gespräch über Chemnitz, Köthen und #meTwo.

Unter der Marx-Büste in Chemnitz haben sich rechte Demonstranten versammelt

Mobilisierung von Rechts: In Chemnitz wurde der Sprung von Online nach Offline geschafft Foto: Imago / Max Stein

taz: Frau Ebner, rund um die Ereignisse von Chemnitz gab es jede Menge Fake News: Via Twitter wurde ein Foto verbreitet, das angeblich die Chemnitz-Demos abbildete – aber tatsächlich Leipzig 1989 zeigte. Über einen Mann, den viele Medien beim Hitlergruß zeigten, wurde behauptet, er sei von Linken eingeschleust, um die Demo zu diskreditieren. Welche Bedeutung haben solche Falschmeldungen für die Ereignisse von Chemnitz gehabt?

Julia Ebner: Ich denke schon, dass das die Stimmung mit angeheizt hat. Wir vom Institute for Strategic Dialogue in London beobachten die rechtsextreme Szene und ihr Agieren im Netz ja schon länger. Angesichts des Hasses, der teils richtig organisiert und geplant verbreitet wird, haben wir eigentlich schon länger erwartet, dass das auch offline Dimensionen annimmt. Dieses gezielte Anstacheln und Spalten der Gesellschaft online, das schnelle Reagieren rechtsextremer Netzwerke auf Vorfälle, um die dann ganz viel Falschinformationen verbreitet werden und anlässlich derer Hasskampagnen im Netz losgetreten werden – all das ist nicht neu. In Chemnitz haben wir jetzt aber das erste Mal gesehen, dass sich das auch sehr schnell offline niederschlagen kann. Diese Mobilisierung innerhalb von kürzester Zeit, das hat uns erschreckt. Auch in ihrer Dimension.

Wie werden denn diese Falschinformationen genau gestreut?

Wir haben in den vergangenen Monaten immer stärker wahrgenommen, dass sich ein komplett isoliertes alternatives Informations- und Medienökosystem ausgebildet hat. Dazu zählen immer mehr Blogs und Webseiten, es werden aber auch zunehmend alternative soziale Medien jenseits von Twitter und Facebook genutzt. In diesen Filterblasen der Rechtsextremen werden Informationen verbreitet. Und um sie noch stärker zu streuen, werden in sozialen Netzwerken koordinierte Aktionen geplant und durchgeführt.

Das heißt, dort wird verabredet, dass bestimmte Inhalte gezielt in populäreren sozialen Netzwerken gepusht werden?

Genau, teilweise sind das gezielte Desinformationskampagnen innerhalb dieser Netzwerke. Manche Nutzer legen dafür Fake-Accounts zum Beispiel in sozialen Netzwerken wie Twitter an. Über die werden dann Blogposts oder Artikel auf Webseiten aus dem alternativen Medienökosystem verbreitet, auf denen ungenaue oder übertriebene Informationen geteilt werden. Manche Meldungen sind komplett erfunden, arbeiten mit gefälschten Zitaten oder fotogeshoppten Bildern. Oder es werden Statistiken aus dem Kontext gerissen oder verzerrt.

Was konnten Sie rund um die Ereignisse in Köthen online beobachten?

Köthen ist ebenfalls ein Beispiel für Onlinemobilisierung, die sich offline niederschlägt. In den Telegram-Kanälen rechter Gruppen werden Desinformation und Aufrufe zu Online­kampagnen geteilt und logistische Details für die Demonstration am kommenden Sonntag koordiniert. In den Telegram-Kanälen unterschiedlicher rechter Gruppen wurde auch schon bei Chemnitz zur Teilnahme an den Protesten aufgerufen und es wurden Bilder, Falschinformationen und Kampagnenressourcen geteilt – jetzt sehen wir wieder dasselbe bei Köthen.

Julia Ebner, geboren 1991, ist eine österreichische Extremismus- und Terrorismusforscherin, derzeit am Londoner Institute for Strategic Dialogue.

Ebner schreibt regelmäßig für den Guardian und den Independent, gibt ihre Expertise in deutschen und britischen TV-Sendungen und berät Politiker, Aktivisten und Firmen.

Ihr Buch „Wut – Was Islamisten und Rechtsextreme mit uns machen“ ist im Frühjahr auf Deutsch erschienen.

An wen richtet sich das? An bereits überzeugte Rechtsextreme oder auch an neue Unterstützergruppen?

An beide Zielgruppen. In alternativen sozialen Netzwerken wie der Twitter-Alternative Gab.ai, die mehr oder weniger ausschließlich von Rechtsextremisten verwendet werden, sind eigentlich nur noch diese Medien präsent. Was die sogenannten Mainstreammedien berichten, wird fast nur noch als Lüge abgetan. Parallel dazu nutzen Rechtsextreme aber auch ganz gezielt Ereignisse, die der breiten Bevölkerung Angst einjagen, um ihre Desinformationen über die Filterblase hinaus zu streuen. Weil das für sie die Chance birgt, weiter in den Mainstream zu rücken. Diese strategische Vorgehensweise kann man auch in den Handbüchern von den österreichischen Identitären oder der Alt-Right nachlesen – da gibt es Schritt-für-Schritt-Anleitungen, wie nach solchen Ereignissen das Narrativ und das Framing zu beeinflussen ist. Darin werden zum Beispiel Anleitungen zum „Infiltrieren gegnerischer Filterblasen“ oder zum Durchführen sogenannter Sniper-Missionen erteilt – damit sind gezielte Angriffe auf Accounts von politischen Gegnern oder Journalisten gemeint.

Sie haben für Ihre Arbeit in abgeschlossenen Chaträumen rechtsextremer Trolltruppen recherchiert – zum Beispiel von „Reconquista Germanica“. Dort wird gezielt geplant, welche Botschaften verbreitet, welche User angegriffen werden. Sehen Sie Hinweise dafür, dass eine solche Kampagne auch in Chemnitz zum Einsatz kam?

Das ist wirklich schwer zu sagen in diesem Fall, weil der Server von Reconquista Germanica seit einigen Wochen nicht mehr existiert. Sie wurden eigentlich von allen Kanälen entfernt: von YouTube, aber auch alle verschlüsselten Kanäle auf der Chatplattform Discord existieren nicht mehr. Darum ist es schwer nachzuvollziehen, von wem diese Onlinekampagnen gestartet wurden und von wem auch die Offlinemobilisierung ausging. Überrascht hat uns bei Chemnitz, wie schnell das eine internationale Dimension angenommen hat: Aus Großbritannien, aber auch aus ganz Europa kam Verstärkung, um den Hashtag Chemnitz und die Desinformationen weiter zu verbreiten.

Sie sehen Hinweise, dass dahinter eine konzertierte Aktion rechtsextremer Trolle steht?

Ich bin mir nicht sicher, ob es wirklich so viel Koordination gab oder ob es in diesem Fall nicht einfach organisch passiert ist. Gerade weil es ja schon so ein starkes Medienökosystem gibt, lauter kleinere Seiten, die Falschmeldungen verbreiten, kann oft auch eine Kettenreaktion entstehen. Fake News werden dann einfach so immer weiter kopiert, ähnlich wie das bei traditionellen Medien ja auch passiert: Ein vertrauenswürdiges Medium berichtet etwas, andere greifen das Thema auf. Das sieht dann bei den alternativen Medien der Rechtsextremen mitunter organisierter aus als es wirklich ist.

Wie viele Menschen sind in diesen rechtsextremen Trollnetzwerken aktiv?

Das variiert sehr stark. Reconquista Germanica hatte zu einem Zeitpunkt im Frühling 2018 10.000 Nutzer. Die meisten rechten Gruppen auf Discord und Telegram bewegen sich zwischen 500 und 2.000.

In einer Studie, die Sie über rechtsextreme Trollfabriken in Deutschland mitverfasst haben, heißt es, fast die Hälfte aller Likes für Hatespeech-Kommentare auf Facebook kämen von gerade einmal fünf Prozent aller Nutzer, die durch Hatespeech auffallen. Also: ein paar wenige machen Hass auf Facebook erst richtig laut und auffällig. Sind Social-Media-Debatten heute schon von Rechts unterwandert?

Auf jeden Fall. Vor allem in den Kommentarspalten – die hatten wir in der Studie ja untersucht. Aber auch Hashtags werden gern gekapert. Natürlich kann man das nicht verallgemeinern, aber bei polarisierenden Themen wie Migration, Terrorismus, Vergewaltigung oder Kriminalität sehen wir in den Social-Media-Diskursen eine sehr starke, überproportional repräsentierte rechte Szenebewegung. Wenn sie das will, kann sie die Richtung, in die der Diskurs läuft, lenken. Ganz eindeutig ist das der Fall, wenn es zu koordinierten Kampagnen kommt. Mittlerweile funktioniert das aber auch ohne Koordination. Einfach, weil die entsprechenden Accounts oft sehr viel aktiver sind als der durchschnittliche Nutzer.

Ist #MeTwo ein Beispiel dafür?

Ja, das ist ein Beispiel, wo ein Hashtag gekapert wurde. Rechte Trollnetzwerke versuchen, Begriffe neu zu framen. Solidarität, Multikulti – diese Begriffe waren ursprünglich linksliberal und positiv geprägt. Rechte übernehmen sie, missbrauchen sie für ihre Zwecke. Das gelingt ihnen leider sehr oft.

Fazit Ihrer Studie vom Frühjahr war: In sozialen Medien gelingt es Rechtsextremen, lauter und zahlreicher zu wirken, als sie tatsächlich sind und so überproportional viel Einfluss auf Mainstreamdiskurse zu erlangen. Warum ist es so schwer, da gegenzusteuern?

Hassrede im Netz begegnen, das stellt einen immer vor ein Dilemma. Desinformationen verbreiten sich sehr schnell viral, sodass jede Reaktion eigentlich zu spät kommt. Studien zeigen: sobald sich Falschmeldungen verbreitet haben, ist der Schaden schon entstanden. Selbst wenn der Fehler korrigiert wird, wird das weniger stark wahrgenommen – einfach, weil das Interesse an dem Thema bereits geschwunden ist. Hinzu kommt: Selbst wenn es sehr schnelle Reaktionsmechanismen gäbe, mit welchen Mitteln darf dann gearbeitet werden? Man will ja nicht die gleichen Methoden anwenden wie rechtsextreme Trolle. Bei der Identitären Bewegung ­gehen wir davon aus, dass wir am Besten mit nachhaltigeren Methoden arbeiten und aufklären müssen. Und zwar längerfristig.

Wie kann eine funktionierende Gegenwehr aussehen

Einerseits ist schon wichtig, dass Aufrufe zu Gewalt entfernt werden. Und zwar nicht nur von Facebook und Twitter. Die Politik muss sich noch einmal ­genauer anschauen, welche kleineren Plattformen zum Hass im Netz beitragen. Dann kommt aber auch der Zivilgesellschaft eine große Rolle zu: Aktivisten müssen gestärkt werden. Und es muss daran gearbeitet werden, dass die Zivilgesellschaft resilienter wird gegenüber diesen Desinformations- und Hasskampagnen. Da kann in Schulen, aber auch in informellen Erziehungskontexten viel getan werden: mit Onlinekampagnen, aber auch mit Aufklärung, die die Muster von Desinformationskampagnen offenlegt.

.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de

Ihren Kommentar hier eingeben