Meinungsmache im Netz: Bots schlafen nicht

Immer öfter imitieren Computerprogramme menschliches Verhalten in Online-Netzwerken. Wie groß ihr Einfluss ist, hängt von uns ab.

Haende halten Smartphone. Twitterlogo zu sehen.

Es ist nicht alles Mensch, was twittert Foto: dpa

Als der Moderator Lester Holt sich bei den Kandidaten bedankte, legte Donald Trump die Hände auf sein Pult. Er blickte in die Menge, irgendjemand schrie „Go Donald, we love you!“, ein Teil des Publikums antwortete mit „Go Hillary!“. Das erste TV-Duell zwischen Trump und Clinton war vorbei.

Als die Menschen an der Ostküste der USA am nächsten Morgen aufwachten, war #trumpwon, der meistgenutzte Hashtag auf Twitter. Tausende Onlineprofile verbreiteten Nachrichten mit diesem Spruch. Doch später wurde klar: Mindestens ein Drittel dieser Trump-Unterstützer waren keine Menschen.

Es waren Bots, Programme, die menschliches Verhalten imitieren. Der Begriff ist ein abgekürztes „Robot“, bezeichnet also eine Maschine, die eine bestimmte Aufgabe erledigt, zum Beispiel mit KundInnen kommuniziert, Fragen beantwortet oder Nachrichtenartikel verschickt.

Klar, Bots sind weder gut noch schlecht. Wie bei allen Werkzeugen kommt es darauf an, wer sie benutzt, und wie.

Social Bots als Multiplikatoren

Als „Social Bots“ werden diejenigen Programme bezeichnet, die in den sozialen Netzwerken menschliches Verhalten imitieren. Für die NutzerInnen sehen die Social Bots zunächst aus wie andere Menschen auch: ein Foto, ein Name, eine kurze Selbstbeschreibung. Wenn hunderte oder tausende von ihnen beginnen, bestimmte Botschaften zu senden, wirkt das oft wie ein Trend. #Trumpwon, tausendfach wiederholt von vermeintlichen Menschen an hunderten verschiedenen Orten, das klingt nach Begeisterung.

Benno Ohnesorg liegt blutend auf dem Boden, Friederike Hausmann beugt sich über ihn

2. Juni 1967: Ein Schuss tötet den Demonstranten Benno Ohnesorg. Dieses Datum markiert den Beginn einer bis heute geführten Debatte über Gegenöffentlichkeit, über die Medien, über Wahrheit und Lüge, oder, wie man heute formulieren würde, über Fake News und alternative Fakten, über Verschwörungstheorien, bürgerliche Zeitungen und alternative (auch rechte) Blätter, über die „Wahrheit“ und die Deutungshoheit gesellschaftlicher Entwicklungen. Nachdenken über 50 Jahre Gegenöffentlichkeit: taz.gegen den stromDie Sonderausgabe taz.gegen den strom – jetzt im taz Shop und auf www.taz.de/gegenoeffentlichkeit

Dabei war Trumps Auftritt eher so mäßig gelungen, Experten erklärten Hillary Clinton zur Punktsiegerin. Aber die Programme machen es einfach, Begeisterung vorzutäuschen. Einzelne können so ihre Propaganda vervielfachen. Wie in einem Spiegelkabinett taucht sie plötzlich in allen Richtungen auf. Twitter informiert seine Nutzer über beliebte Schlagworte und verstärkt so den Effekt.

Die Bots sind untereinander vernetzt und beginnen auf Befehl, ihre Botschaften zu senden. Sie können dann beispielsweise ein Schlagwort kapern und so oft in belanglosem Kontext verwenden, bis echte Diskussionen und Meinungen zu dem Thema in der Masse untergehen.

Aber: Bewirkt das etwas? Können Bots auch in Deutschland Wahlen beeinflussen?

„Don’t feed the trolls“ – gilt nicht mehr

Im Berliner Betahaus treffen sich die „Schmalbärte“, die besorgten Bürger der anderen Seite – besorgt durch Bots und Hetze von rechts. Das amerikanische Nachrichtenportal „Breitbart“, bekannt für Falschmeldungen im US-Wahlkampf, hatte einen deutschen Ableger angekündigt.

Auch Bots machten Artikel von Breitbart auf Facebook und Twitter publik. In Berlin trinken nun also Journalistinnen, Grundschullehrer und Studenten Kaffee aus sehr kleinen Tassen und brainstormen zwischen Sperrholztrennern Ideen gegen rechte Propaganda. Das ungeschriebene Gesetz, die Hetzer im Netz zu ignorieren – „don’t feed the trolls“ – gilt nicht mehr.

Der Menschenbonus ist das beste Mittel, um Bots zu entlarven: sobald sie in ein Gespräch verwickelt werden, können sie den Schein selten aufrechterhalten.

Zu wichtig erscheinen im Wahljahr die Diskussionen in den Kommentarspalten und Netzwerken. WissenschaftlerInnen konnten bisher nicht nachweisen, wie groß der Einfluss von Bots auf die Wählermeinungen wirklich ist.

Stefan Bohacek, Gründer der Initiative „Botmakers“, die international Bot-Interessierte zusammenbringt, ist aber überzeugt, dass in der Veränderung von Diskussionen im Web große Macht steckt: „Viele Menschen bekommen heutzutage ihre Nachrichten in den sozialen Medien und verfolgen die Diskurse dort. Sie lesen die Konversationen von anderen Menschen und stoßen auf Argumente und Fakten, die sie davor nicht in Erwägung gezogen haben.“

Braucht die Linke Bots?

Wer solche Konversationen automatisiert führt, beeinflusst also nicht nur die Person, mit der diskutiert wird, sondern auch all jene, die die Unterhaltung lesen. Die sind klar in der Überzahl. Auf Facebook lesen 60 Prozent der Menschen einfach nur mit, in den anderen Netzwerken sind es noch mehr.

Menschen legen mehr Wert auf Gedanken vermeintlich Gleichgesinnter als auf das, was fremde JournalistInnen verbreiten, auch das ist wissenschaftlich erwiesen. Diese Homophilie lässt sich mit gut gemachten Bot-Profilen ausnutzen.

Im Schmalbart-Camp ist eine der diskutierten Konsequenzen diese: Auch die Linke und die Mitte brauchen Bots. „Wir können den Hetzern nicht das Feld überlassen, aber gegen diese Masse an Kommentaren kommen wir alleine nicht an“, sagt einer. „Warum fühlen wir uns plötzlich als Opposition?“, fragt ein anderer. Diejenigen, gegen die gekämpft werden soll, AfD-Sympathisanten, Fremdenhasser, Demokratiefeinde, machen doch in Umfragen lediglich ein paar Prozent aus. Warum sind sie im Internet so präsent?

Noch sind Bots in Diskussionen destruktiv – etwas anderes lassen die Mechanismen dahinter kaum zu. Die einfachen Programme können nur stupide Aufträge ausführen. Menschliche Sprache zu analysieren und darauf zu reagieren ist bislang noch aufwändig und teuer. Der Aktivist Raul Krauthausen sieht deshalb für die linke Mitte keine Anwendung für die Programme: „Als Bewegung, die gegen Hass und Hetze von rechts im Netz kämpft, sollten wir eher die Strukturen offenlegen, die die Hetzenden und Populisten benutzen, nicht mit den gleichen Mitteln zurückkämpfen.“

Bots schlafen nicht – so fallen sie auf

„Die Bots zielen auf schiere Masse und simple Aussagen. Sie erlauben es nicht, Dialoge zu führen – die wir politisch aber gerade brauchen.“

Der Menschenbonus ist zugleich auch das beste Mittel, um Bots zu entlarven: Sobald diese Computerprogramme in ein Gespräch verwickelt werden, können sie den Schein meist nicht aufrechterhalten.

Der Menschenbonus ist zugleich auch das beste Mittel, um Bots zu entlarven

„Offensichtliche Merkmale sind, dass Bots sehr schnell antworten, zu jeder Tageszeit – Bots schlafen nicht – und dass ihre Nachrichten und Antworten einem Muster folgen, zum Beispiel bestimmte Schlüsselworte beinhalten“, sagt Bohacek. Es gebe aber auch Programme, die besser täuschen ,„deshalb sollte man immer die Originalquelle suchen, bei allem, was man online findet.“

Initiativen wie die Website „Bot or Not“ der Indiana University oder das deutsche Projekt „Botswatch“ sind gute Hilfen bei Unsicherheit. Aber allgemein gilt: so lange man weiß, dass man vor einem Zerrspiegel steht, kann auch ein noch so verdrehtes Bild nicht täuschen.

Im leeren Raum

Ohne den Menschen als Rezipient können Bots nichts bewirken. Schon jetzt rufen viele Bots in einen leeren Raum hinein, folgen und unterstützen sich gegenseitig, werfen sich die immer selben Parolen hin und her. Ihr Ziel, die echte öffentliche Meinung zu beeinflussen, können sie aber nur verwirklichen, wenn Menschen ihre Botschaften aufgreifen. Mit menschlichen Gegenmeinungen umgehen musste die Welt aber schon immer.

Die Antwort auf die Frage „Was tun?“ ist also: reflektieren, durchatmen, ruhig bleiben. Das gilt für die einzelnen NutzerInnen wie für die Medien, die die Relevanz bestimmter Diskurse und Themen genau so verzerren können wie Bots.

61 Millionen Menschen sind in Deutschland wahlberechtigt. Twitter, das Netzwerk, in dem Bots den leichtesten Zugang haben und in dem sie am weitesten verbreitet sind, nutzen in Deutschland nur etwa fünf Millionen Menschen.

Selbst wenn 15 Prozent davon Bots sind, wie manche Studien nahelegen, ist es unwahrscheinlich, dass sie die Demokratie gefährden – solange Menschen nicht unreflektiert Falschaussagen aufgreifen, weiterverbreiten, und sich davon verunsichern lassen.

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de.