Datenexperte über Social Bots: „Manipulation ist nicht so einfach“

In Online-Netzwerken wimmelt es von Social Bots – Software, die sich als Mensch ausgibt. Wie verändert das den öffentlichen Diskurs?

Japanischer Roboter

Fast wie ein Mensch: Social Bots mischen sich in Diskussionen auf Twitter und Facebook ein. Und betreiben so Sabotage Foto: dpa

taz: Herr Hegelich, Sie forschen zu sogenannten Social Bots – Softwareprogrammen, die sich in die Unterhaltungen in Sozialen Netzwerken mischen und dort vorgaukeln, echte Personen zu sein. Was war denn Ihr bislang spannendster Fund?

Simon Hegelich: Das erste große Botnetz, das ich jemals gefunden habe, ist im Ukraine-Konflikt nach wie vor tätig. Da geht es um etwa 15.000 Bots auf Twitter. Die verbreiten da sehr viele Sportnachrichten, erzählen Witze – und zwischendurch machen sie Propaganda für den rechten Sektor in der Ukraine. Das ist schon allein deshalb ziemlich spannend, weil da eine relativ gute Software benutzt wird. An diesem Botnetz kann man unterschiedliche Strategien studieren. Wie es zum Beispiel bestimmte Hashtags populär macht, einfach dadurch, dass immer wieder ein Hashtag benutzt wird. Oder wie es Hashtags kombiniert, so dass man jetzt immer auf den rechten Sektor stößt, wenn man auf Twitter nach Maidan sucht.

Sie sagen, dass dieses Botnetzwerk gezielt junge Männer ansprechen soll.

Das ist die Theorie. Sie erklärt ein bisschen, warum sexistische Witze, Sportnachrichten und illegale Downloads auftauchen.

Konnten Sie auch Rückschlüsse ziehen, wer dahintersteckt?

Das bleibt Spekulation. Ich versuche immer allen Leuten klarzumachen, dass das auch so bleiben wird. Das glaubt mir dann aber niemand so richtig. Solange man nicht die NSA ist und genau nachprüfen kann, welcher echte Mensch irgendwann an irgendeinem Computer gesessen hat, wird man das nicht erfahren.

Hinter der Beschäftigung mit Social Bots steht ja die These, die künstlichen Programme könnten demokratische Prozesse beeinflussen. Für wie wahrscheinlich halten Sie das?

Die Frage ist, was damit gemeint ist. Dass demokratische Prozesse durch Bots beeinflusst werden, ist beinahe ein Fakt. Weil nämlich jede Debatte, die in den sozialen Medien geführt wird, von Bots begleitet wird, sage ich mal vorsichtig. Sofern wir also annehmen, dass die sozialen Medien irgendeine politische Relevanz haben – und die meisten Leute nehmen das an –, müssen wir davon ausgehen, dass die Bots in irgendeiner Form daran teilhaben. Aber es ist ganz sicherlich nicht so, wie das verkürzt häufig dargestellt wird, dass viele Bots was zum Thema Brexit schreiben – und dann stimmen die Leute für den Brexit. So passiert das nicht.

Warum? Weil ich auch als Laie einen simplen Bot erkennen kann und dann einfach nicht glaube, was er verbreitet?

Das ist eine Möglichkeit. Aber auch generell ist Manipulation nicht so einfach. Ich kann nicht einfach jemandem sagen: Sei jetzt für den Brexit – und dann sagt der einfach: okay. Ich muss die Leute schon abholen bei etwas, was sie sich vielleicht selbst schon gedacht haben.

Aber könnten Social Bots nicht doch den Diskurs beeinflussen? Etwa indem sie Diskussionen in sozialen Medien so ätzend machen, dass echte Menschen vergrault werden?

Ja, so könnte Beeinflussung stattfinden. Bots sind häufig sehr aggressiv. Das führt vermutlich dazu, dass gemäßigtere Meinungen sich angewidert aus diesen Diskussionen zurückziehen. Wer ähnlich radikal denkt, fühlt sich bestätigt. Und die anderen Radikalen, die andersherum denken, fühlen sich herausgefordert. Dann haben wir ein riesiges Geschrei. Was dann vielleicht auch dazu führt, dass es – auch wenn das empirisch schwer zu zeigen ist – über die Zeit eine Radikalisierung gibt, eine Zunahme von Aggressivität in den sozialen Medien.

Das Beispiel, dass Sie eben ansprachen, ist nicht theoretisch: Eine Studie zeigte, dass sich vor der britischen Brexit-Abstimmung auf Twitter viele Social Bots unter Hashtags wie #brexit und #strongerin eingemischt haben. Einige Medien sehen darin Beeinflussungsversuche.

Die Kollegen haben diese Arbeit vor der Abstimmung in Großbritannien veröffentlicht. Und sie haben nicht gesagt, dass die Abstimmung manipuliert worden ist. Wenn man sich mal etwas genauer anschaut, was die Bots gemacht haben, um die es da geht, wird klar: Das waren sogenannte Spambots: Die haben sich einfach an den Hashtag #brexit drangehängt und in Wirklichkeit Links zu russischen Videoplattformen gepostet.

Da kann ich mir nicht vorstellen, dass das jemanden großartig in seinem Wahlverhalten beeinflusst. Was allerdings auch mit diesen dummen Spambots beeinflussbar ist, sind die Trends von Social-Media-Plattformen. Wenn durch die bei Reportern der Eindruck entsteht: Uh, der #brexit ist total trendig, wir müssen da noch mal unsere Berichterstattung revidieren und der Brexit-Stimme ein stärkeres Gewicht geben – dann kann das schon Einfluss darauf haben, was die Leute tatsächlich hinterher wählen.

Wie erkennen Sie eigentlich, ob hinter einem Social-Media-Profil ein Bot steht?

Der Professor für Political Datascience an der Hochschule für Politik der TU München verbindet Politik- mit Computerwissenschaft. Sein Projekt zu Social Media Forensics wird finanziert vom Bundesministerium für Forschung und Bildung.

Wenn ich mir Profile anschaue, gibt es ein paar Sachen, die einem merkwürdig vorkommen können. Wenn jemand zum Beispiel extrem viele Posts auf Twitter gesendet hat, aber noch gar nicht lange dabei ist. Oder wenn man immer wieder die gleichen Bilder sieht. Aber die richtige Überprüfung läuft über Machine-Learning-Algorithmen. Dafür müsste ich die Daten erst runterladen und dann dem Klassifizierungsprogramm geben, das ich entwickelt habe. Das überprüft dann alle möglichen Muster, die von Bots bekannt sind, und errechnet eine Wahrscheinlichkeit, ob das jetzt ein Bot ist oder nicht. Das Prinzip dabei ist machine learning: Ich habe einen großen Haufen Daten, von denen ich weiß, dass es Bots sind. Und einen anderen Haufen, die keine Bots sind. Ziemlich intelligente Algorithmen erkennen darin Muster.

Was für Daten sind das?

Bei Twitter sind etwa 140 Metadaten zugänglich. Das können zum Beispiel Geokoordinaten sein, aber auch die Farbe des Hintergrundes, den man gewählt hat. Oder der Link zum Foto. Die meisten Forscher beschäftigen sich mit Twitter. Das liegt aber auch daran, dass man dort so einfach an die Daten kommt. Eigentlich müssten wir viel mehr Facebook-Forschung machen, weil das viel wichtiger ist.

Wie viele Social Bots sind denn tatsächlich in sozialen Netzwerken unterwegs? Es kursiert ja ein breites Spektrum an Zahlen.

Die können Sie alle vergessen.

Und wenn man die Bot-Accounts zählt?

Die Zahlen funktionieren leider alle nicht. Seriös kann man die nicht rausgeben – wenn man nicht gerade Twitter oder Facebook ist. Denn: Wie hoch der Anteil aller Meldungen ist, bei denen man davon ausgehen kann, dass Bots dahinterstehen, kommt sehr darauf an, wie ich die Daten erhebe. Zum Beispiel auf den Beobachtungszeitraum – denn Bots werden immer dann aktiv, wenn ein Hashtag in sozialen Netzwerken schon trendet.

Auch im US-Wahlkampf haben Sie Hinweise auf Social Bots gefunden: Twitter-Accounts, die sexistische, antisemitische oder rassistische Witze erzählen und später Trump diffamieren – womit möglicherweise bewirkt werden soll, Trump-Unterstützer umzudrehen. Mal ganz naiv gefragt: Kann es am Ende sein, dass Social Bots den Ausgang von US-Wahlen beeinflussen?

Denkbar ist das tatsächlich. Unterstellt ist dabei, dass es insgesamt ein knappes Wahlergebnis wird. Ich glaube nach wie vor nicht, dass Bots ein geeignetes Instrument sind, um Massen umzudrehen. Aber in Situationen, wo wenige Stimmen entscheidend sein können, haben Bots möglicherweise einen Einfluss. Es wird allerdings unmöglich sein, das jemals nachzuweisen – weil man nie nachweisen kann, ob die Leute nicht ohne die Bots das Gleiche gewählt hätten. Generell muss man allerdings sagen: Social Bots spielen in Wahlkampagnen im Moment noch keine Rolle. Aber das kann ja noch kommen.

Ein wenig bedrohlich klingt das Potenzial von Social Bots ja schon. Wie geht man am wirksamsten gegen sie vor?

Das Wichtigste ist erst einmal, über das Thema aufzuklären. Denn wenn die Leute wissen, dass es diese Möglichkeit gibt, lassen sie sich schon viel schlechter manipulieren. Das Zweite ist: Ich glaube, dass die Leute, die aus Social-Media-Daten etwas ableiten wollen, als Nächstes in der Pflicht sind. Die müssen die Kompetenzen haben, solche Manipulationen zu erkennen.

In der Politik muss es erst einmal darum gehen, sich diesem gesamten Thema Digitalisierung vernünftig zu widmen – und das geht natürlich weit über Social Bots hinaus. Wir müssen akzeptieren, dass wir es mit einer gesellschaftlichen Revolution zu tun haben, und viel radikaler über Möglichkeiten nachdenken, wie man diesen Flaschengeist halbwegs wieder eingefangen kriegt. Das wird sicherlich nicht darüber gehen, dass man eine Ausweiskontrolle für Bots einführt.

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de.