Manipulation durch Social Bots

Mensch oder Maschine

Automatisiert in sozialen Netzwerken verbreitete Beiträge können die öffentliche Meinung beeinflussen. Das ist auch für deutsche Politiker wichtig.

Eine Menschenmenge, von der sich ein junger Mann tragen lässt

Menschen. Keine Bots Foto: dpa

BERLIN taz | Teuer ist das Ganze schon einmal nicht. 500 US-Dollar kostet eine Software, mit der sich 10.000 Twitter-Accounts steuern lassen. Accounts, die dann Tweets verfassen, andere retweeten, Nutzern folgen oder bestimmte Hashtags verwenden. #alternativefacts zum Beispiel. Ganz automatisch. Und immer im Sinne des Auftraggebers.

Social Bot wird dieses Phänomen genannt, wobei „Bot“ als Abkürzung für Roboter steht. In die Kritik geraten diese Bots derzeit, weil sie in sozialen Netzwerken wie Twitter, Facebook, Instagram oder Google+ automatisiert Beiträge verbreiten und dabei von von Menschen verfassten Beiträgen kaum zu unterscheiden sind.

Es gibt die Bots in unterschiedlichen Komplexitätsstufen: Die einfachsten retweeten oder favorisieren nur Nachrichten mit bestimmten Hashtags, um für eine größere Verbreitung und Wahrnehmung zu sorgen. Bei komplexeren Bots erstellt der Algorithmus entsprechend der Vorgaben selbst Kurznachrichten. Hierbei spielt auch künstliche Intelligenz eine Rolle, damit die Nachrichten möglichst nicht von denen menschlicher Urheber zu unterscheiden sind. In der Praxis wäre es beispielweise möglich, einen Social Bot darauf zu programmieren, auf jeden Tweet mit einem Pro-Clinton-Hashtag wie #ImWithHer zu reagieren und dazu jeweils einen variierenden Antworttweet abzusetzen, der Clinton der Korruption beschuldigt.

500 US-Dollar. Die Zahl stammt aus einer Studie von Simon Hegelich, Professor an der Hochschule für Politik an der Technischen Universität München. Und sie zeigt, warum Social Bots für alle, die Meinung machen wollen, so attraktiv sind: Wie viele Werbeflächen an Bushaltestellen muss man buchen, wie viele TV-Spots, wie viele Google-Ads, um in einer ähnlichen Dimension wahrgenommen zu werden wie mit einer Bot-Stärke, die der Einwohnerzahl einer Kleinstadt entspricht?

Das Problem bei den Social Bots: Anders als bei Werbung auf Webseites oder dem Werbespot im Fernsehen ist nicht ersichtlich, dass hier jemand – oder etwas – unterwegs ist, dem es vor allem darum geht, die Meinung der Empfänger zu beeinflussen. Und noch weniger ist ersichtlich, wer hinter der anschließenden Verbreitung – durch Retweets, Favorisierungen und Nutzung eines Hashtags – steckt. Stammen die Tweets, die Trump beleidigen, vom demokratischen Wahlkampfteam? Oder aus Trumps eigenem Umkreis, um seiner Gegnerin in der Diskussion diskreditierendes Verhalten vorwerfen zu können? Oder versucht hier jemand, einen viel gelesenen Hashtag für kommerzielle Zwecke zu nutzen?

Wie Bots auffallen

Dabei ist nicht einmal klar, wie hoch der Anteil computergenerierter Nachrichten in den Netzwerken überhaupt ist. „Wir haben keine Social Bots auf unserer Plattform“, heißt es etwa bei Face­book schlicht. Diese seien schließlich nicht erlaubt. Auch Twitter verweist darauf, dass solche Profile auf der Plattform verboten seien. Allerdings kam der Forscher Philip Howard von der Universität Oxford nach einer Untersuchung von 9 Millio­nen Tweets, die nach dem ersten TV-Duell von Hillary Clinton und Donald Trump gepostet wurden, zu dem Ergebnis: Jeder dritte Tweet aus dem Trump-Lager kam von einem Bot, bei Clinton knapp jeder vierte.

Anders als bei dem Werbespot im Fernsehen ist nicht ersichtlich, dass hier jemand – oder etwas – unterwegs ist, dem es darum geht, die Meinung der Empfänger zu beeinflussen

Tabea Wilke hat mit Botswatch ein Werkzeug entwickelt, das Social Bots in Echtzeit erkennen kann. Als Bot gilt ein Account dabei unter anderem, wenn er über 50 Tweets am Tag absetzt – selbst sehr fleißige menschliche Nutzer hierzulande kommen laut Wilke nur auf 20 bis 25 Tweets. „Twitter ist deswegen relevant, weil wesentliche Influencer die Plattform nutzen“, sagt sie. Politiker zum Beispiel. Wer es also schaffe, hier Debatten zu manipulieren, der beeinflusse die politische Diskussion.

Das Potenzial zeigt Wilke etwa anhand einer Auswertung der Tweets während einer Sendung „Hart aber fair“ vom Dezember. Mehr als 20 Prozent der Tweets seien hier von Bots abgesetzt worden – ungewöhnlich viele, sagt Wilke. Und es gibt Auffälligkeiten. Als Bots identifizierte Accounts verwendeten etwa Schlagworte wie „Islam“, „Merkel“ oder „AfD“ häufiger als die Accounts mit menschlichen Nutzern. „Erdoğan“, „eingeladen“ oder „Polizei“ kam dagegen bei Bots nicht vor, sondern nur bei menschlichen Twitterern. Das zeige zumindest, dass Bots eine Diskussion verschieben könnten, erklärt Wilke. Der konkrete Einfluss, den das am Ende auf Menschen habe, sei aber kaum messbar.

Die Grünen fordern nun zumindest eine verpflichtende Kennzeichnung. „Bots per se sind weder gut noch schlecht. Aber Social Bots sind ein Phänomen, das zu Diskursverschiebungen im Netz führen kann, zum Beispiel durch das massenhafte Verbreiten von Falschnachrichten“, begründet Konstantin von Notz, netzpolitischer Sprecher der Grünen-Fraktion, den Vorschlag. Wie das im Detail aussehen soll, ist allerdings unklar. Bislang haben CDU, SPD, Linkspartei, Grüne, FDP und – nach anfänglichen gegenteiligen Aussagen – auch die AfD auf freiwilliger Basis erklärt, im anstehenden Bundestags-Wahlkampf nicht auf Social Bots setzen zu wollen. Das Problem: Das kann sich nur auf offizielle Accounts beziehen. Wenn ein Parteimitglied selbst entscheidet, Bots für die Wahlwerbung einzusetzen, würde auch ein Gesetz nicht greifen.

Ausmaß des Potenzials ergründen

Auch Katrin Weller, Leiterin des Teams Social Analytics and Services am Leibniz-Institut für Sozialwissenschaften, geht davon aus, dass die Social Bots einen Einfluss auf die Meinungsbildung haben. „Wenn damit der Eindruck erweckt wird, dass es eine große Community gibt, die eine bestimmte Ansicht vertritt, dann kann das sowohl Politiker beeinflussen als auch dazu beitragen, die eigene Meinung zu festigen.“ Für besonders anfällig hält Weller Nutzer, die ihre Informationen lediglich über einen einzelnen Medienkanal – also beispielsweise ausschließlich über Facebook – beziehen. Und das sei immer häufiger der Fall.

Sie sammeln: Social Bots können auch nützlich sein – zum Beispiel wenn sie Daten automatisiert zusammenfassen. Das können Informationen zum Fernsehprogramm oder zu Börsenkursen sein, zur Feinstaubbelastung, zu Erdbeben oder Warnungen vor Hurricans. Der Bot sammelt Informationen aus diversen Quellen und benachrichtigt die Nutzer aktiv.

Sie reagieren: Wie das Konzept der Social Bots mal ganz anders genutzt werden kann, zeigte das Peng-Kollektiv. Die Aktivisten setzten einen Algorithmus auf gängige Formulierungen an, die in Beleidigungen, in rassistischen, sexistischen oder homophoben Äußerungen verwendet werden. Fand der Bot eine dieser Formulierungen in einem Tweet, bekam der Nutzer digitale Post, nämlich den Hinweis, dass er sich gerade wie ein Troll benommen habe, und ein Video, in dem ein Schauspieler als Selbsthilfe-Guru erklärt, wie das mit dem Weg zur Besserung funktioniert.

Trotzdem hält Weller den Vorstoß der Grünen nicht für praktikabel. Den Betreibern einschlägiger Bots komme es gerade darauf an, dass ihre Postings nicht als automatisch generiert erkannt würden. „Bot-Farmen in Russland wird man damit vermutlich nicht in den Griff bekommen.“ Für vielversprechender hält sie es, die Plattformbetreiber zu verpflichten. „Die haben ganz andere Möglichkeiten, Bots aufzuspüren.“ Tabea Wilke von Botswatch spricht sich vor allem für eine Stärkung der Medienkompetenz von Nutzern aus.

Einig sind sich von Notz und Weller darin, dass durchaus noch mehr Forschung nötig wäre, um das Ausmaß des meinungsbildenden Potenzials von Social Bots zu ergründen. Auch das Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag arbeitet seit Oktober an einer Untersuchung dazu. In einem Papier, das die Zwischenergebnisse zusammenfasst, heißt es, dass gesicherte Nachweise über die Wirkung fehlten. Und dass man den Fokus nicht nur auf die Politik, sondern auch die Wirtschaft lenken müsse.

So wurde vor zwei Jahren in einem der wenigen gut belegten Fälle der Börsenkurs eines Technologieunternehmens durch Social Bots per Twitter in die Höhe getrieben, als im Börsenhandel eingesetzte Algorithmen auf von Bots verbreitete Gerüchte hin investierten. Die Verluste nach dem Aussetzen des Handels, die waren dann real.

 

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Wenn Sie Ihren Kommentar nicht finden, klicken Sie bitte hier.

Ihren Kommentar hier eingeben