Debatte Hass im Netz: Die Sensationsschleuder

Solange der Algorithmus von Online-Netzwerken belohnt, was die Nutzer-Aufmerksamkeit fesselt, regieren Hass und Provokation. Da helfen keine Gesetze.

Zwei Menschen zwischen denen ein Schild in die Höhe ragt, das die Aufschrift „Aluhüte verursachen Autismus! Steht im Internet" steht

Verschwörungstheoretiker sollen gern Aluhüte tragen Foto: dpa

Der amerikanische Sonderermittler Mueller hat dreizehn Russen wegen Sabotage angeklagt. Sie sollen im Regierungsauftrag während des amerikanischen Wahlkampfs mit gefälschten Identitäten bei Facebook, Instagram und Twitter Zwietracht gesät haben.

Moment mal – ist es jetzt verboten, sich unter falschem Namen bei Twitter anzumelden und loszukübeln? Wurden die sozialen Medien nicht dafür erfunden? Doch im Ernst: In den USA mag man die Aktivitäten der russischen Provokateure als „Sabotage“ betrachten, weil sie sich in den US-Wahlkampf eingemischt haben. Im Rest der Welt gibt es dafür einen anderen Namen: Internetmarketing. Die Techniken, die die Russen eingesetzt haben, waren keine teuflischen Hightech-Manipulationen. So operiert jeder, der in den sozialen Medien auf sich aufmerksam machen will – mit dem einzigen Unterschied, dass man das üblicherweise unter Klarnamen tut.

Unternehmen wie Facebook bieten ihren Kunden fein austarierte Instrumente, um so viele Interessenten wie möglich mit der eigenen Message zu erreichen – sei es Reklame für Kreuzfahrten, sei es Propaganda. Genau das haben die Russen genutzt: Sie haben ihre Posts zunächst an sehr kleine demografische Gruppen ausspielen lassen. Die erfolgreichsten dieser Posts wurden dann mit größeren Nutzergruppen geteilt, die diese im Idealfall „viral“ weiterverbreiteten. Das kostete pro Post nur wenige Dollar.

Facebook will nun bezahlte politische Botschaften als solche markieren. Das ist schön, wird aber von vielen Nutzern nicht verstanden werden. Die wissen oft nicht mal, dass als „gesponsert“ gekennzeichnete Beiträge auf Websites bezahlte Werbung sind. Auch das Netzwerkdurchsetzungsgesetz hilft hier nicht weiter, weil es sich nur auf strafrechtlich relevante Inhalte konzentriert, nicht auf deren Verbreitung. Das grundsätzliche Dilemma besteht darin, dass bei sozialen Medien Algorithmen darüber entscheiden, was medial zirkuliert. Und die sind so programmiert, dass sie die Aufmerksamkeit ihrer Nutzer so lange wie möglich halten.

Nur die Sensationsgier zählt

Dabei bevorzugen sie Material, das sensationalistisch oder provokant ist. Wie verschiedene Studien gezeigt haben, werden gerade bei YouTube solche Inhalte durch den Empfehlungsalgorithmus systematisch hervorgehoben, um das Publikum bei der Stange zu halten. Zuletzt landete in den YouTube-Trends darum ein Video von Verschwörungstheoretikern, in dem es hieß, die Teenager, die sich nach dem Amoklauf in Parkland im Fernsehen äußerten, seien Schauspieler.

In Deutschland sind es die Anhänger der AfD, die diese Eskalationslogik bedienen: Durch betont reißerische Titel ihrer YouTube-Videos provozieren sie die Aufmerksamkeit, die dazu führt, dass der YouTube-Empfehlungsalgorithmus sie hervorzuheben beginnt. Die Bundestagsreden und TV-Auftritte von AfD-Mitgliedern tragen effekthascherische Titel, die als Klickköder dienen: „Dirk Spaniel (AfD) bringt die grünen Gemüter zum Toben“, „Anton Hofreiter rastet aus bei Rede von Gottfried Curio (AfD)“, „Merkel im Bundestag brutal fertig gemacht“.

Viele dieser Videos sind eigentlich urheberrechtlich geschützt, wie die Talkshows „Markus Lanz“ oder „Hart aber fair“ vom verhassten öffentlich-rechtlichen „Staatsfunk“, die in voller Länge veröffentlicht werden. Einige Anbieter versuchen sogar, mit ihren Angeboten Geld zu verdienen, bitten um Spenden per Paypal oder zeigen Werbung.

Praktisch sieht das dann so aus: Wer bei YouTube nach der Bundestagsdebatte über die Freilassung von Deniz Yücel sucht, bekommt von der Autovervollständigen-Funktion als zusätzliches Suchwort den Begriff „Deutschenhasser“ vorgeschlagen. Wenn man stattdessen das Stichwort „Bundestag“ eingibt, bekommt man mehrere Versionen der Rede angeboten, die der AfD-Abgeordnete Gottfried Curio zu diesem Thema gehalten hat. Der Mitschnitt von der Bundestagssite wurde von einer Armee anonymer AfD-Fans immer wieder gepostet, versehen mit Titeln wie „Dr. Gottfried Curio hält im Bundestag eine glänzende Rede zum Fall Deniz Yücel“.

Paralleluniversum AfD

Wer auf eins dieser Videos klickt, gerät in ein Paralleluniversum, in dem es nur noch eine einzige Partei gibt: die AfD, deren Anhänger sich in einer selbstreferenziellen Filterblase in den Kommentarspalten ununterbrochen versichern, wie toll diese Truppe ist. Von dort aus lenken einen die Empfehlungen weiter ins Biotop der Reichsbürger und GEZ-Verweigerer.

Rund zwei Drittel der US-Amerikaner informieren sich zuerst in den sozialen Medien über aktuelles Geschehen

YouTube und Facebook könnten das Entstehen solcher Filterblasen verhindern, wenn sie endlich akzeptieren würden, dass sie Medienunternehmen sind, die Verantwortung haben für das, was auf ihrer Website zu sehen ist – nicht neutrale Plattformen, die nur eingreifen, wenn bei ihnen strafrechtlich Relevantes veröffentlicht wird. In den USA informieren sich inzwischen rund zwei Drittel der US-Amerikaner zuerst in den sozialen Medien über aktuelles Geschehen, die Deutschen nutzen schon zu 47 Prozent Facebook und zu 22 Prozent YouTube als Nachrichtenquelle.

Diese Unternehmen befriedigen solches Interesse mit einem Mix, der von streng geheimen, von keiner Öffentlichkeit kontrollierbaren Computerprogrammen zusammengestellt wird. Deren Hauptaufgabe besteht nicht darin, Menschen mit brauchbaren Informationen zu versorgen, sondern sie zu möglichst langem Verweilen zu bewegen. Und das tun sie um jeden Preis – auch wenn der darin besteht, die Nutzer ins düstere Universum der Verschwörungstheoretiker und Rechtspopulisten zu verfrachten.

Dass russische Trolle und deutsche AfD-Anhänger diese Algorithmen besonders erfolgreich zu manipulieren gelernt haben, ist logisch: Ihr Ziel, zu polarisieren und Zwietracht zu sähen, kann hier mit geringen Mitteln realisiert werden. Und es hat Erfolg, wie die toxische Diskussionskultur zeigt, die zunehmend auch in die nichtvirtuelle Welt Einzug hält.

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

ist Professor für Medienwissenschaft an der Hochschule Mainz. Zuletzt hat er im Reclam-Verlag das Buch „Texte zur Theorie des Internets“ heraus­gegeben.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de.