Medientheoretiker über Filter Bubbles: „Was ich nicht finde, fehlt mir nicht“

Jeder Nutzer bekommt bei Google personalisierte Treffer angezeigt. Der Medientheoretiker Felix Stalder fragt sich, woher das Unternehmen weiß, was das Beste für einen ist.

Unterschiedliche Nutzer erhalten von Google verschiedene Ergebnisse – trotz des selben Suchbegriffs: Filter Bubbles. Bild: benicce / photocase.com

sonntaz: Herr Stalder, was haben Sie zuletzt gegoogelt?

Felix Stalder: Oh je, das mache ich so oft, das fällt mir kaum mehr auf. Ich glaube, das Letzte war eine Suche nach einem Text des französischen Philosophen Georges Simondon.

Und kam ein brauchbares Ergebnis heraus?

Ja. Wie so oft kam zuoberst Wikipedia, und da war der Text verlinkt.

Haben Sie bei dieser Suche gemerkt, dass Google seine Suchergebnisse personalisiert, unterschiedliche Nutzer also mit demselben Suchbegriff verschiedene Ergebnisse erhalten?

Konkret bei der Suche nicht. Aber so eine Personalisierung ist für den Einzelnen ja auch fast nicht zu bemerken. Schließlich weiß man in der Regel nicht, wie die Suchergebnisse aussehen würden, wären sie nicht personalisiert oder wenn Google andere Informationen über einen gespeichert hätte.

Sie haben in einem Experiment mit extra dafür angelegten Google-Konten untersucht, wie stark sich die Ergebnisse unterscheiden und im Fazit geschrieben, das Ausmaß sei „überraschend“. Wieso?

Weil es gezeigt hat, dass diese ursprüngliche Idee, dass es so etwas wie allgemeines Ranking gibt, wo das Wichtigste oben steht und die weniger wichtigen Sachen weiter unten, kaum mehr stimmt. Was wir finden, hängt in ganz großem Maße von unserer Person ab – oder von dem, wofür uns Google hält. Das fängt bei dem Standort an, von dem wir suchen, unseren Spracheinstellungen und geht weiter über das, was wir in der Vergangenheit gesucht haben, bis hin zu den Informationen, die Google aus seinen anderen Diensten wie etwa Gmail und Adsense über uns gesammelt hat.

44, beschäftigt sich als Professor für Digitale Kultur an der Zürcher Hochschule der Künste mit politischen, ökonomischen und kulturellen Dimensionen der Wissengesellschaft. Er ist am Wiener World Information Institute tätig und twittert als @stalfel.

Der Autor Eli Pariser, auf den der Begriff der Filter Bubble zurückgeht, bringt ein Beispiel, in dem der eine Benutzer auf Google das Stichwort „BP“ suchte und Nachrichten zu Investitionsmöglichkeiten erhielt, während ein anderer Nutzer mit derselben Suchanfrage Informationen über die von der BP-Bohrplattform „Deepwater Horizon“ verursachte Ölpest bekam. Ist das nicht ein sehr extremes Beispiel?

Das ist sicher extrem. Aber ich denke, es ist in der Tendenz nicht ungewöhnlich, weil es in der Logik der Personalisierung die Nutzer in Gruppen einteilt. Und dann wird gefragt: Mit welchen Augen sieht diese Gruppe die Welt? Denen eines Investors oder denen eines Umweltschützers?

Google sagt, sie wollen nur die besten Ergebnisse für den Nutzer.

Das sagen auch Eltern zu ihren Kindern, und trotzdem will niemand ewig Kind bleiben. Woher weiß Google denn im Voraus, was das Beste ist? Weiß ich als Nutzer das überhaupt, wenn ich suche? Das Problem ist: Was ich nicht finde, das fehlt mir nicht. Es kommt immer etwas Passendes, und ob es noch etwas Besseres gibt, das weiß ich ja gar nicht. Insofern lässt sich individuell gar nicht sagen, ob die Ergebnisse so toll sind. Dazu kommt eine Art sich selbst erfüllende Prophezeiung: Nur aus dem Grund, dass etwas oben in den Suchergebnissen auftaucht, schließen viele auf eine hohe Relevanz. Und klicken drauf. Und deshalb taucht es wieder oben in den Suchergebnissen auf.

Diesen und viele weitere spannende Texte lesen Sie in der sonntaz vom 16./17. Februar 2013. Am Kiosk, eKiosk oder gleich im Wochenendabo. Und für Fans und Freunde: facebook.com/sonntaz

Zumindest bei Google können Nutzer selbst die Personalisierung abschwächen, indem sie etwa Cookies und den Browserverlauf löschen.

Ja, das hilft zumindest zum Teil. Aber es wird den Nutzern immer unattraktiver gemacht. Google, Facebook und andere geben einem möglichst viele Gründe, immer eingeloggt zu sein. Dazu kommt: Die Personalisierung ist nicht nur falsch. Prinzipiell soll mir eine Suchmaschine aus 500.000 möglichen Resultaten die fünf rausgeben, die für mich relevant sind. Google und Facebook sind ja nicht von außen aufgedrängte bösartige Dienste, die ich zwangsweise nutzen muss. Sie sind in vielerlei Hinsicht wirklich nützlich. Aber mit dem Dienst, den der User zu nutzen glaubt, kommen eben noch andere Sachen mit, die für ihn nicht sichtbar sind, wie diese Art goldener Informationskäfig.

Also ist das Problem vor allem, dass der Nutzer gar nicht weiß, was da passiert.

Genau, die Mechanismen sind völlig intransparent. Und die Kunden von Google, aber auch von Facebook, das mit ähnlichen Konzepten arbeitet, sind ja nicht wir, die Nutzer, sondern die Werbetreibenden. Die Personalisierung dient nicht nur dazu, die Welt für den Nutzer zu personalisieren, sondern den Nutzer selbst zu personalisieren. So kann Werbung passgenau präsentiert werden. Jede Suche ist also eine doppelte Suche: Der Nutzer sucht nach Information und der Werbetreibende nach Kunden oder potenziell beeinflussbaren Subjekten.

Das werden die Nutzer nicht gern hören.

Na ja, Google sagt, es ist eine Win-win-Situation. Werbung sei ja auch nützliche Information. Aber Werbung ist genau nicht Information, sondern der Versuch, Verhalten zu beeinflussen.

Und welchen Einfluss hat die Personalisierung auf eine Gesellschaft?

Wir haben eine Vielzahl von Mechanismen, die uns erlauben, das, was wir von der Welt wahrnehmen, zu filtern. Das ist nicht grundsätzlich neu, wir können die Welt immer nur selektiv wahrnehmen, aber diese Filter werden immer feiner und immer umfassender. Und dadurch nimmt der gesamtgesellschaftliche Vorrat an geteiltem Wissen ab. Wir haben immer mehr Menschen mit ganz viel Nischenwissen und ganz viel Spezialistentum. Die Piratenpartei ist ein gutes Beispiel dafür. Deren Mitglieder sind unglaublich communityorientiert und haben wenig Interesse, mit der Allgemeinheit, der Öffentlichkeit im alten Sinne, zu kommunizieren. Die verstehen das Internet ja eh nicht, ist die Haltung.

Und wieso ist das jetzt problematisch?

Es ist dann problematisch, wenn sie nicht mehr nur in einzelnen Bereichen – etwa der Berufswelt – normal ist, sondern überall.

Warum?

Weil verschiedene Gruppen mit ihrer jeweils eigenen Sichtweise auf die Welt sich dann zunehmend einander nicht mehr verständlich machen können. Wir haben das beispielsweise gerade in den USA gesehen, wo die Republikaner total erstaunt waren, die Wahlen zu verlieren, weil sie in einer Welt gelebt haben, in der alle Anzeichen darauf hingedeutet haben, dass sie die Wahlen gewinnen werden. Sie sahen nur noch die Welt, die sie sehen wollten. Wenn man da auf politischer Ebene agieren, Kompromisse finden muss, dann ist diese eingeschränkte Weltsicht ein echtes Hindernis.

Sehen Sie eine Möglichkeit, das wieder aufzufangen?

Notwendig wäre eine stärkere Auseinandersetzung mit der Realität, die von allen gemacht wird. Am Ende drang die Wahlniederlage auch in die stärkste Filter Bubble durch und hat einen Nachdenkprozess ausgelöst. Ein Mittel, dieses Engagement zu erweitern, wäre etwa durch mehr Partizipation. Mit mehr Elementen der direkten Demokratie, Volksentscheiden etwa, kann man den Diskurs wieder zurück auf eine gemeinschaftliche Ebene zurückbringen und die Menschen aus ihrem Kokon herausholen.

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de.