Sonntaz-Interview mit Eli Pariser

"Konzerne geben vor, was wir sehen"

Bestimmte Informationen werden im Netz weniger verteilt. Der Netzaktivist Eli Pariser über gefilterte Meinungen und die Strategie von Google und Facebook.

Google und Facebook: Sie bestärken Meinungen statt neue zu präsentieren.   Bild: dpa

sonntaz: Herr Pariser, Facebook und Google liefern uns Nachrichten oder Freundesklatsch maßgeschneidert: Für jede genau das, was sie interessieren dürfte. Sie sagen in Ihrem Buch "Filter Bubble", diese Personalisierung gefährde unsere Demokratie. Wie das denn?

taz paywall

Ist Ihnen dieser Artikel etwas wert?

Mehr Infos

taz.de

Eli Pariser: Es ist doch die Frage, wer die Kontrolle hat. Und das sind Unternehmen wie Facebook oder Google, die sich in erster Linie ihren Werbekunden verpflichtet fühlen. Statt die Menschen also zu ermächtigen, sich ihren eigenen Nachrichtenmix zusammenzustellen, entscheiden sie für diese Menschen, was die sehen können und was nicht.

Sie sprechen von einer "Filter Bubble", einer Filterblase, in der wir gefangen sind.

Die "Filter Bubble" ist ein persönliches Informationsuniversum, in der wir in unserem Onlineleben immer stärker hineingezogen werden. Aus den Informationen über uns versuchen die Unternehmen zu schließen, was wir sehen wollen. Das Hauptziel fast aller großen Onlinekonzerne ist es, so viele Daten über uns zu sammeln wie möglich, um uns dann Werbebanner vorzusetzen, auf die wir mit hoher Wahrscheinlichkeit klicken.

Im Deutschen sagen manche "Hallraum". So wie wir ins Netz rufen - so wie wir suchen, posten, sammeln -, hallt es zurück. Nach dem Motto: Wer sich für dieses Buch interessiert hat, der sollte sich das hier ansehen.

Genau. Das Problem aber ist, dass wir gar nicht wissen, wie diese Blase für uns konstruiert wird. Wir wissen also nicht, was wir verpassen. Und manchmal wissen wir noch nicht einmal, dass die Inhalte überhaupt so stark ausgesiebt werden.

Wie funktioniert das?

Facebooks Newsfeed, die Nachrichten, die jeder über Freunde und die Welt erhält, zeigt unterschiedlichen Menschen ganz unterschiedliche Dinge. Was man angeboten bekommt, hängt davon ab, auf welche Inhalte man vorher geklickt hat mit wem man befreundet ist, wie eng, und wie sich dieses Verhalten auf Facebooks Gewinn auswirkt. Eine der verblüffendsten Geschichten hat mir eine Führungskraft des Konzerns erzählt. Sie wissen bei Facebook: Wenn du eine 30 Jahre alte Frau bist und deine Freunde Bilder von sich veröffentlichen, ist die Wahrscheinlichkeit hoch, dass du das auch tust. Wenn du das tust, werden deine männlichen Freunde diese Bilder wahrscheinlich kommentieren. Und wenn sie das tun, steigt die Wahrscheinlichkeit, dass sie Facebook in den kommenden Monaten treu bleiben.

Und wie nutzt Facebook dieses Wissen?

Sie zäumen das Pferd von hinten auf und sagen: Eli nutzt Facebook noch ein bisschen zu wenig. Lass uns doch ein paar Freundinnen von ihm finden, denen Fotos von ihren Freundinnen zeigen, sodass Eli das kommentieren kann und mehr Zeit auf Facebook verbringt.

31 Jahre alt, ist politischer Aktivist, Journalist und Vorstandschef der Plattform moveon.org, die mit ihren Anti-Bush-Kampagnen bekannt wurde.

 

Sein Buch "Filter Bubble. Wie wir im Internet entmündigt werden" erscheint am 27. Februar im Hanser Verlag. Die Seite zum Buch: thefilterbubble.com

Wissen die Programmierer so genau, was sie tun - bei mehr als 800 Millionen Facebook-Nutzern und komplexesten Algorithmen?

Eines meiner verstörendsten Gespräche hatte ich mit einem Google-Programmierer, der für solche Prozesse zuständig ist. Er gestand im Grunde, dass er auch nicht immer genau weiß, warum Google einen bestimmten Algorithmus in einem bestimmten Moment genau so ausrichtet. Die Codezeilen sind viel zu lang, die Datenbanken zu riesig, sodass ein einzelner Mensch das kaum fassen kann. Das wäre ja alles gar nicht so schlimm, wenn die Entscheidungen, die sie treffen, nicht so extrem wichtig wären.

Das sind auch ethische Fragen. Denken die Programmierer darüber nach? Sie haben ja für Ihr Buch mit einigen gesprochen.

Sie denken nicht genug über die ethischen Konsequenzen nach. Oft sind sie sich ihrer Verantwortung gar nicht bewusst. Wir sind uns alle einig, dass der Redakteur einer Zeitung ethische Verantwortung trägt für die Geschichten, die auf seiner Seite oder auf dem Titel erscheinen. Google betrachtet seine Suchfunktion nicht als eine ähnlich verantwortungsvolle Aufgabe. Ich habe beispielsweise gefragt: Wenn ich ein Verschwörungstheoretiker bin, der sich für 9/11 interessiert, was ist dann euer Job? Besteht er darin, mir möglichst neue abstruse Informationen zu diesen Theorien zu liefern? Oder wäre es besser, ich bekäme Material, das meinen Ansichten widerspricht, mich aber aufklärt. Da fiel ihnen erst mal gar nichts ein.

Die sehen Zahlen und keine Inhalte?

Google behauptet ja, den Leuten geben zu wollen, was die wollen. Das klingt erst mal gut. Aber es ist viel komplizierter. Die Leute wollen Kuchen essen und dünn bleiben. Zwei echte Bedürfnisse, die in entgegengesetzte Richtungen weisen. Menschen wollen Sachen lesen, die sie in ihren Meinungen bestärken. Gleichzeitig wollen sie etwas über die Welt erfahren. Google konzentriert sich ein bisschen sehr auf das erste Bedürfnis: Es bestärkt Meinungen, statt neue zu präsentieren.

Diesen und viele andere spannende Texte lesen Sie in der sonntaz vom 11./12. Februar. Am Kiosk, eKiosk und im Wochenendabo. Für Fans und Freunde: facebook.com/sonntaz

Und manchmal weiß man selbst gar nicht, was man will.

Man weiß vor allem nicht, was einem vorenthalten wird, was man verpasst.

Wie könnte die "Filter Bubble" die Wahlen in den USA beeinflussen?

Ich stellte irgendwann fest, dass Facebook mir vor allem Beiträge von Freunden zeigten, die politisch meiner Meinung waren. Facebook hatte einfach gemerkt, dass ich mit meinen politischen Freunden mehr interagiere. Die Beiträge der anderen tauchten kaum noch auf, obwohl ich gerade von ihnen Neues erfahren wollte.

Wie verändert das eine Demokratie?

Eine Demokratie erfordert Organisation und dass man sich um eine gemeinsame Sache versammelt. Aber auch die Fähigkeit, Differenzen zu überbrücken, um Entscheidungen zu ringen. Mit dieser Personalisierung wird es wirklich schwierig, andere Perspektiven einzunehmen, nicht nur im eigenen Saft zu schmoren. Das ist gefährlich.

Bevorzugt das Barack Obama oder Mitt Romney?

Schwierige Frage. Nehmen Sie lieber den Klimawandel, eine unverrückbare Tatsache. In einer durchpersonalisierten Filterblase wäre es aber einem Großteil der Amerikaner möglich, nicht daran zu glauben, ihr Leben nicht zu ändern, weil sie die Wahrheit gar nicht wahrnehmen.

Wenn Facebook wollte, könnte es den Newsfeed politisch manipulieren?

Ich denke nicht, dass Facebook das tut. Aber es könnte. In anderen Ländern geschieht das. Es gibt ein Netzwerk in China, das ähnlich funktioniert wie Facebook. Wenn man da bestimmte politische Begriffe eingibt, erscheinen nur leere Boxen. Das zeigt, wie groß die öffentliche Verantwortung ist, die solche Firmen tragen.

Was erwarten Sie von den Regierungen, etwa in den USA?

Die Gesetze zum Erfassen von personenbezogenen Daten sind in den USA vierzig Jahre alt. Sie sind nicht gemacht für eine Welt, in der der Klick auf eine Website das, was man später auf einer anderen Website sieht, beeinflussen kann.

Für Facebook schlagen Sie einen "Important"-Button vor statt des "Like"-Buttons. "Wichtig" statt "Gefällt mir".

Der "Like"-Button bestimmt die Art, wie Informationen weitergegeben werden. Es ist einfach, auf die Nachricht "Habe gerade den Marathon geschafft" zu klicken, aber nicht ganz so einfach, zu "Genozid in Darfur" "Like" zu sagen. Bestimmte Informationen werden also seltener verteilt. Wenn man statt "Gefällt mir" "Das ist wichtig" klicken könnte, würde sich die Informationsverteilung ändern.

Kennen Sie die Studie des Wissenschaftlers Eytan Bakshy, der Ihnen widerspricht?

Seine zentrale Erkenntnis ist ja richtig. Die Leute, die man weniger gut kennt, bringen die neuen Informationen ins eigene Netzwerk. Facebooks Algorithmus allerdings, der Newsfeed, konzentriert sich ja gerade darauf, die Leute zu bevorzugen, die man extrem gut kennt. Insofern stützt die Studie sogar meine These.

Facebook präsentiert die Studie trotzdem wie einen Gegenbeweis gegen die "Filter Bubble". Das Gros der Informationen stamme von entfernten Bekannten.

Ich lese mich da gerade noch durch. Aber es ist ja auch so: Facebook muss für solche Forschung Zugang zu den Datenbanken genehmigen. Die werden das nicht tun, wenn sie sich nicht ein vernünftiges Ergebnis erhoffen. Ich fände es großartig, wenn Facebook seine Datenbanken auch den Leuten öffnen würde, die sich kritisch mit Facebook auseinandersetzen. Das ist bisher aber eher, als ob man im Irak als embedded journalist unterwegs ist. Die dürfen auch keine negativen Bilder verbreiten. Das sind embedded researchers. Kritische Wissenschaftler, die ich kenne, haben so einen Zugang bisher nicht erhalten.

Haben Sie manchmal Verfolgungsangst, seit Sie durch Ihre Recherchen erfahren haben, wo überall Daten abgesaugt werden?

In meinem Buch versuche ich, den Leuten das alles so zu erklären, dass sie informierter surfen können. Ich nehme einfach mal einen anderen Browser und schaue, ob sich die Ergebnisse der Suchen ändern. Man muss die Kontrolle zurückgewinnen oder Dienste nutzen, die sie einem geben. Twitter etwa, ganz anders als Facebook, sortiert keine Tweets aus. Man kann Google verwenden, aber die Dinge noch mal gegenchecken, anderswo. Man kann bei Google auch die personalisierte Suche ausstellen.

 

Um einen Kommentar zu schreiben, registrieren Sie sich bitte.

Bitte halten Sie sich an unsere Netiquette.

Sie finden Ihren Kommentar nicht?

Ihren Kommentar hier eingeben