ERFOLGSGESCHICHTE EINER SUCHMASCHINE
: The World according to Google

DAS Internet ist heute für die einen zum alltäglichen Spielzeug, für andere zu einem selbstverständlichen Arbeitsmittel geworden. Angst macht es kaum noch, die großen Hoffnungen sind auch verflogen. Zu all dem hat die inzwischen mit Abstand wichtigste Suchmaschine Google einiges beigetragen. Denn was nützt das gigantische Archiv, wenn die in ihm gespeicherten Informationen nicht nach bestimmten Kriterien geordnet und sortiert abgerufen werden können. Google macht das, blitzschnell, täglich über 200 Millionen Mal.
Von PIERRE LAZULY *

Das Internet mit seinen über 3 Milliarden Seiten wird oft als die vollständigste aller Enzyklopädien beschrieben. Neben einer unerreichten Fülle an Informationen aller Art bietet es Suchfunktionen, die auf alle erdenklichen Fragen im Nu eine Antwort liefern. Die derzeitigen Suchmaschinen sind so leistungsstark, dass ein paar Worte genügen, um die gewünschte Information zu finden.

Erstaunlicherweise gibt es immer weniger von diesen unverzichtbaren Werkzeugen: Nur vier US-Unternehmen sind noch in der Lage, die weltweite Nutzergemeinde mit qualitativ hochwertigen Diensten zu versorgen. Denn wer dem Surfer den Weg durch die ständig wachsenden Datenmengen weisen will, braucht Tausende von Computern, um das Netz zu durchforsten und die verfügbaren Informationen sinnvoll zu klassifizieren. Vor allem aber müssen diese Computer imstande sein, die für den Suchbegriff relevantesten Seiten zu finden. Allein diese Fähigkeit, die „Intelligenz“ der Suchmaschine, entscheidet über ihren Erfolg. Google hat hierfür den Beweis geliefert und sich in kaum drei Jahren zur weltweit meistgenutzten Suchmaschine entwickelt. Dank eines neuen Suchalgorithmus findet man die gewünschte Information im Allgemeinen bereits auf der ersten Seite der Trefferliste.

Im Übrigen verdankt das Unternehmen seinen Erfolg der Mund-zu-Mund-Propaganda. Wer Google einmal benutzt hatte, empfahl die „geniale“ Suchmaschine seinen Freunden. So stieg die Zahl der Suchanfragen bei Google von Anfang 1999 bis zum Frühjahr 2003 von täglich 10 000 auf über 200 Millionen. Inzwischen verarbeitet Google weltweit 53 Prozent aller Suchanfragen, sodass nicht wenige der 70 Millionen Surfer das Internet inzwischen mit diesem unvergleichlichen Suchwerkzeug gleichsetzen. Der Journalist Francis Pisani meint dazu: „Google hat sich allmählich zu einem Instrument entwickelt, dessen Bedeutung weit über die übliche Funktionalität einer Suchmaschine hinausreicht. Ich starte seit einer Weile die Suchmaschine nicht mehr nur, um Webseiten mit relevanten Informationen zu finden. Oft reicht mir schon ihre Trefferliste, oder ich überprüfe das Suchergebnis nur noch anhand der verlinkten Sites.“[1]

Die Marktführerschaft von Google wirft aber auch reelle Fragen auf. Nach welchen Kriterien wählt das System beispielsweise bei Eingabe des Suchworts „Irak“ aus den rund 3 Millionen Seiten, in denen das Stichwort vorkommt, die zehn „relevantesten“ und folglich zuerst genannten Treffer aus?

Wie jede Suchmaschine kann auch Google nur auflisten, was veröffentlicht ist. Hätte niemand einen Beitrag über den Lämmergeier ins Netz gestellt, bliebe alles Suchen ergebnislos. Wer im Netz nach Informationen sucht, erhält keineswegs Zugang zu allen erdenklichen Wissensbeständen, sondern nur zu dem Teil, den die diversen Anbieter von Inhalten – die so genannten Content-Provider wie Universitäten, Institutionen, Medien, Privatpersonen – freischalten. Deshalb hängt die Relevanz der Treffer vor allem auch von der Qualität der ins Netz gestellten Beiträge ab.

Nun nimmt die Zahl der zugänglichen Seiten zwar unaufhörlich zu, doch nicht wenige institutionelle Content-Provider haben ihr Informationsangebot in letzter Zeit eigens ausgedünnt. In den USA beispielsweise haben nach dem 11. September 2001 viele offizielle Webseiten die als „sensibel“ eingestuften Informationen aus ihrem Angebot gelöscht. Das gilt zum Beispiel für die US-Armee, die der interessierten Öffentlichkeit zunächst stolz ihre Chemiewaffendepots präsentiert hatte[2], aber auch für viele zivile Organisationen. Die „Geographical Information Services“ etwa sperrten den Zugang zu ihren Straßenkarten[3], während der Bundesstaat Pennsylvania alle Pläne über Schulen und Krankenhäuser sowie über die Telekommunikationsinfrastruktur aus dem Netz nahm.[4]Manche Unternehmen ließen unter dem Vorwand der Terrorismusbekämpfung Informationen verschwinden, deren Veröffentlichung von Umweltorganisationen erst nach langen Auseinandersetzungen erstritten worden war. So löschten etwa kalifornische Stromversorger alle Angaben über die Schadstoffemissionen ihrer Kraftwerke.[5]

Der Zusammenbruch der New Economy tat ein Übriges. Seit 2001 beschränken immer mehr Anbieter den Zugang zu ihren Informationen auf den Kreis ihrer Abonnenten. Der Nachteil dieser Strategie ist allerdings, dass die betreffenden Seiten aus dem Netz verschwinden, da sie – auch wenn das Abonnement kostenlos ist – von den Suchmaschinen ignoriert werden. Hätte die New York Times also vorigen Monat einen Artikel über den Lämmergeier veröffentlicht, würde er in der Trefferliste nicht auftauchen.

Gleichzeitig haben mehr und mehr andere Akteure das Netz mit Beschlag belegt. Privatunternehmen entdeckten das World Wide Web für ihre Öffentlichkeitsarbeit, und politische Initiativen nutzen es als zusätzliche Möglichkeit, ihre Anliegen voranzubringen. Vor allem aber haben die Surfer selbst das Netz immer mehr mit ihren eigenen Homepages gefüttert. Die „Selbstveröffentlichung“, vor kurzem noch eine Domäne von Technikfreaks, hat sich in dem Maße demokratisiert, in dem eine leicht zu handhabende Spezial-Software verfügbar wurde.

Mitte der Neunzigerjahre, als die Informationsflut immer weiter zunahm, hatten Sergey Brin und Larry Page, die an der amerikanischen Universität Stanford Informatik studierten, die zündende Idee: Eine Suchmaschine, die Webseiten automatisch nach der Häufigkeit der Bezugnahmen durch andere Webseiten sortierte, müsste doch weit bessere Resultate erzielen als die damals übliche, relativ primitive Suchtechnik. In der Annahme, dass die „relevantesten“ Seiten diejenigen sind, auf die andere Seiten am häufigsten Bezug nehmen, machten sich die beiden Junginformatiker daran, das Thema in einem Studienprojekt zu bearbeiten. Das war der Grundstein für eine „mathematischer“ arbeitende Suchmaschine, die sie bei der Gründung ihres Unternehmens 1998 „Google“ tauften.

Um die „Relevanz“ einer Seite zu bewerten, erfanden Brin und Page den so genannten PageRank. Dabei wird jede Webseite nach der Anzahl der auf sie verweisenden Links ständig neu bewertet. Isolierte Seiten, auf die niemand einen Link geschaltet hat, bleiben praktisch unsichtbar: sie haben keine „Legitimität“. Häufig zitierte Sites hingegen avancieren in den Augen von Google zur maßgeblichen Referenzgröße. Dieser Algorithmus[6]garantiert eine beeindruckende Tefferqualität.

Doch weist das System zugleich ein entscheidendes Manko auf: Neue Websites sind eindeutig im Nachteil und werden nur in dem Maß sichtbar, wie es ihnen gelingt, die Aufmerksamkeit bereits etablierter Sites auf sich zu ziehen. „PageRank beruht auf der demokratischen Natur des Web“, behaupten die Google-Gründer. Doch dass „die Stimmen wichtiger Seiten mehr zählen und dazu beitragen, andere Seiten in ihrer Bedeutung aufzuwerten“, müssen auch sie einräumen.

Andrew Orlowski schildert in der Zeitschrift The Register eine aufschlussreiche Begebenheit.[7]Am 17. Februar 2003 hatte die New York Times auf ihrer Titelseite einen Artikel zur Debatte um den Irakkrieg: „Die großen Antikriegsdemonstrationen, die am vergangenen Wochenende in aller Welt stattfanden, erinnern uns daran, dass es auf diesem Planeten immer noch zwei Supermächte gibt: die Vereinigten Staaten und die öffentliche Meinung.“ UN-Generalsekretär Kofi Annan griff die Formulierung sogleich auf, und in den darauf folgenden Wochen verwies Google bei Eingabe des Suchausdrucks „zweite Supermacht“ tatsächlich auf diese ungewöhnliche Definition.

Daraufhin eröffnete James F. Moore von der Harvard University das Gegenfeuer. Am 31. März stellte er einen Beitrag mit dem Titel „Die zweite Supermacht enthüllt ihr schönes Gesicht“ auf seine neu eingerichtete Homepage.[8]In diesem nichts sagenden Text präsentierte er die Wortfügung „zweite Supermacht“ in einer entschärften, selbst für Republikaner akzeptablen Version. Sein Gedankengang gefiel einigen „Techno-Utopisten“, und sie beförderten den unbedeutenden Beitrag durch ihre hoch bewerteten Verweise zu „der“ Referenz schlechthin. Einen Monat später befanden sich unter den ersten dreißig Treffern, die Google auf die Suchanfrage „zweite Supermacht“ anzeigte, nicht weniger als siebenundzwanzig Seiten, die einen Link zu Moores langweiligem Beitrag geschaltet hatten. Die Rechnung des Harvard-Spezialisten für Wirtschafts-, Technologie- und Führungsstrategie war also aufgegangen.

Andrew Orlowski kommentiert: „Millionen Menschen in aller Welt mussten aktiv werden, bis die Armee die Antikriegsbewegung als ‚zweite Supermacht‘ wahrnahm. Und dann kommen ein paar ‚Blogger‘[9]und verschaffen diesem Artikel mit dem PageRank von Google eine solche Legitimität, dass dessen Definition alle anderen verdrängt. Wäre die Suchmaschine Ihr einziges Fenster zur Welt, würden Sie kaum glauben, dass ‚zweite Supermacht‘ eine andere Bedeutung haben könnte, als die harmlose Definition nahe legt. Die ursprüngliche Bedeutung ist gleichsam verschwunden.“

Für Andrew Orlowski zeigt diese Anekdote, dass „Google nicht authentisch, sondern synthetisch ist“. Die Trefferliste verweist nicht auf die Hauptbedeutung eines Suchworts, sondern auf die am meisten verlinkte. Dieser Effekt wird noch durch das Urheberrecht verstärkt, das die Online-Veröffentlichung von geschützten Texten untersagt. So ergibt eine Suchanfrage zu dem Autor Raoul Vaneigem auch Hinweise auf einige seiner Texte, bei den allermeisten Autoren bekommt man jedoch lediglich Kaufangebote auf den Bildschirm. Im günstigsten Fall stößt man noch auf die eine oder andere Rezension eines Surfers. Auf eine Bibliothek übertragen, würde dies bedeuten, dass Bücher nicht kostenlos verliehen werden dürfen und den zahlenden Mitgliedern deshalb nur noch die Anmerkungen ihrer zahlenden Mitglieder zur Verfügung stehen.

Das fast vollständige Fehlen von Primärliteratur hat zur Folge, dass im Internet die subjektiven Stellungnahmen dominieren. Gleichwohl herrscht auf dieser Spielwiese der Ideologien und subjektiven Wahrnehmungen eben nicht die gewohnte Logik der Machtverteilung – hier ist es noch möglich, Einfluss auf die symbolische Ordnung zu nehmen. Von einer Überrepräsentanz der herrschenden Ideologie kann keine Rede sein, im Gegenteil. Füttert man die Suchmaschine mit dem Namen eines Innenministers, der sich für die prompte Rückführung illegaler Einwanderer stark macht, landet man auf der Seite einer Organisation zur Verteidigung der Sans-Papiers. Fragt man nach einem Wirtschaftsboss, kann es vorkommen, dass Google zuvorderst an die Finanzskandale erinnert, in die er verwickelt war, und seine Pressemitteilungen erst unter „ferner liefen“ aufführt. Der Einfluss der verschiedenen Akteure hängt also stark davon ab, inwieweit sie sich das Netz zu Eigen gemacht haben. Der Aufbau einer Website allein hilft wenig; es kommt letztlich vor allem auf die Anerkennung von Seiten an, die im Netz „etwas zählen“.

Viele Autoren profitieren davon, dass ihre Texte von anderen zur Kenntnis genommen und gewürdigt werden, aber es gibt auch viele Möglichkeiten, das PageRank-System zum eigenen Vorteil auszutricksen. Da gibt es zum Beispiel die Suchmaschinen-Optierer, die sich darauf spezialisiert haben, im Auftrag und auf Rechnung bestimmter Interessengruppen „Informationsseiten“ aufzusetzen, die auf den ersten Blick wie das Portal einer Presseagentur wirken. Nicht wenige Surfer lassen sich vom Anschein der Seriösität beeindrucken, schalten einen Link auf den vorgeblichen Nachrichtenanbieter und mehren damit seine symbolische Macht.

Bei brisanten Themen wie beispielsweise Genpflanzen oder dem israelisch-palästinensischen Konflikt ist ein regelrechter Wettlauf um die vorderen Plätze der Trefferliste entbrannt. Jeder versucht, die „Legitimität“ seiner Sichtweise in den Augen von Google zu erhöhen. Der Webmaster einer maßgeblichen Website musste vor kurzem erleben, wie ihm ein dubioser Web-Dienstleister folgendes Geschäft anbot: „Ich bin interessiert, Links auf Ihrer Site zu kaufen, die auf die Sites unserer Kunden verweisen. Diese Links brauchen nicht besonders hervorgehoben zu werden, da wir dadurch keine unmittelbare Zunahme der Besucherzahlen erwarten. Ihre Site steht bei Suchmaschinen hoch im Kurs, sodass besagte Links die Sichtbarkeit der Sites unserer Kunden bei Suchanfragen erhöhen würden.“ Zum Kreis seiner Kunden zählt dieser Optimierexperte unter anderem Finanz-Sites, Reiseagenturen und Pharmaunternehmen.

Überdeutlich werden die Grenzen von Google bei wichtigen politischen Fragen, zu denen im Netz radikal unterschiedliche Meinungen kursieren. Denn schließlich besteht bei rein mathematischen Suchkriterien immer die Gefahr, dass sie die eine oder die andere Meinung überbewerten.

Das Prinzip „Wer zuerst kommt, mahlt zuerst“ und eine intensive Verlinkung der jeweiligen Websites sind also ausschlaggebend dafür, wen Google zum „Meisterdenker“ unserer Zeit ernennt. Ganz gewiss leistet die Suchmaschine viele technische und praktische Dienste – übrig bleiben nur noch solche Fragen, auf die der große Algorithmus keine Antwort weiß.

deutsch von Bodo Schulze

* Autor der „Chroniques de menteur“ (menteur.com) und Initiator von „L’autre portail“ (rezo.net).

Fußnoten:

1Francis Pisani, „Ma vie Google“, Netsurf, http://netsurf.ch/archives/2001/01_10/011024nt.html.

2„Security Concerns Prompt Army To Review Web Sites, Access“, Defense Information and Electronics Report, 26. Oktober 2001, http://www.fas.org/sgp/news/2001/10/dier102601.html.

3San Francisco Chronicle, 5. Oktober 2001.

4Gil Shochat, „State agencies pull information from Web sites“, The News Media and The Law, Zeitschrift des Reporters Committee for Freedom of the Press, Herbst 2002, http://www.rcfp.org/news/mag/v.cgi?26-4/foi-stateage.

5Jean-Pierre Cloutier, „Crise: sites Web censurés, modifiés, amendés“, Les chroniques de Cybérie, 30. Oktober 2001, http://cyberie.qc.ca/chronik/20011030.html.

6Ein Algorithmus ist eine exakt definierte Methode, um ein Problem zu lösen. Typischerweise wird ein Algorithmus durch eine Folge von Anweisungen beschrieben, die nacheinander ausgeführt und oft in festgelegter Weise wiederholt werden.

Andrew Orlowski, „Anti-war slogan coined, repurposed and Googlewashed … in 42 days“, The Register, 4. März 2003, http://www.theregister.co.uk/content/6/30087.html.

8James F. Moore, „The Second Superpower Rears its Beautiful Head“, http://cyber.law.harvard.edu/people/jmoore/secondsuperpower.html.

9Dazu Francis Pisani, „Salam Pax, Warblogs und andere Online-Tagebücher“, Le Monde diplomatique, August 2003.