Bücher online kostenlos Kostenlos Online Lesen
Google-Mitarbeiter Nr. 59

Google-Mitarbeiter Nr. 59

Titel: Google-Mitarbeiter Nr. 59 Kostenlos Bücher Online Lesen
Autoren: Douglas Edwards
Vom Netzwerk:
Suchen pro Stunde durch. 90 Tage danach waren es 1000 Suchen pro Sekunde. Als das Volumen unseres Datenverkehrs unerbittlich nach rechts oben marschierte, klebte Claus Papierstreifen an die Grafik. Der Betrieb hatte für das Geschäft mit Yahoo in den Schnellgang des Maschinenaufbaus geschaltet und jetzt war das Produktionspedal bis zum Anschlag durchgetreten. Heerscharen von Computern lieferten genug Kapazität, sodass ein ganzes Rechenzentrum offline genommen werden konnte, ohne dass Google oder seine Partner Probleme bekamen. Wenn ein neuer Index erstellt wurde, kopierten die Techniker die Files in ein Rechenzentrum und gingen dann zum nächsten, um dieses zu aktualisieren. Das führte zu seltsamen Erscheinungen in unseren Ergebnissen.
    »Für ungefähr eine Woche pro Monat«, erinnerte sich Matt Cutts, »bist du je nach Zufall und Glück entweder bei einem noch nicht aktualisierten Rechenzentrum oder bei einem bereits aktualisierten gelandet.« Wenn eine Suche zu einem Rechenzentrum geleitet wurde, das noch nicht aktualisiert war, und du anschließend die Suche wiederholt hast und bei einem aktualisierten Rechenzentrum gelandet bist, änderten sich die Platzierungen der Ergebnisse, als würden sie tanzen.
    Dieser »Google-Tanz« bereitete denjenigen Sorgen, die sich über ihre Rangordnung in den Suchergebnissen Gedanken machten. Auf der Website WebmasterWorld vermeldeten Kommentatoren jede Index-Umschaltung, als wäre es ein Orkan, und tatsächlich konnte das Ergebnis ebenso verheerend sein für eine Firma, deren Website von der ersten Seite der Such­ergebnisse verschwand. Für Google ging es bei der Umschaltung nicht nur um das Hinzufügen von mehr Daten zum Index. Es war der Zeitpunkt, um auch den Ranking-Algorithmus zu verbessern.
    Der Schwerpunkt von Google bewegte sich von der Suchqualität zur Infrastruktur und wieder zurück. Die ursprüngliche Innovation des PageRank von Stanford verbesserte die Suchrelevanz. Die Systemarbeiten Anfang 2000 führten zum Milliarde-URL-Adressen-Index und schnelleren Antwortzeiten. 2001 schwang das Pendel zurück in Richtung Suchqualität.
    »Larry pflegte zu sagen: ›Die Suche kostet zu wenig‹«, erzählte mir Urs. »Die Kosten pro Abfrage sind wirklich zu niedrig. In Anbetracht der Umsätze, die wir haben, sollten wir mehr leisten können.« Mehr Geld auszugeben, um die Suchqualität zu verbessern, würde einen wahrnehmbaren Unterschied zwischen den Ergebnissen von Google und denen unserer Mitbewerber schaffen und es uns ermöglichen, eine auf Qualität beruhende Marke aufzubauen. Andere Suchunternehmen würden einen gleich großen oder größeren Betrag investieren müssen, nur um aufzuholen. Wir würden ein Wettrüsten starten und unsere Gegner in den Ruin treiben.
    »Die Anhebung der Kosten pro Suche wird tatsächlich den Gewinn steigern«, glaubte Urs. »Der Umsatz wird viel schneller steigen als das Nettoergebnis und die Gewinnmarge ist sehr groß.«
    Larry und Sergey wollten die Konzentration auf Effizienz, aber sie wollten auch herausfinden, wie viel besser Google werden konnte, wenn wir doppelt so viele Maschinen im Hinblick auf die Suchqualität nutzten. Also starteten sie ein Experiment.
    »2001«, erinnerte sich Sanjay, »saß ich im Büro von Larry und er sagte: ›Hier sind 3000 Maschinen. Macht euch Gedanken, was man damit tun kann.‹ Es war nicht so, als hätten wir diese zusätzlichen Maschinen zufällig herumstehen. Angetrieben wurde die Aktion von dem Wunsch, herauszufinden, wie wir mit viel Rechenkapazität interessante Dinge tun konnten.« Und das war nur der Anfang.
    »Dahinter stand die Absicht, ein Signal zu geben«, bestätigte Urs. »Mal angenommen, dass wir über reichlich Maschinen verfügen – was können wir damit tun?« Den 3000 Maschinen folgten weitere 10.000, die alle genutzt wurden, um die Suchqualität zu verbessern. Jeff, Sanjay und Amit Singhal 71 kanalisierten diese Rechenkraft in eine explosionsartige Innovation, welche die Fähigkeit von Google, relevante Ergebnisse zu liefern, enorm verbesserte. Ein Schlüssel für bessere Ergebnisse war Jeff zufolge »der sorgfältige Umgang mit dem Anker-Text«.
    Je mehr Seiten ein Index umfasst, desto mehr Informationen liegen vor, welche Seiten miteinander verlinkt sind. Und ebenso wichtig ist für Google, dass es umso mehr Informationen darüber gibt, was diese Links beinhalten. Der Wortlaut eines Hyperlinks ist der Anker-Text. Das Verknüpfen des Anker-Textes mit dem Inhalt der Seite, auf

Weitere Kostenlose Bücher