Google-Mitarbeiter Nr. 59
gegenüber dem, was Ben Gomes als »kontradiktorisches Gedächtnis« bezeichnete.
»Eine ganze Weile schlug ich mich mit diesen Programmfehlern herum, weil die Maschinen beschissen waren«, erzählte Gomes. »Ich schrieb dieses Programm – eines meiner ersten großen Projekte nach der Schule und es stürzte ständig ab. Ich saß in diesem Zimmer mit Leuten, die ich wirklich respektierte – Jeff, Sanjay und Urs –, und Jeff sagte: ›Die meisten Teile arbeiten, aber der Pageranker stürzt dauernd ab‹, und ich wollte im Boden versinken. Ich blieb nächtelang auf und versuchte herauszufinden, warum er abstürzte. Schließlich überprüfte ich die Stelle, die ich auf null gesetzt hatte, und sie stand auf vier. Da dachte ich: ›Es ist gar kein Fehler meines Programms.‹ Danach fühlte ich mich besser.«
Im März 2000 hoppelte endlich ein neuer Crawler über die Ziellinie – Gomes zufolge »mühsam«. »Der Index im März war der letzte Atemzug des alten Crawlers, aber der Index enthielt so viele Fehler, dass wir ihn unmöglich herausgeben konnten.« Dieser Index wurde intern als »MarIndex« bezeichnet, was sowohl auf den Monat der Entstehung verwies als auch auf die Qualität seines Inhalts. Larry und Sergey riefen den Notstand aus und richteten eine Einsatzzentrale ein, wie sie es in Krisenzeiten noch häufiger tun würden. Jeff Dean, Sanjay Ghemawat, Craig Silverstein, Bogdan Cocosel und Georges Harik brachten ihre Computer in den gelben Konferenzraum, um mit ihrem Verstand gegen das Problem vorzugehen. Bis Anfang April hatten sie den Index so weit geflickt, dass er auf die Server geschickt werden konnte, aber er hinkte und torkelte jeden Schritt des Weges.
Der alte Crawler würde nie imstande sein, die Hürden bei Yahoo zu nehmen.
Der Eine-Milliarde-Möchtegern
Urs erkannte von Anfang an, dass Google erst die Fehler der Vergangenheit – besonders die knarzende Codebasis, die dem Hauptsystem hinterlegt war – korrigieren musste, bevor es den Schritt auf einen höheren Level machen konnte. »Einige der Probleme haben wir gelöst«, konstatierte er, nachdem er an dem Tag, als er durch die Tür hereinspaziert kam, die Feuer gelöscht hatte, die unmittelbar drohten, Google zu verschlingen, »aber wir sollten von Grund auf neu beginnen.« Das war riskant, weil es die Nutzung knapper Ressourcen verlangte, um etwas zu reparieren, das noch nicht kaputt war. Die meisten Unternehmen würden eine solch komplizierte Aufgabe zurückstellen, bis sie weniger überbelastet waren.
»Das war nicht das dringendste Problem«, erzählte Urs. »Die Seite war nicht offline, es war nur ein Produktivitätsproblem. Wenn du zu lange in der alten, chaotischen Welt bleibst, geht die Leistungsfähigkeit zurück.« Er gab im Frühjahr 1999 grünes Licht, um eine neue Codebasis, genannt Google Zwei, zu schaffen. Neue Systeme würden auf Google Zwei laufen, und die ursprüngliche Codebasis würde stufenweise eingestellt. Jeff und Craig fingen an, daran zu arbeiten, aber das Schreiben einer neuen Infrastruktur nahm Zeit in Anspruch – und die Zeit weigerte sich, stillzustehen, sogar für die Techniker bei Google.
In den folgenden Monaten vergrößerte der sich aufblähende Datenverkehr den Druck an allen Stellen, und wie Urs vorausgesagt hatte, erschienen Risse in den Linien des ursprünglichen Programmcodes von Stanford.
Als sie während des jährlichen Skiurlaubs des Unternehmens im Whirlpool des Squaw Valley Resort saßen – kurz vor dem Index-Zusammenbruch im März – schlug Craig Jeff vor, einen komplett neuen Crawler und Indexer für Google Zwei zu schreiben. Das würde sauberer sein, als den alten stückweise zu ersetzen. Jeff verstand die Logik. Der MarIndex gab diesem Projekt plötzlich Dringlichkeit. Ergänzt um Sanjay und Ben Gomes rissen sie die alternden Eingeweide von Google heraus und ersetzten sie durch einen geradlinigen Block hocheffizienter Algorithmen.
Das Team wusste nicht, dass Yahoo bereits an Omids Haken zappelte oder dass sie, als er den Vertrag im Mai abschloss, nur einen Monat haben würden, um ihre Arbeit abzuschließen. Die neuen Systeme würden unter dem dreifachen der bisher höchsten Last, die Google jemals bewältigt hatte, völlig stabil laufen müssen. Sie würden Suchanfragen an Tausende von Servern in mehreren Datenzentren verteilen und automatisch den Fluss des Datenverkehrs auf der Grundlage der Maschinenverfügbarkeit ausgleichen müssen. Die Techniker konnten Google nicht abstellen,
Weitere Kostenlose Bücher