Schöpfung außer Kontrolle: Wie die Technik uns benutzt
abbilden. Doch schon sehr bald wurde die Informationsvielfalt so unübersichtlich, dass spezielle Suchprogramme gebraucht wurden. Es war die Geburtsstunde von Alta Vista und Yahoo, die die angeschlossenen Server mit simplen Textsuchalgorithmen nach relevanten Websites durchforsteten.
Das Internet wuchs jedoch so schnell, dass auch diese Technik bald an ihre Grenzen stieß und immer öfter unbrauchbare Ergebnisse lieferte. Die Suchergebnisse waren häufig nicht »relevant«. Ein simples Vorhandensein eines Wortes auf einer Website sagte nicht mehr genug darüber aus, welche Inhalte diese Website tatsächlich bot - zumal dubiose Anbieter rasch lernten, welche Worte sie auf ihren Websites benutzen mussten, um Internetnutzer anzulocken.
Die Lösung entwickelten die Informatikstudenten Sergey Brin und Larry Page: Sie bewerteten Websites nicht nur daraufhin, ob diese relevante Stichworte enthielten, sondern auch danach, wie oft sie auf anderen Websites verlinkt waren. Damit nutzten sie implizit die Bedeutung, die andere User den jeweiligen Websites beimaßen, denn eine Website, die jemand auf seiner eigenen Homepage verlinkt, muss er wohl für »relevant« halten. Dieses Merkmal ähnelt den neuronalen Verbindungen in unserem Gehirn: Je öfter eine Nervenzelle mit anderen Nervenzellen verbunden wird und je intensiver diese Verbindung ist, desto bedeutender ist die mit dieser Nervenzelle verknüpfte Information.
Mit ihrer einfachen Idee schufen Brin und Page das heute mächtigste Unternehmen der Computerindustrie: Google. In welcher Reihenfolge Websites bei Google angezeigt werden, ist eine Wissenschaft für sich und der betreffende Algorithmus ein strenggehütetes Geheimnis. Er wird ständig weiterentwickelt, denn natürlich ist die Versuchung groß, ihn zu unterlaufen und sich durch Tricks ein höheres Google-Ranking zu erschleichen. Vor allem für Online-Händler hat dieses Ranking eine enorme wirtschaftliche Bedeutung.
Bei aller Raffinesse sind jedoch auch die Google-Resultate noch lange nicht das Nonplusultra. Je nachdem, wonach man sucht, geschieht es immer noch allzu oft, dass das gewünschte Resultat unter etlichen irrelevanten Websites verborgen ist.
Die nächste Stufe der Informationssuche wird erst dann erreicht, wenn Maschinen nicht nur die Wörter auf einer Website statistisch analysieren, sondern wenn sie wirklich verstehen, was dort geschrieben steht. Diese Stufe soll mit dem sogenannten semantischen Web erreicht werden, das zurzeit entwickelt wird.
Vereinfacht gesagt, geht es dabei darum, Wörtern Bedeutungen zuzuordnen, die auch von Maschinen interpretierbar sind. Beispielsweise kann der Begriff »Maus« sowohl der Kategorie »Säugetier« als auch der Kategorie »Computerzubehör« zugeordnet werden. Diese Zusammenhänge werden in sogenannten Ontologien gespeichert. Bei der Suche nach einer »billigen Maus für meinen Laptop« »weiß« der Computer dann, dass wahrscheinlich nicht das Säugetier gemeint ist. Der Begriff »billig« legt zudem nahe, dass ich die Maus kaufen will (und nicht etwa nur einen Treiber dafür herunterladen). Er wird mir also bevorzugt Online-Shops für Computerzubehör anzeigen.
Mit Hilfe von Ontologien sind Computer in der Lage, den Sinn von Texten zu verarbeiten und nicht nur, wie Elbot und Eliza, ein wenig mit Wörtern »herumzuspielen« oder auf Stichworte hin vorgefertigte Antworten auszugeben. Es gibt bereits Programme, die mit Hilfe von Onto-logien selbständig Textzusammenhänge erschließen und aus bestehenden Texten neues Wissen generieren. Das Problem liegt eher darin, dass das Erstellen von Ontolo-gien eine komplizierte und sehr aufwendige Sache ist. Doch es besteht wohl kein Zweifel, dass irgendwann das ganze Wissen des Internets maschinell erschließbar sein wird.
Beispielsweise könnte eine semantische Suchmaschine eigenständig lernen, dass technische Mäuse in der Regel einen Anschluss haben, der mit einem Computer verbunden wird, und dass dieser von der Kategorie »RS-232« oder »USB« sein kann. Wenn ich also nach einer »billigen Maus für meinen Laptop« suche, könnte sie mich nach dem Anschlusstyp fragen, bevor sie die entsprechenden Shopseiten anzeigt.
Ein erstes Beispiel für eine »intelligentere« Suchmaschi-ne ist der im April 2009 freigeschaltete Dienst »Wolfram Alpha«, der von dem Mathematiker Stephen Wolfram und seinem Team entwickelt wurde. Wolfram Alpha sucht nicht nur nach Informationen im Internet, sondern verarbeitet diese auch und
Weitere Kostenlose Bücher