Wie funktioniert die Welt?
University of Southern California; Autor von The Wikipedia Revolution: How a Bunch of Nobodies Created the World’s Greatest Encyclopedia
Fast alles, worüber wir uns im Digitalzeitalter freuen, kreist um eine einzige Idee, aber nur die wenigsten wissen, wer der Urheber dieser einfachen, eleganten Theorie der Information ist und was ihre Grundlagen sind. Wer weiß schon, dass das Informationszeitalter nicht die Schöpfung von Bill Gates oder Steve Jobs war, sondern auf Claude Shannon und das Jahr 1948 zurückgeht? Shannon war ein bescheidener Mann und intellektueller Wanderer, der öffentliche Vorträge vermied und möglichst keine Interviews gab. Dieser brillante Mathematiker, Genetiker und Kryptoanalytiker formulierte das Gedankengebäude, das im Gefolge des Zweiten Weltkrieges, als klar war, dass es sich nicht nur um einen Krieg mit Stahl und Kugeln gehandelt hatte, zur Informationstheorie werden sollte.
Wenn der Erste Weltkrieg der erste mechanisierte Krieg war, kann man im Zweiten den ersten Konflikt sehen, bei dem die Kommunikationstechnik im Mittelpunkt stand. Anders als in früheren Kriegen bedienten sich die Streitkräfte diesmal in großem Umfang des Funkverkehrs. Die schnelle Koordination aus der Ferne trug den Krieg in alle Winkel der Erde. Das Fachgebiet der Kryptographie entwickelte sich schnell, weil man Nachrichten geheim halten und vor dem Feind verbergen wollte. Außerdem setzte man zum ersten Mal im Kampf das Radar ein, um Flugzeuge aufzuspüren und zu verfolgen; damit ging man über die hergebrachten Grenzen der Sehfähigkeit hinaus, die am Horizont zu Ende war.
Claude Shannon arbeitete an der Zielgenauigkeit der Flugabwehr und an der Konstruktion von Schusssteuerungssystemen, die unmittelbar mit dem Radar zusammenarbeiten sollten. Wie konnte man die derzeitige und zukünftige Position feindlicher Flugzeuge so ermitteln, dass das Artilleriefeuer zur richtigen Zeit ausgelöst wurde und sie abschießen konnte? Die vom Radar übermittelten Informationen über die Position von Flugzeugen waren ein Durchbruch, aber sie waren »verrauscht«: Das Radar lieferte zwar ungefähre Angaben über die Position, diese waren aber nicht so genau, dass man sie unmittelbar hätte nutzbar machen können. Nach dem Krieg wurde dies für Shannon und viele andere zum Anlass, über die Filterung und Weitergabe von Information nachzudenken, ob es nun Radarsignale, Stimmen (bei Telefongesprächen) oder Bilder (beim Fernsehen) waren. Das Rauschen war der Feind der Kommunikation, und jede Methode zur Speicherung und Weitergabe von Informationen, die gleichzeitig das Rauschen ausblendete, war für Shannons Arbeitgeber, die Bell Laboratories – die Forschungsabteilung der US -amerikanischen Telefon-Monopolgesellschaft in der Mitte des 20 . Jahrhunderts – von besonderem Interesse.
Shannon hielt die Kommunikationstechnik für den am stärksten mathematisch geprägten Zweig der Ingenieurwissenschaft und wandte seine Aufmerksamkeit diesem Problem zu. Nachdem er in seiner Anfangszeit am Massachusetts Institute of Technology an der Entwicklung von Vannevar Bushs Differentialanalysator-Analogcomputer mitgearbeitet und eine mathematiklastige Doktorarbeit (»An Algebra for Theoretical Genetics«) geschrieben hatte, brachte er besonders gute Voraussetzungen mit, um mit seinen Erkenntnissen auf verschiedenen Fachgebieten die grundlegenden Gesetze der Handhabung von Information zu verstehen. Bis 1948 hatte Shannon seine zentrale, einfache, leistungsfähige These formuliert:
Information ist die Auflösung von Unsicherheit
.
Solange man etwas übertragen kann, das Unsicherheit beseitigt, hat man es im Grundsatz mit Information zu tun. Das scheint zwar auf der Hand zu liegen, es war aber eine wichtige Erkenntnis angesichts der Tatsache, dass die Menschen verschiedene Sprachen sprechen und eine Äußerung für einen Menschen sinnvoll, für einen anderen dagegen unverständlich sein kann. Bevor Shannon seine Theorie formulierte, wusste man nicht, wie man einen angemessenen Ausgleich für solche »psychologischen Faktoren« schaffen sollte. Shannon baute auf den Arbeiten seiner Wissenschaftlerkollegen Ralph Hartley und Harry Nyquist auf und zeigte, dass Codierung und Symbole der Schlüssel zur Beantwortung der Frage sind, ob zwei Personen, die kommunizieren, einen gemeinsamen Begriff von der aufzulösenden Unsicherheit haben.
Dann fragte Shannon: »Was ist die einfachste Auflösung der Unsicherheit?« Für ihn war dies das Werfen
Weitere Kostenlose Bücher