Bücher online kostenlos Kostenlos Online Lesen
Die verborgene Wirklichkeit

Die verborgene Wirklichkeit

Titel: Die verborgene Wirklichkeit Kostenlos Bücher Online Lesen
Autoren: B Greene
Vom Netzwerk:
auf acht verschiedene Arten angeordnet sein: Kopf/Kopf/Kopf, Kopf/Kopf/Zahl, Kopf/Zahl/Kopf, Kopf/Zahl/Zahl, Zahl/Kopf/Kopf, Zahl/Kopf/Zahl, Zahl/Zahl/Kopf und Zahl/Zahl/Zahl; das folgt direkt aus zwei Möglichkeiten für die erste Münze, zwei Möglichkeiten für die zweite und zwei Möglichkeiten für die dritte. Für 1000 Münzen errechnet sich die Zahl der Möglichkeiten genau nach der gleichen Gesetzmäßigkeit  – einem Faktor 2 für jede Münze. Insgesamt gelangt man damit zu 2 1000 oder 107150860718626732094842504906000181056140481170553360744375038 83703510511249361224931983788156958581275946729175531468251871452856923 1404359845775746985748039345677748242309854210746050623711418779541 82153046474983581941267398767559165543946077062914571196477686542167 660429831652624386837205668069376 Möglichkeiten. In ihrer großen Mehrzahl hätten diese Anordnungen von Kopf und Zahl keine einfach erkennbaren charakteristischen Merkmale, und deshalb würde uns nicht weiter auffallen, um welche dieser Anordnungen es sich handelt. Bei einigen wäre dies allerdings der Fall, beispielsweise wenn bei allen 1000 Münzen der Kopf oder die Zahl oben liegt oder bei 999 der Kopf oder bei 999 die Zahl. Die Anzahl solcher ungewöhnlichen Konfigurationen ist aber im Vergleich zur riesigen Gesamtzahl an
Möglichkeiten so außerordentlich klein, dass es kaum Auswirkungen hätte, wenn man sie bei der Zählung weglässt. ac
    Aus dem zuvor Gesagten kann man ableiten, dass die Zahl 2 1000 die Entropie der Münzen angibt. Für manche Zwecke würde diese Schlussfolgerung tatsächlich ausreichen. Um aber die direkteste Verbindung zwischen Entropie und Information herzustellen, muss ich die zuvor gegebene Beschreibung noch ein wenig präzisieren. Die Entropie eines Systems hängt mit der Anzahl der nicht unterscheidbaren Anordnungen seiner Bestandteile direkt zusammen , ist aber nicht gleich der Zahl selbst. Stattdessen entspricht sie dem Logarithmus der Anzahl. Es sollte uns nicht abschrecken, dass dieses Wort vielleicht schlechte Erinnerungen an den Mathematikunterricht weckt. In dem Beispiel mit den Münzen bedeutet es nur, dass man den Exponenten für die Zahl der Anordnungen herausgreift – das heißt, die Entropie wird nicht als 2 1000 definiert, sondern als 1000.
    Die Verwendung von Logarithmen hat den Vorteil, dass man mit viel besser handhabbaren Zahlen arbeiten kann. Dahinter steht indes eine noch wichtigere Motivation: Angenommen, ich wollte wissen, wie viel Information man braucht, um eine bestimmte Anordnung von Kopf und Zahl bei den 1000 Münzen zu beschreiben. Die einfachste Antwort lautet: Man braucht dazu nur die Liste aufzustellen – Kopf, Kopf, Zahl, Kopf, Zahl, Zahl … –, in der die Lage jeder der 1000 Münzen festgehalten ist. Darauf würde ich erwidern: Dadurch erfahre ich zwar etwas über die Details der Konfiguration, aber danach hatte ich nicht gefragt. Ich hatte gefragt, wie viel Information in dieser Liste steckt.
    Nun beginnen wir zu grübeln. Was ist Information eigentlich, und was bewirkt sie? Die Antwort ist einfach und direkt. Information beantwortet Fragen. Präzisiert wurde das durch jahrelange Arbeit von Mathematikern, Physikern und Informatikern. Wie sich in ihren Untersuchungen zeigte, ist das nützlichste Maß für Information die Anzahl der verschiedenen Ja/Nein-Fragen, die mit Hilfe der Information beantwortet werden können. Unsere Information über die Münzen beantwortet 1000 solche Fragen: Zeigt die erste Münze Kopf? Ja. Zeigt die zweite Münze Kopf? Ja. Zeigt die dritte Münze Kopf? Nein. Zeigt die vierte Münze Kopf? Nein. Und so weiter. Eine Informationsmenge, mit der man eine einzige Ja/Nein-Frage beantworten kann, nennt man Bit  – im Computerzeitalter ein geläufiger Begriff, der aber eigentlich eine Abkürzung für binary digit ist; damit meint man eine 0 oder eine 1, die man sich als zahlenmäßige Darstellung von Ja oder Nein vorstellen kann. Die Kopf-Zahl-Anordnung der 1000 Münzen
enthält also 1000 Bits an Information. Oder, was das Gleiche bedeutet: Wenn man sich Oscars makroskopische Sichtweise zu eigen macht und sich nur auf das Erscheinungsbild des Münzenhaufens im Großen und Ganzen konzentriert, die »mikroskopischen« Details der Kopf-Zahl-Anordnung jedoch ausblendet, haben die Münzen einen »verborgenen« Informationsgehalt von 1000 Bit.
    Dabei fällt auf, dass der Wert der Entropie und die Menge der verborgenen Information gleich sind. Das ist kein Zufall. Die

Weitere Kostenlose Bücher