Auf dem Holzweg durchs Universum: Warum sich die Physik verlaufen hat (German Edition)
Mach
----
Zu allem Überfluss kann die Energie der Produkte einer Kollision – Tausende verschiedenster Teilchen – keineswegs gut gemessen werden. Am genauesten gelingt dies bei der elektromagnetischen Wechselwirkung, problematischer wird es schon bei schweren Teilchen, die stufenweise abgebremst werden, schließlich entstehen aber noch viele Neutrinos, die in jedem Fall dem Detektor entkommen. Es ist also äußerst schwierig, verbindliche Aussagen über die Energie zu treffen. In etlichen Fällen ist den Daten allein nicht zu entnehmen, welches Teilchen denn nun die Energie transportiert hat – war es ein Photon oder ein neutrales Pion? Wurde ein Teilchenschauer von einem Neutron erzeugt oder gar von einem Neutrino?
Im Prinzip versucht man, die Lücken des Puzzles mit bekanntem Wissen zu ergänzen, und stellt die Szenen im Computer nach: Bestimmte Teilchen betreten die Bühne, und mit aus früheren Experimenten ermittelten Wahrscheinlichkeiten verwandeln sich diese in neue Akteure. So werden alle echten Messungen mit künstlichen Zufallsexperimenten am Rechner verglichen, sogenannten Monte-Carlo-Simulationen. Viele am CERN waren die letzten fünfzehn Jahre ausschließlich mit dem Schreiben dieser Programme beschäftigt, denn die Komplikationen sind enorm – und damit leider auch die möglichen Fehlerquellen. So fanden um 1995 mehrere Arbeitsgruppen eine rätselhafte Anomalie beim Zerfall des Z 0 -Teilchens, bis ein Forscher am Berkeley-Laboratorium schließlich bemerkte, dass eine falsche Simulation in eine zentrale Datenbank eingespeist worden war. „Sonst hätten wir das vielleicht heute noch“, erzählte mir eine Teilchenphysikerin.
Es befremdet, dass so extensive Computersimulationen nötig sind, um die Experimente überhaupt noch zu verstehen, und oft genug muss auf externe Daten zurückgegriffen werden: Beispielsweise hätte man ohne den am Hamburger Beschleuniger HERA gemessenen Formfaktor des Protons am CERN ein Problem. Das bedeutet aber umgekehrt, dass in den neuen Experimenten keineswegs das ganze bisherige Wissen getestet wird, sodass man behaupten könnte, das Standardmodell werde dort geprüft. Wie sollte das auch gehen? Die zahllosen Teilchen, von denen sich im Prinzip jedes in jedes umwandeln kann, bedingen eine noch viel größere Zahl von Umwandlungswahrscheinlichkeiten, und neben den physikalischen Eigenschaften der Teilchen gibt es noch eine Menge von Zahlen, die die experimentellen Details beschreiben. Die Zahl der freien Parameter ist immens. Und niemand soll bitte behaupten, auch nur im Entferntesten einen Überblick darüber zu haben.
EXPERIMENT MIT TUNNELBLICK
Die am LHC anfallenden Datenmengen überschreiten jede Dimension, die noch abzuspeichern wäre. Darüber könnte man ins Grübeln geraten, aber die praktische Lösung lautet, dass man 99,99 Prozent der Daten sofort aussortiert und nur jene verwendet, die Interessantes versprechen – das sogenannte Triggern. Pro Jahr bleiben damit immer noch so viele Bytes übrig, dass sie, auf DVDs gepresst, einen Turm in Höhe des Mont Blanc ergäben – ohne Hülle. Kann man diese Datengebirge je sinnvoll analysieren?
Vorauswahl ist eine verdächtige Strategie, denn überraschende Durchbrüche in der Wissenschaft hat es meist dort gegeben, wo man es am wenigsten erwartete. Der Trend, nur mehr geringe Teile der Wirklichkeit in den Blick zu nehmen, begann schon in den 1960er Jahren, als man anfing, die Daten vieler Reaktionsprodukte wegzuwerfen – im Grunde eine wenig durchdachte Methode. Später ging man von Beschleunigern zu Collidern über: so als ob man bei einem Crashtest nicht ein Auto an die Wand, sondern zwei Autos gegeneinander fahren lässt. Im letzten Fall wird eine höhere Energie frei – das Leitmotiv aller Experimente. So werden heute die vielen nach einem Aufprall nur leicht abgelenkten Teilchen fast gar nicht beachtet; das Augenmerk konzentriert sich auf die Produkte, die nach der Kollision senkrecht zum Strahl herausgeschleudert werden – ein verschwindend kleiner Anteil der tatsächlich stattfindenden Prozesse. Blickverengung ist das Prinzip der Hochenergiephysik geworden.
Die immer heftigeren Kollisionen erzeugen einen Wust von Teilchen, von denen etlichen erlaubt ist, unsichtbar Energie abzutransportieren – im Grunde ein methodischer Wahnsinn. Bei der Lektüre von Büchern wie Nobel Dreams von Gary Taubes bekommt man den Eindruck, dass man letztlich alles finden kann, wenn man nur konzentriert genug nach der
Weitere Kostenlose Bücher