Bücher online kostenlos Kostenlos Online Lesen
Die Vermessung des Universums: Wie die Physik von morgen den letzten Geheimnissen auf der Spur ist (German Edition)

Die Vermessung des Universums: Wie die Physik von morgen den letzten Geheimnissen auf der Spur ist (German Edition)

Titel: Die Vermessung des Universums: Wie die Physik von morgen den letzten Geheimnissen auf der Spur ist (German Edition) Kostenlos Bücher Online Lesen
Autoren: LISA RANDALL
Vom Netzwerk:
Häufigkeit von 40 Millionen pro Sekunde (die Bündeldurchsatzrate) schießen kann. Das entspricht etwa einer Milliarde physikalischer Ereignisse pro Sekunde, wenn man die 20 bis 25 Ereignisse berücksichtigt, die bei jedem Durchsatz eines Bündels erwartet werden. Der Trigger würde dem Gerät entsprechen, das dafür verantwortlich ist, nur die wenigen interessanten Bilder festzuhalten. Man kann sich die Trigger auch wie Spamfilter vorstellen. Ihre Aufgabe ist es sicherzustellen, dass nur interessante Daten zu den Computern der Experimentalphysiker gelangen.
    Die Trigger müssen die potentiell interessanten Kollisionen identifizieren und diejenigen ausscheiden, die nichts Neues beinhalten. Die Ereignisse selbst – das, was den Punkt der Wechselwirkung verlässt und in den Detektoren aufgezeichnet wird – müssen von gewöhnlichen Prozessen des Standardmodells hinreichend unterscheidbar sein. Das Wissen darüber, wann die Ereignisse ungewöhnlich aussehen, sagt uns, welche Ereignisse wir festhalten sollen. Dadurch wird die Häufigkeit leicht erkennbarer neuer Ereignisse noch kleiner. Die Trigger haben eine ungeheure Aufgabe. Sie sind dafür verantwortlich, die Milliarden von Ereignissen pro Sekunde bis auf die wenigen Hundert auszuscheiden, die möglicherweise interessant sind.
    Eine Kombination von Hardware- und Software-»Gattern« erfüllt diese Mission. Jede aufeinanderfolgende Triggerebene scheidet die meisten eingehenden Ereignisse als uninteressant aus und hinterlässt eine weitaus beherrschbarere Datenmenge. Diese Daten werden wiederum von Computersystemen in 160 akademischen Institutionen auf der ganzen Welt analysiert.
    Der Trigger der ersten Ebene ist hardwarebasiert – in die Detektoren eingebaut – und liefert einen groben Anhaltspunkt für die Identifikation charakteristischer Merkmale wie z.B. die Auswahl von Ereignissen, die energiereiche Myonen oder große Abgaben von Energie in den Kalorimetern in Querrichtung enthalten. Während die Daten aus jedem Bündeldurchsatz wenige Mikrosekunden auf die Ergebnisse des Triggers der ersten Ebene warten, werden sie in einem Zwischenspeicher festgehalten. Die Trigger der höheren Ebenen sind softwarebasiert. Die Auswahlalgorithmen laufen auf einem großen Cluster von Computern in der Nähe des Detektors. Der Trigger der ersten Ebene reduziert die Ereignishäufigkeit von einer Milliarde pro Sekunde auf etwa 100 000 Ereignisse pro Sekunde, die von den Software-Triggern um einen Faktor von etwa Tausend auf wenige Hundert Ereignisse reduziert werden.
    Jedes Ereignis, das die Trigger passiert, enthält eine riesige Menge von Informationen – die Auslesungen der Detektorelemente, die wir eben besprochen haben – von mehr als einem Megabyte. Bei einigen hundert Ereignissen pro Sekunde beanspruchen die Experimente weit über 100 Megabytes Speicherplatz pro Sekunde, was über ein Jahr gerechnet etwas mehr als einem Petabyte entspricht, also 10 15 Bytes oder einer Trillion Bytes (wie oft kommen Sie wohl in Verlegenheit, dieses Wort zu verwenden?), dem Äquivalent der Information von Hundertausenden von DVDs.
    Tim Berners-Lee entwickelte das World Wide Web zunächst, um die CERN-Daten zu bewältigen, so dass die Experimentalphysiker auf der ganzen Welt Informationen auf einem Computer in Echtzeit austauschen konnten. Das Rechen-»Grid« des LHC ist der nächste wichtige rechen-technische Fortschritt des CERN. Das Grid wurde Ende 2008 gestartet – nach ausführlicher Softwareentwicklung –, um die riesigen Datenmengen zu bewältigen, die die Experimentalphysiker verarbeiten wollen. Das CERN-Grid benutzt sowohl private Lichtleiterkabel als auch Hochgeschwindigkeitsteile des öffentlichen Internets. Das heißt deshalb so, weil die Daten nicht an irgendeinen einzelnen Ort gebunden, sondern auf Computern um die ganze Welt herum verteilt sind – ähnlich wie die Elektrizität in einem Stadtgebiet nicht an ein bestimmtes Kraftwerk gebunden ist.
    Sobald die getriggerten Ereignisse, die es durch alle Ebenen geschafft haben, gespeichert sind, werden sie über das Grid auf der ganzen Welt verteilt. Mit dem Grid haben Computernetzwerke auf der ganzen Welt bequemen Zugang zu den redundant gespeicherten Daten. Während das Web Informationen teilt, teilt das Grid Rechenleistung und Datenspeicherung unter den vielen beteiligten Computern.
    Mit dem Grid verarbeiten abgestufte Rechenzentren die Daten. Stufe 0 ist die zentrale Anlage des CERN, wo die Daten aufgezeichnet

Weitere Kostenlose Bücher