Anzeige
Physik

Mit Filtern und Ebenen gegen den Daten-Wust

Rechenzentrum und Datenverarbeitung am CERN

Die hohe, helle Halle ist von leisem Rauschen erfüllt. Um uns herum bilden eingehauste Doppelreihen von Serverschränken ein geordnetes Gängelabyrinth. Wir befinden uns im digitalen Herzen des CERN – dem Rechenzentrum. Das CERN ist nicht umsonst die Geburtsstätte des World Wide Web: Ohne Computer und vor allem schnelle Datenverbindungen wären die Detektoren, Auswertungen und letztlich auch die Entdeckung des Higgs-Teilchens unmöglich. Kein Wunder also, dass das Rechnerzentrum und auch das GRID – das weltweite Netz, über das die LHC-Daten verteilt und verarbeitet werden, zum leistungsfähigsten gehören, was es weltweit in diesem Bereich gibt.

Blick über das Rechenzentrum des CERN. Die Rechner im Vordergrund sind luftgekühlt, weiter hinten stehen aber auch wassergekühlte Racks. © MMCD

Nur potenziell Spannendes kommt durch

Denn wenn es um Daten geht, haben die IT-Experten des CERN gleich zwei Probleme: Zum einen erzeugt jeder der Detektoren am LHC gewaltige Mengen an Rohdaten. Pro Sekunde sind dies allein beim ATLAS-Detektor ein Petabyte – viel zu viel, um sie alle zu speichern und zu verarbeiten. Tatsächlich passiert dies auch nicht, wie uns Andreas Wagner vom CERN-Rechenzentrum erklärt. Stattdessen wird gesiebt: Ausgehend von theoretischen Modellen und Simulationen weiß man ungefähr, wie die Teilchenspuren und Signale aussehen, die von physikalisch spannenden Ereignissen erzeugt werden – wie beispielsweise dem Zerfall des Higgs-Bosons. Zudem gilt alles als „lohnend“, was sehr schwere Teilchen und energiereiche Zerfallsprodukte hinterlässt, weil sich dort beispielsweise Indizien für noch unbekannte Bausteine der Materie verbergen könnten.

Die Parameter dieser potenziell spannenden Kollisionen und ihrer Produkte sind- für jeden Detektor spezifisch – in spezielle Filterprogramm eingespeist, die sogenannten Trigger. Diese filtern dann alle Daten von „0815-Kollisionen“ heraus. Zusätzlich allerdings übernehmen sie auch nach dem Zufallsprinzip ausgewählte Ereignisse, die den Filterparametern nicht entsprechen. Denn: „Auch Theoretiker sind nur Menschen, man darf daher nicht vernachlässigen, was nicht vorhergesagt ist“, betont CERN-Generaldirektor Rolf Heuer. Denn gerade dort, wo das gängige Standardmodell der Physik seine Grenzen hat, schließen die Physiker nicht aus, dass auch ganz unerwartete Wechselwirkungen und Teilchen auftreten können.

Eine automatische Band-Bibliothek: Im Inneren greifen Roboterarme die angeforderten Bänder und schieben sie in die Lesegeräte. © MMCD

Nach diesem Filterdurchgang bleiben noch immer gigantische Datenmengen übrig: Pro Jahr generieren die vier großen Detektoren am LHC rund 30 Petabytes – das ist genug, um einen DVD-Stapel von 40 Kilometern Höhe zu füllen. Im Rechenzentrum des CERN werden diese Rohdaten größtenteils auf Magnetbändern gespeichert, ein Teil wird auch auf den rund 70.00 Festplatten der rund 9.00 Server quasi griffbereit vorgehalten. Braucht ein Physiker dann Daten, die auf einem Band gelagert sind, sorgen die in der automatischen Bandbibliothek integrierten Roboterarme dafür, dass er innerhalb von nur fünf bis zehn Minuten Zugriff erhält.

Weltweit vernetzt

Aber es gibt noch ein weiteres Problem: Die Physiker, die die LHC-Daten auswerten, sitzen größtenteils nicht vor Ort, sondern sind über die ganze Welt verteilt. Allein die ATLAS-Kollaboration umfasst mehr als 3.000 Wissenschaftler auf allen Kontinenten außer der Antarktis. „In den 1980er Jahren haben wir noch gedacht, dass wir die Bänder mit den Daten per Flugzeug transportieren müssen, wenn das US-Forschungszentrum Fermilab welche braucht“, erzählt Wagner. Dank Tim Berners-Lee, der in seiner Zeit am CERN das WWW erfand, und den immer schneller werdenden Datenverbindungen haben sich diese Befürchtungen allerdings als hinfällig erwiesen. „Der technische Fortschritt hat in dieser Hinsicht unsere Erwartungen übererfüllt.“

Anzeige
Die Analyse und Auswertung der Daten erfolgt über das Grid. © CERN

Um die Daten auszutauschen, aber auch überhaupt die Kapazität zu haben, sie verarbeiten und analysieren zu können, haben die IT-Leute vom CERN das Worldwide LHC Computing Grid (WLCG) entwickelt. Dieses in mehrere Ebenen gegliederte Datennetz besteht aus insgesamt rund 170 Rechenzentren in 34 Ländern und über 100.000 Prozessoren. Während die obersten Ebene, das am CERN angesiedelte Tier-0, nur die Rohdaten speichert, übernehmen die zehn über schnelle Forschungsnetze angeschlossenen Tier-1-Zentren die Datenverteilung und dienen gleichzeitig als Sicherheitskopie. Die eigentlichen Berechnungen und Analysen werden dann von den rund 150 Tier-2-Zentren an Forschungsinstituten und Universitäten in 38 Ländern geleistet.

Auch Hacker mögen das CERN

Natürlich macht sich ein so verteiltes Netz auch angreifbar, Hackerangriffe hat es auch beim CERN schon einige gegeben, wie Wagner einräumt. Bisher sei aber keine erfolgreich gewesen.

„Der Schutz ist besonders schwierig, weil viele Physiker sowohl vom CERN selbst als auch von ganz woanders aus auf ihre Daten zugreifen wollen – und das meist mit dem gleichen Passwort.“ Und das Netz gegen unbefugte Eindringlinge und Viren zu sichern, werden unter anderem alle externen Zugriffe aufgezeichnet, das Kopieren oder Austauschen von Daten ist blockiert und vier Leute sind allein für die Sicherheit des Systems zuständig, wie der IT-Experte erklärt.

Und noch eine Sicherheitsmaßnahme gilt: Alle für den Betrieb des LHC und der Detektoren nötigen Systeme sind vom restlichen Netz abgekoppelt. „Sie sind von außen komplett unsichtbar“, sagt Wagner. Die wenigen noch bestehenden Verbindungen zum internen CERN-Netz lassen sich zudem innerhalb von Minuten trennen – um zu verhindern, dass Schadsoftware oder Hacker Zugriff auf diese sensiblen Systeme erhalten. Priorität haben diese Steuersysteme auch, wenn im Rechenzentrum der Strom ausfällt: Dann sorgen Batterien und eigene Notstrom-Diesel-Aggregate dafür, dass diese essenziellen Rechner weiterlaufen. „Komplett abgeschaltet war das Rechenzentrum allerdings noch nie“, sagt Wagner.

  1. zurück
  2. |
  3. 1
  4. |
  5. 2
  6. |
  7. 3
  8. |
  9. 4
  10. |
  11. 5
  12. |
  13. 6
  14. |
  15. 7
  16. |
  17. 8
  18. |
  19. 9
  20. |
  21. weiter

Nadja Podbregar
Stand: 02.08.2013

Teilen:
Anzeige

In den Schlagzeilen

Inhalt des Dossiers

Pause für die Weltmaschine
Der Teilchenbeschleuniger LHC wird aufgerüstet

Erste Annäherung
Zu Besuch im Mekka der Teilchenphysik

Ein Higgs - und was nun?
Teilchenphysik nach der Entdeckung des Higgs-Bosons

Shutdown
Was wird gemacht bis 2015 – und warum?

Im Dickicht der Teilchenspuren
Aufrüsten der Detektoren für die nächste Phase

Gigant in der Tiefe
Zu Besuch im ATLAS-Detektor

Mit Dosimeter und Iris-Scan
In der ATLAS-Kaverne

Der Sonderling und die Ursuppe
Quark-Gluonen-Plasma im ALICE-Detektor

Mit Filtern und Ebenen gegen den Daten-Wust
Rechenzentrum und Datenverarbeitung am CERN

Diaschauen zum Thema

News zum Thema

„Die bedeutendste Entdeckung der letzten Jahrzehnte“
Interview mit der Teilchenphysikerin Sandra Kortner

Auf der Suche nach dem "Gottesteilchen"
Die Bedeutung des Higgs-Bosons für das Standardmodell der Physik

Physiker entdecken bisher unbekanntes Teilchen
CERN-Beschleunigerring liefert ersten Nachweis für neues Teilchen aus drei Quarks

Die flüssigste Flüssigkeit des Universums
Forscher legen neue Ergebnisse zur Viskosität des Quark-Gluon-Plasmas vor

Antimaterie erstmals in Gefangenschaft
Magnetkäfig verhindert die sofortige Auslöschung künstlich erzeugter Antiwasserstoffatome

Dossiers zum Thema