• Schalter wissen.de
  • Schalter wissenschaft
  • Schalter scinexx
  • Schalter scienceblogs
  • Schalter damals
  • Schalter natur
Scinexx-Logo
Logo Fachmedien und Mittelstand
Scinexx-Claim
Facebook-Claim
Google+ Logo
Twitter-Logo
YouTube-Logo
Feedburner Logo
Dienstag, 19.09.2017
Hintergrund Farbverlauf Facebook-Leiste Facebook-Leiste Facebook-Leiste
Scinexx-Logo Facebook-Leiste

Neuer Supercomputer für bessere Simulationen

Max-Planck-Gesellschaft erhält Rechner mit einer Leistung von 100 Billionen Rechenschritten pro Sekunde

Der neue Supercomputer im Rechenzentrum Garching der Max-Planck-Gesellschaft soll zur Lösung rechenintensiver wissenschaftlicher Probleme - von der Erforschung der Anfänge des Universums bis hin zur Untersuchung nanophysikalischer Zusammenhänge - eingesetzt werden. Die neue Anlage mit einer Höchstleistung von mehr als 100 TeraFlops pro Sekunde, das entspricht 100 Billionen Rechenschritten pro Sekunde, wird zu den stärksten Supercomputern in Europa zählen, wenn die Installation im Jahr 2008 abgeschlossen ist.
Nanotechnologie

Nanotechnologie

„Mit dem neuen Supercomputer sind die Wissenschaftler des Max-Planck-Instituts in der Lage, wettbewerbsfähige und modernste Forschung auf dem Gebiet der numerischen Simulationen betreiben zu können“, erklärt Stefan Heinzel, Direktor des Rechenzentrums Garching (RZG).

Der IBM-Supercomputer wird Forscher aus den verschiedensten wissenschaftlichen Disziplinen unterstützen - beispielsweise in den Materialwissenschaften. Hier soll der Supercomputer einen Beitrag zum besseren Verständnis der Eigenschaften und Funktionen von Nano-, Polymer- und Kolloid-Systemen und Membranen leisten. Außerdem soll er im Bereich des rechnergestützten Werkstoff-Designs und zur 3D- Mustererkennung in makromolekularen Systemen eingesetzt werden.

Wissenschaftler des Max-Planck-Instituts für Plasma-Physik werden das neue System für realistische Simulationen von Turbulenzen in Fusionsanlagen einsetzen, und damit einen Beitrag zur Energieforschung für das weltweit laufende "ITER"-Fusions-Projekt leisten.


Astrophysikalische Projekte werden kosmologische Simulationen der Strukturentstehung des Universums umfassen, komplexe Interaktionsprozesse in Supernovae und deren Auswirkungen auf die Kosmologie, Gravitations-Kollapse und Gravitationsschwingungen, sowie kosmologische Tests zur Enthüllung des Geheimnisses der schwarzen Materie. Zudem soll die Erforschung der Gleichgewichtseigenschaften von neuen Quanten-Phasen in ungeordneten Quanten-Systemen zu neuen Erkenntnissen auf dem Gebiet quantenmechanischer Berechnungsmodelle, dem Quantum Computing, führen.

Quantensprung bei der Rechenleistung


Die neue, Power-Prozessor-basierte Anlage der Max-Planck-Gesellschaft ist darauf ausgelegt, eine Höchstleistung von mehr als 100 TeraFlops/Sekunde und übertrifft damit die Leistung des momentan eingesetzten Supercomputing-Systems um bis zum Zwanzigfachen. Ausgerüstet ist sie mit der neuen IBM-POWER6-Technik, der nächsten Stufe der IBM-POWER- Mikroprozessorfamilie - einem besonders leistungsfähigen System. Nicht zuletzt deshalb entschied sich die Max-Planck-Gesellschaft nach einer europäischen Ausschreibung schließlich für das Angebot des Unternehmens IBM.

"Die neue Anlage ist ein weiteres Glied in einer langen Kette bahnbrechender IBM Supercomputer, von Deep Blue und ASCI White bis hin zu ASC Purple, und wird auf dem Gebiet des Supercomputings in Europa einen bedeutenden Fortschritt darstellen", erklärt Dave Turek, Vice President, IBM Deep Computing. "IBM möchte als engagierter Partner die Max-Planck-Gesellschaft bei der Lösung einiger der herausfordernden, wissenschaftlichen Probleme der Menschheit unterstützen."

Zusätzlich zum neuen Supercomputer erhält die Max-Planck-Gesellschaft die nächste Generation des IBM Blue Gene-Systems. Diese Technik ist optimiert für den Einsatz von hochskalierbaren und kommunikationsintensiven Anwendungen. "Noch wichtiger dabei ist", so Hermann Lederer, Leiter der Anwendungsunterstützung im Rechenzentrum Garching, "dass die nächste Generation des Blue Gene-Systems uns bei der Vorbereitung, Entwicklung und Optimierung von Anwendungen auf dem zukünftigen Gebiet des Peta-Scale-Computings behilflich sein wird." Peta Scale bedeutet Rechenleistungen bis zu Petaflops/s - das wären dann eine Billiarde Rechenschritte pro Sekunde.
(idw - MPG/IBM, 01.02.2007 - DLO)
 
Printer IconShare Icon