Logo der Bayerischen Akademie der Wissenschaften

14/07

Tagungsbericht: DEISA-Symposium 'Towards Petascale Computing in Europe'

Am 21. und 22. Mai 2007 fand in der Bayerischen Akademie der Wissenschaften das diesjährige Symposium von DEISA, einem Verbund nationaler Supercomputer-Zentren in Europa, statt.

 

 

14/07
24. Mai 2007

Am 21. und 22. Mai 2007 fand in der Bayerischen Akademie der Wissenschaften das diesjährige Symposium von DEISA, einem Verbund nationaler Supercomputer-Zentren in Europa, statt.

DEISA (Distributed European Infrastructure for Supercomputing Applications) ist ein Konsortium führender nationaler Supercomputer-Zentren, das derzeit eine dauerhafte, verteilte Supercomputing-Infrastruktur im europäischen Rahmen aufstellt und betreibt.

Das DEISA-Symposium 2007 wurde vom Leibniz-Rechenzentrum der Bayerischen Akademie der Wissenschaften und vom Rechenzentrum der Max-Planck-Gesellschaft organisiert und in den Räumen der Bayerischen Akademie der Wissenschaften in der Münchner Residenz abgehalten. Die Veranstaltung widmete sich den Initiativen und Strategien auf europäischer und weltweiter Ebene, die das Höchstleistungsrechnen weiter verbreiten und besser zugänglich machen wollen.

Der Bayerische Staatsminister für Wissenschaft, Forschung und Kunst Dr. Thomas Goppel eröffnete das Symposium. Minister Goppel stellte Supercomputer in seiner Begrüßung als ein wesentliches Kriterium für die Attraktivität eines Forschungsstandortes heraus. „In den USA genießt das Thema Supercomputing absolute Priorität. Aber auch der Freistaat Bayern hat seine Hausaufgaben gemacht: Der am Leibniz-Rechenzentrum betriebene Höchstleistungsrechner I war für längere Zeit der weltweit leistungsfähigste Rechner, der ausschließlich für die Forschung eingesetzt wurde. Im letzten Jahr wurde der Höchstleistungsrechner II installiert. Seit seiner Erweiterung im April können wir wieder mit einem Supercomputer unter den zehn Besten weltweit aufwarten. Auch in Zukunft werden wir darauf achten, dass die Belange des Hochleistungsrechnens gebührend berücksichtigt werden.“ Angesichts des Rückstands Europas auf diesem Gebiet hinter den USA und Japan begrüßte Dr. Goppel die Anstrengungen der Europäischen Kommission, innerhalb der EU eine Supercomputer-Infrastruktur aufzubauen, die mehrere Zentren mit Petaflops-Leistung umfasst. Er wies darauf hin, dass Deutschland dafür als Standort hervorragend geeignet sei. Genauso wichtig sei es aber, „in Köpfe zu investieren“, wie es in Bayern seit sechs Jahren mit dem Kompetenznetzwerk für Technisch-Wissenschaftliches Hoch- und Höchstleistungsrechnen (KONWIHR) geschehe. Dieses Netzwerk wirke das als ein Magnet für Spitzenforscher aus aller Welt. „Ein vergleichbares Programm sollte auch den Europäischen Höchstleistungsrechner begleiten“, betonte er.

Zuvor hatte Prof. Hegering, Vorsitzender des Direktoriums des Leibniz-Rechenzentrums, in seiner Begrüßung auf die deutschen Anstrengungen zum „Petascale Computing“, also dem Rechnen im Bereich der Petaflops, hingewiesen: Die drei nationalen Höchstleistungsrechenzentren in Garching (LRZ), Jülich (NIC) und Stuttgart (HLRS) haben ihre Ressourcen im „Gauss Centre for Supercomputing“ (GCS) gebündelt, ein Schritt auf dem Weg zu einem Petascale-Rechnersystem in Deutschland. Prof. Hegering verwies auf die hervorragende wissenschaftliche und wirtschaftliche Infrastruktur der Region München, die zu einem großen Teil der anhaltenden Unterstützung der Bayerischen Staatsregierung zu verdanken sei.

Die Vorträge des ersten Tages beschäftigten sich mit den verschiedenen Herangehensweisen zur Schaffung einer Höchstleistungsrechner-Infrastruktur. Dr. Mario Campolargo, Referatsleiter „Neue Technologien und Infrastrukturen“ der EU-Kommission, stellte die Maßnahmen der Europäischen Union vor. Es komme entscheidend auf die Schaffung virtueller Forschungsgemeinschaften an, die Daten, Supercomputer und Instrumente gemeinsam nutzen können und mit Lichtgeschwindigkeit miteinander verbunden sind. Höchstleistungsrechner seien eine Schlüsselkomponente der wissenschaftlichen und industriellen Forschungslandschaft Europas, daher sei die Schaffung einer dauerhaften Umgebung notwendig, in der reale Petaflops-Supercomputer zur Verfügung stehen. Die Europäische Union will dies durch Investitionen ermöglichen, die zusätzlich zu den nationalen Mitteln bereitgestellt werden. Das DEISA-Modell sei eine gute Basis für wissenschaftliche Zusammenarbeit. Dr. Campolargo würdigte DEISA als richtungsweisend für die Integration der Rechnerressourcen auf europäischer Ebene.

Prof. Dr. Victor Alessandrini, Koordinator des DEISA-Konsortiums, zeigte auf, dass mit DEISA eine Umgebung und Dienste zur Verfügung gestellt werden konnten, die Europas Wissenschaftlern den Zugang zu Höchstleistungsrechnern technisch und administrativ erleichtern. Die geschaffene Infrastruktur sei eine gute Basis für ein europäisches Umfeld im Höchstleistungsrechnen.

Prof. Dr. Achim Bachem, Leiter des Forschungszentrums Jülich und Sprecher des Gauss Centre for Supercomputing, schloss den Tag mit der Vorstellung von PACE, der neuen „Partnership for Advanced Computing in Europe“, die dazu beitragen soll, den großen Vorsprung der USA im Supercomputing zu verringern. Dabei komme es entscheidend auf die Schaffung juristischer Strukturen und die Abgabe verbindlicher Zahlungsverpflichtungen der beteiligten Staaten an.

Während sich der erste Tag mit den politischen Strategien und deren Umsetzung beschäftigte, lag der Schwerpunkt am zweiten Tag auf den wissenschaftlichen Ergebnissen, die mit DEISA erzielt werden konnten. Einleitend stellte Prof. Dr. Arndt Bode, Inhaber des Lehrstuhls für Rechnertechnik und Rechnerorganisation sowie Parallelrechnerarchitektur an der Technischen Universität München, die technologischen Herausforderungen des Petascale-Computings vor: Die effiziente Nutzung hunderttausender Rechenkerne verlange neue Programmiermodelle und Algorithmen. Prof. Bode sprach sich ausdrücklich für eine vielfältige Rechnerlandschaft und gegen eine rechentechnische Monokultur aus: „Wir brauchen auch auf diesem Feld Wettbewerb.“

Prof. Dr. Jochem Marotzke vom Max-Planck-Institut für Meteorologie und Deutschen Klima-Rechenzentrum stellte die gegenwärtigen Klimarechenmodelle vor, die eine erhebliche globale Erwärmung vorhersagen. Die heutigen Modelle seien zwar schon sehr realistisch, es gebe aber einen großen Bedarf an mehr Rechenleistung für zuverlässigere Modelle der Klimaveränderungen.

Prof. Dr. Karl Lackner vom Max-Planck-Institut für Plasmaphysik berichtete über Rechnersimulationen von Fusionsreaktoren, die Energie in praktisch unbegrenztem Maße zur Verfügung stellen würden. Auch diese Forschungen brauchen wesentlich leistungsfähigere Rechner, als sie heute zur Verfügung stehen.

Der Vortrag von Dr. Nicolas Smith (Universität Oxford) zeigte auf beeindruckende Weise, in welchem Maße es heute möglich ist, das menschliche Herz und seine Einbettung in den gesamten Organismus zu simulieren. Angefangen beim menschlichen Genom über die Proteine und ein gründliches Verständnis der biochemischen Regelmechanismen beschrieb er die Einbettung des Herzens in das Gewebe und den ganzen Organismus. Die Modelle der verschiedenen Organe und ihrer Wechselwirkung erlauben Simulationen des Herzens und des Blutkreislaufs, die das Verständnis von Gesundheit und Krankheit verbessern. Diese Modelle des Herzens im Kleinsten und im Großen zeigen, welche Möglichkeiten eine integrative Computer-Biologie für unser Leben haben wird.

Den ganz großen Fragen, nämlich der Simulation des Kosmos, widmete sich Prof. Dr. Gustavo Yepes. Er zeigte die Stärken und Schwächen der gegenwärtigen Simulationen der Evolution des Kosmos. Auch wenn es heute möglich sei, astronomisch viele Teilchen im Universum zu simulieren, so fehlen doch noch viele Feinheiten, die erst mit noch wesentlich schnelleren und größeren Rechnern erfasst werden könnten.

Zum Abschluss sprach Prof. Dr. Stefan Blügel vom Institut für Festkörperforschung am Forschungszentrum Jülich über die enormen Fortschritte der letzten Jahre in der Simulation kleinster Strukturen auf molekularer Ebene. Es sei heute möglich, Materialeigenschaften unter Berücksichtigung der Gesetze der Quantenmechanik zu simulieren und die Übereinstimmung der Modelle mit den Experimenten zu überprüfen. Diese Simulationen ermöglichen ein detailliertes Verständnis der Vorgänge auf molekularer Ebene und weisen den Weg zu einer zielgerichteten Entwicklung neuer Materialien, z.B. für die Speicherung von Daten. Auch hier stehen wir erst am Anfang: heute werden die Methoden erarbeitet, mit denen wir auf den zukünftigen Petaflops-Supercomputern Materialeigenschaften gezielt konstruieren können.

Das DEISA-Symposium „Towards Petascale Computing in Europe“ zeigte also nicht nur den gegenwärtigen organisatorischen und technischen Stand auf, sondern wies auch den Weg für die nächsten Jahre zu einem Höchstleistungsrechnen im Petaflops-Maßstab in Europa.

1 Petaflops, d.h. 1 PetaFlop/s = 1,000 TeraFlop/s = 1,000,000 GigaFlop/s = 1,000,000,000,000,000 Flop/s = 1 Billiarde Flop/s = 1 Billiarde Operationen mit Fließkommazahlen pro Sekunde; ein heutiger PC schafft größenordnungsmäßig 1 GigaFlop/s, man bräuchte aber viel mehr als die rechnerischen 1 Million PCs, um 1 PetaFlop/s zu erreichen, weil es erhebliche Verluste bei der Zusammenarbeit der Prozessoren gäbe.

Fotos der Veranstaltung sind auf Nachfrage über die Pressestelle erhältlich.