Supercomputer: Die Exascale-Ära beginnt
Supercomputer sind heute eine entscheidende Schlüsseltechnologie und werden in Wissenschaft und Wirtschaft immer wichtiger. Forschungseinrichtungen setzen die Hochleistungsrechner für Simulationen etwa in der Klimaforschung und Astronomie ein oder für eine personalisierte Medizin. Autohersteller optimieren mit Superrechnern Fahreigenschaften von neuen Autos und Impfstoffe wie COVID-19-Vakzine könnten ohne die Hilfe von Supercomputern nicht oder nur viel langsamer entwickelt werden.
Die High-Performance-Rechner haben sich in den letzten Jahren mehr oder weniger stetig verbessert. Heute schafft ein mit Rechen-GPUs ausgestatteter Supercomputer eine Kalkulation, die vor zwanzig Jahren auf einem Multi-Millionen-Euro-System Wochen gedauert hätte, in nur wenigen Stunden. Nun steht die nächste Größenordnung an Rechenleistung vor der Tür: Exascale Computing.
Exascale-Maschinen sind in der Lage sein, eine Quintillion Gleitkommaoperationen pro Sekunde (Flops) auszuführen – das sind eine Milliarde Milliarden – oder 1.000.000.000.000.000.000 Operationen. Damit rechnen sie fünfmal schneller als die heutigen Spitzen-Supercomputer und bewältigen komplexere Modelle mit höherer Genauigkeit. Sie werden in erster Linie bessere wissenschaftliche Analysen und Modelle sowie genauere Vorhersagen ermöglichen – zum Beispiel bei der Wettervorhersage oder Klimamodellierung.
Um diese neuen Höchstleistungen zu erreichen, verfolgen die Entwickler einen heterogenen Ansatz. Dieser besteht im Wesentlichen aus integrierten CPUs und GPUs und einer iterativen Optimierung sowohl der Hardware als auch der Software. Auf diese Weise werden neue Leistungs- und Effizienzniveaus bei geringeren Kosten pro FLOPS erreicht.
Der erste Exascale-Rechner
Den Wettlauf, den ersten Exascale-Rechner zu bauen, haben die USA gewonnen. Zusammen mit dem US-Energieministerium, dem Oak Ridge National Laboratory, haben AMD, HPE und Cray den ersten offiziell anerkannten Exascale-Supercomputer der Welt entwickelt: Das System nennt sich Frontier und hat mit 1,102 Exaflops/s Rechenleistung die Marke von einem Exaflops überschritten. An der Spitze liefert der Superrechner bis zu 1,69 ExaFlops und hat dabei auch noch Spielraum, um nach weiteren Optimierungen zwei ExaFlops zu erreichen. Dies bedeutet den ersten Platz in der Top500-Liste der schnellsten Supercomputer der Welt.
Frontier den bisherigen Spitzenreiter, den japanischen Fugaku, nicht nur überholt, sondern ihn zudem weit hinter sich gelassen. Frontier ist sogar schneller als die nächsten sieben Supercomputer auf der Liste zusammen. Ermöglicht wird diese Performance durch 9.408 Prozessoren der Serie AMD EPYC in der optimierten Trento-Variante, deren 64 Kerne aus Effizienzgründen nur mit 2 GHz takten. Hinzu kommen pro Prozessor vier GPU-Beschleuniger AMD Instinct MI250x, die spezielle für Exascale-Systeme entwickelt wurden.
Frontier soll die Innovationen in Wissenschaft und Technologie antreiben und den USA helfen, im Wettstreit mit China ihre Führungsrolle in den Bereichen Hochleistungsrechnen und KI zu behaupten. Ein noch leistungsfähigeres System der Exascale-Klasse, genannt El Capitan, wird voraussichtlich 2023 in den Lawrence Livermore National Labs in den USA gebaut.
Der Weg Europas
Anders als in USA oder China geht Europa beim Supercomputing seine eigenen Wege. Hier steht nicht der Wettbewerb im Vordergrund, sondern kooperative Ansätze und die Bündelung von Ressourcen, um ein leistungsfähiges Ökosystem für Supercomputer zu generieren. Horizon Europe, ein mit 80 Milliarden Euro gefördertes 7-jähriges EU-Rahmenprogramm, will Supercomputing und insbesondere die Entwicklung von Exascale-Rechnern vorantreiben.
Dieses Programm zeigt erste Früchte und ermöglicht es Forschern, bislang unerreichbare Projekte in Angriff zu nehmen. Der HAWK-Supercomputer – Platz 24 der TOP500-Supercomputer-Liste – an der Universität Stuttgart liefert eine Leistung von 26 Petaflops. Die knapp 6000 Knoten des HPE Apollo 9000 Systems sind auf 44 Schränke verteilt und dienen der akademischen und industriellen Spitzenforschung. Kunden aus der Automobilbranche erlaubt das HLRS beispielsweise die Durchführung von Strukturanalysen und Strömungssimulationen.
Die Leistungsklasse der neuen Supercomputer-Generation zeigt auch Lumi, eine Pre-Exascale-Maschine am IT Centre for Science (CSC) im finnischen Kajaani. Lumi nutzt eine ähnliche Technologie wie Frontier: Beides sind HPE/Cray-EX-Systeme, angetrieben von AMD EPYC Prozessoren und AMD Instinct MI250X als Rechenbeschleunigern. Lumi soll mehr als 375 Petaflops, also mehr als 375 Millionen Milliarden Berechnungen pro Sekunde, ausführen, mit einer theoretischen Spitzenleistung von mehr als 550 Petaflops pro Sekunde.
„Der Lumi-Supercomputer wird einen Generationssprung in der Leistung für groß angelegte Simulationen und Modellierung sowie für KI- und Deep-Learning-Workloads bieten, um einige der größten Fragen in der Forschung zu lösen“, heißt es beim CSC. Dank der beeindruckenden Energieeffizienz der Epyc-CPUs und der MI250X-GPUs beansprucht Lumi auch den Titel des drittgrünsten Supercomputers der Welt. Hinzu kommt, dass Lumi 100 Prozent seiner Energie aus erneuerbaren Quellen bezieht. Bis zu 200 MW Energie können durch Wasserkraft eingespeist werden, und die Abwärme des Supercomputers lässt sich sinnvoll nutzen. Auch die anderen Cray-EX-Systeme mit Milan und MI250X warten mit sehr guten Energieeffizienzwerten von über 50 GFlops/Watt auf.
Hoher GPU-Bedarf
Im schwedischen Stockholm hat HPE einen neuen Supercomputer für die Königliche Technische Hochschule (KTH) gebaut, der ebenfalls auf dem neuesten AMD EPYC-Prozessor und der Instinct-GPU basiert. Der 13,5-Petaflop-Supercomputer trägt den Namen „Dardel“ zu Ehren der schwedischen Schriftstellerin Thora Dardel. Er ersetzt das derzeitige Flaggschiff der KTH, Beskow, und wird auf dem Hauptcampus im PDC Centre for High Performance Computing (PDC) untergebracht sein.
Dardel wird die Infinity-Architektur von AMD nutzen, die auch das eben erwähnte Lumi-Pre-Exascale-System verwendet. In der ersten Phase besteht das System aus 65.000 CPU-Kernen und in der zweiten wird es um GPUs ergänzt. „In jüngster Zeit besteht in der Forschung ein dramatischer Anstieg des Bedarfs an Beschleunigern hauptsächlich in Form von GPUs“, sagt Prof. Hans Karlsson, Direktor des SNIC, der schwedischen Nationalen Infrastruktur für das Rechnen. „Wir werden bald in der Lage sein, diese Nachfrage durch die Beschleunigerpartition in Dardel zu befriedigen.“
Das System wird auch Slingshot von HPE für HPC-Netzwerke enthalten, um eine höhere Geschwindigkeit und Staukontrolle für datenintensive Arbeitslasten wie Strömungsmechanik, Biophysik und Quantenchemie zu ermöglichen. Zu den Unternehmen, die derzeit die HPC-Systeme des PDC für Forschung und Entwicklung nutzen, gehören beispielsweise der Lkw-Hersteller Scania und mehrere technische Beratungsunternehmen.
Europa muss sich also beim Exascale-Computing hinter den USA und China nicht verstecken. Insgesamt gesehen ist Europa auf einem guten Weg, das enorme Potential von Exascale zu nutzen. Eine Liste europäischer Exascale-Projekte finden Sie hier.
Fazit
Der sich abzeichnende Erfolg von Exascale ist Resultat der vereinten Anstrengungen von HPE, AMD, Cray und anderen. Das Zusammenspiel der Technologieexperten sorgt für bahnbrechende Innovationen bei gleichzeitig schonender Ressourcennutzung. Einen wesentlichen Beitrag für klimaschonende Exascale-Rechner leistet die Energieeffizienz beschleunigter Rechenknoten aus AMDs EPYC-CPUs in Kombination mit Instinct-GPUs.