Supercomputing: Exascale ist nicht das Ende
Mit „El Capitan“, „Frontier“ und „Aurora“ gibt es aktuell drei Supercomputer im Exascale-Bereich. Die Chancen stehen gut, dass weitere hinzukommen, denn die Leistungssteigerungen im HPC-Bereich sind beeindruckend.
Als Exascale-Computer werden HPC-Systeme (High-Performance Computing) bezeichnet, die mindestens eine Trillion (1018) Gleitkommaoperationen pro Sekunde (Floating Point Operations per Second, FLOPS) ausführen können. Die Leistung wird typischerweise anhand von 64-Bit-Rechenoperationen (Double Precision) im High-Performance Linpack (HPL)-Benchmark gemessen. Er bildet auch die Basis für die TOP500-Liste, in der die weltweit leistungsfähigsten Supercomputer verzeichnet sind.
Die Möglichkeit von Exascale-Systemen wurde bereits in den 2010er Jahren diskutiert, kurz nachdem die ersten Petascale-Computer (1015 FLOPS) ihren Betrieb aufgenommen hatten. Es dauerte allerdings zehn Jahre, bis die Schallmauer von einer Trillion Berechnungen pro Sekunde am Summit Supercomputer des US-Energieministeriums (Department of Energy, DOE) durchbrochen werden konnte. Dabei handelte es sich allerdings nicht um Gleitkommaoperationen, sodass kein direkter Vergleich zu anderen Supercomputern möglich war. Erst im März 2020 gelang es dem verteilten Rechnernetzwerk Folding@Home eine Spitzengeschwindigkeit von mehr als einem ExaFLOPS zu erreichen. Im Juni 2020 zog der japanische Supercomputer Fugaku nach. Beide nutzten allerdings nicht den offiziellen HPL-Benchmark. Daher gilt der Supercomputer „Frontier“ als erster „echter“ Exascale-Computer. Er erreichte im Mai 2022 im HPL-Benchmark eine maximale Rechengeschwindigkeit von 1,102 ExaFLOPS. Erst im November 2024 konnte ihn der Rechner „El Capitan“ mit 1,742 ExaFLOPS vom Spitzenplatz verdrängen. Mit 1,01 ExaFLOPS liegt „Aurora“ als weiterer Exascale-Computer auf Platz drei.
Wie Exascale-Computing möglich wurde
Die ersten Supercomputer basierten hauptsächlich auf einer sehr hohen Zahl von Serverprozessoren (Central Processing Units, CPUs). Sie konnten serielle Befehlsfolgen schnell bearbeiten, hatten aber Schwächen bei der parallelen Verarbeitung von Rechenoperationen. Parallele Rechenvorgänge spielen beispielsweise beim Rendern von 3D-Videoanimationen, dem Training tiefer neuronaler Netze (Deep Learning) sowie bei der Modellierung von Klimatrends und Wetterphänomenen eine große Rolle. Sie lassen sich am besten mit Prozessoren verarbeiten, die über sehr viele kleine Rechenkerne verfügen. Da solche Prozessoren ursprünglich für Grafikkarten konzipiert wurden, werden sie auch heute noch als GPUs (Graphics Processing Units) bezeichnet.
Hybride Architekturen, die viele CPUs und GPUs kombinieren, sind um ein Vielfaches leistungsfähiger als Systeme, die nur CPUs verwenden. Im Supercomputer Frontier sind beispielsweise fast 9.500 AMD EPYC 7713 Prozessoren und knapp 38.000 AMD Instinct MI250x Beschleuniger verbaut. Jeder Rechenknoten besteht aus einer CPU und vier GPUs, die über die Interconnect-Technologie AMD Infinity Fabric verbunden sind. Die Systeme werden über HPE-Slingshot-Switches mit einer Bandbreite von 100 GB/s vernetzt. Die Gesamtlänge der Kabel beläuft sich auf 145 km.
Bei El Capitan wurde die Integration von CPU und GPU weiter vorangetrieben. Der Supercomputer nutzt sogenannte APUs (Accelerated Processing Units), bei denen sich CPU und GPU auf einem Chip befinden. Jeder der über 44.500 AMD MI300A Beschleuniger von El Capitan verfügt über 24 Zen4-basierte CPU-Kerne und eine AMD Instinct GPU, die auf der Computing-Architektur CDNA 3 beruht. Ziel dieser Architektur ist es, Datenübertragungswege zu minimieren und die Speicherbandbreite zu vergrößern. Da sich die Leistung eines Supercomputers aus Tausenden von Berechnungen ergibt, können selbst kleinste Gewinne bei Latenz und Datendurchsatz zu großen Leistungssprüngen führen. Die räumliche Integration von CPU und GPU erleichtert zudem die Programmierung und reduziert den Stromverbrauch.
Exascale-Computer im Einsatz: die wichtigsten Anwendungsgebiete
Supercomputer kommen immer dann zum Einsatz, wenn sehr große Datenmengen verarbeitet und/oder sehr komplexe Berechnungen und Modellierungen erstellt werden sollen. Hier einige Beispiele:
Klimamodellierung und Wettervorhersage: Ein Forschungsteam an der King Abdullah University of Science and Technology (KAUST) hat mit dem Exascale Climate Emulator auf dem Supercomputer Frontier ein neues hochaufgelöstes Erdsystemmodell entwickelt. Es basiert auf 318 Milliarden Temperaturdatenpunkten aus 35 Jahren und 31 Milliarden Datenpunkten aus einer 83 Jahre zurückreichenden sogenannten Ensemble-Simulation, in der verschiedene Vorhersagen auf Basis leicht unterschiedlicher Ausgangszustände gebündelt waren. Mithilfe des Modells lassen sich Vorhersagen mit einer räumlichen Genauigkeit von 3,5 km treffen.
Mikrobielle Ökosysteme: Das ExaBiome-Projekt nutzt Exascale Computing, um die komplexen Zusammenhänge in sogenannten Mikrobiomen zu erforschen – Lebensgemeinschaften aus Hunderten oder Tausenden verschiedener Mikrobenarten. Die Analysen sollen dabei helfen, die Zusammensetzung und Funktionsweise von Mikrobiomen besser zu verstehen und deren Genetik zu entschlüsseln.
Astrophysik: Das Simulationsprogramm ExaSky ist angetreten, das Geheimnis der dunklen Materie und der dunklen Energie zu lüften, die Natur der primordialen Fluktuationen zu erklären, die zur Entstehung von Galaxien geführt haben, und die Masse von Neutrinos genauer zu bestimmen. Die Ergebnisse des Projekts sind eine Größenordnung genauer als die bisher erzielbaren Resultate.
Training großer Sprachmodelle: Das Training und Fine-Tuning sogenannter LLMs (Large Language Models) mit Hunderten von Milliarden Parametern erfordert enorme Rechenressourcen. Ein Forscherteam der Universität von Maryland, des Max-Planck-Instituts für Intelligente Systeme in Tübingen und der Universität von Kalifornien hat mit AxoNN einen neuen vierdimensionalen Algorithmus entwickelt. Ziel war es, die Ressourcennutzung und Skalierbarkeit beim Training zu optimieren und Datenschutzprobleme zu lösen, die bei der Speicherung sensibler Trainingsdaten entstehen können. Auf dem Exascale-Computer Frontier gelang es den Forschern, die Vorteile von AxoNN an einem Trainingsdaten-Set mit 405 Milliarden Parametern zu demonstrieren.
Erforschung der Kernfusion: Als Teil des Stockpile-Stewarship-Programms der US-Regierung ist El Capitan in erster Linie für militärische Zwecke konzipiert. Seine Hauptaufgabe ist die Simulation von Kernwaffentests. Er wird aber auch für zivile Fragestellungen eingesetzt, darunter die Erforschung der Kernfusion. Das Projekt ICECap (Inertial Confinement on El Capitan) kombiniert einen KI-basierten Workflow mit multidimensionalen physikalischen Simulationen sowie Daten aus der Trägheitsfusionsforschung (Inertial Combustion Fusion). Ziel ist es, Wege für die kommerzielle Nutzung der Kernfusion zu finden.
Fazit: Exascale – die Evolution geht weiter
Bereits im Jahr 2018 prognostizierten chinesische Forscher, dass bis 2035 die nächste Evolutionsstufe des Supercomputing, das Zettascale-Computing, erreicht werden könnte. Ein solches System würde dann eine Trilliarde (1021) Gleitkommaoperationen pro Sekunde ausführen können. Diese Vorhersage scheint nicht unwahrscheinlich, schließlich dauerte die Entwicklung vom Petascale- zum Exascale-Computer ähnlich lange.
Die größte Herausforderung dabei ist nicht die Rechenleistung, sondern die Energieversorgung. Das machte Mark Papermaster, Chief Technology Officer (CTO) bei AMD, in seiner Keynote auf der Supercomputing-Konferenz ISC 2025 deutlich. Trotz enormer Effizienzsteigerungen – Papermaster rechnet bis 2035 mit einer Leistung von über 2.000 GigaFLOPS pro Watt – würde ein Zettascale-Rechenzentrum eine Anschlussleistung von rund einem halben Gigawatt benötigen. Der Leistungshunger solche Rechenzentren könnte erhebliche Folgen für Klima und Umwelt haben (siehe dazu auch „Wie KI den Energieverbrauch explodieren lässt“). AMD hat sich deshalb zum Ziel gesetzt, die Energieeffizienz pro Rack bis 2030 um das 20-fache zu steigern.