Wie KI den Energieverbrauch explodieren lässt – und was Abhilfe schafft
Entwicklung, Training und Nutzung von KI-Anwendungen erfordern enorme Mengen an Energie. Unternehmen müssen deshalb auf effiziente und ressourcenschonende Technologien setzen, um Kosten und Ressourcenverbrauch in Grenzen zu halten.
Die zunehmende Verbreitung von künstlicher Intelligenz hat die Nachfrage nach Rechenzentrumsressourcen und damit auch den Energiebedarf deutlich steigen lassen. So wurden allein für das Training von GPT-4, dem großen Sprachmodell von OpenAI mehr als 62 Millionen kWh an Strom verbraucht. Das entspricht in etwa dem jährlichen Stromverbrauch von 20.000 deutschen Haushalten.
Aber nicht nur das Training, sondern auch die Anwendung von künstlicher Intelligenz ist ressourcenintensiv. Eine Anfrage an ChatGPT verbraucht beispielsweise zehnmal mehr Energie als eine durchschnittliche Suche mit Google oder einer anderen Suchmaschine. Der Energiebedarf für die KI-basierte Generierung eines Bildes ist sogar noch deutlich höher. Er entspricht in etwa der halben Ladung eines Smartphone-Akkus.
Folgen für Klima und Umwelt
Der hohe Energieverbrauch beim Training und bei der Anwendung von KI führt zu einem vermehrten Ausstoß klimaschädlicher Gase. Laut dem 2025 AI Index Report der Harvard Universität belief sich der CO₂-Fußabdruck für die Entwicklung von GPT-4 auf fast 5.200 Tonnen. Beim Training von Llama 3, einem großen Sprachmodell des Facebook-Konzerns Meta, wurden sogar fast 9.000 Tonnen klimaschädlicher Gase erzeugt. Zum Vergleich: Der durchschnittliche CO₂-Fußabdruck in Deutschland liegt pro Kopf und Jahr bei 10,4 t.
Der Anstieg des Energiebedarfs durch die vermehrte KI-Nutzung und die damit verbundenen CO₂-Emissionen drohen die Fortschritte im Kampf gegen den Klimawandel zunichtezumachen. Betreiber von KI-Rechenzentren wie Google, Meta oder Microsoft verzeichnen entgegen ihren erklärten Klimazielen steigende CO₂-Emissionen. In Städten und Regionen wie Kansas City oder der „Data Center Alley“ in Nord-Virginia musste die Laufzeit von Kohlekraftwerken verlängert werden, um den steigenden Strombedarf von KI-Rechenzentren zu decken.
Warum die Entwicklung und Nutzung von KI so viel Energie benötigt
Bei der Entwicklung und Nutzung von KI-Modellen kommen meist spezialisierte Beschleuniger, sogenannte Graphics Processing Units (GPUs), zum Einsatz, die mit sehr vielen Rechenkernen ausgestattet sind und große Datenmengen in kurzer Zeit parallel verarbeiten können. Von dieser Parallelverarbeitung profitieren vor allem große Sprachmodelle und andere Deep-Learning-Verfahren, die auf tiefen neuronalen Netzen beruhen.
GPUs verbrauchen allerdings auch deutlich mehr Strom als herkömmliche Server-Prozessoren (Central Processing Unit, CPU). Nach Berechnungen des Energy Management Research Centers von Schneider Electric liegt die Anschlussleistung typischer GPU-Cluster bei 30 bis 100 kW pro Rack. Zukünftig könnte sie sogar bis zu einem Megawatt (MW) betragen. Große Cluster mit mehreren Tausend GPUs erreichen Anschlussleistungen von 20 MW und mehr. Das entspricht in etwa dem Strombedarf einer Kleinstadt. Zum direkten Stromverbrauch der Recheneinheiten kommt der Energieaufwand für die Kühlung hinzu. Bis zu 40 Prozent des gesamten Energiebedarfs eines Rechenzentrums können auf die Kühlung entfallen.
Auch bei der Anwendung von KI spielt der Strombedarf der Rechenzentren die größte Rolle. Vor allem ältere Client-Hardware ist nicht in der Lage, KI-Berechnungen lokal durchzuführen. Die Daten werden deshalb in die Cloud-Rechenzentren der Anbieter übertragen, dort verarbeitet und die Ergebnisse auf das Endgerät zurückgespielt. Selbst wenn jede Transaktion nur wenige Watt benötigt, summiert sich der Energiebedarf durch die schiere Masse. Allein ChatGPT muss laut dem Hersteller OpenAI jeden Tag 2,5 Milliarden Anfragen verarbeiten.
So können Unternehmen den Energieverbrauch durch KI senken
Für Unternehmen, die KI-Modelle entwickeln oder diese anwenden, gibt es eine ganze Reihe von Möglichkeiten, den Energiebedarf zu senken:
1. Modelle an den Bedarf anpassen.
Nicht immer ist ein großes Sprachmodell mit Billionen von Parametern notwendig, um Fragestellungen effizient bearbeiten zu können. Oft lassen sich die Modellkomplexität und die Berechnungsgenauigkeit ohne nennenswerte Einbußen reduzieren. Für spezifische Aufgaben genügen meist auch kleine Sprachmodelle (Small Language Models, SLM), die weniger ressourcenintensiv sind.
2. „Grüne“ Algorithmen verwenden.
Die Nutzung effizienterer Algorithmen kann zu deutlichen Energieeinsparungen führen. Sie zeichnen sich beispielsweise durch optimierte Trainingszyklen und weniger Redundanz bei den Berechnungen aus. Tools wie der Green Algorithms Calculator oder Green Algorithms 4 HPC geben Auskunft über die Energieeffizienz verschiedener Algorithmen.
3. Rechenzentrum modernisieren.
Durch den Austausch älterer Server-Hardware lässt sich nicht nur der Energieverbrauch im Rechenzentrum deutlich senken, sondern auch die KI-Performance von GPU-Knoten um bis zu 20 Prozent steigern. Mit dem Server Refresh Tool von AMD können Unternehmen ermitteln, welche Einsparungen möglich sind. Aktuelle KI-Beschleuniger wie die AMD Instinct MI350 Serie bieten darüber hinaus mehr als die doppelte Performance vergleichbarer Modelle. So lässt sich dieselbe Leistung auf kleinerem Raum und mit geringerem Energieaufwand erreichen. Das resultiert auch in weniger Abwärme, was zu einem geringeren Kühlbedarf führt.
4. Workloads richtig verteilen.
Die Entwicklung und Anwendung von KI wird häufig mit dem Einsatz von GPUs gleichgesetzt. Tatsächlich profitieren aber gar nicht alle KI-Workloads von einer massiven Parallelverarbeitung. Aufgaben wie klassisches maschinelles Lernen, Mustererkennung und Graphenanalysen lassen sich genauso gut auf einer leistungsfähigen CPU-Plattform ausführen – und das mit deutlich geringerem Energieaufwand.
5. In KI-PCs investieren.
Wie bereits erwähnt, werden viele KI-Aufgaben in die Cloud ausgelagert, da ältere Client-Hardware sie nicht oder nur sehr langsam ausführen kann. Erfolgt die Berechnung etwa aus Datenschutzgründen dennoch lokal, kommt es zu einer hohen Belastung von CPU und GPU, was zu reduzierten Akkulaufzeiten und einer höheren Wärmeentwicklung führt. Unternehmen sollten daher beim Austausch von Clients auf die neue Geräteklasse der KI-PCs setzen. Sie sind mit einer zusätzlichen Berechnungseinheit, der Neural Processing Unit (NPU) ausgestattet, die für KI-Aufgaben spezialisiert ist. KI-PCs können KI-Workloads deshalb besonders effizient und energiesparend ausführen.
Fazit: Steigender Energieverbrauch ist kein Schicksal
Die zunehmende Verbreitung künstlicher Intelligenz in allen Bereichen der Wirtschaft und Gesellschaft hat den Energiebedarf für Rechenzentren, Netzwerke und Client-Systeme stark ansteigen lassen. Alle Prognosen deuten darauf hin, dass diese Entwicklung anhalten wird, wenn Hersteller, Rechenzentrumsbetreiber und Anwender nicht gegensteuern. Es ist deshalb notwendig, die Energieeffizienz in jeder Phase der KI-Entwicklung und -Nutzung zu steigern – von ressourcenschonenderen Modellen und Algorithmen über leistungsfähigere Hardware bis hin zur überlegteren Anwendung von KI.
Hersteller wie AMD sind sich dabei ihrer Verantwortung bewusst. Das Unternehmen hatte sich bereits 2021 vorgenommen, die Energieeffizienz von Rechenknoten für KI-Training und High-Performance Computing (HPC) bis 2025 um das 30-fache zu steigern. Dieses Ziel konnte sogar übertroffen werden. Nun will der Hersteller die Energieeffizienz pro Rack bis 2030 noch einmal um das 20-fache erhöhen. Ein KI-Modell, für das heute 275 Racks benötigt werden, soll dann in weniger als einem Rack trainiert werden können, was einer Energieeinsparung von 95 Prozent entsprechen würde. Initiativen wie diese machen Hoffnung, dass sich das durch KI verursachte Energieproblem nicht zuletzt durch technischen Fortschritt lösen lässt.