KI lokal nutzen: Hard- und Softwarehersteller treiben Einsatz auf PCs und Laptops voran

Der KI-PC ist eine neue Hardwareklasse, die die lokale Ausführung künstlicher Intelligenz auf Endgeräten ermöglicht. Beispiele zeigen, welches Potenzial im KI-PC steckt.

Die Ausführung von KI-Workloads, das sogenannte Inferencing, ist sehr rechenintensiv und überfordert viele ältere CPUs (Central Processing Unit). Sie wird deshalb häufig auf die GPU (Graphic Processing Unit) ausgelagert, die eigentlich für die Berechnung von Grafiken und die Videoausgabe zuständig ist. Die zusätzliche Last führt zu mehr Energieverbrauch und Abwärme. Bei Laptops verringert sich dadurch die Akkulaufzeit und die Lüfter springen häufiger an. Um diese Effekte zu vermeiden, lagern viele Softwareanbieter die Berechnung von KI-Funktionen in eine Cloud-Infrastruktur aus. Dazu müssen die Daten jedoch zunächst hochgeladen, dann verarbeitet und die Ergebnisse schließlich wieder an den Computer zurückgeschickt werden, was viel Zeit und Bandbreite kostet. Bei sensiblen Informationen kann die Auslagerung in die Cloud auch ein Datenschutzrisiko darstellen oder gegen Compliance-Vorgaben verstoßen. Hersteller wie Intel und Microsoft arbeiten deshalb an einer neuen Hardware-Plattform, die eine schnelle und energieeffiziente Ausführung von KI-Workloads direkt auf dem Endgerät ermöglicht. Dieses Konzept wird allgemein als „KI-PC“ bezeichnet. Microsoft nennt die für KI optimierten Endgeräte „Copilot+ PC“.

Um den KI-PC Realität werden zu lassen, hat Intel das Chipdesign der Intel Core Prozessoren grundlegend überarbeitet. Die neue, mit den Intel Core Ultra Prozessoren eingeführte „disaggregated“ Chiplet-Architektur ist modular aufgebaut und besteht aus vier sogenannten „Tiles“: Dem CPU-Modul mit zwei verschiedenen Arten von Rechenkernen (Performance Cores und Efficiency Cores), dem Grafikmodul mit den für 3D-Aufgaben optimierten Arc GPUs (Graphic Processing Unit), dem SoC-Tile (System-on-a-Chip), das unter anderem die neuen Low-Power Efficiency Kerne (LP E-Cores) für besonders energieeffizientes Arbeiten enthält, und dem I/O-Modul für zusätzliche Schnittstellen wie Thunderbolt 4.

Mit der Neural Processing Unit (NPU) hält zudem ein neuer Prozessortyp Einzug in das Intel-Chipdesign, der für typische KI-Workloads wie die Echtzeitanalyse und -verarbeitung von Audiosignalen und Bildern, die Erkennung, Verarbeitung und Übersetzung von Sprache oder die Kommunikation mit generativen Chatbots optimiert ist. Die NPU kann diese Workloads wesentlich effizienter ausführen, als es bisher mit CPU (Central Processing Unit) oder GPU (Graphic Processing Unit) allein möglich war. CPU und GPU werden so entlastet, Energieverbrauch und Wärmeentwicklung reduziert. Laut Intel gibt es bereits mehr als 500 KI-Modelle, die für Core Ultra Prozessoren optimiert wurden. Sie sind auf Plattformen wie GitHubHugging Face oder dem Open Neural Network Exchange (ONNX) verfügbar. Für das Toolkit OpenVINO (Open Visual Inference and Neural Network Optimization) steht ein Plugin zur Verfügung, das die Nutzung der NPU für das Model Caching und Inferencing ermöglicht.

Der KI-PC in der Praxis

Mehr als 100 ISVs (Independent Software Vendors) arbeiten im KI-PC-Beschleunigungsprogramm daran, die KI-Technologien in der Core Ultra-Plattform optimal zu nutzen. Über 300 Funktionen sind bereits entwickelt oder sind in Planung. Die folgenden Beispiele zeigen, wie Softwareanbieter die KI-Beschleunigungsfunktionen einsetzen und welches Potenzial darin steckt:

Fazit: Der KI-PC von heute ist erst der Anfang

Hersteller wie Intel liefern mit ihren KI-PC-Plattformen die Basis, um künstliche Intelligenz erlebbar und für den breiten professionellen Einsatz nutzbar zu machen. Die Entwicklung des KI-PCs steht allerdings erst am Anfang und wird sicher nicht auf dem heutigen Niveau stehen bleiben. Intel hat bereits die nächste Prozessorgeneration mit dem Codenamen „Lunar Lake“ angekündigt. Sie soll die KI-Performance mehr als verdreifachen und mehr als 40 TOPS (Tera Operations Per Second) auf der NPU ermöglichen.