KI-Infrastruktur – die richtige Hardware für Enterprise AI finden

Wer KI im eigenen Unternehmen entwickeln will, braucht dafür eine leistungsfähige Infrastruktur. Neue Komponenten und Angebote senken die Hürden auf dem Weg zur Enterprise AI deutlich.

Künstliche Intelligenz (KI) ist in deutschen Unternehmen angekommen. Laut der aktuellen Studie „Künstliche Intelligenz in Deutschland“ des Branchenverbands Bitkom setzen 57 Prozent der deutschen Unternehmen KI bereits ein oder planen den Einsatz. Fast drei Viertel aller Befragten will in Zukunft in KI-Projekte investieren. Das Wertschöpfungspotenzial durch den Einsatz von KI wird vom Institut der deutschen Wirtschaft auf 330 Milliarden Euro geschätzt.

Allerdings tun sich viele Unternehmen hierzulande noch schwer, Pilotprojekte zu skalieren und KI produktiv einzusetzen. Neben Fachkräftemangel und regulatorischen Bedenken sind es vor allem Schwierigkeiten bei der Auswahl und Implementierung geeigneter Technologien, die KI-Projekte ausbremsen.

Fünf Bausteine für Enterprise AI

Wer KI entwickeln und trainieren will, benötigt eine leistungsfähige Infrastruktur. Folgende fünf Faktoren sind dafür unverzichtbar:

Empfehlungen für die Komponentenauswahl

Bei Aufbau eines KI-fähigen Rechenzentrums sollten Unternehmen auf Komponenten achten, die alle oben genannten Anforderungen an Leistung, Skalierbarkeit, Energieeffizienz und Sicherheit erfüllen. Der KI-Beschleuniger Intel Gaudi 3 ist beispielsweise mit acht MME-Einheiten (Matrix Multiplication Engines) ausgestattet, von denen jede 64.000 parallele Rechenoperationen durchführen kann. Das erlaubt, die für Deep-Learning-Workloads typischen komplexen Matrixoperationen effizient und damit energiesparend auszuführen.

Die aktuellen Intel Xeon 6 Prozessoren bieten bis zu 128 Performance-Kerne (P-Cores), eine maximale Taktrate von 3,9 GHz und bis zu 504 MB Level 3 Cache. Durch den erstmaligen Einsatz von MRDIMM (Multiplexed Rank Dual Inline Memory Module) konnte die Verarbeitungsgeschwindigkeit im Arbeitsspeicher auf bis zu 8.800 MT/s (Megatransfers pro Sekunde) gesteigert werden. Zusätzliche Befehlssätze wie Intel Deep Learning Boost (Intel DL Boost) die Advance Matrix Extensions (AMX) oder die Advanced Vector Extensions 512 (AVX-512) machen die Nutzung von typischen Deep-Learning-Frameworks wie TensorFlow und PyTorch schneller und effizienter. Die aktuelle Xeon-Generation liefert bei typischer Auslastung laut Hersteller doppelt so viel Performance pro Watt wie ihre Vorgänger und verbraucht damit bei gleicher Leistung deutlich weniger Energie. Durch Erweiterungen für Confidential Computing wie die Intel Software Guard Extensions (Intel SGX) und die Intel Trust Domain Extensions (Intel TDX) lässt sich für Confidential AI eine vertrauenswürdige Verarbeitungsumgebung (Trusted Execution Environment, TEE) erstellen, auf die nur speziell autorisierter und signierter Code Zugriff erhält. Firmendaten und KI-Modelle bleiben so vor fremden Blicken geschützt.

Cloud-Ressourcen als Ergänzung nutzen

Die Entwicklung eigener KI-Modelle erfordert nicht nur eine leistungsfähige Infrastruktur, sondern auch viel Know-how. Es kann daher sinnvoll sein, externe Experten und Tools einzubeziehen. In einer Cloud-Umgebung gehostete vorgefertigte Basismodelle (Foundation Models) erleichtern zudem den Einstieg, beschleunigen die Integration und reduzieren die Gesamtkosten.

Lösungen wie Inflection for Enterprise kombinieren die Vorteile der Cloud mit firmenspezifischen Anforderungen an Datenqualität, Datensouveränität und Datensicherheit. Das System basiert auf Intel Gaudi 3 KI-Beschleunigern und der Intel Tiber AI Cloud. Kunden können in ihrer eigenen Infrastruktur, in der Cloud oder einer hybriden Umgebung das Large Language Model von Inflection mit ihren Daten trainieren. Das angepasste Modell ist Firmeneigentum und wird nicht mit anderen Organisationen geteilt. In Zusammenarbeit mit UiPath hat Inflection AI für Unternehmenskunden außerdem die Agentic Workflows entwickelt, die die Gefahr von Halluzinationen in KI-Modellen reduzieren und die Zuverlässigkeit der Ergebnisse verbessern sollen.

Auch IBM wird die Entwicklung von Enterprise AI mit Intel Xeon Prozessoren und Intel Gaudi 3 unterstützen. Die Prozessoren und KI-Beschleuniger sollen Anfang 2025 als Virtual Cloud Servers in der Virtual Private Cloud (VPC) des Anbieters zur Verfügung stehen. Auch eine Integration in die IBM KI-Plattform watsonx AI ist geplant. Anwender können so KI-Workloads in Hybrid-Cloud-Umgebungen skalieren und ein besseres Preis-Leistungsverhältnis erzielen.

Fazit: Enterprise AI braucht Flexibilität und Skalierbarkeit

Sollte firmenspezifische KI im eigenen Rechenzentrum entwickelt werden oder ist es besser, Cloud-Dienste zu nutzen? Auf diese Frage kann es keine eindeutige Antwort geben, denn zu viele Faktoren spielen dabei eine Rolle – von Art und Umfang der geplanten Lösung über den Einsatzzweck, das Budget und vorhandenes Know-how bis hin zu Sicherheits- und Compliance-Fragen. Unternehmen sollten daher offene Ökosysteme wie die Open Platform for Enterprise AI oder die oneAPI Open-Source-Software-Plattform bevorzugen, die ihnen einen Entwicklungspfad eröffnen und sie nicht auf ein Bereitstellungsmodell festlegen.