Shadow AI: Wie heimliche KI-Nutzung Unternehmensdaten gefährdet

Immer mehr Mitarbeiter nutzen KI-Tools heimlich im Arbeitsalltag. Diese „Shadow AI“ birgt erhebliche Sicherheitsrisiken für Firmendaten und Compliance. Gleichzeitig zeigt sie den Bedarf an produktivitätssteigernden KI-Lösungen. Dieser Fachbeitrag erklärt, wie Unternehmen durch strukturierte Governance die Vorteile der KI nutzen können, ohne ihre digitale Souveränität zu gefährden.

ChatGPT, Claude oder Gemini – generative künstliche Intelligenz (KI) hat die Arbeitswelt im Sturm erobert. Was viele Führungskräfte nicht ahnen: In ihren Unternehmen nutzen bereits 57 Prozent der Mitarbeiter heimlich KI-Tools. Dies belegt die Studie „Trust, Attitudes and Use of Artificial Intelligence: A Global Study 2025“ der University of Melbourne und KPMG International. Diese „Shadow AI“ (KI-Anwendungen ohne Wissen oder Freigabe der IT-Abteilung) breitet sich rasant aus. Der Anbieter Zendesk prognostizierte in seiner „CX Trends“-Studie für 2024 einen Anstieg um bis zu 250 Prozent.

Diese Entwicklung setzt die bekannte Schatten-IT fort, bei der Beschäftigte eigenständig nicht genehmigte Soft- und Hardware nutzen. Bei KI-Tools wiegen die Risiken noch schwerer: Mitarbeiter laden sensible Unternehmensdaten in öffentliche Modelle hoch, wo Dritte sie abgreifen können. Für Entscheider stellt sich die Frage: Wie lassen sich die Chancen der KI nutzen, ohne die digitale Souveränität des Unternehmens zu gefährden?

Schatten-KI: Angestellte umgehen bewusst IT-Sicherheitsregeln

Die Zahlen sprechen eine deutliche Sprache: Laut KPMG erstellen 63 Prozent der Mitarbeiter Inhalte mit KI, ohne diese zu kennzeichnen. Gleichzeitig tappen 42 Prozent der Führungskräfte im Dunkeln, wie ihre Teams KI einsetzen. Eine Untersuchung von Harmonic Security bestätigt: Jeder zweite Angestellte nutzt heimlich nicht freigegebene KI-Tools – selbst bei offiziellen Verboten.

Zendesk identifiziert in der „CX Trends“-Studie drei Hauptmotive für Shadow AI: Zeiteinsparungen, einfacherer Zugang und fehlende Alternativen. Mangelnder Support, knappes Budget und fehlendes Fachwissen bremsen zudem firmeninterne KI-Lösungen aus. Drei weitere Faktoren treiben die verdeckte KI-Nutzung an:

  1. Angst vor Jobverlust: Mitarbeiter fürchten, durch transparente KI-Nutzung ihre Position zu gefährden.
  2. Regelungslücken: Nur 30 Prozent der Organisationen verfügen laut Forbes über eine dokumentierte KI-Richtlinie.
  3. Falsche Anreize: Firmen belohnen schnelle Ergebnisse, hinterfragen aber selten die Methoden.

Zwischen KI-Fortschritt und zögerlicher Firmenorganisation klafft eine Lücke, die Mitarbeiter mit Eigeninitiative füllen. Der „Cisco AI Readiness Index“ zeigt ein erstaunliches Missverhältnis: Fast drei Viertel der Unternehmen nutzen bereits KI-Funktionen, doch nur jede achte Führungskraft fühlt sich für den umfassenden KI-Einsatz gerüstet. Die Befragung von knapp 8.000 Managern offenbart: Die meisten Firmen hinken bei der KI-Governance hinterher.

Datensicherheit: Heimliche KI-Tools kompromittieren Geschäftsinformationen

Wenn Mitarbeiter unkontrolliert KI-Tools einsetzen und sensible Daten ohne Aufsicht verarbeiten, entstehen erhebliche Risiken für Informationssicherheit, Compliance und Reputation. Diese Gefahren fallen in vier Hauptkategorien:

Datenlecks: KI-Modelle verraten vertrauliche Informationen

Die Forscher von Cisco AI demonstrierten, wie leicht Angreifer Daten aus KI-Modellen extrahieren können. Mit ihrer „Decomposition“-Methode zwangen sie Chatbots dazu, Teile urheberrechtlich geschützter Artikel der New York Times und des Wall Street Journal preiszugeben. Bei Tests mit führenden LLMs extrahierten sie „über 20 % des Textes aus sechs Artikeln“ und rekonstruierten das Originalmaterial.

Für Unternehmen entsteht dadurch eine konkrete Gefahr: Laden Mitarbeiter vertrauliche Geschäftsdaten in öffentliche KI-Modelle, können Dritte diese Informationen abgreifen. Dies gefährdet nicht nur Geschäftsgeheimnisse, sondern verstößt auch gegen GDPR, HIPAA, PIPEDA und die EU-KI-Verordnung.

Sicherheitslücken: Jailbreaking umgeht KI-Schutzmaßnahmen

Die Cisco-Forscher dokumentierten außerdem die Anfälligkeit von KI-Modellen für Jailbreaking-Techniken. Mit der Methode Tree of Attacks with Pruning (TAP) umgehen Angreifer Sicherheitsmaßnahmen in KI-Systemen automatisch und ohne Fachkenntnisse.

Diese Technik funktioniert vollautomatisch ohne manuelle Eingaben, operiert als Blackbox-Angriff ohne Kenntnis der LLM-Architektur, nutzt übertragbare Prompts in natürlicher Sprache und benötigt minimale Prompts, was Angriffe unauffälliger macht. Angestellte könnten folglich – unwissentlich oder absichtlich – Sicherheitsvorkehrungen in KI-Systemen aushebeln und weitere Risiken schaffen.

Lieferkette: Geteilte KI-Komponenten vergrößern Angriffsflächen

Der Cisco-Bericht warnt: „Die Abhängigkeit des KI-Ökosystems von gemeinsam genutzten Modellen, Datensätzen und Bibliotheken erweitert die Angriffsfläche in die KI-Lieferkette.“ Dies betrifft besonders Shadow AI, da nicht autorisierte Tools häufig vortrainierte Modelle und Open-Source-Komponenten einsetzen.

Konkrete Vorfälle belegen diese Gefahr: 2024 griffen Hacker sowohl das NVIDIA Container Toolkit als auch Ray, ein Open-Source-KI-Framework zur GPU-Cluster-Verwaltung, erfolgreich an. Bei Letzterem entwendeten sie Rechenressourcen und griffen auf Modelltrainingsdaten zu.

Reputationsschäden: Ungenaue KI-Ergebnisse untergraben Vertrauen

Ungeprüfte KI-Tools liefern oft falsche oder widersprüchliche Ergebnisse. Laut KPMG überspringen zwei Drittel der Benutzer die Faktenprüfung, was die Glaubwürdigkeit der Marke beschädigt. Zendesk warnt, dass dies Kundenbeziehungen belastet und dem Ansehen der Beschäftigten schadet.

Ein weiteres Reputationsrisiko enthüllt eine Studie der Duke University: Kollegen und Vorgesetzte bewerten KI-Nutzer als weniger kompetent, weniger fleißig und fauler als Personen, die traditionelle Hilfsmittel verwenden.

KI-Governance: Strukturierte Kontrolle sichert digitale Souveränität

Um die Risiken von Shadow AI zu minimieren und gleichzeitig Produktivitätsvorteile zu nutzen, benötigen Unternehmen einen strukturierten Governance-Ansatz. Die Gegenüberstellung ungesteuerter und kontrollierter Workflows verdeutlicht den Handlungsbedarf:

Shadow-WorkflowGoverned Workflow
  • Geheime Prompts ohne Dokumentation
  • Ungeprüfte Entwürfe ohne Qualitätssicherung
  • Keine Prüfpfade oder Verantwortlichkeiten
  • Unkontrollierte Datenflüsse in externe Systeme
  • Genehmigte Tools mit klaren Nutzungsrichtlinien
  • Systematische Verifizierung und Qualitätskontrolle
  • Durchsuchbares Zitationsarchiv für Nachvollziehbarkeit
  • Kontrollierte Datenverarbeitung gemäß Compliance-Vorgaben

Digitale Souveränität bedeutet hier, selbstbestimmt über KI-Technologien zu entscheiden. Dies umfasst Kontrolle über Daten und Prozesse, Unabhängigkeit von externen KI-Anbietern sowie Transparenz und Nachvollziehbarkeit. Zendesk empfiehlt eine „Kultur der sicheren KI-Nutzung“. Nur so erschließen Unternehmen die Produktivitätsvorteile von KI und wahren dabei ihre digitale Souveränität.

Futuristisches Zero-Trust-Sicherheitssystem aus der Vogelperspektive: Konzentrische blaue Schutzschichten bilden mehrere Sicherheitsebenen um zentrale Unternehmensdaten, während rote Angriffsversuche von allen Seiten abgewehrt werden. Visualisierung eines mehrstufigen KI-Governance-Modells.
Mehrstufige KI-Sicherheitssysteme schützen sensible Unternehmensinformationen vor externen Zugriffen.
(Bild: Google Gemini/stk)

Praxisansätze: Transparente Kommunikation fördert eine sichere KI-Kultur

Die Eindämmung von Shadow AI erfordert einen mehrschichtigen Ansatz aus technischen, organisatorischen und kulturellen Maßnahmen. Diese vier Governance-Maßnahmen bilden das Fundament:

Technische Lösungen: Zero-Trust-Modell schützt sensible Daten

Um Shadow AI wirksam einzudämmen, setzen Firmen auf technische Schutzmaßnahmen, die Sicherheit mit Benutzerfreundlichkeit verbinden. Dabei stehen vier Schlüsselkomponenten im Fokus:

Organisatorische Maßnahmen: Zentrale Teams koordinieren KI-Initiativen

Für eine nachhaltige Kontrolle von KI-Risiken brauchen Unternehmen durchdachte Strukturen und klare Verantwortlichkeiten. Zendesk empfiehlt diese vier bewährten Praktiken:

Der Cisco-Bericht ergänzt diese Empfehlungen um einen umfassenden Risikomanagement-Ansatz, der den gesamten KI-Lebenszyklus abdeckt – von der Lieferkettenbeschaffung über die Datenerfassung und Modellentwicklung bis hin zu Training und Bereitstellung.

Innovationsbedarf: Shadow AI enthüllt digitale Transformationslücken

Die heimliche KI-Nutzung zeigt zwei Gesichter: Sie gefährdet einerseits Firmendaten, Compliance und Außenwirkung. Auf der anderen Seite verrät sie aber auch, wo bei den Mitarbeitern echter Bedarf an effizienzsteigernden Werkzeugen herrscht. Der Schlüssel liegt nicht im Verbot von KI-Tools, sondern in ihrer kontrollierten Integration. Mit durchdachten Regeln, sicheren Plattformen und regelmäßigen Trainings erschließen Unternehmen Produktivitätsgewinne, ohne dabei die Kontrolle über ihre Daten zu verlieren.

Langfristig entsteht so eine Arbeitskultur, in der die Beschäftigten die KI-Risiken kennen, aber trotzdem von leistungsstarken, abgesicherten Tools profitieren. Aus dem Sicherheitsrisiko „Shadow AI“ entwickelt sich ein Wettbewerbsvorteil – bei voller digitaler Selbstbestimmung.

Autor: Stefan Kuhn