Immer mehr Mitarbeiter nutzen KI-Tools heimlich im Arbeitsalltag. Diese „Shadow AI“ birgt erhebliche Sicherheitsrisiken für Firmendaten und Compliance. Gleichzeitig zeigt sie den Bedarf an produktivitätssteigernden KI-Lösungen. Dieser Fachbeitrag erklärt, wie Unternehmen durch strukturierte Governance die Vorteile der KI nutzen können, ohne ihre digitale Souveränität zu gefährden.
ChatGPT, Claude oder Gemini – generative künstliche Intelligenz (KI) hat die Arbeitswelt im Sturm erobert. Was viele Führungskräfte nicht ahnen: In ihren Unternehmen nutzen bereits 57 Prozent der Mitarbeiter heimlich KI-Tools. Dies belegt die Studie „Trust, Attitudes and Use of Artificial Intelligence: A Global Study 2025“ der University of Melbourne und KPMG International. Diese „Shadow AI“ (KI-Anwendungen ohne Wissen oder Freigabe der IT-Abteilung) breitet sich rasant aus. Der Anbieter Zendesk prognostizierte in seiner „CX Trends“-Studie für 2024 einen Anstieg um bis zu 250 Prozent.
Diese Entwicklung setzt die bekannte Schatten-IT fort, bei der Beschäftigte eigenständig nicht genehmigte Soft- und Hardware nutzen. Bei KI-Tools wiegen die Risiken noch schwerer: Mitarbeiter laden sensible Unternehmensdaten in öffentliche Modelle hoch, wo Dritte sie abgreifen können. Für Entscheider stellt sich die Frage: Wie lassen sich die Chancen der KI nutzen, ohne die digitale Souveränität des Unternehmens zu gefährden?
Schatten-KI: Angestellte umgehen bewusst IT-Sicherheitsregeln
Die Zahlen sprechen eine deutliche Sprache: Laut KPMG erstellen 63 Prozent der Mitarbeiter Inhalte mit KI, ohne diese zu kennzeichnen. Gleichzeitig tappen 42 Prozent der Führungskräfte im Dunkeln, wie ihre Teams KI einsetzen. Eine Untersuchung von Harmonic Security bestätigt: Jeder zweite Angestellte nutzt heimlich nicht freigegebene KI-Tools – selbst bei offiziellen Verboten.
Zendesk identifiziert in der „CX Trends“-Studie drei Hauptmotive für Shadow AI: Zeiteinsparungen, einfacherer Zugang und fehlende Alternativen. Mangelnder Support, knappes Budget und fehlendes Fachwissen bremsen zudem firmeninterne KI-Lösungen aus. Drei weitere Faktoren treiben die verdeckte KI-Nutzung an:
- Angst vor Jobverlust: Mitarbeiter fürchten, durch transparente KI-Nutzung ihre Position zu gefährden.
- Regelungslücken: Nur 30 Prozent der Organisationen verfügen laut Forbes über eine dokumentierte KI-Richtlinie.
- Falsche Anreize: Firmen belohnen schnelle Ergebnisse, hinterfragen aber selten die Methoden.
Zwischen KI-Fortschritt und zögerlicher Firmenorganisation klafft eine Lücke, die Mitarbeiter mit Eigeninitiative füllen. Der „Cisco AI Readiness Index“ zeigt ein erstaunliches Missverhältnis: Fast drei Viertel der Unternehmen nutzen bereits KI-Funktionen, doch nur jede achte Führungskraft fühlt sich für den umfassenden KI-Einsatz gerüstet. Die Befragung von knapp 8.000 Managern offenbart: Die meisten Firmen hinken bei der KI-Governance hinterher.
Datensicherheit: Heimliche KI-Tools kompromittieren Geschäftsinformationen
Wenn Mitarbeiter unkontrolliert KI-Tools einsetzen und sensible Daten ohne Aufsicht verarbeiten, entstehen erhebliche Risiken für Informationssicherheit, Compliance und Reputation. Diese Gefahren fallen in vier Hauptkategorien:
Datenlecks: KI-Modelle verraten vertrauliche Informationen
Die Forscher von Cisco AI demonstrierten, wie leicht Angreifer Daten aus KI-Modellen extrahieren können. Mit ihrer „Decomposition“-Methode zwangen sie Chatbots dazu, Teile urheberrechtlich geschützter Artikel der New York Times und des Wall Street Journal preiszugeben. Bei Tests mit führenden LLMs extrahierten sie „über 20 % des Textes aus sechs Artikeln“ und rekonstruierten das Originalmaterial.
Für Unternehmen entsteht dadurch eine konkrete Gefahr: Laden Mitarbeiter vertrauliche Geschäftsdaten in öffentliche KI-Modelle, können Dritte diese Informationen abgreifen. Dies gefährdet nicht nur Geschäftsgeheimnisse, sondern verstößt auch gegen GDPR, HIPAA, PIPEDA und die EU-KI-Verordnung.
Sicherheitslücken: Jailbreaking umgeht KI-Schutzmaßnahmen
Die Cisco-Forscher dokumentierten außerdem die Anfälligkeit von KI-Modellen für Jailbreaking-Techniken. Mit der Methode Tree of Attacks with Pruning (TAP) umgehen Angreifer Sicherheitsmaßnahmen in KI-Systemen automatisch und ohne Fachkenntnisse.
Diese Technik funktioniert vollautomatisch ohne manuelle Eingaben, operiert als Blackbox-Angriff ohne Kenntnis der LLM-Architektur, nutzt übertragbare Prompts in natürlicher Sprache und benötigt minimale Prompts, was Angriffe unauffälliger macht. Angestellte könnten folglich – unwissentlich oder absichtlich – Sicherheitsvorkehrungen in KI-Systemen aushebeln und weitere Risiken schaffen.
Lieferkette: Geteilte KI-Komponenten vergrößern Angriffsflächen
Der Cisco-Bericht warnt: „Die Abhängigkeit des KI-Ökosystems von gemeinsam genutzten Modellen, Datensätzen und Bibliotheken erweitert die Angriffsfläche in die KI-Lieferkette.“ Dies betrifft besonders Shadow AI, da nicht autorisierte Tools häufig vortrainierte Modelle und Open-Source-Komponenten einsetzen.
Konkrete Vorfälle belegen diese Gefahr: 2024 griffen Hacker sowohl das NVIDIA Container Toolkit als auch Ray, ein Open-Source-KI-Framework zur GPU-Cluster-Verwaltung, erfolgreich an. Bei Letzterem entwendeten sie Rechenressourcen und griffen auf Modelltrainingsdaten zu.
Reputationsschäden: Ungenaue KI-Ergebnisse untergraben Vertrauen
Ungeprüfte KI-Tools liefern oft falsche oder widersprüchliche Ergebnisse. Laut KPMG überspringen zwei Drittel der Benutzer die Faktenprüfung, was die Glaubwürdigkeit der Marke beschädigt. Zendesk warnt, dass dies Kundenbeziehungen belastet und dem Ansehen der Beschäftigten schadet.
Ein weiteres Reputationsrisiko enthüllt eine Studie der Duke University: Kollegen und Vorgesetzte bewerten KI-Nutzer als weniger kompetent, weniger fleißig und fauler als Personen, die traditionelle Hilfsmittel verwenden.
KI-Governance: Strukturierte Kontrolle sichert digitale Souveränität
Um die Risiken von Shadow AI zu minimieren und gleichzeitig Produktivitätsvorteile zu nutzen, benötigen Unternehmen einen strukturierten Governance-Ansatz. Die Gegenüberstellung ungesteuerter und kontrollierter Workflows verdeutlicht den Handlungsbedarf:
Shadow-Workflow | Governed Workflow |
|
|
Digitale Souveränität bedeutet hier, selbstbestimmt über KI-Technologien zu entscheiden. Dies umfasst Kontrolle über Daten und Prozesse, Unabhängigkeit von externen KI-Anbietern sowie Transparenz und Nachvollziehbarkeit. Zendesk empfiehlt eine „Kultur der sicheren KI-Nutzung“. Nur so erschließen Unternehmen die Produktivitätsvorteile von KI und wahren dabei ihre digitale Souveränität.

(Bild: Google Gemini/stk)
Praxisansätze: Transparente Kommunikation fördert eine sichere KI-Kultur
Die Eindämmung von Shadow AI erfordert einen mehrschichtigen Ansatz aus technischen, organisatorischen und kulturellen Maßnahmen. Diese vier Governance-Maßnahmen bilden das Fundament:
- Transparenz ohne Bestrafung: Offene Kommunikation über KI-Nutzung fördern, ohne bisherige Shadow-AI-Nutzer zu sanktionieren.
- Klare KI-Richtlinien: Einfache, verständliche Regeln für die KI-Nutzung definieren – drei präzise Absätze reichen oft aus.
- Sichere Alternativen: Interne LLMs oder sichere GPT-Plug-ins bereitstellen, die Produktivitätsvorteile ohne Sicherheitsrisiken bieten.
- Return on Effort (ROE) messen: Zeiteinsparungen und Qualitätsverbesserungen durch KI-Governance dokumentieren und kommunizieren.
Technische Lösungen: Zero-Trust-Modell schützt sensible Daten
Um Shadow AI wirksam einzudämmen, setzen Firmen auf technische Schutzmaßnahmen, die Sicherheit mit Benutzerfreundlichkeit verbinden. Dabei stehen vier Schlüsselkomponenten im Fokus:
- Firmeneigene KI-Infrastruktur: Lokale oder hybride KI-Systeme ermöglichen volle Kontrolle über Daten und reduzieren Abhängigkeiten von externen Anbietern.
- Sichere KI-Tools mit Zugriffskontrollen: Präzise justierbare Berechtigungen, abgestimmt auf Kontext, Nutzerrolle, Datensensibilität und die jeweilige KI-Anwendung.
- KI-Sicherheitslösungen: Spezialisierte Tools wie Cisco AI Defense schützen vor spezifischen KI-Risiken und verhindern Datenlecks durch eine kontinuierliche Überwachung.
- KI-Sicherheitslösungen: Spezialisierte Tools wie Cisco AI Defense schützen vor spezifischen KI-Risiken und verhindern Datenlecks durch eine kontinuierliche Überwachung.
Organisatorische Maßnahmen: Zentrale Teams koordinieren KI-Initiativen
Für eine nachhaltige Kontrolle von KI-Risiken brauchen Unternehmen durchdachte Strukturen und klare Verantwortlichkeiten. Zendesk empfiehlt diese vier bewährten Praktiken:
- Gezielte KI-Tool-Freigabe: Durch Unternehmenslizenzen und Anbietervereinbarungen abgesicherte KI-Anwendungen für Angestellte bereitstellen.
- Eindeutige Richtlinien: Klare Vorgaben für die KI-Nutzung und einen Governance-Rahmen schaffen, der faire und transparente Lösungen garantiert.
- Eindeutige Richtlinien: Klare Vorgaben für die KI-Nutzung und einen Governance-Rahmen schaffen, der faire und transparente Lösungen garantiert.
- KI-Kompetenzzentrum: Größere Firmen sollten ein zentrales Expertenteam aufbauen, das alle KI-Projekte im Blick behält und lenkt.
Der Cisco-Bericht ergänzt diese Empfehlungen um einen umfassenden Risikomanagement-Ansatz, der den gesamten KI-Lebenszyklus abdeckt – von der Lieferkettenbeschaffung über die Datenerfassung und Modellentwicklung bis hin zu Training und Bereitstellung.
Innovationsbedarf: Shadow AI enthüllt digitale Transformationslücken
Die heimliche KI-Nutzung zeigt zwei Gesichter: Sie gefährdet einerseits Firmendaten, Compliance und Außenwirkung. Auf der anderen Seite verrät sie aber auch, wo bei den Mitarbeitern echter Bedarf an effizienzsteigernden Werkzeugen herrscht. Der Schlüssel liegt nicht im Verbot von KI-Tools, sondern in ihrer kontrollierten Integration. Mit durchdachten Regeln, sicheren Plattformen und regelmäßigen Trainings erschließen Unternehmen Produktivitätsgewinne, ohne dabei die Kontrolle über ihre Daten zu verlieren.
Langfristig entsteht so eine Arbeitskultur, in der die Beschäftigten die KI-Risiken kennen, aber trotzdem von leistungsstarken, abgesicherten Tools profitieren. Aus dem Sicherheitsrisiko „Shadow AI“ entwickelt sich ein Wettbewerbsvorteil – bei voller digitaler Selbstbestimmung.
Autor: Stefan Kuhn