Wie ungeregelte KI-Nutzung Sicherheitsteams herausfordert: Wenn KI zur Schatten-IT wird
Der Einsatz generativer künstlicher Intelligenz im Arbeitsalltag bringt nicht nur Effizienz, sondern auch Risiken – besonders, wenn Mitarbeiter eigenmächtig KI-Tools verwenden. Schatten-KI entwickelt sich zum neuen Insider-Problem.

Schatten-IT war schon immer ein Bestandteil organisationaler IT-Landschaften – mit nicht genehmigten Anwendungen, eigenmächtig genutzten Cloud-Diensten und in Vergessenheit geratenen BYOD-Systemen. Wie jede Technologie entwickelt sich auch das Schattenökosystem weiter – und hat sich nun zu etwas noch schwerer Erkennbarem und Kontrollierbarem gewandelt: Schatten-IT in Form von künstlicher Intelligenz (KI). Wenn Beschäftigte generative KI-Werkzeuge nutzen, um ihre Aufgaben effizienter zu erldigen, schaffen sie womöglich unbewusst neue Sicherheitsrisiken.
Diese Risiken entstehen nicht nur theoretisch; sie zeigen sich bereits ganz konkret im Arbeitsalltag. Von Marketingteams, die zum Beispiel Claude zur Recherche und Inhaltserstellung nutzen, bis hin zu Entwicklern, die proprietären Code in Gemini einfügen – die Grenze zwischen Produktivität und Datenexposition ist schmal. Solche Werkzeuge versprechen Schnelligkeit und Komfort, können aber ohne klare Regeln schnell zum Risiko werden.
Viele Beschäftigte nutzen generative KI-Tools wie ChatGPT über private Zugänge. Damit greifen zentrale Unternehmenskontrollen wie Data Loss Prevention (DLP), Verschlüsselung oder Protokollierung ins Leere. Gleichzeitig landen immer wieder sensible Arbeitsinformationen in diesen Anwendungen – oft aus Unwissenheit oder Pragmatismus. Das Ergebnis: ein erhebliches internes Risiko. Auch unbeabsichtigte Eingaben können genauso gefährlich sein wie ein unbedachter Klick auf einen Phishing-Link.
Sicherheitsrisiken im Verborgenen
Die Gefahren durch Schatten-KI beschränken sich aber nicht auf unbeabsichtigte Datenabflüsse. So kann etwa unsicherer Code in Anwendungen gelangen, wenn Entwickler KI-gestützte Programmierhilfen nutzen, besonders dann, wenn es im Entwicklungsprozess an Prüfung und Freigabe mangelt. Auch im Kundenservice entstehen Risiken: Werden Chatbots zur Bearbeitung von Anfragen eingesetzt, können personenbezogene Daten unkontrolliert in Drittanbieter-Tools abfließen. Selbst Browser-Plug-ins mit KI-Funktionalität sind problematisch – sie können unbemerkt Formularinhalte, Zwischenablage-Daten oder Mitschnitte vertraulicher Gespräche übertragen.
Zudem ist das Netzwerk selbst betroffen. Beschäftigte, die KI-gestützte Proxys oder VPNs nutzen, um Zugriffsbeschränkungen zu umgehen, verletzen nicht nur interne Richtlinien – sie schaffen Einfallstore, die von Angreifern ausgenutzt werden können. KI-gestützte Meeting-Dienste wie automatische Transkriptionswerkzeuge speichern zudem vertrauliche Gespräche auf externen Servern, also außerhalb der Kontrolle und Sichtweite der IT. Wir haben es nicht mehr mit einzelnen Risiken zu tun: Durch den Wunsch nach Komfort und Produktivität vergrößert sich die Angriffsfläche stetig.
Strategien gegen Schatten-KI
Es bringt jedoch wenig, generative KI-Plattformen pauschal per Firewall zu blockieren – das wäre, als wollte man mit dem Finger ein Leck im Staudamm abdichten. Der Versuch ist zum Scheitern verurteilt, denn wie Wasser findet auch der Nutzer seinen Weg. Um Schatten-KI wirksam zu begegnen, braucht es zunächst Transparenz. Unternehmen sollten klare Richtlinien für den zulässigen Einsatz von KI definieren. Das bedeutet einen erheblichen Kommunikationsaufwand: Die Belegschaft muss wissen, welche Tools erlaubt sind, welche Daten eingegeben werden dürfen und wo die Grenzen liegen.
Informationskampagnen allein reichen hierfür nicht aus. Um Risiken durch den Umgang mit KI-Tools wirksam zu verringern, müssen Unternehmen gezielt das Verhalten der Mitarbeiter in kritischen Nutzungssituationen schulen und unterstützen. Die meisten missbrauchen KI-Tools nicht in böser Absicht – sie suchen nach Lösungen für konkrete Aufgaben. Schulungsmaßnahmen sollten daher nicht auf Abschreckung setzen, sondern auf Verständnis: Wer erkennt, wie eine harmlose Eingabe zu einem Datenleck oder einem Compliance-Verstoß führen kann, versteht besser, welche Folgen das eigene Handeln haben kann.
Auch die Transparenz ist entscheidend. Es braucht Monitoring-Systeme, die den Einsatz nicht freigegebener KI-Werkzeuge erkennen – etwa über Browser-Telemetrie, Endpunktüberwachung oder Netzwerkanalyse. Statt pauschal alles zu blockieren, sollten IT- und Security-Teams die Bedürfnisse ihrer Nutzer verstehen. Wenn ein Zugang zu einer generativen KI-Plattform erforderlich ist, kann ein zentrales KI-Portal helfen: Über Schnittstellen lässt sich der Zugang beispielsweise steuern – inklusive Filter, der verhindert, dass sensible Unternehmensdaten nach außen gelangen.
Schließlich sollte die Prüfung von KI-Tools vor ihrer Freigabe ein fester Bestandteil des Beschaffungsprozesses sein. Wenn Mitarbeiter ein KI-Tool nutzen möchten, braucht es ein strukturiertes Verfahren zur Bewertung des Bedarfs und des geschäftlichen Nutzens. So wird verhindert, dass neue Anwendungen unüberlegt eingeführt werden. Gleichzeitig können die Rechtsabteilung, die Kommunikation, die IT und die Cybersicherheit frühzeitig prüfen, ob der Datenschutz gewährleistet ist.
Zum Prüfprozess gehört auch die Bewertung, wie ein Tool Daten speichert, verarbeitet und weitergibt, sowie die Kontrolle, ob es über unternehmenskritische Funktionen wie Verschlüsselung, Single Sign-on (SSO) und Protokollierung verfügt. Erfüllt ein Werkzeug diese Anforderungen nicht, hat es in der eigenen IT-Landschaft nichts zu suchen.
Was der Fall Samsung zeigt
Wie schnell aus einem vermeintlich harmlosen Einsatz ein folgenschwerer Vorfall werden kann, zeigt ein Beispiel aus der Unternehmenspraxis. Ein konkreter Fall, der die Risiken von Schatten-IT deutlich machte, ereignete sich 2023 bei Samsung. Mehrere Ingenieure nutzten ChatGPT, um Code zu debuggen und Arbeitsprozesse zu optimieren. Dabei übermittelten sie versehentlich vertrauliche Unternehmensdaten – darunter auch proprietären Quellcode – an die Plattform. In der Folge wandte sich Samsungs Rechtsabteilung an OpenAI, um die Löschung der Daten zu erwirken und eine weitere Nutzung für Trainingszwecke zu verhindern. Intern führte der Vorfall zu einem konzernweiten Verbot generativer KI-Tools.
Dabei handelte es sich weder um einen gezielten Angriff noch um Schadsoftware. Es waren lediglich gutmeinende Nutzer, die ihre Arbeit effizienter gestalten wollten und dabei unbeabsichtigt geschütztes geistiges Eigentum offenlegten.
Proaktive Governance
Während der Fall Samsung unbeabsichtigte Risiken aufzeigt, belegt ein anderes Beispiel, wie Organisationen mit vorausschauender Governance gezielt gegen Schatten-KI vorgehen können. So stellte ein Fortune-500-Finanzunternehmen frühzeitig eine zunehmende Nutzung von Schatten-IT fest – in der Marketingabteilung ebenso wie im Rechts- und IT-Bereich. Mitarbeiter verwendeten generative KI, um Dokumente zusammenzufassen, interne Berichte zu erstellen und Inhalte für soziale Medien zu generieren. Die Unternehmensleitung erkannte das Risiko und startete eine sechsmonatige Initiative zur Eindämmung.
Den Anfang machte eine Umfrage, um zu verstehen, welche KI-Werkzeuge verwendet wurden und zu welchem Zweck. Dabei stellte sich heraus, dass über 20 verschiedene Tools ohne Freigabe im Einsatz waren – viele davon leiteten Daten über ungesicherte Schnittstellen weiter. In einem nächsten Schritt wurde eine Nutzungsrichtlinie erarbeitet, die genehmigte Tools, verbotene Einsatzszenarien und Verantwortlichkeiten der Mitarbeiter definierte.
Mit der Richtlinie begann der Aufbau eines Governance-Programms: Eine Positivliste genehmigter KI-Tools wurde erstellt, Browser-Telemetrie eingesetzt, um nicht autorisierte Anwendungen zu erkennen, und KI-Nutzungskontrollen wurden in die interne Auditplanung integriert. Besonders wichtig: Um das menschliche Risiko gezielt zu adressieren, führte das Unternehmen quartalsweise Schulungen zur generativen KI und KI-Risiken ein.
Durch diese Maßnahmen sank innerhalb von vier Monaten die Nutzung nicht genehmigter KI-Werkzeuge um 60 Prozent – ohne Einbußen bei der Mitarbeiterzufriedenheit. Denn die benötigten Tools standen weiterhin zur Verfügung, nun aber unter klaren Schutzvorkehrungen.
Ein Kulturwandel ist notwendig
Schatten-KI ist kein rein technisches Problem, sondern eine Herausforderung im Bereich des Human-Risk-Managements. Sie entsteht, wenn Mitarbeiter generative KI-Tools nutzen, ohne die Folgen für Sicherheit und Compliance zu kennen. Wer Schatten-KI nur als Regelverstoß sieht, verkennt die eigentliche Gefahr. Eine wirksame Auseinandersetzung erfordert eine gesteigerte Sensibilisierung und Richtlinien, die den Arbeitsalltag widerspiegeln.
Human-Risk-Management beginnt mit Aufklärung. Mitarbeiter müssen verstehen, dass das Hochladen sensibler Daten in Sprachmodelle zu Datenlecks und Reputationsschäden führen kann. Gezielte Schulungen fördern sichere Entscheidungen und stärken das Datenschutzbewusstsein.
Doch Aufklärung allein reicht nicht. Firmen benötigen klare, verständliche und durchsetzbare Richtlinien. Diese sollten in den Alltag integriert und von der Führung unterstützt werden, um Akzeptanz zu schaffen.
Human-Risk-Management erfordert auch Transparenz. Sicherheitsteams müssen wissen, wie KI tatsächlich genutzt wird. Sie sollten sich fragen, (1) ob bekannt ist, wo und wie KI derzeit eingesetzt wird, (2) ob die Mitarbeiter wissen, was erlaubt ist und (3) ob die geltenden Regeln zum Arbeitsumfeld passen.
Wenn diese Fragen nicht beantwortet werden können, besteht ein unnötiges Risiko. Schatten-KI verschwindet nicht von selbst. Durch verbindliche Schulungen und smarte Governance lässt sich das Potenzial von KI jedoch sicher nutzen.

James McQuiggan ist Security Awareness Advocate bei KnowBe4.
Newsletter Abonnieren
Abonnieren Sie jetzt IT-SICHERHEIT News und erhalten Sie alle 14 Tage aktuelle News, Fachbeiträge, exklusive Einladungen zu kostenlosen Webinaren und hilfreiche Downloads.



