Home » Fachbeiträge » Security Management » Ist Ihr Unternehmen bereit für Microsoft Copilot?

Datensicherheit und KI: Ist Ihr Unternehmen bereit für Microsoft Copilot?

Der KI-Assistent Microsoft Copilot ist seit November 2023 für Unternehmenskunden verfügbar. Er soll den Anwendern die Arbeit erleichtern und sie so deutlich produktiver machen. Im Gegensatz zu anderen KI-Tools wie ChatGPT hat Copilot dabei Zugriff auf alle sensitiven Daten, auf die der Benutzer zugreifen kann.

8 Min. Lesezeit
Logo von Microsoft Copilot auf Laptop-Bildschirm
Foto: ©AdobeStock/monticellllo

Laut Microsoft kombiniert Copilot die Leistung von großen Sprachmodellen (Large Language Models, LLMs) mit den Daten des Unternehmens, um es so zu einem der „leistungsfähigsten Produktivitätswerkzeuge der Welt“ zu machen. Copilot kann Daten aus Dokumenten, Präsentationen, E-Mails, Kalendern, Notizen und Kontakten suchen und zusammenstellen. Auf diese Weise „ermöglicht es den Nutzern, ihre Kreativität, Produktivität und Fähigkeiten zu verbessern.“

Neben diesen positiven Aussichten entstehen dadurch jedoch auch zwei Problemfelder: Zum einen verwendet Copilot bestehende Benutzerrechte, um zu bestimmen, auf welche Daten eine Person zugreifen kann. Wenn ein Benutzer Copilot um Informationen bittet, analysiert die künstliche Intelligenz (KI) alle Inhalte, auf die diese Person Zugriff hat, um Ergebnisse zu liefern – ohne zu hinterfragen, ob dieser Nutzer diese Informationen auch tatsächlich erhalten sollte. Zum anderen ist es mit Copilot sehr einfach, neue Inhalte mit sensitiven Informationen zu erstellen. Mitarbeitende können Copilot bitten, alles zusammenzufassen, was mit einem bestimmten Projekt zu tun hat. Auf diese Weise entstehen Dokumente mit noch sensitiveren Inhalten, die entsprechend geschützt werden müssen.

Wenn Unternehmen ihren Mitarbeitenden neue Tools für den Zugriff auf Daten und deren Nutzung zur Verfügung stellen, müssen sie dafür sorgen, dass diese Daten sicher sind. Die Herausforderung besteht darin, dass bei kollaborativen, unstrukturierten Datenplattformen wie Microsoft 365 (M365) die Verwaltung von Berechtigungen ein Albtraum ist, mit dem jeder zu kämpfen hat. Der typische Datenzugriff sieht dabei in aller Regel so aus wie in Abbildung 1 dargestellt.

Abbildung 1: Darstellung typischer Datenzugriffe auf Microsoft 365

Typical M365 Exposure Levels
Bild: Varonis Systems

Und das sind in aller Regel viel zu viele: Im Durchschnitt sind zehn Prozent der Microsoft-365-Daten eines Unternehmens für alle Mitarbeitenden zugänglich. Höchste Zeit also, sich um das Thema Datensicherheit im Zusammenhang mit künstlicher Intelligenz zu kümmern.

Es befinden sich sensitive Daten an Orten, an denen sie nicht sein sollten, wie beispielsweise in persönlichen OneDrive-Freigaben, sowie kritische Informationen, die für jeden im Unternehmen oder für Gäste und externe Benutzer zugänglich sind. Wenn die Projektverantwortlichen diese Risiken vor der Implementierung von generativen KI-Tools nicht angehen, steigt das Risiko einer Datenexposition durch KI ins Unermessliche.

In sieben Schritten reif für Copilot

Wie kann man also Copilot auf sichere Weise einsetzen und die damit verbundenen Risiken minimieren? Unternehmen sollten vor und nach der Implementierung von Copilot bestimmte Schritte unternehmen, um ihre sensitiven Daten bestmöglich zu schützen. So sollten sie vor dem Einsatz sicherstellen, dass die sensitiven Unternehmensdaten adäquat geschützt sind. Da die Zugriffsrechte die Basis für die Arbeit des KI-Assistenten bilden, müssen Sicherheitsverantwortliche größte Aufmerksamkeit auf diesen Bereich legen und für Transparenz, die Durchsetzung eines Least-Privilege-Ansatzes, kontinuierliche Überwachung und die sichere Verwendung einer nachgelagerten Data Loss Prevention (DLP) wie Purview sorgen.

Schritt 1: Transparenz verbessern

Um seine Daten zu schützen, muss man wissen, welche es überhaupt gibt und wo sie gespeichert sind, welche Informationen wichtig beziehungsweise sensitiv sind, welche Kontrollen durchgeführt werden sowie wie und von wem die Daten genutzt werden. Welche Anwendungen von Drittanbietern sind verbunden und worauf haben sie Zugriff? Wo werden sensitive Daten unternehmensweit oder mit externen Dritten geteilt? Welche Daten werden nicht mehr verwendet? Sind die Daten korrekt oder überhaupt gelabelt?

Das Scannen sämtlicher Identitäten, Konten, Berechtigungen, Dateien, Ordner, Site-Berechtigungen, freigegebenen Links und vorhandenen (oder nicht vorhandenen) Labels für alle Daten kann diese Fragen beantworten. Intelligente Lösungen sind dabei in der Lage, nicht nur zu sehen, wo sich sensitive und regulierte Daten befinden, sondern auch, wer genau Zugriff darauf hat, wo sie offen liegen, ob sie gekennzeichnet sind (und ob diese Kennzeichnung korrekt ist) und wie sie verwendet werden.

Die Ergebnisse dieser Scans sind oftmals erschreckend, aber auch sehr aufschlussreich: Häufig finden sich Daten an unerwarteten Orten, etwa vertrauliche Kundendaten auf dem OneDrive eines Mitarbeitenden oder digitale Geheimnisse wie private Schlüssel in Teams. Auch Daten, die für das gesamte Unternehmen zugänglich sind, und Links, die für externe Nutzer oder jedermann im Internet erreichbar sind, lassen sich so identifizieren und entsprechende Abhilfemaßnahmen einleiten.

Ohne Transparenz kann man Risiken nicht messen. Und ohne Risikomessung kann man sie auch nicht sicher reduzieren. Entsprechend ist dies ein wichtiger erster Schritt zum Schutz der Daten vor der Einführung von Copilot.

Schritt 2: Labels hinzufügen und korrigieren

Microsoft bietet über Purview Datensicherheitsfunktionen. Diese setzen jedoch voraus, dass die Dateien mit genauen Sensitivitätskennzeichnungen versehen sind. Setzt man bei einer grundlegenden einfachen Klassifizierung die Labels sehr streng, werden meistens zu viele Daten als sensitiv markiert und die Kontrollen sind sehr restriktiv. Das beeinträchtigt jedoch die Zusammenarbeit mit Kolleginnen und Dienstleistern. Für die Benutzer besteht so ein Anreiz, die Kennzeichnung herabzustufen, um Kontrollen zu umgehen.

Das Ergebnis ist oft die Schwächung nachgelagerter Data-Loss-Prevention-(DLP)-Kontrollen, um Prozessstörungen zu vermeiden. Verlässt man sich bei der Kennzeichnung auf die Mitarbeitenden, ist die akkurate Einstufung häufig nicht gegeben, beziehungsweise es werden zahlreiche Dokumente überhaupt nicht gelabelt. Das hat meist zur Folge, dass bei diesen Dokumenten die Kontrollen nicht angewendet werden.

Dieses Dilemma ist weit verbreitet. Soll man die Benutzer zwingen, alles zu klassifizieren? Wie viele der Daten werden auf diese Weise tatsächlich korrekt gekennzeichnet? Was ist mit all den Daten, die bereits erstellt wurden? Niemand hat die Zeit, sich Tausende von Dateien anzusehen und entsprechend zu klassifizieren. Was ist mit Benutzern, die Fehler machen oder Dateien absichtlich falsch beschriften, um Kontrollen zu umgehen? Hier liegt der Schlüssel in der intelligenten Automation.

Indem jede Datei genau gescannt wird, um sensitive Inhalte wie personenbezogene Daten, Zahlungskarteninformationen, digitale Geheimnisse wie Passwörter, Schlüssel und Token sowie geistiges Eigentum wie Code zu erkennen, lässt sich automatisch eine Kennzeichnung anbringen oder eine falsche Kennzeichnung korrigieren. Entscheidend dabei ist, dass jede Datei gescannt werden muss, auch und gerade wenn sie geändert wird. Zudem muss die Klassifizierung anhand präziser Regeln erfolgen. Insbesondere in größerem Maßstab ist das nicht einfach. Mit leistungsfähigen Klassifizierungslösungen lassen sich jedoch die nachgelagerten DLP-Kontrollen durch Purview wesentlich effektiver nutzen.

Schritt 3: Zu weit gefasste Zugriffsrechte beseitigen

Viele Unternehmen setzen auf ein Zero-Trust-Modell, bei dem Daten nur denjenigen zur Verfügung gestellt werden, die sie für ihre Arbeit tatsächlich benötigen. Es ist von entscheidender Bedeutung, dass Sicherheitsverantwortliche risikoreiche Berechtigungen wie „unternehmensweit“- und „jeder“-Verknüpfungen entfernen, um die Sicherheit der Informationen zu gewährleisten, insbesondere bei sensitiven Daten.

Schritt 4: Den Zugriff auf kritische Daten überprüfen

Einige Unternehmen zögern, die Zugriffsrechte zu automatisieren, da sie Störungen in den Prozessen und der Zusammenarbeit befürchten. Zudem sind nicht alle Zugriffsrechte so breit und eindeutig wie etwa „jeder“. Das bedeutet jedoch nicht, dass die Informationen dadurch hinreichend geschützt sind. Besonders bei den wichtigsten Daten, wie streng geheimes geistiges Eigentum oder vertrauliche personenbezogene Informationen, müssen Sicherheitsverantwortliche unbedingt prüfen, ob der Umfang des Zugriffs angemessen ist. Auch hierbei können sie auf die Unterstützung von Lösungen setzen, die nicht nur die kritischen Daten identifizieren, sondern auch anzeigen, wer auf sie in welchem Umfang zugreift und diesen Zugriff auch benötigt.

Schritt 5: Zusätzliche riskante Zugriffe beseitigen

Nachdem die ersten vier Schritte durchgeführt wurden, sollten die Projektverantwortlichen risikoreiche oder veraltete Zugriffsrechte und Links entfernen, um sicherzustellen, dass keine sensiblen Daten offenliegen. Das muss kontinuierlich geschehen: So sind Zugriffsrechte von Mitarbeitenden oder Partnern, die nicht mehr für das Unternehmen (oder nun in einem anderen Bereich) arbeiten, zu entfernen. Auch nicht mehr genutzte Daten sollte man archivieren, um den Zugriff und den Missbrauch zu verhindern.

Nachdem die Dateien genau klassifiziert und die größten Risiken beseitigt sind, können die Verantwortlichen die präventiven Kontrollen aktivieren, die Microsoft mit Purview zur Verfügung stellt. Purview schützt die Daten, indem es flexible Schutzmaßnahmen wie Verschlüsselung, Zugriffsbeschränkungen und visuelle Markierungen auf die gekennzeichneten Daten anwendet und Sicherheitsverantwortlichen so zusätzliche Kontrollmöglichkeiten bietet. Damit sind die Vorbereitungen für den Einsatz von Copilot abgeschlossen und der KI-Assistent kann nun implementiert werden.

Nach der Implementierung

Sobald Copilot im Einsatz ist, muss man sicherstellen, dass sich der Schaden, den ein kompromittiertes Konto verursachen kann, nicht vergrößert und dass die Daten weiterhin sicher verwendet werden. Damit sich bösartiges oder risikoreiches Verhalten schnell erkennen und beheben lässt und auch die Zugriffsrechte nicht wieder außer Kontrolle geraten, empfehlen sich zwei weitere Schritte.

Schritt 6: Kontinuierliche Überwachung und Alarmierung

Da es mit Copilot so einfach ist, sensitive Daten zu finden und zu nutzen, ist es von entscheidender Bedeutung, zu beobachten, wie alle Daten verwendet werden. Auf diese Weise lässt sich die Zeit bis zur Erkennung (time to detection, TTD) und die Zeit bis zur Reaktion (time to response, TTR) auf jegliche Bedrohung dieser Daten verringern. Dabei sollten alle Datenberührungen, Authentifizierungsereignisse, Zustandsänderungen, die Erstellung und Verwendung von Links und Objektänderungen im Kontext der Daten und ihrer normalen Verwendung überwacht werden. Wenn ein Mitarbeiter plötzlich auf eine ungewöhnliche Menge sensitiver Daten zugreift, die er noch nie benutzt hat oder wenn ein Gerät oder ein Konto von einem böswilligen Dritten verwendet wird, können die Sicherheitsverantwortlichen durch eine Alarmierung schnell reagieren und geeignete Maßnahmen einleiten.

Schritt 7: Richtlinien für die Zugriffskontrolle automatisieren

Das automatische Sperren des Zugriffs ist wie das Mähen eines Rasens: Nur weil man es einmal gemacht hat, heißt das nicht, dass man es nie wieder tun muss. Die Mitarbeitenden erstellen ständig neue Daten und arbeiten mit anderen zusammen. Der Radius dessen, was KI-Tools offenlegen können, wird immer größer, es sei denn, Sicherheitsverantwortliche verfügen über eine Automatisierungsfunktion, um dies zu korrigieren. Entsprechend müssen weiterhin sämtliche Daten und ihre Nutzung überwacht werden. Wer nutzt welchen Zugriff auf welche Weise? Wo liegen kritische Daten offen und wie werden sie verwendet? Alle Maßnahmen, die vor dem Einsatz von Copilot durchgeführt wurden, müssen deshalb weiterlaufen, um Copilot permanent sicher und effizient nutzen können.

Fazit

Microsoft Copilot basiert auf der Leistung von LLMs sowie generativer KI und kann Mitarbeitende produktiver machen. Doch mit großer Macht kommt auch großes Risiko. Wenn Unternehmen die Risiken für die Datensicherheit durch künstliche Intelligenz nicht ernst nehmen und die nötigen Schritte nicht einleiten, können generative KI-Tools sensitive Daten offenlegen und leicht weitere erstellen, wodurch Unternehmen dem Risiko von Datenverlust, Diebstahl und Missbrauch ausgesetzt sind. Mit einer umfassenden Transparenz der Datennutzung und intelligenter Automatisierung lassen sich jedoch die wertvollen Unternehmensdaten in M365 effektiv schützen, ohne dabei die Produktivität zu beeinträchtigen.

Brian Vecci

Brian Vecci ist Field CTO von Varonis Systems.

Andere interessante Fachbeiträge

Hacker stielt Daten aus Laptop

Learnings aus dem Microsoft-Crashdump-Hack

Wenn in einem der sichersten IT-Support-Center der internationalen Softwareindustrie ein Master-Key gezielt aus einem Crash-Dump gestohlen wird, dann zeigt dies zweierlei: Zum einen nutzen Hacker IT-Diagnosedateien als „Fundgrube“ für sicherheitskritische und sensible Informationen, und zum anderen sind diese Inhalte in keinem IT-Betrieb oder IT-Support dieser Welt wirklich sicher.

Porträt Mann mit verwundertem Blick

Raus aus der Opfer-Starre

Vor dem Hintergrund zunehmender hybrider Bedrohungen stehen Führungskräfte mehr denn je vor der Herausforderung, manipulativen Cyberangriffen bestmöglich zu begegnen. Dazu sind Kompetenzen jenseits von Sicherheitssoftware gefragt. Hier setzen Methoden des Change-Managements an.

Zwei ineinanderliegende Masken, Deepfakes

Wie Cyberkriminelle und der Einsatz von KI unsere Sicherheit bedrohen

Der Global Risk Report des Weltwirtschaftsforums wählte KI-gepowerte Informationsmanipulation zum größten Risiko des Jahres, weil generative künstliche Intelligenz (KI) durch Deepfakes, Fake News und ultrapersonalisierte Wahlwerbung die Demokratie gefährden kann. Doch KI hat noch viel mehr Risiken.