Home » Fachbeiträge » Security Management » Sicherer Einsatz generativer KI-Anwendungen in Unternehmen

Kontrollierte Intelligenz: Sicherer Einsatz generativer KI-Anwendungen in Unternehmen

Cloudbasierte generative KI-Anwendungen wie ChatGPT oder Gemini haben das Potenzial, Arbeitsweisen in Organisationen grundlegend zu verändern – sie können damit effizienter, intelligenter und kreativer agieren. Dieses Potenzial birgt jedoch auch Risiken: Datenschutz, Modellkontrolle und die Integrität sensibler Informationen stehen auf dem Spiel. Doch es ist möglich, leistungsstarke KI-Systeme lokal und sicher zu betreiben: mit einem Zero-Trust-Netzwerk mit aktiver Traffic-Überwachung und mehrschichtiger Perimeterabsicherung.

4 Min. Lesezeit
Generative AI
Foto: ©AdobeStock/Papisut

Advertorial

Mit dem Aufstieg generativer KI-Modelle wie GPT-4, Claude oder Gemini erleben Unternehmen eine neue Welle digitaler Möglichkeiten – von automatisierter Textgenerierung über Code-Vervollständigung, Datenanalyse, Prozessautomatisierung bis hin zu intelligentem Wissensmanagement. Gleichzeitig stellt sich eine zentrale Frage: Wie lassen sich diese Tools sicher, datenschutzkonform und kontrollierbar in sensible Unternehmensumgebungen integrieren?

Besonders in regulierten Branchen – etwa dem öffentlichen Sektor, der Energieversorgung oder der Gesundheitsbranche – sind klassische cloudbasierte Modelle oft nicht zulässig. Der Grund: Prompts und Nutzungsdaten werden über das Internet an externe, meist in Drittländern gehostete Server übertragen. Dies widerspricht nicht nur internen Compliance-Vorgaben, sondern auch gesetzlichen Regelungen wie der Datenschutz-Grundverordnung (DS-GVO) oder branchenspezifischen Sicherheitsstandards.

Herausforderungen beim sicheren Einsatz generativer KI in Unternehmen

Auch außerhalb dieser Hochsicherheitsumfelder wächst das Bewusstsein dafür, dass Kontrolle über Datenströme, Modellverhalten und Zugriffspflichten essenziell ist. Kundendaten und Betriebsgeheimnisse dürfen nicht unkontrolliert nach außen gelangen. Auch sollte nicht jeder Mitarbeitende Zugriff auf alle Informationen im Unternehmen haben. Daher steigt die Nachfrage nach Lösungen, die moderne KI-Funktionalität mit lokaler Kontrolle und technischer Absicherung kombinieren.

Ein Ansatz dafür ist eine Architektur auf Basis eines Zero-Trust-Frameworks. Dieses kann generative KI-Modelle, die On-Premises im eigenen Rechenzentrum betrieben werden, zuverlässig absichern und zugleich die kontrollierte Nutzung relevanter Schnittstellen (APIs) ermöglichen.

Lokale Sprachmodelle mit vLLM: OpenAI-kompatible KI-Infrastruktur

Für die lokale Bereitstellung generativer KI-Anwendungen ist die Kombination aus einem leistungsstarken lokalen Sprachmodell und einer effizienten Inferenz-Infrastruktur entscheidend. Eine besonders effektive Lösung ist die Integration von Llama 3.3 – einem modernen Open-Source-Sprachmodell von Meta – mit dem Inferenz-Framework vLLM (Virtual Large Language Model).

vLLM ist darauf ausgelegt, große Sprachmodelle besonders effizient bereitzustellen. Es bietet eine API, die vollständig kompatibel zur OpenAI-Schnittstelle ist. Vorhandene Tools, Plugins und interne Softwarelösungen lassen sich so ohne umfangreiche Anpassungen auch lokal nutzen. Dieser Ansatz reduziert sowohl Komplexität als auch Implementierungsaufwand und ermöglicht es, bestehende Prozesse schnell und mit geringem Integrationsaufwand KI-fähig zu machen.

Architekturüberblick: Sicherer KI-Betrieb im Unternehmensnetz

Die Auswahl des richtigen Modells ist nur der erste Schritt. Mindestens ebenso wichtig ist der Aufbau einer ganzheitlich geschützten Infrastruktur. Erst die Kombination aus lokalem LLM-Betrieb und einem mehrschichtigen Zero-Trust-Ansatz bildet die Grundlage für eine kontrollierte, datenschutzkonforme und unternehmenseigene KI-Strategie.

Aufbau einer ganzheitlich geschützten Infrastruktur zum sicheren Einsatz generativer KI

Aufbau einer ganzheitlich geschützten Infrastruktur zum sicheren Einsatz generativer KI

Die Integration von Llama 3.3 über vLLM in ein streng kontrolliertes Netzwerkszenario umfasst mehrere Sicherheitsschichten – vom äußeren Perimeter bis hin zur aktiven Überwachung des internen Datenverkehrs.

Zwiebelmodell: Viele Schichten bringen Hacker zum Heulen

Als erste Schutzschicht dient genuscreen, die Firewall und VPN-Appliance von genua, einem Unternehmen der Bundesdruckerei-Gruppe. Sie schützt das Unternehmensnetz zuverlässig vor Angriffen aus dem Internet und ermöglicht eine feingranulare Steuerung des Netzwerkverkehrs. Selbst verschlüsselte Verbindungen lassen sich damit analysieren und kontrollieren. Auf diese Weise wird schon an der Netzwerkgrenze sichergestellt, dass ausschließlich definierter Traffic ins interne Netz gelangt – und ebenso kontrolliert wieder hinaus.

Im Inneren der Architektur agiert die robuste Application Layer Firewall genugate. Durch Zonen- und Mediendatentrennung wird der Zugriff auf kritische Infrastruktur – etwa den Server, auf dem vLLM und das Sprachmodell laufen – streng reguliert. Nur exakt definierte Kommunikation ist erlaubt. Optional lassen sich Inhalte über manuell geprüfte Freigaben weitergeben, etwa bei Dateiübertragungen. So bleibt die Kontrolle über die Datenströme jederzeit in der Hand der Organisation.

Zero Trust Application Access für interne KI-Dienste

So gerüstet erfüllt der interne Betrieb generativer KI bereits viele Sicherheitsanforderungen. In der Praxis besteht jedoch häufig der Bedarf für einen kontrollierten Zugriff auf KI-Anwendungen von außen – etwa durch mobile Mitarbeitende, externe Partner oder verteilte Organisationseinheiten.

Genau hier setzt genusphere an: Die Zero Trust Application Access (ZTAA) Lösung macht interne Anwendungen sicher verfügbar, ohne Netzwerkzugriffe zu gewähren.

Im Unterschied zu klassischen VPNs oder Reverse-Proxys ermöglicht genusphere eine segmentierte Bereitstellung von Applikationen – vollständig entkoppelt vom internen Netzwerk. Zugriffsrechte werden kontextabhängig, rollenbasiert und gerätespezifisch vergeben. Das bedeutet: Nur wer unter den definierten Bedingungen berechtigt ist, kann auf bestimmte Funktionen einer Anwendung zugreifen. Daraus ergeben sich klare Vorteile:

  • KI-Anwendungen wie vLLM lassen sich selektiv nach außen bereitstellen – etwa als API, Web-Oberfläche oder internes Wissensportal.
  • Zugriffe erfolgen authentifiziert und kontextsensitiv, etwa mit Device Trust, Identity Federation und granularen Policies.
  • Die Anwendung bleibt intern isoliert – genusphere vermittelt lediglich die Anwendungsebene, nicht die darunterliegende Infrastruktur.

Damit bietet genusphere eine skalierbare, sichere und DS-GVO-konforme Möglichkeit, generative KI auch über Standortgrenzen hinweg nutzbar zu machen – ohne Kompromisse bei Netzwerk- oder Datensicherheit eingehen zu müssen.

Diese Beschreibung zeigt: Leistungsstarke KI-Tools lassen sich souverän nutzen, wenn sie in eine durchdachte Sicherheitsarchitektur eingebettet sind. Organisationen können so von den Vorteilen generativer KI-Anwendungen profitieren – und gleichzeitig die Kontrolle über ihre eigene digitale Zukunft behalten.

Sie wollen mehr über Chancen und Risiken moderner KI erfahren? Im neuen Open-Access-Fachbuch „Künstliche Intelligenz und Wir“ haben Experten von genua, der Bundesdruckerei und viele weitere namhafte Autorinnen und Autoren aus Wissenschaft und Wirtschaft ihre Fachkompetenz zu einem umfassenden Überblick über den aktuellen Stand und die Zukunft von KI gebündelt. genua sponsert den kostenlosen Zugang zum E-Book.

Newsletter Abonnieren

Abonnieren Sie jetzt IT-SICHERHEIT News und erhalten Sie alle 14 Tage aktuelle News, Fachbeiträge, exklusive Einladungen zu kostenlosen Webinaren und hilfreiche Downloads.

Andere interessante Fachbeiträge

Frau mit Grafik im Hintergrund

Vom Bauchgefühl zur Methode

Gute Entscheidungen entstehen nicht aus dem Bauch heraus, sondern basieren auf einem System: Im dritten Teil unserer Serie zeigen unsere Autoren, wie sich mithilfe der ISO 31000 Un...

Mensch vs. KI

Security Operations unter Druck

Steigende Bedrohungslagen, zunehmender Personalmangel und komplexe IT-Landschaften setzen viele Security-Teams unter Druck. Der Einsatz von künstlicher Intelligenz (KI) soll Abhilf...

Grafik eines Gehirns oberhalb einer Bärenfalle

Denken in Fallen

Trotz steigender Budgets für Cybersicherheit treffen selbst erfahrene IT-Experten systematische Fehlentscheidungen – nicht aus Unwissenheit, sondern wegen kognitiver Verzerrungen. ...