Home » Fachbeiträge » Security Management » Lernen gegen die Lücke

An der Mensch-KI-Schnittstelle entscheidet sich die Zukunft der Cybersicherheit: Lernen gegen die Lücke

KI-Agenten ziehen in den Arbeitsalltag ein – und erweitern die Angriffsfläche an der Schnittstelle von Mensch und Maschine. Wer Sicherheit strategisch denkt, trainiert deshalb beide Ebenen: Anwender und Agenten. So entsteht eine belastbare Doppelverteidigung, die technische Kontrollen und Verhalten zusammenführt.

4 Min. Lesezeit
KI-identifizierte Cybersicherheitsbedrohung
Foto: ©AdobeStock/InfiniteFlow

Die Cybersicherheitslandschaft steht vor dem größten Umbruch seit den Anfängen des Internets. Künstliche Intelligenz (KI) ist heute fester Bestandteil betrieblicher Abläufe. Laut Schätzungen von Goldman Sachs werden agentische KI-Systeme (AI agents) bis 2030 rund 60 Prozent des Software-Marktwerts ausmachen. Gartner prognostiziert, dass bis 2026 etwa 40 Prozent der Unternehmensanwendungen spezialisierte KI-Agenten integrieren werden – nach weniger als fünf Prozent im Jahr 2024. Damit entsteht eine neue Angriffsfläche, die Sicherheitsstrategien jenseits bekannter Modelle erfordert.

Seit Jahren gilt in der Cybersicherheit ein Grundsatz: Der Mensch ist das schwächste Glied der Kette. Mehr als 60 Prozent aller Sicherheitsvorfälle gehen auf menschliches Fehlverhalten zurück – Phishing und Social Engineering zählen dabei zu den effektivsten Angriffsmethoden. Mit dem Einzug von KI-Agenten in den Arbeitsalltag verlagert sich nun der Fokus. Sicherheitsverantwortliche müssen nicht mehr nur menschliche Schwächen adressieren, sondern auch die neuen Risiken aus der Interaktion zwischen Mensch und KI berücksichtigen – eine Angriffsfläche, die Cyberkriminelle bereits gezielt ausnutzen.

Neue Angriffsvektoren durch KI-Systeme

KI zeigt in der Cybersicherheit eine spannende Doppelrolle: Einerseits ist sie ein mächtiges Verteidigungsinstrument, das Anomalien erkennt, Reaktionen automatisiert und Bedrohungsinformationen mit übermenschlicher Geschwindigkeit verarbeitet. Andererseits nutzen Angreifer dieselbe Technologie, um komplexe Attacken zu entwickeln, und machen KI-Systeme selbst zu lohnenden Zielen.

So setzen sie KI beispielsweise gezielt ein, um täuschend echte Phishingmails zu erstellen, Deepfakes für Social-Engineering-Kampagnen zu generieren oder Aufklärungsaktivitäten zu automatisieren. Gleichzeitig entstehen neue Angriffsmethoden, die speziell darauf abzielen, KI-Systeme selbst zu manipulieren – etwa durch Prompt-Injection, Model Poisoning oder adversarielle Eingaben.

Klassische Sicherheitsansätze konzentrieren sich traditionell auf den Perimeterschutz, also auf Firewalls, Intrusion-Detection-Systeme und Endpunktschutz. Diese Maßnahmen bleiben relevant, reichen jedoch für die KI-durchdrungene Arbeitsumgebung von heute und morgen nicht mehr aus, denn die entscheidende Sicherheitslücke entsteht an der Schnittstelle zwischen Mensch und KI-Agent. Hier trifft Social Engineering auf künstliche Intelligenz – und es treten Verwundbarkeiten auf, für die bestehende Sicherheitsrahmen bislang keine Antworten bieten.

Beispiele für diese neuen Bedrohungsszenarien sind:

  • Prompt-Injection-Angriffe: Angreifer gestalten gezielt Eingaben, um KI-Agenten zu manipulieren. Diese können dadurch unautorisierte Aktionen ausführen, Sicherheitskontrollen umgehen oder vertrauliche Informationen preisgeben.
  • Imitation von KI-Agenten: Cyberkriminelle schleusen gefälschte Agenten in Unternehmensumgebungen ein, die sich als legitime Tools ausgeben und Zugangsdaten oder sensible Informationen abgreifen.
  • Human-AI-Social-Engineering: Komplexe Täuschungsversuche, die das Vertrauensverhältnis zwischen Mitarbeitenden und KI-Systemen ausnutzen – etwa indem kompromittierte Agenten als interne Quellen oder Kolleginnen und Kollegen auftreten.

Doppelte Verteidigungslinie erforderlich

Der Einzug von KI-Systemen in die Arbeitswelt beseitigt den Faktor Mensch nicht, sondern er verstärkt ihn. Daher richtet sich der Fokus künftig auf zwei zentrale und besonders anfällige Ebenen der Sicherheit: Die menschliche Ebene erfordert, dass Beschäftigte befähigt werden, KI-Systeme sicher zu nutzen, Manipulationsversuche zu erkennen und KI-generierte Ergebnisse kritisch zu prüfen. Die Agentenebene verlangt, dass KI-Agenten selbst gegen schädliche Eingaben, Datenabflüsse und unautorisierte Aktionen geschützt werden.

Eine wirksame Sicherheitsstrategie verbindet beide Schichten zu einem dualen Schutzkonzept, das Training und technische Absicherung gemeinsam weiterentwickelt. So wie Unternehmen ihre Mitarbeiter über Jahre darin geschult haben, Phishingmails und verdächtige Links zu erkennen, gilt es nun, eine neue Kompetenz aufzubauen: KI-Kompetenz. Diese umfasst nicht nur den sicheren Umgang mit KI-Werkzeugen, sondern auch das Erkennen, wenn solche Systeme fehlgeleitet, manipuliert oder missbraucht werden.

Ein wirksames KI-Sicherheitstraining muss mehrere zentrale Kompetenzen abdecken:

  • Überwachung von Agenten: Mitarbeiter sollten lernen, Ausgaben von KI-Agenten zu prüfen und zu validieren, besonders bei sicherheitsrelevanten oder geschäftskritischen Entscheidungen.
  • Sichere Eingaben („Prompts“) formulieren: Teams müssen verstehen, wie sichere Prompts gestaltet werden und welche Eingaben potenziell riskant sind, weil sie das Verhalten eines Agenten manipulieren könnten.
  • Erkennen von Anomalien im Agentenverhalten: Beschäftigte sollten in der Lage sein, abweichendes oder unerwartetes Verhalten eines KI-Systems zu identifizieren und entsprechend zu reagieren.

Erweiterte Risikobewertung notwendig

Der Aufbau solcher Fähigkeiten ist jedoch nur die eine Seite der Medaille. Ebenso wichtig ist es, bei Risikobewertungen künftig KI-spezifische Schwachstellen mit einzubeziehen. Während klassische Modelle sich auf Nutzerverhalten, Gerätesicherheit und Netzwerkaktivität konzentrieren, erweitert sich der Blick in KI-gestützten Arbeitsumgebungen um neue Kriterien: die Anfälligkeit einzelner Personen für KI-gestützte Angriffe, das Sicherheitsniveau der genutzten KI-Agenten, die Sensitivität der Daten in Mensch-KI-Interaktionen sowie die Auswirkungen eines kompromittierten Agentenverhaltens auf Geschäftsprozesse und Compliance.

Technologie allein löst keine Sicherheitsprobleme. Der menschliche Faktor bleibt – ob im Umgang mit klassischen Systemen oder mit KI-Agenten – entscheidend für die Sicherheitskultur eines Unternehmens. Organisationen sollten daher eine Kultur fördern, die KI aktiv integriert, zugleich aber kritisches Denken und gesunde Skepsis bewahrt. Das bedeutet, Innovation mit KI-Tools zu ermöglichen, ohne den Anspruch aufzugeben, Ergebnisse zu prüfen, zu hinterfragen und zu verifizieren – besonders in sicherheitskritischen Anwendungen.

Die Zukunft lernt mit

Cyberbedrohungen entwickeln sich rasant weiter, und KI beschleunigt sowohl Angriffs- als auch Verteidigungsstrategien. Erfolgreich werden jene Unternehmen sein, die anpassungsfähige, lernende
Sicherheitsprogramme etablieren. Dazu gehört, starre Schulungskonzepte durch dynamische und individuell ausgerichtete Trainings zu ersetzen, die sich kontinuierlich an die Bedrohungslage anpassen. Gleichzeitig sollten Unternehmen KI-Technologien zur Abwehr KI-gestützter Angriffe nutzen und ihre Mitarbeiter befähigen, als kompetente Partner in diesem technologischen Wettlauf zu agieren.

Die Grenze zwischen Mensch und KI in der Cybersicherheit wird zunehmend verschwimmen. Unternehmen, die diese Entwicklung frühzeitig erkennen und in ein umfassendes Training an der Mensch-KI-Schnittstelle investieren, sichern sich eine resiliente Sicherheitsposition in einer Zeit tiefgreifender technologischer Veränderungen.

Die Botschaft ist klar: Cybersicherheit im KI-Zeitalter bedeutet nicht mehr, Systeme vor Menschen oder Menschen vor Systemen zu schützen – sondern die Interaktion zwischen beiden sicher zu gestalten. Denn in dieser Verbindung liegt zugleich die größte Schwachstelle und das größte Potenzial zur Verteidigung.

Porträt Stuart Clark

Stuart Clark ist ein erfahrener Sicherheitsexperte mit über 25 Jahren Berufserfahrung. Als Vice President Product Strategy bei KnowBe4 treibt er die Weiterentwicklung der Produkte im Bereich Künstliche Intelligenz und Human Risk Management+ (HRM+) sowie darüber hinaus voran.

Newsletter Abonnieren

Abonnieren Sie jetzt IT-SICHERHEIT News und erhalten Sie alle 14 Tage aktuelle News, Fachbeiträge, exklusive Einladungen zu kostenlosen Webinaren und hilfreiche Downloads.

Andere interessante Fachbeiträge

Digitaler Kompass

Navigation im Nebel des Cyberspace

Die AURISCON GmbH blickt auf 15 Jahre Navigation ihrer Kunden hin zu effektivem Informationssicherheitsmanagement zurück. Wir begleiten Sie beim operativen Management der IT-Sicher...

Leuchtturm in tosendem Meer

Herkunft allein schafft keine Resilienz

Digitale Souveränität lässt sich weder über Herkunftslabels noch über die Postleitzahl eines Rechenzentrums herstellen. Auch europäische Cloud-Anbieter garantieren sie nicht automa...

Mann nutzt Smartphone - rotes Ausrufezeichen darüber

Threat-aware IAM: Wenn Zugriffsrechte zur Verteidigungslinie werden

Identitäten sind mittlerweile zur dominanten Angriffsfläche digitaler Infrastrukturen geworden. Wer Zugriff auf Systeme, Anwendungen und Daten erhält, kontrolliert nicht nur Inform...