KI und Cybersicherheit: Welche Herausforderungen jetzt auf Sicherheitsteams warten
Die rasante Entwicklung der KI-Technologie in den letzten Monaten hat zu einer enormen Begeisterung geführt. Insbesondere die Einführung von ChatGPT, einem auf KI-Sprachmodellierung basierenden Chatbot, hat zu einer breiten öffentlichen Debatte über die Implikationen dieser Technologie geführt.
Obwohl KI-Technologie als intelligente Weiterentwicklung von Suchmaschinen angesehen werden kann, bei der Nutzer innerhalb kürzester Zeit präzise und vertrauenswürdige Antworten erhalten, gibt es auch Berichte über gefährliche Anwendungen von KI.
Von Markus Auer
Welche Auswirkungen hat KI auf die Cybersicherheit? Können Bedrohungsakteure KI nutzen, um kontinuierlich verbesserte Cyberangriffe zu ermöglichen? Theoretisch gesehen ist dies möglich. In den letzten Wochen und Monaten haben wir bereits vermehrt mit KI entwickelte oder verbesserte Malware beobachtet, und dieser Trend wird voraussichtlich anhalten.
Angesichts von Berichten über KI-zu-KI-Kommunikation kann man sich durchaus vorstellen, dass in naher Zukunft ein von KI generierter Schadcode von einer anderen KI optimiert wird. Daher ist es von großer Bedeutung, dass Sicherheitsanbieter selbst KI einsetzen, um dieser Entwicklung entgegenzuwirken.
Die Integration von KI stellt Sicherheitsteams vor neue Herausforderungen. Technologieunternehmen nutzen bereits seit einigen Jahren KI und maschinelles Lernen, um verschiedene Aspekte ihrer Plattformen zu verbessern. Alltägliche Anwendungen wie Navigations-Apps oder Autokorrekturfunktionen nutzen bereits KI. In nahezu allen Branchen setzen Softwareanbieter KI ein, um ihre Plattformen in jeder Hinsicht zu optimieren.
Bei der Cybersicherheit bauen wir auf unserer menschlichen Intelligenz auf. Erfahrene Cyber-Bedrohungsanalysten nutzen ihr Wissen über die Gewohnheiten, Aktivitäten, Angriffsmethoden und Verhaltensweisen von Bedrohungsakteuren, um effektive Erfassungssysteme zu entwickeln.
Durch die Kombination menschlicher Erfahrung und Intelligenz mit den Fähigkeiten des maschinellen Lernens können Bedrohungen auf Open-, Deep- und Dark-Web-Ebenen nahtlos überwacht werden. Diese menschlichen Nuancen, verbunden mit der Leistungsfähigkeit des maschinellen Lernens, ermöglichen eine skalierbare Erkennung von Bedrohungen für eine Vielzahl von Unternehmen.
Leider ist KI nicht nur auf der Seite der Cybersicherheit von Vorteil. Bedrohungsakteure nutzen ebenfalls KI, um die von der Cybersicherheit geschaffenen Schutzmechanismen zu umgehen.
Da sich die Technologie ständig weiterentwickelt und neue KI-basierte Tools eingeführt werden, sind Bedrohungsakteure in der Lage, ihre Angriffe schneller und effizienter als je zuvor durchzuführen. Dies stellt eine ernsthafte Herausforderung für Sicherheitsteams dar, da sie aufgrund begrenzter Ressourcen nicht unbegrenzt skalieren können und dadurch möglicherweise ins Hintertreffen geraten.
Was bedeutet das für Sicherheitsteams? KI verändert grundlegend nicht die Art und Weise, wie Bedrohungsakteure Angriffe durchführen. Das größte Risiko bleibt unverändert: Angreifer können KI nutzen, um beispielsweise den Prozess der Bereitstellung von Phishing-Kits zu automatisieren und somit das Volumen ihrer Angriffe zu erhöhen.
Das Problem an sich bleibt dasselbe, jedoch in einem viel größeren Ausmaß. Tools wie der „10Web“ (automatisierter Website-Builder), das Benutzern ermöglicht, massenhaft Websites zu klonen, tragen dazu bei, dass die Anzahl der Phishing-Websites, die gefälschte Domains nutzen, erheblich steigt.
Die gute Nachricht ist, dass Anbieter von Cyber-Bedrohungsdaten anscheinend vorerst einen Schritt voraus sind. Viele Unternehmen haben bereits vor dem Aufkommen der KI im letzten Jahr in KI und maschinelles Lernen investiert.
Es wurden erhebliche Ressourcen für Forschung und Entwicklung bereitgestellt, um so viel wie möglich über Phishing-Infrastrukturen und Ausweichmechanismen zu lernen. Diese Erkenntnisse fließen kontinuierlich in automatische Überwachungs- und Erkennungssysteme ein. Es existieren bereits Algorithmen des maschinellen Lernens, die ähnliche Domains, Logos, Grafiken, proprietären HTML-Code, Verstöße gegen das geistige Eigentum, gefälschte Social-Media-Profile und vieles mehr erkennen können.
Zusammenfassend kann festgestellt werden, dass KI-Anwendungen derzeit nur so intelligent, vorausschauend und leistungsfähig sind, wie ihre menschlichen Schöpfer es ermöglichen. Die Verwendung von KI durch Bedrohungsakteure wird zweifellos zu zusätzlichen Herausforderungen für Sicherheitsteams führen. Gleichzeitig wird dies jedoch auch zu hilfreichen Innovationen für die Zukunft führen. Solange der Mensch die Kontrolle behält, kann KI ein äußerst nützliches Werkzeug für Sicherheitsexperten sein, um den wachsenden Bedrohungen zu begegnen und die Cybersicherheit voranzutreiben.
Markus Auer, Security Advisor and Sales Director DACH bei BlueVoyant