Anwendungen, APIs und GenAI: Herausforderungen und Lösungen: Die zehn häufigsten Probleme bei der Anwendungssicherheit
Von ineffizienten DNS-Methoden bis zu ausufernden Latenzzeiten – die Bereitstellung von Anwendungen, Programmierschnittstellen (APIs) und generativer künstlicher Intelligenz (GenAI) birgt zahlreiche Stolpersteine. Unsere Autorin hat die zehn größten Herausforderungen in diesem Bereich analysiert und zeigt praxisnahe Lösungen auf, wie Unternehmen diese bewältigen können.

Hinweis: Dieser Artikel stammt aus der Ausgabe 1/2025 der Zeitschrift IT-SICHERHEIT. Das komplette Heft können Sie hier herunterladen. (Registrierung erforderlich)
Unternehmen sind mehr denn je auf leistungsfähige und zuverlässige Anwendungen angewiesen. Während regelmäßig Trends und Prognosen zur Cybersicherheit veröffentlicht werden, wird den praktischen Herausforderungen der Anwendungsbereitstellung oft wenig Aufmerksamkeit geschenkt. Dies ist jedoch ein kritischer Aspekt, da ineffiziente Bereitstellungsprozesse oder unzureichend
getestete Anwendungen nicht nur die Benutzererfahrung beeinträchtigen, sondern auch Sicherheitslücken öffnen können.
Eine der größten Herausforderungen besteht darin, dass Anwendungsentwickler und IT-Operations-Teams zunehmend komplexe Umgebungen verwalten müssen. Mit der Verbreitung von Multi-Cloud-Lösungen, hybriden IT-Infrastrukturen und Microservices-Architekturen steigen die Anforderungen an die Integration, die Skalierbarkeit und die Sicherheit von Anwendungen.
Ferner muss die Bereitstellungsgeschwindigkeit mit der steigenden Nachfrage nach Innovation und kurzen Markteinführungszeiten Schritt halten. Weitere Herausforderungen sind:
1. Schwache DNS-Methoden
Das Domain Name System (DNS) übersetzt Domainnamen in IP-Adressen, um Benutzeranfragen an die entsprechenden Server weiterzuleiten. Schwächen in der DNS-Konfiguration können die Antwortzeiten für Abfragen erheblich verlängern und Verzögerungen bei der Namensauflösung verursachen. Insbesondere zu niedrige Time-to-Live-(TTL)-Einstellungen führen zu einer häufigeren Wiederholung von DNS-Anfragen. Unsachgemäß konfigurierte DNS-Server oder das Fehlen von Sicherheitsfunktionen wie DNS Security Extensions (DNSSEC) können darüber hinaus unbefugten Zugriff auf den Datenverkehr ermöglichen.
Lösung: Unternehmen sollten DNSSEC implementieren, TTL-Einstellungen optimieren und dynamische DNS-Updates sicherstellen, um eine robustere und zuverlässigere DNS-Infrastruktur zu schaffen.
2. Mangelnde Fehlertoleranz und Ausfallsicherheit
Strategien ohne ausreichende Fehlertoleranz und Ausfallsicherheit können zu Leistungsproblemen, eingeschränkter Verfügbarkeit und begrenzter Skalierbarkeit führen. Das ist besonders kritisch, wenn die Systeme unter hoher Last betrieben werden oder unerwartete Störungen auftreten.
Lösung: Lastverteilung, Failover-Mechanismen und eine programmierbare Infrastruktur verbessern die Verfügbarkeit und die Leistung erheblich. Sie helfen, Betriebskosten zu senken und die Benutzerfreundlichkeit zu erhöhen.
3. Unvollständige Obversability
Observability bietet Einblicke in den Zustand und die Nutzung von Anwendungen sowie deren Infrastruktur. Sie ist ein zentraler Bestandteil moderner IT- und Anwendungsarchitekturen, besonders in zunehmend komplexen und verteilten Systemen wie Cloud-Umgebungen, Microservices oder KI-gesteuerten Anwendungen.
Sie geht über traditionelles Monitoring hinaus, indem sie nicht nur bekannte Probleme überwacht, sondern auch tiefere Einblicke ermöglicht, um unbekannte Risiken und deren Ursachen zu identifizieren. Eine unzureichende Transparenz stellt primär in komplexen Umgebungen, etwa bei KI-gesteuerten Anwendungen, ein Problem dar, denn so ist die Wahrscheinlichkeit erhöht, dass Sicherheitsvorfälle unentdeckt bleiben.
Lösung: Durch umfassende Überwachung, OpenTelemetry-Standards und dynamische Warnmeldungen mit automatischen Reaktionen können Unternehmen ihre Observability verbessern. So lässt sich zudem nicht nur die Zuverlässigkeit und Sicherheit der Systeme steigern, sondern auch die Innovationskraft fördern, da Entwickler und Betreiber schneller auf Herausforderungen reagieren und neue Ideen iterativ umsetzen können.
4. Ineffizientes Traffic-Management
Effizientes Datenverkehrsmanagement ist essenziell für eine nahtlose Benutzererfahrung, besonders bei skalierenden Anwendungen. Fehlende Mechanismen können Backend-Dienste überlasten, Ressourcen ineffizient nutzen oder Distributed-Denial-of-Service-(DDoS)-Angriffe begünstigen.
Lösung: Unternehmen sollten Ratenbegrenzung, Drosselung und Zwischenspeicherung einsetzen, um den Datenverkehr effizient zu steuern und ein skalierbares Wachstum zu gewährleiten. Denn eine sorgfältig geplante und implementierte Traffic-Management-Strategie verbessert nicht nur die Stabilität und Sicherheit eines Systems, sondern trägt auch zur Kundenzufriedenheit bei. Nutzer schätzen schnelle Ladezeiten und zuverlässige Dienste, während Unternehmen von reduzierten Betriebskosten und einer stärkeren Widerstandsfähigkeit gegenüber Angriffen profitieren.
5. Unorganisiertes Traffic-Management
Vor allem bei KI-gesteuerten Anwendungen variiert der Verarbeitungsbedarf je nach Datentyp und Benutzer. Ein unorganisiertes Traffic-Management kann die Reaktionsfähigkeit erheblich beeinträchtigen.
Lösung: Dynamisches Routing, intelligenter Lastausgleich und programmierbare Application Delivery Controller (deutsch Anwendungsauslieferungscontroller, ADC) optimieren den Datenverkehr und verbessern die Ressourcennutzung.
6. Ausufernde Latenzzeiten
Hohe Latenzzeiten wirken sich negativ auf die Leistung von Anwendungen aus – besonders in datenintensiven Umgebungen wie KI-Systemen. Sie können durch ineffizientes Routing, schlechte Ressourcenzuweisung oder langsame Verarbeitung verursacht werden. Das führt oft zu verzögerten Reaktionszeiten, was die Nutzererfahrung erheblich beeinträchtigen kann.
Lösung: Unternehmen sollten auf optimiertes Routing, Edge Computing und adaptive Ressourcenzuweisung setzen, um Latenzprobleme zu reduzieren. Zusätzlich kann der Einsatz leistungsfähigerer Hardware dazu beitragen, Daten schneller zu verarbeiten. Regelmäßige Performance-Analysen helfen außerdem, Engpässe frühzeitig zu identifizieren und zu beheben.
7. Unvereinbare Zustellungsrichtlinien
In hybriden Multi-Cloud-Umgebungen können unterschiedliche Protokolle und Bereitstellungsstrategien zu ineffizientem Datenmanagement und erhöhten Kosten führen.
Lösung: Standardisierte Metriken, angepasste Servicekapazitäten und eine programmierbare Infrastruktur sorgen für Konsistenz und Flexibilität.
8. Sicherheits- und Compliance-Lücken
Strenge Datenschutzgesetze stellen Unternehmen vor Herausforderungen. Unzureichende Sicherheitsmaßnahmen und Compliance-Probleme können die Skalierbarkeit und Leistung von Anwendungen beeinträchtigen. Zudem gefährden Datenschutzverletzungen nicht nur das Vertrauen der Kunden, sondern können auch hohe Geldstrafen und langfristige Reputationsschäden zur Folge haben.
Lösung: Verschlüsselung, FIPS-konforme Geräte und automatisierte Compliance-Tools bieten Schutz und unterstützen eine regelkonforme Anwendungsbereitstellung.
9. Maßgeschneiderte Anwendungsanforderungen
Kundenspezifische Anforderungen überfordern oft Standardlösungen, da sie eine flexible Anpassung erfordern. Unzureichende Anpassungsmöglichkeiten können jedoch dazu führen, dass Prozesse ineffizient werden oder die Nutzererwartungen nicht erfüllt werden. Unternehmen stehen dadurch vor der Herausforderung, individuelle Lösungen bereitzustellen, ohne die Skalierbarkeit zu gefährden.
Lösung: APIs und programmierbare Infrastrukturen erleichtern die Integration neuer Dienste und den Lastausgleich.
10. Schlechte Ressourcennutzung
Ineffiziente Ressourcenverwendung, oft verursacht durch suboptimale Algorithmen oder mangelnde Überwachung, führt zu höheren Betriebskosten und überlasteten Infrastrukturen. Das schlägt sich beispielsweise in einem unnötigen Energieverbrauch und einer verkürzten Lebensdauer der eingesetzten Systeme nieder. Zudem beeinträchtigt eine schlechte Ressourcenauslastung die Skalierbarkeit und erschwert die Anpassung an wachsende Anforderungen.
Lösung: Mit einer intelligenten Zustandsprüfung und einer dynamischen Datensteuerung können Unternehmen ihre Ressourcen besser nutzen.
Fazit
Die Bereitstellung von Anwendungen, APIs und GenAI-Systemen ist mit zahlreichen Herausforderungen verbunden. IT-Sicherheitsverantwortliche sollten potenzielle Schwachstellen systematisch analysieren und gezielte Anpassungen vornehmen. Bereits kleine Optimierungen können große Verbesserungen bringen.

Lori MacVittie ist Distinguished Engineer bei F5.