Studie zeigt: Ohne Observability keine verlässliche KI
Je mehr Unternehmen unstrukturierte Daten nutzen, desto größer wird die Herausforderung: Viele Observability-Programme stecken bei Datenqualität, Datenfluss und KI-Modellen noch in den Kinderschuhen. Eine neue globale Studie zeigt, wie Unternehmen Observability gezielt einsetzen, um verlässliche KI-Ergebnisse und aussagekräftige Analysen zu erreichen.

Künstliche Intelligenz und maschinelles Lernen können Unternehmen enorme Vorteile bringen – vorausgesetzt, die zugrunde liegenden Daten stimmen. Doch genau hier liegt oft das Problem: Wenn Daten unvollständig, ungenau oder schlecht dokumentiert sind, entstehen fehlerhafte Analysen und unzuverlässige Ergebnisse. Observability, also die systematische Überwachung und Bewertung von Datenqualität, Datenflüssen und Modellen, wird daher zur Schlüsseltechnologie.
Eine neue internationale Studie von Precisely in Zusammenarbeit mit dem Business Application Research Centre (BARC) zeigt: Immer mehr Unternehmen erkennen die Bedeutung von Observability – doch die Umsetzung ist oft noch lückenhaft. Für die Studie wurden über 250 Daten- und KI-Verantwortliche weltweit befragt.
Fortschritte ja – aber nicht überall gleich
Rund 76 Prozent der Unternehmen haben bereits Programme zur Überwachung von Datenqualität und Datenpipelines etabliert oder zumindest gestartet. Auch die Beobachtung von KI- und ML-Modellen ist für viele ein Thema – hier liegt der Anteil bei 70 Prozent. Doch: Der Reifegrad der Programme variiert stark. Viele Unternehmen arbeiten noch mit uneinheitlichen Ansätzen oder haben keine klaren Messgrößen.
Gerade bei der Erfolgsmessung zeigen sich Defizite: Zwar nutzen 68 Prozent der Befragten quantitative oder qualitative Kennzahlen, der Rest verlässt sich jedoch auf Ad-hoc-Methoden oder misst gar nicht. Ohne definierte Metriken und einen einheitlichen Governance-Rahmen besteht die Gefahr, dass KI-Projekte scheitern oder ins Leere laufen.
Unstrukturierte Daten im Fokus
Ein besonders dynamisches Feld ist die Integration unstrukturierter Daten – etwa Texte, Bilder oder Audiodateien – in die Analyseprozesse. Bereits 28 Prozent der Unternehmen nutzen solche Daten aktiv, weitere 60 Prozent evaluieren ihren Einsatz. Diese Formate stellen besondere Anforderungen an die Observability, etwa durch die Notwendigkeit, Metadaten gezielt zu erfassen und nachzuverfolgen. Ihr Potenzial ist aber groß – vor allem in Kombination mit generativer KI und prädiktivem maschinellen Lernen.
Nordamerika liegt vorn
Deutlich weiter als Europa ist derzeit Nordamerika: Dort haben 88 Prozent der Unternehmen formalisierte Observability-Programme – in Europa sind es nur 47 Prozent. Auch bei Datenschutz, Modellgenauigkeit und Erfolgsmessung zeigen sich nordamerikanische Unternehmen deutlich engagierter, obwohl es dort (noch) keine EU-ähnlichen KI-Vorgaben gibt.
Fazit
„Observability ist keine Kür mehr, sondern Pflicht“, sagt Cameron Ogden, Senior Vice President Product Management bei Precisely. „Gerade im Zeitalter agentenbasierter KI-Anwendungen brauchen Unternehmen eine robuste Datenbasis, um Risiken zu managen und Chancen zu nutzen.“ Die Studie macht deutlich: Wer Observability ernst nimmt, legt das Fundament für skalierbare, vertrauenswürdige KI.
Den vollständigen Bericht „Observability for AI Innovation“ gibt es hier zum Download.