Navigation überspringen
KI kann Daten in Echtzeit analysieren, zusätzlichen Kontext aus historischen Quellen hinzufügen und daraus automatisch Dashboards erzeugen. (Quelle: peshkov – 123RF)

KI-gestützte Loganalyse

In vielen Firmen ist die IT ein gewachsener Dschungel. Das erschwert nicht nur den Überblick, sondern auch die Fehlerdiagnose und Systemoptimierung. KI verschafft hier neue Handlungsspielräume – durch Mustererkennung, Kontextverknüpfung und proaktive Warnmechanismen.

In vielen traditionsreichen Unternehmen, vor allem in der Industrie, finden sich noch immer IT-Landschaften, die beim Betrachten Kopfschmerzen bereiten. In der Fertigung laufen häufig SPS- und SCADA-Systeme mit proprietärer Software. Hinzu kommt eine heterogene IT in Abteilungen und Zweigstellen – mal selbst entwickelte Systeme Marke Eigenbau, mal neu eingeführte SAP-Werkzeuge in der Cloud. Die IT-Infrastruktur verteilt sich häufig über eigene Rechenzentren und Public-Cloud-Dienste. Die eingesetzten Technologien umfassen ein immer breiter gewordenes Spektrum an Programmiersprachen, Betriebssystemen und Datenbanken.

Dieser Wildwuchs bedeutet maximale Heterogenität und damit minimalen Überblick. In den meisten mittelständischen und großen Unternehmen ist es nahezu undenkbar, diese Situation in absehbarer Zeit und zu akzeptablen Kosten zu beseitigen. So bleibt den IT-Teams fast nichts anderes übrig, als genau diese IT-Landschaft zu analysieren, zu warten und weiterzuentwickeln. Eine Hürde ist dabei die Loganalyse, um Flaschenhälse zu entdecken, Störungen frühzeitig zu beheben und Schwachstellen zu beseitigen. Was fehlt ist eine ganzheitliche Sicht auf die Systeme, was die Ursachenanalyse erschwert und die Effizienz des IT-Betriebs beeinträchtigt.

Vorteile KI-gestützter Loganalyse

Mit künstlicher Intelligenz lässt sich jedoch bereits heute die Analyse von Logdaten deutlich beschleunigen. Observability-Plattformen integrieren häufig eine KI-Engine, die Logdaten in Echtzeit auf Muster und Anomalien untersucht. Sie erkennt Abweichungen vom Normalverhalten, bevor diese kritisch werden. Diese vorausschauende Analyse verringert Betriebsunterbrechungen, Supportteams gewinnen wertvolle Zeit für Gegenmaßnahmen.

Ein wesentliches Merkmal der KI ist ihre Fähigkeit, sich durch die Auswertung historischen Daten kontinuierlich weiterzuentwickeln und die Erkennungsmuster weiterzuentwickeln. Auf die granulare Unterscheidung zu Machine Learning wollen wir an dieser Stelle verzichten. So lassen sich auch seltene oder unbekannte Anomalien identifizieren. Das ermöglicht außerdem eine dynamische Anpassung an sich verändernde Umgebungen – ein Vorteil in dynamischen Cloudinfrastrukturen.

Eine KI-basierte, natürlichsprachliche Abfragefunktion ermöglicht IT-Teams oder Anwendern die gezielte Analyse von Logdateien. Die Abfragen lassen sich flexibel formulieren, sodass eine direkte Interaktion mit den gespeicherten Informationen möglich wird. Um die Abfragen noch gewinnbringender zu machen, werden die Logdateien mit Daten aus unterschiedlichen IT-Kontexten angereichert, etwa aus Kubernetes-Umgebungen oder CI/CD-Pipelines. Diese Kontexte ermöglichen einen tieferen Einblick in Ursache-Wirkung-Zusammenhänge und eine gezieltere Bewertung von Auffälligkeiten.

Kontextbasierte Ursachenforschung

Durch die Verbindung von Logs mit Metriken, Traces oder Topologien kann die KI zugrunde liegenden Ursachen aufdecken. Ein Beispiel dafür ist der Anstieg der Antwortzeiten in den Metriken, der unter Umständen mit einer erhöhten Fehlerrate in den Logs zusammenfällt. Durch den Kontext wird die Fehlersuche deutlich präziser und schneller. Die Ursache wird nicht mehr aufgrund vager Vermutungen identifiziert, sondern basiert auf objektiv nachvollziehbaren Zusammenhängen in verschiedenen Ebenen der Beobachtung.

Dadurch entsteht für Unternehmen ein besseres Verständnis der Systemzusammenhänge. Sie können nun die Stabilität der IT-Architektur verbessern und Störungen verhindern. Dies ist wichtig in dynamisch skalierenden Architekturen, beispielsweise in Microservices-Landschaften oder cloudnativen Umgebungen. KI hilft dabei, die Menge an Informationen in nachvollziehbare Ursache-Wirkung-Ketten zu überführen.

Ein konsistentes, und damit aussagekräftiges, Lagebild steigert die Qualität der operativen Entscheidungen, da die technische Grundlage breiter ist. Unternehmen können damit die Performanceindikatoren Mean Time to Identify (MTTI) und Mean Time to Resolve (MTTR) optimieren. Diese Effizienzgewinne lassen sich messen und sind von IT-Teams dazu nutzbar, ihre Leistung gegenüber dem Management oder dem C-Level transparenter darzustellen.

Neue Möglichkeiten mit Data Lakehouses

Durch das Zusammenführen unterschiedlicher Quellen entsteht eine Datenbasis, die sich mit herkömmlichen Datenbanksystemen nur unzureichend verarbeiten lassen. Denn die einzelnen Softwaremodule, aus denen die Daten ausgelesen werden, besitzen eine Vielzahl von Datenformaten, teils strukturiert, teils unstrukturiert, etwa einfache Textdateien mit Protokollen. Eine ganzheitliche Betrachtung von IT- und Geschäftsprozessen auf Basis dieser Datenbasis erfordert ein dafür geeignetes Datenbanksystem: ein Data Lakehouse.

Ein Data Lakehouse vereint die Stärken von Data Lakes und Data Warehouses in einem System. Data Lakes speichern bekanntermaßen große Mengen strukturierter und unstrukturierter Daten in Rohform auf. Data Warehouses verfügen über leistungsfähige Abfragefunktionen und garantieren eine hohe Datenqualität. Das Data Lakehouse vereint diese Vorteile und wird zu einer einheitlichen Plattform für alle Datentypen. Der Vorteil: Es gibt nur wenige Kopien, was die Datenhaltung vereinfacht. Zudem sinkt der Aufwand für Datenintegration, Governance und Zugriffskontrolle, da alles zentral analysiert wird.

Im Alltag vereinfacht ein Data Lakehouse die ganzheitliche Betrachtung von IT- und Geschäftsprozessen. Die Analyse beschränkt sich nicht mehr auf technische Aspekte, sondern bezieht durch die erweiterte Datenbasis operative und strategische Fragestellungen mit ein. Die zentrale Speicherung der Daten im Data Lakehouse erlaubt es, Entwicklungen über längere Zeiträume zu verfolgen und für zusätzliche Analysen mit KI-Unterstützung zu nutzen. 

Beispielsweise können auf Basis der historischen Daten prädiktive Modelle trainiert werden. Sie beobachten Trends und sagen künftige Entwicklungen voraus. Damit lassen sich Kapazitätsengpässe vorhersagen, Ausfälle kritischer Systemkomponenten frühzeitig erkennen oder wiederkehrende Muster bei Sicherheitsvorfällen aufdecken.

Fazit

Die Architektur aus Observability-Plattform, KI-Unterstützung und einem Data Lakehouse ermöglicht es, Daten in Echtzeit zu analysieren, zusätzlichen Kontexten aus historischen Daten hinzuzufügen und daraus automatisch aussagekräftige Dashboards zu erzeugen. Sie sind auf die Bedürfnisse unterschiedlicher Nutzergruppen zugeschnitten und befördern somit die bereichsspezifische Interpretation von Blockdaten. Ein Beispiel: DevOps-Teams, Security-Beauftragte und die Geschäftsleitung erhalten jeweils einen auf ihre Anforderungen abgestimmten Einblick.

Die Loganalyse mit KI führt so zu einer Neuausrichtung betrieblicher Prozesse. Der Fokus verschiebt sich von reaktiver Problemlösung zu proaktiver Steuerung. Gleichzeitig verbessert sich die Zusammenarbeit zwischen Fachbereichen, da die Analysewerkzeuge auch ohne tiefgreifendes technisches Know-how bedienbar sind. Diese Entwicklung wird zur Grundlage für eine flexible IT-Strategie, die den langfristigen wirtschaftlichen Erfolg von Unternehmen unterstützt. (ln)

Über den Autor: Roman Spitzbart ist VP Solutions Engineering EMEA bei Dynatrace

IT-Administrator schreibt über Praxiswissen für Admins.

IT-Administrator ist das Praxismagazin für System- und Netzwerkadministratoren und liefert jeden Monat passgenaues, sofort umsetzbares Fachwissen. Auf zahlreichen Intensivseminaren und Trainings vor Ort sowie online können sich Admins zudem umfassend fortbilden. Auf Xing informiert die Redaktion über aktuelle Trends und Themen aus der IT.

Artikelsammlung ansehen