- PagerDuty /
- Der Blog /
- Überwachung /
- Schnelle Daten, schnelles Monitoring
Der Blog
Schnelle Daten, schnelles Monitoring
Big Data ist nichts Neues. Heute liegt der Schlüssel zur effektiven Nutzung von Daten in der Verarbeitung von Fast Data.
In ähnlicher Weise reicht das traditionelle Vorfallmanagement, bei dem große Mengen an Überwachungsdaten gesammelt und analysiert werden, nicht mehr aus. Unternehmen müssen jetzt auch „schnelles Monitoring“ betreiben, was bedeutet, dass sie nicht nur Überwachungsdaten sammeln, sondern diese auch in Echtzeit umsetzbar machen müssen.
In diesem Beitrag wird untersucht, was schnelles Monitoring bedeutet, und erläutert, wie Vorfallmanagementteams diesen Ansatz implementieren können, um große Vorteile zu erzielen.
Definition von Fast Data
Um das Konzept der schnellen Überwachung zu verstehen, muss man verstehen schnelle Daten - einer der neueste Innovationen in der Big Data-Welt.
Einfach ausgedrückt handelt es sich bei Fast Data um Big Data, die schnell verarbeitet werden. Während Big Data traditionell das Speichern großer Informationsmengen und deren spätere Analyse bedeutet, bedeutet Fast Data die möglichst schnelle Durchführung von Datenanalysen großer Informationsmengen – idealerweise in Echtzeit. Ziel ist es, die Daten zu analysieren, wenn sie so umsetzbar und relevant wie möglich sind.
Die Möglichkeit, Daten von ihrer Quelle in eine Analyseplattform zu streamen, ist ein wichtiger Teil der Nutzung schneller Daten. Deshalb sind Big-Data-Tools wie Apache Spark sind in den letzten Jahren populär geworden. Durch die Unterstützung der Streaming-Datenerfassung sowie der In-Memory-Verarbeitung kann Spark große Mengen an Informationen viel schneller aufnehmen und analysieren als nicht-streamende, auf der Festplatte gespeicherte Datenanalyseplattformen.
Schnelles Daten- und Vorfallmanagement
Das Incident Management ist ein anderes Feld als die Datenanalyse, aber Incident Management-Administratoren können viel aus dem schnellen Datentrend lernen. In der Welt der Infrastrukturüberwachung und des Incident Managements ist die Fähigkeit, große Mengen an Überwachungs- und Warndaten in Echtzeit zu analysieren, um die Reaktion zu verbessern, heute wichtiger denn je.
Vom traditionellen Vorfallmanagement zum schnellen Vorfallmanagement
Die Verbindung zwischen schnellen Daten und schnellem Monitoring ist kein Zufall. In vielerlei Hinsicht spiegelt die Entwicklung des Vorfallmanagements die Entwicklung der Datenanalyse wider.
Bis vor etwa zehn Jahren waren Daten, wie Infrastruktur, relativ klein. Die meisten Organisationen mussten keine Petabyte an Daten analysieren, da sie nicht so viel erzeugten. Ebenso hatten die meisten Organisationen keinen Bedarf an Überwachungslösungen, die große und vielfältige Infrastrukturen unterstützen konnten. Stattdessen konnten sie mit einfachen Überwachungssystemen auskommen, um relativ kleine und unkomplizierte Netzwerke aus Servern und Workstations im Auge zu behalten.
Dann, Mitte der 2000er Jahre, wurden sowohl die Daten als auch die Infrastruktur viel größer. Die Digitalisierung von allem führte dazu, dass Unternehmen begannen, Unmengen an Informationen zu sammeln, was zu Big Data führte. Gleichzeitig machten die Verbreitung mobiler Geräte, der Anstieg der Virtualisierung und der Bedarf an immer mehr Rechenleistung die Infrastruktur viel größer und komplizierter. Diese neue Landschaft erforderte eine umfassende Überwachung.
Und in den letzten Jahren hat ein weiterer Wandel stattgefunden. In einer Zeit, in der sich Informationen ständig ändern, untergräbt die Durchführung von Analysen auf Daten, die selbst nur wenige Stunden alt sind, den Wert von Analysen. Ebenso verhindert die Durchführung des Vorfallmanagements auf der Grundlage von Überwachungsinformationen, die nicht aktuell sind, dass Administratoren Vorfälle effektiv bewerten und darauf reagieren können.
Obwohl schnelle Daten und schnelles Monitoring unterschiedliche Toolsets erfordern, sind die Prinzipien und Motivationen hinter beiden Trends dieselben. Incident-Management-Teams, die Infrastruktur und Apps möglichst reibungslos am Laufen halten möchten, tun gut daran, sich an ihren Datenanalysten-Kollegen zu orientieren und sich auf schnelles Monitoring zu konzentrieren.
Schnelles Monitoring ermöglichen
Das schnelle Sammeln und Reagieren auf Überwachungsinformationen klingt vielleicht ganz einfach – aber wie lässt sich eine schnelle Überwachung in der Praxis umsetzen? Zu den wichtigsten Richtlinien, die Sie befolgen sollten, zählen:
- Zentralisieren Sie die Datenerfassung Um die Überwachungsinformationen so schnell wie möglich zu verstehen, sollten Sie alle Überwachungsdaten an einen zentrale Schnittstelle . Dadurch entfällt die Notwendigkeit, zwischen verschiedenen Dashboards oder Überwachungssystemen zu wechseln, was Zeit und geistige Energie verschwendet und es äußerst schwierig macht, die Grundursache zu verstehen.
- Sammeln Sie alle verfügbaren Informationen . Das traditionelle Vorfallmanagement konzentriert sich meist nur auf das Sammeln von Maschinendaten und Warnmeldungen. Diese Informationen liefern einen Teil dessen, was Sie für eine schnelle Überwachung benötigen, aber um so schnell wie möglich auf Vorfälle reagieren zu können, sollten Sie über einen möglichst breiten Einblick und eine möglichst breite Transparenz verfügen. So sollte beispielsweise das Sammeln von von Menschen generierten Daten aus Tickets und Supportanrufen nicht vernachlässigt werden. Dies bedeutet auch, dass Sie Funktionen wie Benutzerdefinierter Ereignistransformator von PagerDuty um Daten aus Quellen zu sammeln, wie Social Media Kanäle , die traditionell kein Teil der Arbeitsabläufe des Vorfallmanagements sind.
- Lärm minimieren . Sie werden eine große Anzahl von Warnmeldungen erhalten, aber nur einige davon erfordern eine Aktion. Es ist daher absolut entscheidend, den Lärm auszublenden und alles zu unterdrücken, was nicht handlungsrelevant ist, damit die Anzahl der Warnmeldungen, auf die Sie achten müssen, minimal ist. Warnmeldungen sollten automatisch dedupliziert werden, und es sollte einfach sein, verwandte Symptome in einem einzigen Problem zu gruppieren, das gelöst werden muss. Dies erleichtert die sofortige Identifizierung der Warnmeldungen, die Aufmerksamkeit erfordern, und löst den entsprechenden Reaktions-Workflow in Echtzeit aus.
- Machen Sie die Daten leicht interpretierbar . Das Sammeln großer Mengen von Überwachungsdaten und deren Speicherung an einem zentralen Ort hilft Ihnen, diese Daten schnell in Wert umzuwandeln. Um den Prozess jedoch vollständig zu optimieren, sollten Sie auch sicherstellen, dass Daten aus verschiedenen Quellen in ein einheitliches Format normalisiert werden, um eine einfache Analyse aller Informationen auf dem Dashboard zu ermöglichen und die kognitive Belastung zu verringern. Auf diese Weise müssen Sie sich nicht alle Schemata verschiedener Anbieter merken oder kontextualisieren. Dazu benötigen Sie Vorfallmanagementlösungen, die Informationen in unterschiedlichen Formen aufnehmen und Felder universell normalisieren können, um sofort umsetzbare, leicht verständliche Erkenntnisse zu generieren.
Alle diese Vorgehensweisen minimieren den manuellen Analyseaufwand, der von den Incident-Management-Administratoren während eines kritischen Vorfalls erforderlich ist. Im Gegenzug verkürzen sie die Zeit zwischen der Alarmerfassung und der Reaktion, sodass das Incident-Management-Personal auf Vorfälle so schnell reagieren kann, wie sie auftreten, und schnelles Monitoring in Echtzeitreaktionen für verbesserte Betriebszeiten umwandeln kann.
Delaney, Ozzy. „Speeding“. 20. Januar 2015. Online-Bild.<https://www.flickr.com/photos/24931020@N02/15854782234/>