So rechnen wir heute: So sieht eine moderne Infrastruktur aus
Die heutige Infrastruktur ist nicht die IT-Infrastruktur Ihrer Großeltern und auch nicht die Infrastruktur von vor einer Generation. Die Zeiten von Lochkarten, Vakuumröhren, Ferritkernspeichern, Disketten und DFÜ-Internet sind vorbei.
Die heutige Infrastruktur ist auch nicht die IT-Infrastruktur von vor fünf Jahren oder sogar von vor einem Jahr. Moderne Infrastrukturen verändern sich ständig, und wir können nur eine Momentaufnahme der Infrastruktur im Moment liefern und ein allgemeines Bild davon vermitteln, wohin sie sich entwickelt.
Wenn Sie die Infrastruktur effektiv überwachen möchten, müssen Sie verstehen, wie die Infrastruktur heute aussieht, wie sie sich verändert und was sie morgen beinhalten wird.
Hardware: Weniger von Moore
Beginnen wir mit einer grundlegenden Unterscheidung: Die Hardware-Infrastruktur ist relativ stabil (wobei das Wort „relativ“ stark betont wird) und befindet sich seit einigen Jahren in einem Zustand der Halbstabilität. Während jede Spekulation über Moores Gesetz Es ist noch zu früh, das Ende der Fahnenstange zu erreichen, denn die Kurve des Mooreschen Gesetzes scheint sich zumindest im Moment teilweise abgeflacht zu haben, zumindest was die Prozessorgeschwindigkeit und die RAM-Kapazität betrifft (bei Massenspeichern sieht die Sache vielleicht anders aus).
Software: Veränderung ist natürlich
Diese Stabilisierung bedeutet, dass die größten und wichtigsten Änderungen in der IT-Infrastruktur auf der Softwareseite stattgefunden haben. Das sollte nicht überraschen, da moderne Infrastrukturen zu einem beträchtlichen Teil aus Software bestehen. Softwaredefinierte Netzwerke, virtuelle Maschinen, Container und dergleichen bedeuten, dass die Grenze zwischen Hardware und Software heute praktisch ziemlich verschwommen ist.
Die Tatsache, dass die IT-Infrastruktur größtenteils als Software betrachtet werden kann, ist selbst ein Schlüsselelement der modernen Computertechnik und sollte nicht überraschen. Schließlich ist Hardware im Grunde ein Rahmen, eine Struktur, die Dinge möglich machen soll. Was man mit diesen Möglichkeiten macht, kann den entscheidenden Unterschied ausmachen.
Frei von Hardwareverzögerungen
Die Umstellung auf eine softwarebasierte Infrastruktur hat Folgen, die weit über einen typischen Plattformwechsel hinausgehen. Zum einen führt die Hardware selbst zu einer erheblichen Verzögerung der Änderungsgeschwindigkeit. Das Ersetzen oder Aufrüsten physischer Server, Netzwerke und Peripheriegeräte ist teuer und zeitaufwändig, weshalb viele Unternehmen mit solchen Änderungen traditionell warten, bis es offensichtlich notwendig ist (oder sogar noch später). Diese Verzögerung kann nur wenige Jahre betragen, hat aber in der Regel Auswirkungen auf die Softwareebene sowie auf die Infrastrukturhardware selbst, da sie die Notwendigkeit mit sich bringt, sowohl veraltete Hardware als auch die dafür erforderliche veraltete Software zu berücksichtigen.
In modernen softwarebasierten Infrastrukturen sind jedoch sowohl die Anwendungssoftware als auch die Elemente, aus denen die Infrastruktur besteht, von den meisten (wenn nicht allen) zugrunde liegenden Hardwareelementen isoliert, oft durch mehrere Abstraktionsebenen. Solange die Hardware die Anforderungen der Abstraktionsebene erfüllen kann, ist die Infrastruktur selbst heute weitgehend frei von hardwarebedingten Verzögerungen.
„Weiche“ Faktoren
Infolgedessen wird die Geschwindigkeit der Änderungen sowohl bei der Infrastruktur als auch bei der Anwendungssoftware heute von anderen Faktoren bestimmt, wie etwa der Unternehmenskultur und den praktischen Grenzen der Geschwindigkeit bei der Softwareentwicklung. Diese Faktoren sind im Allgemeinen „weich“, und die Art der Verzögerung, die sie verursachen, ist viel kürzer und hängt viel stärker von den Bedingungen innerhalb einer bestimmten Organisation ab.
Infrastruktur heute
Das bedeutet, dass jedes Verständnis unserer heutigen Computertechnik nur eine Momentaufnahme sein kann, die den aktuellen Zustand der modernen IT-Infrastruktur erfasst. Und was würde eine solche Momentaufnahme enthalten? Die Schlüsselelemente könnten etwa so aussehen:
- Die Wolke. Wenn Infrastruktur Software ist, die auf mehreren Abstraktionsebenen sitzt, gibt es keinen Grund, sie an einen bestimmten Satz von Servern oder Netzwerken zu binden. Die Cloud (die im Grunde eine Abstraktionsebene auf hoher Ebene ist) wird zur grundlegendsten Infrastrukturebene, mit der Entwickler interagieren. Die Infrastruktur, die Entwickler erstellen und verwalten, ist tatsächlich vollständig virtualisiert, egal ob sie aus Apps besteht, die auf VMs laufen, oder aus Containern, die auf einem virtualisierten Hostsystem laufen.
- Virtualisierung. Virtualisierung ist also zu einer Selbstverständlichkeit geworden, und wir beginnen gerade erst, die Auswirkungen dieser Tatsache zu verstehen. Bestehende Betriebssysteme wurden ursprünglich um die durch die Hardware auferlegten Einschränkungen herum entwickelt; wir haben noch keine Systeme gesehen, die völlig ohne Bezug auf die durch die Hardware auferlegten Grenzen entwickelt wurden.
Doch selbst unter Berücksichtigung der Beschränkungen aktueller Betriebssysteme bedeutet der mittlerweile zum Standard gewordene Grad der Virtualisierung, dass nicht nur Anwendungen, sondern auch die Umgebungen, in denen sie vorhanden sind, genauso einfach erstellt, verwaltet und gelöscht werden können wie ein einfacher Prozess, der in einem herkömmlichen Betriebssystem ausgeführt wird. - Automatisierung entlang der gesamten Pipeline. Wenn es sich bei der Infrastruktur um Software handelt, ist es sinnvoll, sie auf dieselbe Weise zu verwalten wie andere Arten von Software – durch Automatisierung. Es ist auch sinnvoll, diese Automatisierung auf die gesamte Softwarebereitstellungspipeline auszudehnen, sei es in Form eines einzelnen Systems zur Verwaltung aller Prozesse in der Pipeline oder einer Reihe von Skripten, die Aufgaben nach Bedarf aneinander übergeben.
Traditionell erfolgte die Automatisierung häufig zeitplangesteuert. In modernen Infrastrukturen erfolgt sie jedoch in der Regel ereignisgesteuert. Dies ermöglicht eine größere Flexibilität und verhindert unnötige Verzögerungen. - Kontinuierliche Lieferung. Eine solche flexible, reaktionsgesteuerte Automatisierung führt ganz natürlich zu einer kontinuierlichen Bereitstellung. Wenn kein Bedarf für manuelle Eingriffe oder Verzögerungen im Bereitstellungsprozess besteht, gibt es keinen Grund, warum dieser nicht kontinuierlich sein sollte.
Und tatsächlich erweisen sich die Gründe für eine nicht kontinuierliche Bereitstellung in der Regel als Artefakte einer nicht virtualisierten Infrastruktur und nicht automatisierter Bereitstellungspipelines. Der Wegfall der Notwendigkeit, die Einschränkungen einer hardwarebasierten Infrastruktur zu berücksichtigen, kombiniert mit der Möglichkeit, die virtualisierte, softwarebasierte Infrastruktur vollständig zu automatisieren, hat eine kontinuierliche Bereitstellung nicht nur möglich, sondern auch unvermeidlich gemacht. Außerdem klicken Sie hier um zu erfahren, wie Sie die kontinuierliche Bereitstellung mithilfe des Vorfallmanagements optimieren können.
Wie also rechnen wir heute? Wir rechnen größtenteils in einer Umgebung, die virtualisiert und durch mehrere Abstraktionsebenen von der Hardwareebene isoliert ist. Unsere Entwicklungs- und Bereitstellungspipeline ist kontinuierlich und wird durch ereignisgesteuerte Automatisierung verwaltet. In vielerlei Hinsicht ist die moderne IT-Umgebung eine virtuelle Welt, die von der traditionellen hardwarebasierten IT-Welt so weit isoliert ist, dass viele der Belange, die die IT noch vor wenigen Jahren beherrschten, irrelevant geworden sind.
Ein virtuelles Morgen?
Wenn das nur eine Momentaufnahme von heute ist, wie wird das Bild dann morgen aussehen, oder in fünf oder zehn Jahren? Natürlich kann man das nicht wirklich wissen. Jede heute gemachte Vorhersage wird sich mit der Zeit wahrscheinlich als immer törichter herausstellen.
Doch hier sind noch ein paar andere Vorhersagen. Wahrscheinlich haben wir gerade erst begonnen, die Auswirkungen der Befreiung der virtuellen Computerumgebung von den durch die Hardware auferlegten Beschränkungen zu sehen. Wahrscheinlich werden auch die Unterschiede zwischen virtualisiertem Computing, virtueller Realität und der traditionellen Welt der physischen Erfahrung noch stärker verschwinden. In vielerlei Hinsicht ist die Geschwindigkeit der Veränderungen in der heutigen Computertechnik durch unsere Fähigkeit begrenzt, Veränderungen zu verarbeiten, wenn sie auftreten, und neue Möglichkeiten voll auszuschöpfen, wenn sie sich entwickeln. Doch Automatisierungs- und Intelligenzfähigkeiten werden wahrscheinlich nahezu jede Funktion, Vertikale und Domäne umkrempeln, neue Effizienzpotenziale freisetzen und den Fokus der Arbeit der Menschen dramatisch verändern.
Vielleicht wird die Virtualisierung von Computern und Alltagserfahrungen die Geschwindigkeit erhöhen, mit der wir zukünftige Veränderungen verarbeiten können. Wenn das der Fall ist, könnten zukünftige Computer und zukünftiges Leben im Allgemeinen für uns völlig unkenntlich sein, wenn wir jetzt einen Blick darauf werfen würden, obwohl wir wahrscheinlich sowohl die Schöpfer als auch Teilnehmer dieser Zukunft sein werden. Indem wir die Welt verändern, verändern wir uns selbst.