Management von verteilten Multiclouds
Die informationstechnologische Zukunft gehört klar der Cloud. Doch einseitige Abhängigkeiten von einzelnen Anbietern oder Standorten sorgen für neue Probleme. Abhilfe schaffen Multicloud-Konzepte. Das Management einer solchen diversen Landschaft ist bisher aber noch recht aufwendig. Ein Werkzeug in fortgeschrittenen Cloudumgebungen könnten zukünftig Multicloud-Würfel sein, die Themen wie Performance und Security gebündelt über alle Ebenen hinweg abbilden und das Management vereinfachen.
Je elementarer die Cloud als Infrastruktur wird, desto vielfältiger werden die Variationen und Abhängigkeiten. Seit einiger Zeit hat sich für diesen Trend der Begriff Multicloud etabliert. Die Definitionen, was Multicloud eigentlich genau bedeutet, fallen jedoch teils weit auseinander. Nichtsdestotrotz sehen sich immer mehr IT-Abteilungen herausgefordert, das Management solcher heterogenen Cloudlandschaften zu optimieren. Ab wann man eigentlich von einer Multicloud sprechen kann, welche Herausforderungen ihr Management birgt und wie dieses sich durch das Konzept des Multicloud-Würfels vereinfachen ließe, diskutiert dieser Beitrag.
Multicloud ist vorprogrammiert
Egal ob IT-Verantwortliche eines Tages aufwachen und realisieren, dass sie mehrere Clouds im Einsatz haben, oder bewusst einen strategischen Ansatz fahren: Die Multicloud ist meistens schon da, bevor sich IT-Verantwortliche dem Thema gezielt zuwenden. Nicht selten entsteht eine Multicloud-Landschaft ganz von allein, beispielsweise durch einen Zusammenschluss oder eine Übernahme. Andere, meist größere Unternehmen wiederum, gewähren einzelnen Abteilungen große Autonomie über die Kaufentscheidungen ihrer IT und damit die Wahl einer Cloud. Dann wiederum gibt es das altbekannte Problem der Schatten-IT.
Darüber hinaus sind moderne Applikationen aufgrund ihrer vielfältigen Abhängigkeiten ohnehin bereits in der Multicloud angekommen. Ein Beispiel wäre eine Webapplikation die zum Beispiel in einem Container auf AWS ECS läuft (Systeminfrastruktur-Service), zur Authentisierung von Anwendern Microsoft Azure AD verwendet (Applikationsinfrastruktur-Service), mittels SAP-API den Standort des Kunden erhält (Softwareplattform-Service) und Wetterdaten von der IBM The Weather Channel API anzeigt (Informations-Service). Hier verlassen wir das klassische Verständnis von Multicloud als die Nutzung mehrerer Hyperscaler-Clouds und erweitern es um weitere Ebenen beziehungsweise Layer. Im Grunde lässt sich also sagen, dass jede Multicloud-Strategie einen gewachsenen Zustand nachträglich in geordnete Bahnen lenken soll.
Entwickler – Lost in (Cloud) Translation
Am Ende der Kette von Geschäftsentscheidern und IT-Verantwortlichen stehen die Cloudarchitekten, die DevOps-Teams oder Product Owner, die für die Ausführung der Managementvision verantwortlich sind. Doch auch sie verstehen Multicloud noch viel zu häufig als bloßes Verschieben von Applikationen oder Workloads zwischen verschiedenen Hyperscaler Clouds, beispielsweise über Container-Architektur. Gleichzeitig besitzen sie meist eine bestimmte Cloudheimat, mit der sie sich am besten auskennen.
Dabei erfordert selbst der effektive Betrieb einer Single-Cloud-Umgebung eine steile Lernkurve. Zwischen den unterschiedlichen Clouds wiederum bestehen fundamentale, "philosophische" Unterschiede. Um ein und dieselbe Aufgabe in der AWS oder der Google Cloud zu lösen, müssen Programmierer Schlüsselkonzepte von Grund auf neu lernen oder intelligent abstrahieren.
Die Wahl der jeweiligen Cloudservices und APIs für eine Applikation sollte deshalb eine sehr bewusste und informierte Entscheidung sein, die sich ebenfalls nur mit einem funktionierenden Multicloud-Management treffen lassen. Einer der teuersten Fehler bei modernen Cloudarchitekturen ist es, unbeabsichtigt in komplexe Multicloud-Setups hineinzurutschen, die eine unnötige Komplexität im Management der Compliance, Sicherheit, Performance und Kosten mit sich bringen.
Für das technische Management und die Verwaltung von komplexen Microservices-Architekturen gibt es Service-Mesh- und API-Management-Plattformen (zum Beispiel Istio, Linkerd, RapidAPI), auf die wir in diesem Artikel nicht tiefer eingehen.
Von mehreren Seiten sehen: Multicloud-Würfel
Zur Konzeptionalisierung von Multicloud-Umgebungen eignet sich ein dreidimensionales Koordinatensystem. Dieser "Multicloud-Würfel" besitzt die folgenden Achsen:
Auf der X-Achse die unterschiedlichen API und Service Provider, die in einem Workload zum Einsatz kommen – diese Achse kann beliebig nach rechts wachsen, je mehr unterschiedliche Services Verwendung finden.
Auf der Y-Achse die unterschiedlichen Services-Layer die in einem Workload genutzt werden, zum Beispiel Infrastruktur-, Plattform- oder Informations-Services.
Auf der Z-Achse, die räumliche Dimension, bei der Cloud angefangen, über Data Center, verteilte Server- und Edge-Umgebungen bis hin zum Endpoint, wo Services eines Workloads aufgerufen werden.
Mithilfe dieses Modells ist es möglich, Applikationen und ihre Multicloud-Bezüge präzise zu verorten. Natürlich ist das Modell verhältnismäßig aufwendig. Gleichzeitig ermöglicht es jedoch den Applikationsverantwortlichen, wirklich alle Services und APIs zu veranschaulichen, die in einem Workload zum Einsatz kommen. Dies sind die Services und APIs die gemanagt, geregelt und gesichert werden müssen.
Verantworten das Cloud-Center-of-Excellence- (CCoE) und das Cloud-Platform-Operations-Team (CPO) viele unterschiedliche, komplexe Workloads, wird aus der Überlagerung der Multicloud-Würfel deutlich, welche Komplexität, welche Vielfalt und welche Dynamik die Verantwortlichen kontinuierlich beherrschen und managen müssen.
Die richtige Toolstrategie fürs Cloudmanagement
Um diese Dynamik zu beherrschen, reichen bewährte Werkzeuge aus dem I&O-Werkzeugkasten meist nicht mehr aus. Dedizierte Cloudmanagement-Tools sind zwingend notwendig. Ein wichtiges Auswahlkriterium ist, dass die Werkzeuge Daten automatisch und möglichst aktuell akquirieren und AI-gestützt funktionieren. Hierzu setzen wir auf eigene Entwicklungen und ergänzen diese durch bewährte Managementtools.
Der Markt für Cloudmanagement-Plattformen und -Tools ist sehr dynamisch und weist in den letzten Jahren eine sehr schnelle Evolution mit vielen Newcomern und Mergern auf. Dabei haben hier mittlerweile auch die Hyperscaler nachgelegt und unterstützen teilweise schon Multicloud-Management.
Die beste Strategie ist deshalb der Einsatz der Cloudmanagement-Tools, die der primäre Hyperscaler im Portfolio hat. Diese Tools lässt sich dann selektiv ergänzen. Das gilt insbesondere in den Bereichen, die der Kunde dem Hyperscaler nicht zutraut, wie zum Beispiel eine faire Kosten- und Workload-Optimierung oder die Umsetzung hybrider Umgebungen mit traditionellem Data Center oder verteilten Servern. Es gibt eine große Auswahl an guten Cloudmanagement-Tools, die sich in der Praxis bewährt haben.
Allrounder für Cost & Security Management
Die wichtigsten Disziplinen sind Kosten- und Security-Management. Hier können Allrounder-Tools wie Flexera und CloudSphere unterstützen. Weitere Funktionalitäten, die Unternehmen evaluieren sollten, sind Application Discovery und Service Mapping. Sie müssen dabei genau abwägen, welche Teilfunktionalitäten sie von den native Cloudmanagement-Werkzeugen der Hyperscaler einsetzen und welche sie von anderen Anbietern nutzen. Oft sind die nativen Cloudmanagement-Tools der Hyperscaler in ihrem jeweiligen Cloudumfeld sehr leistungsfähig und kostengünstiger als Drittlösungen.
Für Cloudumgebungen der mittleren Komplexität können Unternehmen Multi Cloud Broker Services zum Beispiel von Skaylink einsetzen. Für sehr umfangreiche Cloudumgebungen im Enterprise-Segment bieten sich zudem dedizierte Cloud-Brokerage-Plattformen an.
Self-Service-Tools für DevOps
Teams, die in einer DevOps-Kultur mit schnellen Release-Zyklen arbeiten, wollen moderne, elegante Self-Service-Tools, die sich einfach in ihre DevOps-Toolchain integrieren lassen, etwa Morpheus oder Turbot. Diese Cloudmanagement-Plattformen sind von der DevOps-Perspektive her gedacht und für DevOps-Szenarien gemacht.
Die Integration mit führenden Hyperscaler- und Private-Cloud-Umgebungen rückt traditionelle I&O- (Data-Center-Operations) und DevOps-Teams näher zusammen, und ermöglicht durchgängiges Kubernetes- oder Infrastructure-as-Code-Management on-premises und in der Cloud.
Einige Plattformen bieten zudem ein regelbasiertes Management in Echtzeit, inklusive Sicherheitsrichtlinien, was für sicherheitskritische Umgebungen relevant ist. Dazu vergleichen sie permanent den Zustand der Cloudumgebung mit den definierten Regeln und Richtlinien und führen vordefinierte Aktionen bei Richtlinienverletzungen aus, zum Beispiel Alerts oder Kommunikationsbeschränkungen. Damit ermöglichen diese Tools die Einhaltung von Governance-Richtlinien für unabhängig voneinander arbeitende (oft auch externen) DevOps-Teams in stark regulierten Organisationen mit komplexen Kontrollen.
Traditionelle I&O-Manager
Unternehmen, die sich in der Digitalen Modernisierung befinden, haben oft weiterhin umfangreiche Umgebungen in Rechenzentren oder in verteilten Serverumgebungen, die jetzt zusammen mit Cloud-Services gemanagt werden müssen. Da greifen Hyperscaler-native Cloudmanagement-Tools oft zu kurz. CloudHealth, CloudBold und IBM (RedHat) Cloud Pak for Multicloud Management können hier gute Ergänzungen oder Alternativen sein.
Wichtige Auswahlkriterien sind hier die Workload-Optimierung von On-Premises- und Cloud-Workloads. Unternehmen sollten darauf achten, welche Aktionen sie nahtlos lokal und in der Cloud automatisieren können und wie die Workload-Verlagerung oder -Skalierung erfolgt. Selbst Unternehmen, die noch Mainframe- oder AS/400 Umgebungen in der Cloudmodernisierung verwalten, müssen finden entsprechende Ergänzungen in modernen Cloudmanagement Tools.
Fazit
Die Multicloud ist unausweichlich. Das Modell des Multicloud-Würfels ist ein erster Ansatz, um die eigene Multicloud-Landschaft besser zu verstehen und zu beginnen, einheitliche Parameter zu schaffen, um sie in ihrer Gänze zu optimieren. Auch in Sachen Tools und Plattformen, die auf Modellen wie dem Multicloud-Würfel basieren und die eine zentrale und automatisierte Steuerung ermöglichen und die Grundlage für strategische Entscheidungen bilden, besteht noch Entwicklungsbedarf.
Autor: Silvio Kleesattel, Technology & Innovation Lead bei Skaylink