Der historische Wandel der digitalen Transformation
Der Begriff "Digitale Transformation" kursiert erst seit wenigen Jahren in unserem Sprachgebrauch – und doch haben in der jüngeren Geschichte mehrere wellenartige digitale Transformationen ihre Spuren hinterlassen. Angefangen bei den Großrechnern von IBM in den 1950er-Jahren bis zur heutigen Datenspeicherung in der Cloud. Ein Blick in die Historie zeigt, dass die Digitale Transformation kein einmaliger Schritt, sondern ein laufender Prozess ist, getrieben von der kontinuierlichen Entwicklung der Technologien, die Unternehmen neue Möglichkeiten bietet und zugleich vor neue Herausforderungen stellt.
Neue Technologien mit disruptivem Potenzial sehen sich zu Beginn großer Skepsis gegenüber. Häufig liegt dies daran, dass deren Tragweite sich anfangs nicht ermessen lässt. Das 20. Jahrhundert ist gespickt mit Fehleinschätzungen technischer Innovationen, darunter von führenden Persönlichkeiten der Branche. So prognostizierte IBM-Chef Thomas Watson einen Weltmarkt von höchstens fünf Computern. Auch das Internet wurde 1996 noch mit einer Supernova verglichen, die in einer Katastrophe untergehen wird – und das von Robert Metcalfe, dem Erfinder von Ethernet. Selbst Smartphones wurden noch vor 13 Jahren als nicht ansprechend bezeichnet – von niemand geringerem als dem damaligen Microsoft-Chef Steve Ballmer.
Heute ist das Bewusstsein für das unentdeckte Potenzial neuer Technologien deutlich stärker ausgeprägt. Ein Großteil des IT-Budgets fließt inzwischen in digitale Transformation, um neue Technologien bestmöglich integrieren zu können. Die immer schnellere Entwicklung wird diese Ausgaben perspektivisch noch steigen lassen. Zusätzlich zum finanziellen Aufwand wird es dabei auch stark auf die Entschlusskraft der IT-Verantwortlichen ankommen, neue Technologien sinnvoll in die bestehenden Abläufe und Infrastruktur zu integrieren. Denn neben einem kurzfristigen Mehrwert legen diese mitunter auch den Grundstein für zukünftige Entwicklungen.
Am Anfang war der Mainframe
Als Thomas Watson im Jahr 1943 den Weltmarkt von fünf Computern prognostizierte, konnte er noch nicht wissen, dass seine Firma mehr als zehn Jahre später den ersten Dominostein umwerfen sollte, der die Geschäftslandschaft über die nächsten Jahrzehnte prägen würde. In den 1950er und 1960er Jahren fertigte IBM zunehmend Großrechner, deren Einsatzgebiet schnell über den militärischen und wissenschaftlichen Bereich hinausging. Banken und Versicherungen profitierten von den effizienten Berechnungen komplexer Operationen. Außerdem hatten sie den nötigen Platz und das nötige Geld, um sich die ersten Computer leisten zu können. Der IBM 1401 kostete auf die heutige Kaufkraft hochgerechnet schließlich rund 20.000 Dollar Miete im Monat.
Analog zu den Anforderungen des kaufmännischen Bereichs wurde Ende der 1950er Jahre die Programmiersprache COBOL für die komplexen Berechnungen großer Datenmengen entwickelt. Da damals wie heute umfangreiche Rechenoperationen im Unternehmenskontext zu den täglichen Aufgaben gehörten, sind sowohl Großrechner als auch COBOL-basierte Anwendungen auch nach über 60 Jahren noch fester Bestandteil großer IT-Infrastrukturen. Damit war die erste Transformation von rein analogen zu digitalen Vorgängen in vollem Gange.
Bahn frei für den Massenmarkt
Heute ist User Experience und intuitive Bedienung entscheidend, wenn neue Endgeräte auf den Markt kommen. Lange vor dem iPad scheiterte zum Beispiel das Microsoft-Tablet aufgrund des klobigen Designs und der Bedienung per Stift. Eine ähnliche Entwicklung haben PCs hinter sich: Die ersten Großrechner waren zwar eine sinnvolle Ergänzung im Unternehmen, aber nicht tauglich für den Massenmarkt, da sie schlicht zu groß waren und nur durch Experten bedient werden konnten.
Es dauerte bis zum Jahr 1977, bis mit dem Commodore PET erstmals ein "Personal Computer" betriebsbereit den Weg in ein kompaktes Gehäuse fand. Ein Jahr zuvor gab es den Apple I immerhin als Lego-Version in Einzelteilen zu erwerben. Mit Kaufpreisen von weniger als 1000 US-Dollar waren diese Geräte nun deutlich erschwinglicher und fanden den Weg in die Büros der Welt.
Für den Privatgebrauch waren diese frühen PCs jedoch nach wie vor ungeeignet, da die Eingaben ausschließlich über Kommandobefehle mit einer strengen Syntax erfolgten. Diese erforderte umfangreiche Einarbeitung und war somit alles andere als intuitiv. Es dauerte wieder einige Jahre, bis die nächste Entwicklungswelle über die Welt hereinbrach: 1984 kam der Macintosh von Apple auf den Markt und lieferte erstmals eine Schnittfläche zwischen Mensch und Technik in Form einer grafischen Benutzeroberfläche.
Ein Jahr später zog Microsoft mit dem Betriebssystem Windows 1.0 nach, die ersten User Interfaces, wie wir sie heute kennen, waren geboren. Die charakteristischen Fenster und Dialogboxen entwickelten sich im Laufe der 1990er Jahre zum Standard und beschleunigten die Verbreitung von Computern durch die einfache Bedienung bis in die Privathaushalte. Immer häufiger lösten sie nun mit Peripheriegeräten andere Installationen auf dem Schreibtisch ab. Kalender, Notizblöcke und Schreibmaschinen wurden zunehmend verbannt und durch Computer (in Verbindung mit Druckern) ersetzt. Damit war die digitale Transformation nun endgültig im Leben und im Alltag angekommen und nicht mehr nur auf den beruflichen Kontext beschränkt.
Die Welt-as-a-Service
Nach Großrechnern, PCs und intuitiven Nutzeroberflächen kam gegen Ende des letzten Jahrtausends die nächste disruptive Welle auf. Die großflächige Vernetzung einzelner Computer zum Informationsaustausch brachte das Internet in die Büros und Wohnzimmer. Kommunikation, Arbeitsweisen und Geschäftsmodelle wurden umgeworfen, verschwanden oder entstanden durch das Internet gänzlich neu. In Verbindung mit den aufkommenden Mobiltelefonen erreichte die Informations- und Kommunikationstechnologie einen neuen Höhepunkt und machte den Weg frei für die bis dato letzte Welle.
Die vernetzten Infrastrukturen und Anwendungen hatten einen ungeheuren Bandbreitenbedarf und hohen Wartungsaufwand zur Folge. Aufgrund der zunehmenden Vernetzung und der verfügbaren Bandbreite begannen Clouddienste dafür zu sorgen, dass Daten nicht mehr zwingend lokal gespeichert werden müssen. "As-a-Service"-Angebote entlasteten die IT-Teams und brachten erneut neue Geschäftsmodelle der Plattformökonomie hervor.
Den IT-Administratoren fällt im Ringen um die besten Technologien natürlich die herausfordernde Aufgabe zu, die für ihr Unternehmen passenden Services herauszufiltern und einzusetzen. Damit tragen sie entscheidend zum wirtschaftlichen Erfolg des Unternehmens bei, denn nur, wenn digitale Transformationen nicht verschlafen werden, kann ein Unternehmen wettbewerbsfähig sein und bleiben.
Die Halbwertszeit sinkt
Heute stehen bereits verschiedene Technologien in den Startlöchern und kurz vor der Marktreife, die erneut das Potenzial haben, die nächste Disruptionswelle darzustellen. Virtual Reality, Künstliche Intelligenz, 5G und Quantencomputer werden in absehbarer Zeit Unternehmen vor die Entscheidung stellen, inwiefern sie das bestehende Portfolio sinnvoll erweitern oder vernachlässigbar sind. Die Entscheidungen werden nie leichtfallen, denn nicht immer erschließt sich das volle Potenzial auf den ersten Blick und so manches Unternehmen, das früher den Markt dominierte, ist heute verschwunden, weil es die Zeichen der Zeit nicht erkannt hat.
Nicht nur die unmittelbaren Auswirkungen, sondern auch die langfristige Entwicklung ist dabei entscheidend, denn die einzelnen Entwicklungsschritte bauen unmittelbar aufeinander auf. Was heute also nutzlos erscheint, kann in wenigen Jahren die entscheidende Grundvoraussetzung sein, um "the next big thing" ausschöpfen zu können.
Fazit
Ohne Mainframes gäbe es heute keine Computer und ohne das Internet wären keine Clouddienste möglich. IT-Entscheider müssen sich darüber im Klaren sein, dass jede Welle in der Lage ist, die Grundfesten der technologischen Welt aufs Neue zu erschüttern. Die Frage wird sein, ob IT-Verantwortliche das Potenzial rechtzeitig erkennen werden, um neue Services zu antizipieren und für sich zu nutzen.
Hierbei kommt auch den IT-Administratoren eine Schlüsselrolle zu, die mit der Hand am digitalen Steuerrad des Unternehmens den zukünftigen Kurs maßgeblich mitbestimmen werden und eine ebenso große Verantwortung tragen. Denn die digitale Transformation ist kein Zahnarztbesuch, den es hinter sich zu bringen gilt, sondern ein laufender Prozess, der in immer kürzeren Abständen neue Chancen und Herausforderungen mit sich bringt.
Autor: Joe Garber, Vice President Strategy & Solutions bei Micro Focus