Der Siegeszug des Mainframe bzw. des Großrechners begann in den 1950er Jahren, ein Meilenstein war etwa das Modell IBM 360 (im Jahr 1964). Als einige Jahrzehnte später die Client-Server Technologien aufkamen, schien indes für manche Beobachter das Ende des Mainframe eingeläutet: Es wurde geunkt, im 21ten Jahrhundert würde der Mainframe keine Rolle mehr spielen.

Zwar läuteten Kolumnisten und IT Analysten das Ende des Mainframe immer wieder ein; aber die Technologie zeigte sich so robust wie wandlungsfähig – allen Untergangsprophezeiungen zum Trotz. Wenn Sie heute ein Bankkonto, das Gesundheitssystem, verschiedene Behördendienste und Versicherungen nutzen, ist die Wahrscheinlichkeit groß, dass die Transaktionen über Mainframes abgewickelt werden.

Dieser Blog beantwortet die Frage: Welche Bedeutung hat der Mainframe eigentlich noch? Was sind spezifische Stärken und Schwächen? Und wie zukunftsfest ist die Mainframe-Technologie?

Übrigens gilt: Wenn wir über den Mainframe sprechen, dann beziehen wir uns in der Regel auf den Mainframe des IT Pioniers IBM. Zwar bieten auch Unternehmen wie Tandem, Fujitsu, Siemens, Unisys, Hitachi oder NEC einen Mainframe; das US-Unternehmen IBM jedoch dominiert ganz klar den Mainframe-Markt mit einem Anteil von rund 90%.

Bedeutung des Mainframe

Der Mainframe hat insbesondere in jenen Industrien eine hohe Relevanz, die ein hohes Volumen an Transaktionen abarbeiten müssen. Darunter fallen Banken und Finanzen, Händler, Versorgungsunternehmen, Gesundheitswesen und Regierungen. Etwa 87% (!) aller Kreditkartentransaktionen werden vom Mainframe verarbeitet. So ist es auch nicht verwunderlich, dass 92 der 100 größten Banken weltweit weltweit ihr Kerngeschäft auf Mainframes betreiben; und branchenübergreifend gilt das für 71 % der Fortune-500-Unternehmen.

Weltweit sind mehr als 10 000 Großrechner im Einsatz, hauptsächlich bei Banken und Finanzdienstleistern. Um das Volumen an abgewickelten Transaktionen einmal greifbar zu machen: Während bei Google ca. 68 542 Transaktionen (Suchanfragen) pro Sekunde abgewickelt werden, verarbeiten die heute betriebenen Mainframes etwa 1,3 Millionen Transaktionen pro Sekunden [sic!].

Nicht nur bei der Verarbeitung von (Massen)Transaktionen kann der Mainframe seine Stärken ausspielen. Auch im Maschinenlernen und für die Blockchain wird der Mainframe eingesetzt.

Vorteile des Mainframe

Die wesentliche Stärke des Mainframe besteht darin, dass er große Datenmengen hocheffizient verarbeitet. Und zwar deutlich effizienter als Cloud und herkömmliche Server. Zwar gewannen herkömmliche Server immer wieder an Rechenleistung, bislang jedoch konnte der Mainframe den Vorsprung jedoch halten.

Auch beim Thema Security hat der IBM Mainframe die Nase vorn. Und gerade Security gewinnt angesichts dynamisch ansteigender Cyber Attacken und Schäden durch Cyber Kriminalität immer mehr an Bedeutung (vgl. auch den Blogpost: Kleine Chronik der Cyber Attacken). IBM gibt an, dass seine Mainframes Daten 18-mal schneller verschlüsseln können als x86-Plattformen (herkömmliche Chiparchitektur).

IBM führt zudem das Kostenargument auf. Nach eigenen Angaben entfallen auf Mainframe-Systeme weltweit nur 6 % der IT-Kosten, obwohl sie 68 % der IT-Arbeitslasten in der Produktion bewältigen. Dabei gilt: Je größer die Arbeitslast, desto kosteneffizienter sind sie. Mainframe-Technologie arbeitet in der Regel mit einer CPU-Effizienz von nahezu 100 %, während die meisten Intel-basierten Serverfarmen eine Auslastung von weniger als 60 % aufweisen, was eine bessere Rendite für die Investitionsausgaben bedeutet. Gleichwohl gilt, dass manche IT Prozesse unter Berücksichtigung der Lizenz- und Preispolitik von IBM auf Serverfarmen kostengünstiger laufen. Pauschal kann ein Kostenvorteil für den Großrechner nicht geltend gemacht werden.

Nachteile und Herausforderungen rund um den Mainframe

Die #1 Challenge rund um den Mainframe ist – so sehe ich das – nicht eigentlich eine Herausforderung, welche die Technologie betrifft; sondern vielmehr eine Herausforderung, welche aus der Legacy Software herrührt, die auf Mainframes läuft. Konkret: 1959 wurde (u.a. von IBM) die durchaus mächtige Programmiersprache COBOL entwickelt (COmmon Business-Oriented Language). Heute laufen auf Mainframes COBOL-Programme mit geschätzten 220 Milliarden Lines of Code (LOC) in COBOL. Das entspricht etwa 300 Regalkilometer [sic!] Akten (beidseitiges bedrucktes A4 Papier, 30 Zeilen pro Seite).

Das Problem: Die Anzahl der Mainframe-/COBOL-Entwickler geht kontinuierlich zurück. In den letzten Jahren haben zudem einige Universitäten COBOL-Kurse aus den Lehrplänen gestrichen. IBM hat darum mehrere Initiativen gestartet, diese Fachkräftelücke zu entschärfen. Beispielsweise startete IBM in Zusammenarbeit mit dem Open Mainframe Project der Linux Foundation eine Reihe von Initiativen, um das Interesse und den Zugang zu COBOL für neue Programmierer zu fördern. Im Rahmen der IBM Z Academic Initiative arbeitet das Unternehmen mit über 120 US-Schulen (in der Nähe von IBM Kunden) zusammen, um wichtige Enterprise Computing-Inhalte in den Lehrplan zu integrieren. Diese Kurse beinhalten oft eine Einführung in COBOL.

Aber: Die Herausforderung rund um den Legacy Code bleibt weiterhin enorm – trotz dieser Initiativen. Die Fachkräftelücke ist die #1 Challenge für Unternehmen mit Mainframe.

Neben dieser zentralen Herausforderung nimmt sich die Klage über langsame Entwicklungszyklen als eher kleinere Herausforderung aus. „Die Entwicklungszyklen sind langsam – in der Regel werden sie in Quartalen oder Jahren gemessen“, sagt etwa Jedidiah Yueh, Gründer und CEO von Delphix. „Tech-Giganten dagegen veröffentlichen neue Software tausende Male pro Jahr.“ Betrachtet man die Upgrade-Zyklen und monatelangen Testphasen vor dem GoLive neuer Software in der Finanzindustrie, relativiert sich diese Betrachtung durchaus. Der Updatezyklus einer eCommerce-Webseite ist mit dem Update-Rhythmus von Kernanwendungen einer Unternehmens-IT einfach nicht vergleichbar. Nichtsdestotrotz gilt im Übrigen, dass DevOps und derlei mehr auch im Mainframe-Umfeld zunehmend Einzug halten.

Fazit und Ausblick: Die Zukunft des Mainframe

Totgesagte leben länger – Die anhaltend hohe Relevanz des Mainframe (trotz aller Unkenrufe) hat natürlich gute Gründe; und diese Gründe haben absehbar auch für die Zukunft Bestand, was dem Mainframe – soviel sei vorweg verraten – eine positive Prognose für die Zukunft verschafft. Schauen wir uns das im Einzelnen mal an.

Erstens, der Mainframe hat – das habe ich weiter oben bereits ausgeführt – seinen Vorsprung bei der effizienten Verarbeitung großer Datenmengen kontinuierlich verteidigt; es ist plausibel anzunehmen, dass dies auch in Zukunft gelingt.

Zweitens, trotz der genannten Problematik um die Legacy-Software in COBOL gilt: Der Mainframe passt sich allmählich an neue Anwendungsfälle und moderne Technologien an. Der Mainframe lässt sich für Künstliche Intelligenz (z.B. Tensorflow) nutzen, für Blockchain. Man kann auf dem Mainframe Mainframe-Betriebssysteme wie z/OS verwenden, aber auch Linux. Mainframes können auch Docker-Container ausführen. Anwendungen wie Red Hat OpenShift und andere Open-Source-Anwendungen sind auf Mainframes verfügbar. Eine Entwicklung ist auch mit modernen Open-Source-Sprachen wie Apache SparkML, Python und Scala möglich – ebenso JavaScript oder C++. Das macht den Mainframe attraktiver für junge Programmierer.

Drittens, der Mainframe und Mainframe-Anwendung bilden in zahlreichen Unternehmen den Kern von IT- und Geschäftsprozessen, die über Jahrzehnte gewachsen sind und eine enorme Komplexität aufweisen. “We like to say that the mainframe, legacy, or back-office applications hold an accumulation of 30 to 40 years of business process and regulatory compliance evolution that is near impossible to replace,” said Lenley Hensarling, who is the chief strategy officer at Aerospike. “Why would you? Put your money in driving new capabilities that tie into those systems and add real value in terms of customer satisfaction, customer understanding, and increased efficiency in sales, supply chain, and product innovation.”.

Viertens, die Entwicklung der Umsätze sowie die Prognose der Analysten deuten an, dass der Mainframe noch keineswegs auf dem Abstellgleis gelandet ist. Nach dem Launch des neuen Mainframe-Modells IBM z15im September 2019 berichtete IBM einen Umsatzanstieg in der Größenordnung von 60% für die darauf folgenden Quartale. Und Gartner prognostizierte, dass die installierte Kapazität der Mainframes in den kommenden Jahren weiterhin steigen wird. John McKenny, Senior Vice President and General Manager bei BMC, illustriert diese Zahlen an einem Kundenbeispiel: “One of our customers in the financial services industry shifted their mainframe outlook from cost reduction to create a long-term strategy for the mainframe. Realizing the platform’s strength in resiliency, they added a new mainframe for their environment and expanded overall capacity to handle their business-critical applications, while leveraging the cloud to support their front-end applications.”

Wer die Frage nach der Zukunft des Mainframe stellt, wird auch folgende Beobachtung machen: Die Zukunft der IT Infrastruktur ist hybrid. Unternehmen werden nicht ausschließlich Software on-premise betreiben, noch sämtliche Anwendungen in die Cloud schieben; Unternehmen werden zudem verschiedene Cloud-Anbieter parallel nutzen (hybrid cloud strategy). Auch Public Cloud-Anbieter wie AWS stellen sich auf diese hybride Zukunft ein, etwa mit Angeboten wie AWS Outpost. Das heißt auch, dass der Mainframe neben Client-Servertechnologie weiterhin ausgewählte IT-Arbeitslasten übernehmen wird (Verarbeitung von Transaktionen, Blockchain, Maschinenlernen, etc.).

Fazit: Niemand kann die Zukunft des Mainframe vorhersagen, dafür unterliegt die Welt der Technologie einer zu hohen Dynamik; und diese Vorsicht bei Zukunftsprognosen sollte man nicht allein für die Mainframe-Technologie walten lassen. Allerdings darf man mit Blick auf die Einschätzung zahlreicher Experten und Beobachter konstatieren: Der Mainframe wird (mindestens) in der nächsten Dekade Teil der IT Infrastruktur in vielen Großunternehmen bleiben.

Zum Weiterlesen

Author

Der Autor ist Manager in der Softwareindustrie mit internationaler Expertise: Prokurist bei einem der großen Beratungshäuser - Verantwortung für den Aufbau eines IT Entwicklungszentrums am Offshore-Standort Bangalore - Director M&A bei einem Softwarehaus in Berlin.