In einem Interview mit dem Handelsblatt im Juli 2019 erklärte der damalige CEO von AWS und heutige Amazon-Chef, Andy Jassy: “In zehn oder 20 Jahren werden die meisten Unternehmen keine eigenen Rechenzentren mehr haben. Nur Aufgaben, bei denen es auf die Nähe ankommt – zum Beispiel in einer Fabrik – werden künftig noch vor Ort erledigt.“
Diese kühn skizzierte Ära von Jassy wird auf absehbare Zeit nicht eintreten, denn in den 5 Jahren seit dem Interview wurde die Devise „Cloud-first“ (oder gar „Cloud-only“) abgelöst durch einen Trend zu einem hybriden Ansatz. Einige Gründe für die „Cloud Repatriation“ können Sie auch in meinem Blogpost Cloud Repatriation: Warum Unternehmen Workload ins eigene RZ zurückholen nachlesen – die hohen Kosten zählen sicherlich dazu.
Gleichwohl gilt, dass das Wachstum von Hyperscaler-Rechenzentren ungebrochen ist, befeuert nicht zuletzt von der wachsenden Nachfrage nach KI-Anwendungen. Amazon allein will in diesem Jahr 75 Milliarden Dollar investieren, Tendenz steigend. Allein in diesem Jahr gibt die gesamte Branche einer Auswertung der Nachrichtenagentur Bloomberg zufolge mehr als 200 Milliarden Dollar für Server, Chips und Datencenter aus.
Das Wachstum im RZ-Bereich insgesamt ist beeindruckend: Von 2015 bis 2022 stieg die Zahl von 54 Millionen auf 86 Millionen Server; dies entspricht einem Wachstum von 45 % bei Servern in den letzten sieben Jahren.
Mag Andy Jassy bei der Prognose für den Hyperscaler-Markt zu kühn gewesen sein, seine Analyse der Treiber von Trends und Change-Faktoren war zutreffend: Nämlich die zahlreichen Herausforderungen, die sich für Rechenzentrenbetreiber ergeben aus der zunehmenden Komplexität der IT Landschaften und aus den wachsenden Anforderungen an die Datenanalyse; Letzteres erfordert eine alles andere als triviale Zusammenführung von Datenströmen unterschiedlichster Natur in auswertbaren Data Lakes, und die Generierung von geschäftsrelevanten Erkenntnissen mithilfe von Data Science aus eben diesen Daten. Jassy vermutet, dass Public Cloud Betreiber bzw. Hyperscaler am besten aufgestellt seien, um mit dieser wachsenden Komplexität umzugehen.
Lassen Sie uns einen Blick auf einige der Kernherausforderungen, mit denen RZ-Betreiber heute konfrontiert sind. Die Herausforderungen von Hyperscalern einerseits, und Rechenzentren von Unternehmen andererseits mögen in manchen Punkten abweichen – aber es gibt eine große Schnittmenge.
Zunehmende Heterogenität von IT Ökosystemen im RZ
Im Rechenzentrum finden sich heutzutage heterogene Ökosysteme: Neben dem Mainframe (68% aller IT Workload wird noch immer auf Mainframes verarbeitet) hat sich längst die Server-Technologie etabliert, also: neben z/OS solche Betriebssysteme wie Linux und Windows. On-Prem Applikationen kommunizieren mit Cloud-basierten Systemen, die Container-Technologie macht sich breit. Manch kritische Systeme werden redundant in Cloud und On-Premises betrieben.
Neben wachsender Heterogenität im RZ müssen Betreiber wachsende Anforderungen an SLAs, DevOps und Ähnliches erfüllen.
Es gibt eine Reihe von Antworten auf diesen Mix an Herausforderungen und Anforderungen:
Erstens, NextGen Applikationen, die vom Design auf eben diese hybriden Systemlandschaften ausgelegt sind. Das sind etwa Workload Automation Applikationen wie ANOW!, die integrierend und System-übergreifend hybride Cloud-Instanzen, On-Prem Applikationen und Mainframe-Ökosysteme bespielen. Vergleiche folgenden Blogpost: Wie sich Workload Automation Software aktuellen Trends und neuen Anforderungen anpasst
Zweitens: Um die Interoperabilität von Cloud- und On-Premise-System sicherzustellen, greifen Unternehmen vermehrt auf bewährte Standards wie RESTful APIs und Message Brokering zurück.
Und, drittens: Gerade der parallele Betrieb von On-Premises- und Cloud-Umgebungen erfordert in der Regel eine Standardisierung von Prozessen und Technologien. Dies geht anfangs mit Aufwand einher, führt langfristig aber auch oft zu Effizienzsteigerungen.
Die Ära von Large Data im RZ
Der IDC prognostiziert, dass die weltweite Datenmenge bis 2026 auf 221 Zettabyte anwachsen wird. Heißt: 221.000.000.000.000.000.000 bytes.
Daten waren für daten-basierte Entscheidungen schon immer wichtig, werden im Zusammenhang mit Künstlicher Intelligenz gerne auch als das „neue Gold“ bezeichnet. Denn umso mehr Daten zur Verfügung stehen, umso besser kann das darauf basierende KI-Modell werden (vergleiche dazu auch den nachfolgenden Abschnitt zu „Ära der KI für RZ“).
Die Werthaltigkeit dieses „neuen Golds“ ist an diverse Voraussetzungen geknüpft, was wiederum die Herausforderungen bestimmt. Nehmen wir das Beispiel eines global operierenden Herstellers, der eine hybride Cloud-Strategie verfolgt. Hier ergeben sich erhebliche Herausforderungen bei der Harmonisierung und Standardisierung der Daten zu einem nutzbaren Data Lake, aus vielfältigen Quellen wie Legacysystemen, externen Partner-APIs und cloudbasierten SaaS-Lösungen. Dabei erfordert die Vielfalt an Formaten und Strukturen eine sorgfältige Transformation, um sicherzustellen, dass die Daten korrekt interpretiert und weiterverarbeitet werden können. Ohne eine präzise Anpassung können Analysefehler entstehen, die im schlimmsten Fall sogar rechtliche Konsequenzen nach sich ziehen.
Nach verschiedenen Quellen sind aktuell rund 60% von Unternehmensdaten in der Cloud gespeichert (vgl. Statista oder Forbes). Es gilt aber auch, dass ein großer Teil der weltweiten Unternehmensdaten auf Mainframes gespeichert sind bzw. dort ihren Ursprung haben; ein Blog von Rocketsoftware beziffert dies gar auf 80 Prozent der weltweiten Unternehmensdaten – das ist natürlich nicht stimmig zum weiter oben genannten Datenvolumen in der Cloud, aber beide Zahlen lassen sich nicht ohne erheblichen Aufwand überprüfen.
Fazit bleibt: die Menge an Daten aus dem Mainframe ist signifikant. Und darum ist es kaum überraschend, dass die Nutzbarmachung dieser auf dem Mainframe gespeicherten bzw. generierten Daten ein wichtiges Thema ist. Das Unternehmen Model9 (von BMC in 2023 akquiriert) hatte etwa dies als Zielsetzung: Die Daten auf dem Mainframe für Cloud-basierte Anwendungen zugänglich machen.
Und zum Schluss der Vollständigkeit halber: Rechenzentren müssen außerdem Datensicherungs- und Wiederherstellungspläne priorisieren, um die Datenintegrität zu gewährleisten und eine schnelle Wiederherstellung im Falle eines Systemausfalls oder einer Katastrophe sicherzustellen.
Die Ära der KI
Der Run auf KI, der mit der Veröffentlichung von ChatGPT im November 2022 begann, hält nach wie vor an – trotz zwischenzeitlichen Unkenrufen. Dazu mehr in meinem Blog Wo stehen wir bei KI im Gartner Hype Cycle?
Die hohe Nachfrage nach GPU-Chips ist bekannt, ebenfalls die damit verbundenen hohen Investitionen. Und hieraus resultieren insbesondere für die Hyperscaler die Herausforderungen. Dazu das Handelsblatt:
”Die hohen Investitionen sind eine gigantische Wette auf eine Zukunft, in der Amazon [und andere Hyperscaler] und seine Cloud-Kunden mit neuen KI-Diensten Traummargen verdienen. (…) Infolge des Booms könne es dabei durchaus zu Übertreibungen kommen, sagte Hamilton. Ein sogenannter „overbuild“ der Branche – also mehr Server- oder Energieinfrastruktur als zur Befriedigung der Nachfrage benötigt werde, sei grundsätzlich möglich. (…) Die Parallelstrukturen, die so zwangsläufig entstehen, könnten infolge eines Technologiesprungs schnell an Wert verlieren; eine überraschende Innovation könnte den Markt drehen. Manche Analysten beobachten das Wettrennen der Tech-Konzerne deshalb mit Sorge. Amazons Aktienkurs war im August um mehr als 20 Prozent gefallen, nachdem der Konzern stark steigende Investitionen gemeldet hatte.“
Und sonst? – Standortwahl, Energieverbrauch, Cyber Security, …
Der Strombedarf der Rechenzentren steigt noch immer an, nicht zuletzt aufgrund der hohen Nachfrage nach KI-Anwendungen. Zwar können Halbleiterhersteller (v.a. Nvidia, AMD) können die Energieeffizienz ihrer Hardware zwar immer weiter verbessern, doch das Gesamtwachstum bei der Datenproduktion und den Rechenanforderungen übertrifft weiterhin die Verbesserungen.
Der Wandel der Standortstrategien für KI-Trainingsknoten zeigt eine Verlagerung in Regionen mit robusten Glasfaserinfrastrukturen und verfügbarer Energie, wie die 41. Breitengradlinie in den USA. Diese Regionen gelten nun als virtuelle „Top-Lagen“ für Rechenzentren. Hyperscaler konzentrieren sich auf „power-first“-Standorte wie Council Bluffs, Iowa, und Lancaster, Texas. Und KI-Workloads mit geringerer Latenzempfindlichkeit treiben die Nachfrage in Regionen mit günstigeren Stromkosten und Steueranreizen.
In Deutschland ist im Übrigen der Großteil der modernen Rechenzentren im Raum Frankfurt angesiedelt – nicht zuletzt aufgrund des DE-CIX Frankfurt: dem größten Internetknoten der Welt gemessen am Datendurchsatz.
Die Sicherung der Stromversorgung ist strategisch, Hyperscaler fokussieren sich zunehmend nicht nur auf die Beschaffung, sondern auch die Erzeugung. Etwa Amazon investiert bereits in nukleare Mikroreaktoren, was als als potenzielle Lösung für langfristige Nachhaltigkeit diskutiert wird. Und da es auch um gesellschaftliche Akzeptanz für das Geschäftsmodell der Hyperscaler geht, setzen Unternehmen und KI-Anbieter verstärkt auf erneuerbare Energien setzen.
Und last but not least: Die Cybersicherheit ist in den letzten Jahren zu einem noch kritischeren Thema geworden. Der Anstieg von Cyberbedrohungen und das Potenzial für Datenpannen haben Rechenzentrumsbetreiber dazu veranlasst, ihre Sicherheitsmaßnahmen zu verstärken. Die Antworten: Implementierung robuster Cybersicherheitsmaßnahmen, verbesserte Verschlüsselungstechnologien, Systeme zur Echtzeitüberwachung von Bedrohungen, Schulungsprogramme für Mitarbeiter.