Künstliche Intelligenz (KI) verändert rasant die Art und Weise, wie Unternehmen arbeiten. In der Eile, neue Modelle und Anwendungen bereitzustellen, bleibt jedoch ein entscheidender Bereich oft unbeachtet: das Netzwerk. Unternehmensnetzwerke sind das Rückgrat jeder KI-Initiative – vom enormen Bandbreitenbedarf beim Training von Modellen bis zu den Anforderungen an Echtzeit-Inferenzen am Netzwerkrand. Aber sind die heutigen Netzwerke wirklich dafür gerüstet?
Wer bereitet sich wie auf KI vor?
Eine aktuelle Studie von Enterprise Management Associates (EMA) befragte eine breite Gruppe von IT-Fachleuten, die aktiv an der Anpassung ihrer Netzwerke für KI-Workloads arbeiten. Alle teilnehmenden Unternehmen hatten bereits konkrete KI-Strategien in Umsetzung, und die meisten hatten erste KI-Anwendungen bereits in der Produktion eingeführt.
Der Überblick: Wo KI-Workloads zukünftig laufen
Ein zentrales Ergebnis der Studie: KI-Workloads verteilen sich zunehmend. Unternehmen betreiben sie nicht nur in Public Clouds, sondern auch in privaten und Co-Location-Rechenzentren sowie – immer häufiger – in Edge-Computing-Umgebungen.
Die Mehrheit plant den Einsatz proprietärer Large Language Models (LLMs) und klassischer Machine-Learning-Ansätze in produktiven Anwendungen. Gleichzeitig testen viele auch Open-Source-LLMs und fortgeschrittene Methoden wie agentische KI. Die Nutzung von Retrieval-Augmented Generation (RAG) hingegen ist derzeit noch weniger verbreitet – was auf ein geringeres Bewusstsein oder eine frühe Phase in diesem Bereich hinweist.
KI-Workloads werden also in einer stark verteilten Architektur betrieben – in Hyperscaler-Clouds, in privaten Infrastrukturen, auf spezialisierten GPU-Plattformen und in Edge-Umgebungen. Das bringt erhebliche Anforderungen an Rechenzentrums- und Weitverkehrsnetze (WANs) mit sich.
Zentrale Herausforderungen: Sicherheit, Kosten und Kompetenzen
Fragen zur Netzwerkinfrastruktur für KI bringen immer wieder ähnliche Sorgen zur Sprache:
- Sicherheitsrisiken stehen an erster Stelle. Unternehmen sorgen sich um Datenschutz, regulatorische Anforderungen und die Komplexität von Integrationen mit externen KI-Diensten.
- Kostendruck ist ebenfalls ein häufig genanntes Thema. Die Umrüstung auf KI-fähige Netzwerke ist selten günstig – neue Switches, optimierte WAN-Verbindungen und angepasste Overlay- wie auch Underlay-Architekturen können erforderlich sein.
- Die Geschwindigkeit technologischer Veränderungen überfordert viele Teams. Der Wandel von ML über LLMs bis hin zu agentischer KI innerhalb kurzer Zeit macht langfristige Planung schwierig.
- Kompetenzlücken entstehen, da neue Protokolle, Tools und Anbieter in den Markt drängen.
Lücken in Rechenzentrum und WAN
Obwohl viele Unternehmen bereits mit KI-Workloads arbeiten, hält weniger als die Hälfte ihre Rechenzentrumsnetzwerke für vollständig vorbereitet. Ähnlich sieht es beim WAN aus.
Im Rechenzentrum:
- Die meisten investieren in High-Speed-Ethernet-Switches, einschließlich modernster 800-GbE-Technologie.
- Viele setzen auf hyperkonvergente Infrastrukturen (HCI) – oft in Partnerschaft mit GPU-Anbietern wie NVIDIA.
- Ein erheblicher Anteil implementiert Smart NICs und DPUs, um Verschlüsselungs- und Netzwerkfunktionen von CPUs oder GPUs auszulagern.
- Die Mehrheit verlässt sich auf Ethernet, teils erweitert mit RoCE (RDMA over Converged Ethernet), um niedrige Latenzen sicherzustellen.
Im WAN:
- Die große Mehrheit setzt auf leistungsstarke Cloud-Interconnects, um Rechenzentren und Cloud-Umgebungen zu verbinden.
- Viele investieren in dedizierte KI-Backbone-Netze und nutzen dabei spezialisierte Anbieter für latenzarme, hochleistungsfähige Verbindungen.
- SD-WAN- und SASE-Lösungen gelten für viele als unverzichtbar, um KI-Datenströme in hybriden Netzumgebungen effizient zu steuern und abzusichern.
Datenverkehr für KI optimieren
Es ist offensichtlich: Klassische WAN-Optimierung reicht nicht mehr aus. Unternehmen suchen gezielt nach KI-bewussten Lösungen, die auf die spezifischen Anforderungen dieser Workloads eingehen:
- Viele priorisieren Kompressions- und Deduplizierungstechnologien, die auf KI-Datenmengen abgestimmt sind.
- Eine ähnliche Zahl setzt auf Traffic Shaping und Priorisierung, um genehmigte KI-Anwendungen von allgemeinen oder „Schatten-KI“-Workloads zu unterscheiden.
- Andere führen Fehlerkorrekturmechanismen ein, um Paketverluste zu minimieren und die Zuverlässigkeit zu erhöhen.
- Immer mehr Unternehmen verlagern Inferenz-Workloads mit Edge Computing näher an den Ort der Datennutzung, um Latenzen zu reduzieren und das WAN zu entlasten.
KI-getriebene Netzwerksicherheit
Sicherheit bleibt in jeder Phase der KI-Implementierung ein zentrales Thema:
- Die klare Mehrheit verschlüsselt KI-Daten, um Datenschutzverletzungen und Compliance-Risiken zu vermeiden.
- Viele nutzen KI-gestützte Sicherheitstools, etwa moderne NDR- oder XDR-Plattformen, die auf KI-spezifische Angriffsmuster reagieren können.
- Zahlreiche Unternehmen setzen auf Zero-Trust-Prinzipien, sowohl im Rechenzentrum als auch im WAN.
Vorreiter integrieren zudem spezialisierte Bedrohungsanalysen für KI, sichern API-Schnittstellen ab und bereiten sich gezielt auf Angriffe auf ihre KI-Modelle vor.
Sichtbarkeit und Steuerung: KI-Netzwerke im Betrieb managen
Trotz vieler Fortschritte fühlen sich weniger als die Hälfte der Unternehmen ausreichend gerüstet, was Observability-Tools betrifft. Fast alle sind sich jedoch einig, dass KI-gestützte Netzwerkmanagement-Tools entscheidend sein werden.
Was genau tun diese Unternehmen?
- Die Mehrheit setzt auf Echtzeit-Monitoring von Metriken und Flussdaten.
- Viele erweitern die Sichtbarkeit über das gesamte Netzwerk, um Probleme früher zu erkennen.
- Eine beachtliche Zahl ergänzt ihre Systeme um Paketanalysen für Forensik und Fehlersuche.
- Viele wünschen sich Tools, die KI-Datenverkehr identifizieren und klassifizieren, um Schatten-KI frühzeitig zu entdecken.
- Weitere gewünschte Funktionen: vorausschauende Stauwarnungen, Anomalie-Erkennung und Analyse des GPU-Traffics – wichtig, um Trainings- und Inferenzlasten besser zu verstehen.
Was erfolgreiche Unternehmen anders machen
Die Studie zeigt auch typische Verhaltensmuster von Unternehmen, die sich besonders gut auf KI vorbereitet fühlen:
- Sie stellen externe KI-Expert:innen ein, statt ausschließlich intern weiterzubilden.
- Sie legen großen Wert auf die Anbindung externer Plattformen, insbesondere an LLM-Provider und GPU-Clouds.
- Sie setzen auf automatisierte Priorisierung von KI-Traffic und KI-optimierte WAN-Technologien.
- Sie treiben den Einsatz von Edge Computing aktiv voran, um Latenzen und Datenvolumen zu reduzieren.
Fazit: Optimismus, aber mit Realismus
Viele Unternehmen erwarten, ihre Netzwerke mittelfristig für KI fit zu machen – der Weg dahin bleibt jedoch anspruchsvoll. Während IT-Führungskräfte oft zuversichtlich sind, sind es gerade die technischen Fachkräfte, die die alltäglichen Herausforderungen realistisch einschätzen.
Was zeigt uns die EMA-Studie? Allein mit Zuversicht lässt sich kein Erfolg erzielen. Die am besten vorbereiteten Unternehmen investieren gezielt, arbeiten mit den richtigen Partnern zusammen, setzen auf Automatisierung – und erweitern ihre Netzwerktransparenz auf ein neues Niveau.
In der Ära der KI gewinnen nicht nur die Organisationen mit den besten Modellen, sondern vor allem jene mit den intelligentesten Netzwerken, um diese Modelle zu betreiben.
👉 Mehr Einblicke? Die vollständige Studie von EMA liefert fundierte Daten und Handlungsempfehlungen. Jetzt reinschauen!