Wie sieht eine moderne IT Architektur aus? Welche Methoden der Datenverarbeitung oder Datenspeicherung sind trending? Welche Anwendung gewinnen gerade an Bedeutung für die digitale Unternehmenswelt?

All diese Fragen lassen sich schwerlich ein einem Blogbeitrag beantworten. Ich will dennoch einige Technologien und Trends herausgreifen, von denen man schon einmal gehört haben sollte. Dazu stelle ich jeweils ein Videotutorial vor, das die Sache gut auf den Punkt bringt. Eine solche Auswahl kann natürlich keinen Anspruch auf Vollständigkeit haben. Die Übersicht bleibt aus meiner Sicht dennoch hilfreich für alle, die sich mit den wichtigen IT Buzzwords vertraut machen wollen.

Ich beschränke mich dabei auf jene Technologien und Trends, die in der Praxis bereits Relevanz haben. Ich lasse jene Themen außen vor, mit denen die meisten bereits vertraut sein dürften. Das Cloud-Computing bedarf sicherlich keiner weiteren Erläuterung, der Begriff kursiert in der Tech-Szene ja bereits seit fast 20 Jahren.

Apache Kafka – Verarbeitung von Datenströmen – eine moderne Middleware

IT Systeme von Plattformen wie LinkedIn, Amazon oder Netflix verarbeiten täglich Petabyte von Daten. Netflix verarbeitet täglich (!) etwa 6 Petabyte (= 1.000 Terabyte), und auf der Karriereplattform LinkedIn werden täglich (!) 4,5 Billionen Nachrichten gepostet.

So ist es keine Überraschung, dass LinkedIn selbst eine neue IT Architektur entwickelte, um diese gigantischen Datenströme effizient zu verarbeiten. Im Jahr 2012 wurde das Ergebnis als OpenSource-Anwendung Apache Kafka unter die Apache-Lizenz gestellt. Im Jahr 2014 wurde das Unternehmen Confluent aus der Taufe gehoben, um Apache Kafka weiter zu entwickeln.

Apache Kafka ist ein mächtiges Tool zur Verarbeitung von Datenströmen. Bei einem „Datenstrom“ handelt es sich um ein Event (z.B. ein Posting auf LinkedIn) mit Zeitstempel, also zum Beispiel ein Posting oder ein Wert von einem Sensor in einem Industrial IoT-Netzwerk. Die Datenströme werden in „Topics“ gegliedert, diese wiederum sind in Partitionen untergliedert. „Producer“ speisen Events in die Topics ein, sogenannte „Consumer“ können den Inhalt der Datenströme auswerten, nutzen.

Der Digital Evangelist Kai Wähner von Confluent stellt Apache Kafka im nachfolgenden Video (45 min, Englisch) vor, vergleicht die IT Architektur mit herkömmlicher Middleware zur Integration von verteilten Diensten.

Container Technologie – der Orchestrator Kubernetes

Die Container-Technologie gehört zum Cloud-Computing wie das Amen in der Kirche. Container sind – salopp formuliert – virtuelle Computer, die auf Hardware in einem Rechenzentrum laufen. Auf diesen virtuellen Computern werden Softwareprogramme ausgeführt. Der Vorteil: Container können in Sekunden gestartet werden und ebenso schnell wieder heruntergefahren werden. Container sorgen für die Magie der Skalierbarkeit von Cloud-Anwendungen. Werden etwa bei Amazon am Black Friday Hundertausende von Bestellungen pro Minute generiert, lassen sich im Rechenzentrum so viele Container hochfahren wie nötig.

Besonders bekannt sind sogenannte „Docker“-Container Engines. „Docker“ gibt es seit 2013. Zwei Jahre später (2015) wurde „Kubernetes“ veröffentlicht: Dabei handelt es sich um einen sogenannten „Orchestrator“, der das automatische Hochfahren und Herunterfahren von Containern „orchestriert“.

Dieses Video gibt eine kurze Einführung in „Docker“-Container, und zwar in 15 Minuten (auf Deutsch). Dabei wird man unter anderem mit folgenden Begrifflichkeiten vertraut gemacht: Gastbetriebssystem, Hypervisor, Virtual Machine, Snapshot, Image, Registry, .

Nachfolgendes Video erklärt „Kubernetes“ in nur 25 Minuten (auf Deutsch). Und dazu ein paar interessante Konzepte wie Load Balancing, Domain Name Services (DNS), Persistent Volumes, Federation API, Replikationsfaktor, Name Spaces.

Künstliche Intelligenz | Maschinenlernen auf Basis Neuronaler Netze

Als Geburtsstunde von KI wird häufig das Summer Research Project on Artificial Intelligence in 1956 betrachtet, das unter Beteiligung zahlreicher Wissenschaftler über mehrere Wochen am Dartmouth College in New Hampshire/USA stattfand. Seitdem gab es zwei KI-Winter, und eine Mode für sogenannte Expertensysteme. Die heute so populäre KI auf Basis von Künstlichen Neuronalen Netzen erlebte dagegen erst in jüngerer Zeit ihren Durchbruch.

Erst im Jahr 2012 gelang beim legendären Wettbewerb University of Toronto team’s ImageNet challenge der Durchbruch für das Team von Geoffrey Hinton mithilfe eines Deep Learning Algorithmus. Und im gleichen Jahr liegt ein weiterer Meilenstein: Ein Projekt der Google X Labs: Ein Netzwerk von Computern wurde mit etwa 10 Millionen Bildern gefüttert; nach drei Tagen gelang dem „Google Brain“, auf diesen Bildern nicht nur Menschen, sondern auch Katzen zu identifizieren.

Machen Sie sich einmal mit den Basics zu Deep Learning Neuronalen Netzwerk vertraut, und zwar mit diesen beiden Blogs: Künstliche Neuronale Netze und Convolutional Neuronal Networks. Jetzt sind Sie bereit für die Einführungsvorlesung zu „Deep Learning“ am MIT (Massachusetts Institute of Technology) vom Januar 2020 (50 min, Englisch):

Objektspeicher – Die Speichertechnologie für das Zeitalter von IoT und Cloud

Die Datenmengen nehmen explosionsartig zu. Die Produktion von Daten werden durch die zunehmende Verbreitung von Industrial IoT-Netzwerken zusätzlich beschleunigt: Applikationen im Kontext von IoT werden Daten in der Größenordnung von mehreren hundert Terabytes generieren (zukünftig: Petabytes bis Zettabytes). Für diese Datenmengen eignen sich die herkömmlichen Speicherarchitekturen auf Basis von Datei- bzw. Blockspeichern nicht mehr. Stattdessen kommen sogenannten Objektspeicher zum Einsatz; der de facto Industriestandard, nämlich Amazon S3, wurde in den USA 2006 eingeführt, in Europa in 2007.

Im Objektspeicher können Daten aller Art und jeden Formats als Objekt gespeichert werden: Vom Urlaubsbild zur Multimediadatei. Der Objektspeicher eignet sich für unstrukturierte Daten, die statisch sind (write once, read many times). Jedes Objekt besitzt Metadaten sowie einen global einzigartigen Identifier.

Objektspeicher sind schnell skalierbar und kostengünstig. Während bei herkömmlichen Datei- oder Blockspeichern Dateien in komplexen hierarchischen Verzeichnissen abgelegt werden (was dies schwerfällig macht), werden Daten im Objektspeicher in einem flachen Adressraum abgelegt.

Nachfolgend ein exzellentes Erklärvideo des Softwarentwicklers Zach Gollwitzer, der einen sehr guten Überblick schafft zu den Stärken/Schwächen von Speicheroptionen „Dateispeicher (NAS: Network Attached Storage)“, „Blockspeicher (SAN: Storage Area Network)“ und „Objektspeicher“. Und zwar im Hinblick auf Kosten, Zugangsoptionen und mehr. Mit DEMO in einer virtuellen Entwicklungsumgebung, und zwar in ca. 35 Minuten (auf Englisch):

Blockchain bzw. Distributed Ledger Technology

Die Grundlagen der Blockchain-Technologie wurden bereits vor mehr als 10 Jahren gelegt, im Januar 2009 schließlich startete die bekannteste Anwendung von Blockchain-Technologie: Die Kryptowährung Bitcoin.

„Im Allgemeinen dient die Blockchain-Technologie dazu, Vertrauen zu schaffen und Manipulationen zu verhindern“, stellt Murat Bayram klar. Er ist Head of IoT & Industrie bei Axians IT Solutions. Einsatzbereiche gibt es in nahezu allen Industrien: Finanzbranche (dort sind die Investitionen in Blockchain besonders hoch), Baubranche, Energiewirtschaft, Logistik und mehr.

Es gibt zahlreiche Kritiker dieser Technologie, vor allem wegen des hohen Energieverbrauchs und wegen der hohen Komplexität in der Umsetzung. Bisweilen wird Blockchain als Lösung bezeichnet, der das Problem fehle. Man sollte die Entwicklung dennoch im Auge behalten. Hier ein einfaches Erklärvideo in Deutsch (6 min):

Author

Der Autor ist Manager in der Softwareindustrie mit internationaler Expertise: Prokurist bei einem der großen Beratungshäuser - Verantwortung für den Aufbau eines IT Entwicklungszentrums am Offshore-Standort Bangalore - Director M&A bei einem Softwarehaus in Berlin.