Vor der Dynamik der Entwicklungen in der IT Industrie kann man nur ehrfürchtig staunen. Lagen die Kosten für die Datenspeicherung für einen Megabyte Daten 1956 noch bei ca. 85.000 US-Dollar (inflationsbereinigt in heutigen Preisen: 9.200 US-Dollar), dann liegen Sie jetzt bei 0,00002 US-Dollar (sic!). Das Mooresche Gesetz hatte über Jahrzehnte Gültigkeit: Die Anzahl von Transistoren auf einem Chip verdoppelt sich alle zwei Jahre. Es gilt inzwischen nicht mehr aufgrund physikalischer Gesetze im Nano-Bereich (Stichwort: Quantenmechanischer Effekt bzw. Tunneleffekt), aber die IT Industrie generiert noch immer jedes Jahr neue Superlative. Wirft man einen Blick in heutige Datenzentren, reibt man sich ebenfalls verwundert die Augen: Microsoft betreibt zum Beispiel gigantische Rechenzentren, das Rechenzentrum in Chicago hat 65.000 Quadratmeter (ca. 9 Fußballfelder) und kann ca. 225.000 Server beherbergen. Der Stromverbrauch entspricht dem einer Kleinstadt.

Ich werfe nachfolgend einen Blick auf die neuen Superlative, wobei klar sein dürfte: Die Halbwertszeit dieser Nachrichten liegt vermutlich gerade mal bei 3 Monaten … dann sollten Sie wieder einmal auf diesem Blog vorbeischauen und lesen, was es Neues gibt.

Werfen wir zunächst einen Blick auf das Projekt El Capitan, einen Supercomputer von gigantischem Ausmaß (Unterschied zum Großrechner: hier). Der Computer soll so schnell sein wie die 200 schnellsten Supercomputer zusammen, nämlich 2 ExaFLOPS. ExaFLOPS, was ist das? – Das sind zwei Milliarde Milliarden Gleitkommaoperation pro Sekunde (eine 2 mit 18 Nullen), ein FLOP ist eine “Floating Point Operations Per Second”. Der Supercomputer soll 2022 in Betrieb gehen, in 2023 erreicht er seine volle Leistungsfähigkeit.

Um das einzuordnen: Ein Core i7 Prozessor hat etwa 100 GigaFlops. Giga, Tera, Peta, Exa … der neue Supercomputer wäre in dem Fall also 20 Millionen Mal schneller als der i7 Prozessor. Anders formuliert: Wenn eine Berechnung auf dem Supercomputer 1 Sekunde dauert, dann benötigt der Core i7 Prozessor dafür 230 Tage.

Ebenfalls Anspruch auf den Titel „Supercomputer“ – wenn auch in einem anderen Bereich – hat das Projekt SpiNNaker (Dubbed Spiking Neural Network Architecture): Ein Supercomputer mit einer Millionen Prozessorkernen, geschaffen für die Simulation eines (kleinen) Gehirns. Bei komplexer Struktur und interner Dynamik ist die Simulation von einigen Millionen Neuronen möglich, bei einfachen Neuronen gar eine Milliarde. Zur Einordnung: Die Honigbiene hat etwa 1.000.000 Neuronen, eine Maus etwa 100.000.000 Neuronen, der Mensch 100 Milliarden.

SpiNNaker ist Teil des sogenannten Human Brain Project, das größte je von der EU finanzierte Projekt (bis zu 1 Mrd. EUR). Zugegebenermaßen, das einst ambitionierte Ziel, ein Gehirn in allen Details zu simulieren, ist inzwischen einkassiert (kurz: Ernüchterung). Dafür ist das Gehirn zu komplex.

Bleiben wir noch einen Augenblick bei Neuronalen Netzen: Bekanntermaßen werden für das Training von Neuronalen Netzen (der zeitintensivste Teil beim Maschinenlernen) optimalerweise Graphikprozessoren eingesetzt, denn diese können aufgrund der massiv-parallelen Architektur die die Hunderten, Tausenden von künstlichen Neuronen in einem Deep Learning-Netzwerk am effizientesten trainieren. Graphikprozessor-Spezialist NVIDIA ist im Übrigen darum mit Abstand Marktführer bei Prozessoren für Künstliche Intelligenz (KI).

Die Hardware-Industrie hat sich auf die neuen Anforderungen für KI eingestellt, Ziel: Die Entwicklung Neuromorpher Hardware. Dabei wird direkt in der Hardware die Funktionsweise von Neuronen abgebildet, die Kommunikation zwischen Speicher und Prozessoren wird optimiert für Neuronale Netzwerke. Diese neuromorphen Hardware ist zwar weniger flexibel als klassische Mehrzweckprozessoren (in der Regel basierend auf der Von Neumann Architektur), sind den Mehrzweckprozessoren aber bei Deep Learning Netzwerken deutlich überlegen bei Energieeffizienz und Trainingsgeschwindigkeit. Weiterführende Lektüre auf der Webseite vom Fraunhofer Institut

Werfen wir abschließend einen Blick auf den Stand der Forschung im Quantencomputing (Kurze Einführung: hier). Klar ist: Es wird noch eine Weile dauern, bis der Quantencomputer in der Praxis ankommen, Intel etwa schätzt, dass es um das Jahr 2030 so weit sein könnte. Heutige Quantencomputer in der Forschungslaboren von Intel, IBM oder Google haben bis zu 60 oder 70 Qubits, für die (visionären) Einsatzfelder würden allerdings Rechner mit Tausenden oder gar Millionen Qubits benötigt. Als letzter Meilenstein galt im Herbst 2019 ein Erfolg von Google: Ein Quantencomputer mit 53 Qubits löste ein komplexes mathematisches Problem in Rekordzeit: Etwas mehr als 3 Minuten, während heutige Hochleistungscomputer dafür Schätzungen zufolge mehr als 10.000 Jahre brauchten. Die Berechnung lieferte den Beweis, dass eine zufallsgenerierte Zahl tatsächlich zufällig ist.

“Was man heute als Science Fiction beginnt, wird man morgen vielleicht als Reportage zu Ende schreiben müssen.”
Norman Mailer

Sebastian Zang
Author

Der Autor ist Manager in der Softwareindustrie mit internationaler Expertise: Prokurist bei einem der großen Beratungshäuser - Verantwortung für den Aufbau eines IT Entwicklungszentrums am Offshore-Standort Bangalore - Director M&A bei einem Softwarehaus in Berlin.