Das Teaser Bild ist mithilfe von Midjourney.ai erstellt worden – ganz im Sinne der zentralen Hypothese des Tech Trend Report: Die 2020er Jahre sind das Jahrzehnt von Generative AI!

Hier geht’s zum gratis Download: Tech Trend Report 2023

Das Future Today Institute (FTI) hat seinen 16ten Tech Trend Report herausgegeben und gibt einen umfassenden Überblick über technologische Trends, die unseren Lebens- und Arbeitsalltag (signifikant) verändern werden. Der Report wird von mehr als 1 Mio. Nutzern jährlich heruntergeladen. Der gesamte Bericht ist über 800 Seiten stark und gibt einen gut strukturierten Überblick über technologische Trends in einer Vielzahl von Bereichen –Künstliche Intelligenz (KI), Klima, Biotechnologie, Finanzindustrie, Medizin und mehr.

Der Trendreport basiert hierbei auf der Auswertung umfangreicher Daten zu Konsumentenverhalten, aber auch auf Einblicke in die Aktivitäten und Erfolge zahlreicher Forschungsinstitutionen. Aufgrund dieser quantitativen Basis des Trendberichts ergibt sich eine belastbare Kurz- bis Mittelfristperspektive. An manchen Stellen bricht das Buch aus dem engen zeitlichen Rahmen aus und blickt in optimistischen (oder auch pessimistischen) Szenarien weiter in die Zukunft.

Die Veränderungsdynamik ist – needless to say – enorm, und der Tech Trend Report bietet nicht nur einen sehr umfassende Zusammenstellung zu diesen Trends und Veränderungen; der Report arbeitet auch heraus, welche Industrien, welche Lebensbereiche (primär) von neuen Trends betroffen sind, und innerhalb welchen Zeithorizonts. Es ist vor allem auch ein Trend Report, der „actionable“ für das Management von Unternehmen ist. Nachfolgend die „Impact Matrix“, die einen guten Überblick verschafft:

Nachfolgend stelle ich einige Insights heraus, die für mich persönlich besonders interessant waren, allen voran natürlich das Thema KI.

Künstliche Intelligenz

Dem Thema Künstliche Intelligenz (KI) werden 82 Seiten (von insgesamt 820) gewidmet. Es ist eine sehr kompakte Übersicht zu einer Vielzahl von Themen. Das Inhaltsverzeichnis dieses Kapitels macht das deutlich:

Ganz grundsätzlich ordnen die Autoren des Berichts die aktuellen Entwicklung in der Künstlichen Intelligenz in einer Vogelperspektive wie folgt ein: Während sich in den 2010er Jahren die Entwicklung in der KI vor allem um Wahrnehmung und Bilderkennung drehte (Verkehrsschilder erkennen, Hund und Katze erkennen, etc.), fokussiert die Entwicklung in den 2020er Jahren auf Generative AI: Diese Systeme nehmen die Welt nicht nur wahr und verstehen sie, sondern können auch neue Inhalte, Konzepte und Ideen generieren, während sie mit uns kommunizieren. Und es geht noch weiter: KI-Systeme der Zukunft werden nicht nur versuchen, Inhalte zu finden, die den Verbrauchern gefallen, sondern sie werden personalisierte Inhalte für die spezifischen Interessen generieren.

Generative AI-Anwendungen wie ChatGPT (ein Meilenstein in der KI-Entwicklung, vor allem in der öffentlichen Wahrnehmung) werden dabei in den nächsten 18-24 Monaten zunehmend in Apps integriert werden. Ein Beispiel: Microsoft hat bereits das OpenAI DALL-E 2 (Bildgenerierung) in seine Anwendungen Microsoft Designer und Image Creator integriert. Damit erzielen diese KI-Anwendungen Breitenwirkung.

Und in der Softwareentwicklung werden KI-Codierassistenten an Popularität gewinnen. Der Codex von OpenAI, der 2021 eingeführt wurde, entwickelte sich von der Forschung zur offenen Kommerzialisierung bis Mitte des letzten Jahres. GitHub CoPilot ist jetzt als Abonnement erhältlich ($10 pro Monat). Seit Januar: Amazons CodeWhisperer in einer Vorschau. Intern verwendet Google übrigens ein maschinelles sprachgesteuertes Tool zur Code-Vervollständigung – auch das könnte irgendwann für normale Nutzer verfügbar gemacht werden, möglicherweise noch in 2023.

Schon heute zeichnet sich ab, dass es zur Oligopolisierung kommen wird (bzw. ein solch enger Anbietermarkt bereits besteht), nicht zuletzt aufgrund der hohen Kapitalintensiven Anforderungen an die Infrastruktur für das Training und den Betrieb von (großen) KI-Modellen. Das Training eines KI-Modells kostet – als Richtwert – 1 Dollar pro 1.000 Parameter; GPT-3 von Open-AI hat also rund 10 Mio. Dollar gekostet – was sich Forschungsinstitute mit kleineren Budgets nicht leisten könn(t)en. Klares Statement im Report: ”Just a handful of big companies dominate the AI landscape: Google, Amazon, Microsoft, IBM, Meta, and Apple in the US, and Baidu, Alibaba, and Tencent in China.”

Ich habe dazu eine Darstellung bei Momentum Works gefunden, die das sehr gut illustriert: Hier erkennt man sehr gut, dass es nur wenige Big Player sind, die die Entwicklung von KI wirklich treiben:

Und auch folgende Infographik unterstreicht diesen Befund sehr deutlich (gefunden in einem LinkedIn-Post von Christian Schloegel, CDO & Member of the Executive Board at Körber AG):

De facto ist es ja bereits so, dass wir heute ein Wettrennen beobachten zwischen einigen größeren Playern, darunter OpenAI, Google, Microsoft, Meta oder IBM. Und: Die drei großen LLM-Dienstleister arbeiten mit Hyperscalern zusammen: AI21 ist auf AWS, Cohere ist auf GCP, OpenAI ist auf Azure. Adept.AI, ein ML Forschungs- und Produktlabor, hat eine Vereinbarung mit Oracle Cloud-Infrastruktur abgeschlossen. Es ist folglich konsequent, dass der Trend Report die großen KI-Modelle vorstellt, rund um Anwendungsfälle wie Text-to-Video, Text-to-Speech, Translation, Image Creation, 3D Modellgenerierung, etc.

PaLM: Es ist ein LLM von Google mit 540 Milliarden Parametern. PaLM zeigt bahnbrechende Fähigkeiten bei zahlreichen, sehr schwierigen Aufgaben. PaLM ist einer der größten LLMs, mit 6144 TPU-Chips (TPU = Tensor Processing Units).

Übrigens: Bei der neuen Version, GPT-4, sollen es Hundert Billionen (100.000.000.000.000) Parameter sein. Was das Training dieses großen KI-Modells gekostet hat, kann sich jeder mithilfe des weiter oben angegeben Richtwerts selber ausrechnen … .

NLLB: Dieses von Meta AI entwickelte Open-Source-Modell mit 55 Milliarden Parametern ist in der Lage, hochwertige Übersetzungen direkt zwischen 200 Sprachen zu liefern. Sprachen – einschließlich ressourcenarmer Sprachen wie Asturisch, Luganda, Urdu und mehr.

RETRO: Das Akronym steht für Retrieval Enhanced Transformers, im Februar 2022 von DeepMind (gehört zu Alphabet-Konzern) entwickelt. Traditionell besteht die Wissensbasis von Transformatormodellen nur aus den Daten, mit denen sie trainiert wurden. RETRO geht dieses Problem an, indem es eine neue Wissensbasis von „Fakten“ durch den Abruf von Informationen aus einer Datenbank erhält. RETRO hilft LLMs, auf dem neuesten Stand zu bleiben, ohne dass die Modelle neu trainiert werden müssen.

Insgesamt sind die Bemühungen in der KI-Entwicklung auch darauf ausgerichtet, dass KI in der Interaktion mit dem Menschen ein Verständnis zum relevanten Sachverhalt (z.B. Gesprächsgegenstand) sowie zum Kontext erhält, in dem sich der menschliche Nutzer befindet. Mit der sogenannten Vokenization wird etwa darauf abgezielt, dass Wörter mit Bildern verknüpft werden; und ActivityNet ist ein Videodatensatz zum Verständnis menschlicher Aktivitäten, der 700 Stunden an Videos von Menschen bei 200 verschiedenen Aktivitäten (Weitsprung springen, mit dem Hund spazieren gehen, staubsaugen, usw.) umfasst. Ziel ist es, dass ein KI System Tätigkeiten erkennen kann, und auch (zeitlichen) Anfang und Ende zuverlässig bestimmen kann. Insbesondere die zeitliche Abgrenzung einer Tätigkeit (z.B. Spaziergang mit Hund) zählt dabei zu den komplexesten und schwierigsten Aufgaben in der Computer Vision.

Und noch etwas: Tiefe neuronale Netze sind gut darin, Objekte in Fotos und Videos zu identifizieren und natürliche Sprache zu verarbeiten, aber bis vor kurzem mussten die Modelle separat trainiert werden. Könnte es ein Modell geben, das alle beherrscht? Das war der Vorschlag von Google im Jahr 2017. Seitdem hat sich Gato von DeepMind zu einem Transformator mit 1,2 Milliarden Parametern entwickelt, der Hunderte von Aufgaben in den Bereichen Robotik, simulierte Umgebungen, Sehen und Sprache ausführen kann.

Der Trend Report fragt zudem: Könnte das Jahr 2023 den Anfang vom Ende der menschlichen Radiologen bedeuten? Das in Litauen ansässige Start-Up Oxipit analysiert Röntgenaufnahmen der Brust. Die Technologie ist so gut so gut, dass sie die staatliche Zertifizierung erhielt unabhängig zu arbeiten, ohne einen Radiologen in der Schleife.

Und schließlich ein Blick auf die Hardware rund um KI-Modelle. Wissen Sie noch, wie viele Transistoren der erste Microchip von Intel im Jahr 1971 hatte? – 2300 Transistoren. Der NextGen-Chip Wafer Scale Engine 2 (WSE 2) von Cerebras weist folgende Parameter auf: 2,6 Billionen (!!!) Transistoren, 850.000 Cores, 40 Gigabyte On-Chip-Speicher und 20 Petabyte Speicherbandbreite.

Web3.0, Autonomes Fahren und Elon Musk

Folgende Information Bites aus dem Tech Trend Report 2023 jenseits von Künstlicher Intelligenz finde ich ebenfalls nennenswert:

Neue Konzept für Computerchips: Eine neue Generation von Computerchips ist dem menschlichen Gehirn nachempfunden, mit künstlichen Nervenzellen, Neuronen und Synapsen. „Neuromorphic Computing“ heißt der Ansatz. Er soll viel Energie sparen und gleichzeitig Höchstleistung für spezielle Anwendungen wie etwa für KI bieten. Mehrere Start-ups haben für das Jahr 2023 klinische Tests für einen im Gehirn implantierten Computerchip angekündigt.

Autonomes Fahren: Die Gründerin des FTI, Amy Webb, dämpft die Erwartungen an einen schnellen Durchbruch beim Autonomen Fahren. „Wir haben große Fortschritte bei der Technik gemacht, aber es ist immer noch sehr viel zu tun.“. Grundsätzlich sei fraglich, in welchen Umgebungen autonomes Fahren sinnvoll möglich sei. Es ist denkbar, dass völlig autonome Fahrzeuge auf Autobahnen zwischen Städten fahren. Aber der Einsatz in Metropolen wie New York, mit vielen Passanten und Radfahrern, sei weiter sehr schwer für Robotaxis zu meistern. Damit sich autonome Fahrzeuge durchsetzen können, ist jedoch die Zusammenarbeit eines komplexen Spektrums von Akteuren erforderlich, darunter Regulierungsbehörden (sowohl auf staatlicher als auch auf nationaler Ebene), Technologieentwickler, Verbraucher und diejenigen, die für den Aufbau der Infrastruktur. Eine Aufgabe, die schwierig sein wird und zeitaufwendig.

Amy Webb über Elon Musk: Sie können nicht erkennen, „dass seine Vorhersagen auf irgendwelchen Daten oder Beweisen beruhen“. „Ich verstehe ihn nicht. Und ich verstehe die Faszination der anderen gegenüber Musk nicht.“

WEB3.0: Die digitale Identität ist ein Schlüsselbereich in der Entwicklung der Web 3.0-Landschaft. Damit das Web 3.0 funktionieren kann, werden Einzelpersonen Methoden zur Identifizierung und Möglichkeiten zur Validierung von Transaktionen, aber die Werkzeuge sind jedoch noch nicht ausgereift.

Wen es interessiert: Das Teaser Bild zu diesem BLOG wurde mit folgendem Prompt erstellt: „futuristic city, renewable energy, windmills, photovoltaic, robots, space ships, aircabs, bright atmosphere, cinematic, photorealistic, ultra photoreal, ultra-detailed, super detailed –ar 3:2 –v 5“

Mehr von Amy Webb und dem Future Today Institute auf diesem Blog

  • Ein Blick in die Zukunft: Der „Tech Trend Report 2022“ des Future Today Instituts
  • Ein Blick in die Zukunft: Der „Tech Trend Report 2021“ des Future Today Instituts
  • Quo vadis, Future? – Die „Quantitative Futuristin“ Amy Webb packt aus … Tech Trend Report 2020
  • Zukunftsszenarien mit der Basistechnologie KI: Das Buch “The Big Nine” von Amy Webb
  • Author

    Der Autor ist Manager in der Softwareindustrie mit internationaler Expertise: Prokurist bei einem der großen Beratungshäuser - Verantwortung für den Aufbau eines IT Entwicklungszentrums am Offshore-Standort Bangalore - Director M&A bei einem Softwarehaus in Berlin.