Das Future Today Institute (FTI) hat seinen 14ten Tech Trend Report herausgegeben und gibt einen umfassenden Überblick über technologische Trends, die unseren Lebens- und Arbeitsalltag verändern werden. Der Bericht ist über 500 Seiten stark und gibt einen gut strukturierten Überblick über technologische Trends in einer Vielzahl von Bereichen – Digitalisierung, Künstliche Intelligenz (KI), 3D-Druck, Drohnen, 5G / 6G, Blockchain und mehr.

Der Trendreport basiert hierbei auf der Auswertung umfangreicher Daten zu Konsumentenverhalten, aber auch auf Einblicke in die Aktivitäten und Erfolge zahlreicher Forschungsinstitutionen (wo die Grundlagen für zukünftige Produkte und Dienstleistungen gelegt werden). Aufgrund dieser quantitativen Basis des Trendberichts ergibt sich eine belastbare Kurz- bis Mittelfristperspektive. An manchen Stellen bricht das Buch aus dem engen zeitlichen Rahmen aus und blickt in optimistischen (oder auch pessimistischen) Szenarien weiter in die Zukunft. Das erinnert im Übrigen an die Entwicklung verschiedener Szenarien rund um Künstliche Intelligenz (KI), was die Gründerin des FTI (Amy Webb) in ihrem Buch The Big Nine durchgespielt hat (Hier geht’s zur Buchvorstellung).

Nachfolgend stelle ich einige ausgewählte Fakten aus dem Tech Trend Report 2021 vor. Ich kann den (kostenlosen) Report als Lektüre wärmstens; der Bericht ist in kleinen Lesehäppchen strukturiert, so dass man hier immer mal wieder drin schmökern kann. Hier geht’s zum Download: Tech Trend Report 2021

Künstliche Intelligenz

Welche KI-Technik hat wirtschaftlich die größte Bedeutung? – Es ist Robotic Process Automation (RPA). Vergleiche dazu auch den Blogpost Die Zukunft von RPA im Finanzbereich. RPA kann grundsätzlich bestimmte Aufgaben und Prozesse in Büros automatisieren. Darunter fallen UIPath, aber auch Googles Duplex (ein Bot, der Routineanrufe tätigt). Das Unternehmen Amazon nutzt RPA, um Lebensläufe zu sichten und Top-Kandidaten zu priorisieren. Ähnlich wie Googles Duplex kann Tiān Māo (aus China) im Namen des Nutzers Anrufe tätigen. Dieser Digital Assistant (DA) versteht auch Absichten. Der DA ist etwa damit vertraut, dass ein Nutzer normalerweise morgens pendelt; versucht dieser Nutzer nun, einen Termin am Vormittag zu vereinbaren, dann kann das System daraus schließen, dass der Nutzer nicht verfügbar ist und gibt einen Hinweis.

Die Zukunft der Künstlichen Intelligenz: Anwendungsbereiche rund um Kommunikation und Sprache

Vorweg: Computerlinguistik hat enorme Fortschritte gemacht. Die Rolle von Sprachassistenten und sprachbasierter Human-Machine-Interaktion wird in den nächsten Jahren rasant zunehmen. Um den Fortschritt einzuordnen: Es gibt den sogenannten General Language Understanding Evaluation (GLUE)-Benchmark für die Evaluierung Systemen zum Verstehen natürlicher Sprache. Der menschliche Basiswert liegt bei 87, und zwischen Mai 2018 und August 2020 stiegen die Systeme zur Verarbeitung natürlicher Sprache von 60 auf 90,6 und übertrafen damit den Menschen. Der SuperGLUE-Benchmark ist eine neue Messung mit schwierigeren Sprachverstehensaufgaben. Das FTI prognostiziert, dass bis Ende 2021 auch dieser neue Benchmark ebenfalls übertroffen werden wird.

Vergleiche auch den Blogpost Sprache und Computer: Regelbasierte Textroboter vs KI-basierte Sprachassistenten

Ein neues KI-Modell kann wissenschaftliche Literatur zusammenfassen. Das Allen Institute for Artificial Intelligence (AI2) verwendete dieses KI-Modell bereits in der Suchmaschine Semantic Scholar, wo kurze Zusammenfassungen von wissenschaftlichen Arbeiten erstellt werden. Beeindruckend: Auch umfangreiche wissenschaftliche Arbeiten werden mit hoher Genauigkeit und Effizienz komprimiert.

KI-Modelle von Emotion AI können inzwischen ebenfalls Emotionen bestimmen: Hierzu werden Biomarker gemessen, die auf den emotionalen Zustand einer Person schließen lassen (z.B. Aufregung, Traurigkeit, Schwindelgefühl). Die genaue Erkennung menschlicher Emotionen ist herausfordernd, aber die Genauigkeit von Modellen nimmt zu. Die Rekognition-API von Amazon schlussfolgert die Emotionen einer Person anhand von Markern im Gesicht und der körperlichen Erscheinung. Emotion AI kann Feedback darüber geben, wie sich Studenten mit Online-Lernmaterialien und -Vorlesungen beschäftigen; solche Anwendungen können anzeigen, ob Studenten verwirrt, gestresst oder gelangweilt sind. Für eine Bildung, in der Digitalisierung eine wachsende Rolle spielt, wächst die Bedeutung solcher Fähigkeiten; das ist nicht zuletzt deutlich geworden unter den Vorzeichen der Corona-Pandemie, wo viele Studenten online gelernt haben und mit Zoom-Müdigkeit zu kämpfen hatten.

Automatische Sprachtranskription: Die Anwendungsfälle sind praktisch unbegrenzt. Etwa die Aufzeichnung von Besprechungsprotokolle, Notizen zu Vorlesungen, Erstellung von Transkriptionen für Podcasts und Sendungen oder Dokumentation im medizinischen Kontext. Otter.ai ist ein Echtzeit Sprachtranskriptionstool, das sogar Akzente versteht (bzw. Akzente bei wiederholter Nutzung erlernt). Die Recorder-App von Google verwendet KI, um Stimmen mit nahezu perfekter Genauigkeit zu erkennen und zu transkribieren. Die App ist nur auf Googles Pixel Telefonen verfügbar; verblüffend: Hintergrundgeräusche werden weitgehend ausgefiltert.

Die Zukunft der Künstlichen Intelligenz: Weitere Anwendungsbereiche

Künstliche Intelligenz (KI) kann im Zusammenspiel mit Robotik enorme Produktivitätssprünge erreichen. Beispiel Forschungslabore. Materialwissenschaftler an der University of British Columbia nutzen einen KI-basierten Ansatz für das Testen einer neuen Art von Solarzelle und protokollieren die Ergebnisse mit einem Roboter, der von einem KI-Algorithmus überwacht wird. Basierend auf den Ergebnissen jedes Experiments bestimmt ein Algorithmus, was als Nächstes für die nächste Versuchsreihe zu ändern ist. Ein 9- bis 12-monatiger Prozess wurde in fünf Tagen abgeschlossen.

Eine Reihe von Startups arbeitet an persönlichen digitalen Zwillingen, die einen Nutzer (online) repräsentieren können. Im Jahr 2021 gab es bei der jährlichen Frühlingsfest-Gala des chinesischen Staatsfernsehens (CCTV) Auftritte von Digitalen Zwillingen bekannter Persönlichkeiten. Vor schätzungsweise einer Milliarde Zuschauern ahmten die KI-Kopien ihre menschlichen Gegenstücke nach; hierbei wurden keine Verhaltensweisen, Reden oder Routinen vorgegeben. Replika ist ein programmierbarer digitaler Zwilling, den Sie für Ihre Freunde einsetzen können. Molly beantwortet Fragen per Text. Die nahe Zukunft könnte digitale Zwillinge für Fachleute Fachkräfte in vielen Bereichen sein, darunter Gesundheit und Bildung.

Im Bereich Computer-Vision können neuronale Netzwerke Geometrie aus einem einzigen Farbbild vorhersagen. Im Jahr 2019 entwickelte das DeepMind-Team ein Generatives Adversariales Netzwerk (GAN), das Videos aus Bildern erstellt. Beispiel: Nehmen das Foto von einer Person, die einen Basketball hält. Basierend auf der Körperhaltung der Person und anderen Daten im Bild formuliert das GAN ein Hypothese, was wahrscheinlich was als Nächstes passiert. Daraus wird ein Video Clip der Aktion generiert.

Home Automation, Consumer Electronics – HoT (Home of Things)

Ein dynamische wachsender Markt ist auch das Smart Home. Der Chef von Amazon resümiert im aktuellen Brief an die Aktionäre, wie sich allein für den eCommerce-Giganten der Smart Home Markt entwickelt hat: “Kunden haben mehr als 100 Millionen Smart-Home-Geräte [sic!] mit Alexa verbunden.“ Weitere dominante Player sind Google (Google Nest) und Apple. Übrigens gilt: Auch wenn Google, Amazon und Apple die primären HoT-Plattformen (Home of Things) bilden, gilt: deren Ökosysteme sind nicht immer interoperabel.

In diesem Smart Home wird nicht nur ein Smart Robot zum Inventar gehören, sondern auch diverse Heimservice-Bots. Staubsaugerroboter sind in vielen Haushalten bereits Alltag, aber die Entwicklung geht natürlich weiter. Ein Beispiel: Der Bot Handy von Samsung ist zwar noch im Entwicklungsstadium, aber die Kommerzialisierung ist absehbar. Dieser schlanke, autonome Bot holt Wäsche ab, bringt Getränke oder belädt die Spülmaschine. Samsungs JetBot 90AI+ wiederum ist ein Staubsaugerroboter der neuesten Generation mit Lidar-Technologie (also: Radar der Automobilindustrie), einem 3D-Sensor, einer eingebauten Kamera und Computer Vision. Diese technologische Hochrüstung ermöglicht es dem Heimservice-Bot, Objekten auszuweichen und als roamendes Sicherheitssystem zu fungieren. Dank größerer Räder kann er über Türschwellen und dickere Teppiche manövrieren, und er verfügt über ein automatisches Entsorgungssystem. Der Gladwell Gecko Robot wiederum ist ein automatischer Glas- und Fensterreiniger. Und diese Auflistung ließe sich fortsetzen.

Die COVID-19-Pandemie führte außerdem zu einer dynamischen Nachfrage für eine sehr spezifische Kategorie von Robotern: Geräte und Gadgets, die den Menschen helfen sollen, das Risiko einer Infektion zu minimieren. Roboter, die sterilisieren und desinfizieren können und früher nur in Krankenhäusern eingesetzt wurden, halten nun Einzug in Büros und Wohnungen. Xenex Disinfection Services beispielsweise stellt Roboter her, die tödliche Krankheitserreger mit pulsierendem, hochenergetischem UV-Licht mit breitem Spektrum neutralisieren.

Das Smart Home ist im Grunde ein Internet of Things, das Smart Gadgets vom Hobbykeller bis zum Dachstuhl verbindet bzw. von der Haustür bis zur Gartenterrasse. Aber in Zukunft wird eben dieses Internet of Things expandieren: Neighborhood-Mesh-Netzwerke verbinden Cluster von Smart Homes miteinander. Innerhalb des Mesh (also: innerhalb einer Nachbarschaft), teilen sich die Teilnehmer am Mesh das Wi-Fi. Der Vorteil für die Bewohner: Auch wenn Bewohner sich draußen aufhalten, können sie mit ihren Geräten verbunden bleiben. Und wenn ein Bewohner den Schlüssel beim Laufen verliert, kann man das Netzwerk anpingen, um den genauen Standort des verlorenen Schlüssels auf der Straße zu orten (das setzt natürlich voraus, dass Tile aktiviert ist: Ein Bluetooth-Tracker, der helfen soll, Schlüssel, Brieftasche, Handy und andere verlorene Gegenstände wiederzufinden).

Hyper-local Cloud-Rechenzentren, Edge-Computing, Robots, Transportation

Der Siegeszug des Cloud-Computing wird sich weiter fortsetzen. Der Markt der Rechenzentren wird sich allerdings weiter ausdifferenzieren, und zwar in zweierlei Hinsicht.

Zum einen bilden sich hyper-lokale Rechenzentren für Edge Computing heraus. Je mehr Dienste wie Videostreaming und andere Cloud-basierte Services in der Breite genutzt werden, desto mehr ergeben sich Engpässe: Kompression und Bandbreite. Die Antwort von Cloud-Providern: Hyper-lokale Datenzentren, die näher am Verbraucher positioniert sind. Der weltweite Marktführer im Public Cloud Computing, AWS, baut jetzt „lokale Zonen“ in der Nähe von Großstädten und Städten mit dem Ziel, latenzempfindliche Arbeitslasten zu verwalten.

Zum anderen wird die Bedeutung von Edge-Computing zunehmen. AWS investierte 29 Milliarden US-Dollar in sein Edge-Computing-Projekt Snowcone. Das Gerät ist so konzipiert, dass es in eine Umhängetasche passt. Das Edge-Computing-Gerät sammelt und verarbeitet Daten lokal. Ein Snowcone-Gerät könnte zum Beispiel in einem Fertigungszentrum sitzen, Daten von einer Produktionslinie sammeln, analysiert diese Daten mithilfe von KI-Systemen, die in das in das AWS-Ökosystem integriert sind. Auch andere Player wie Microsoft und IBM investieren in Edge-Angebote.

Ein Cloud-basierter Service ist übrigens auch Robotics as a Service (RaaS). Amazons AWS RoboMaker ist beispielsweise ein Cloud-Robotik-Service für die Entwicklung, das Testen und die Bereitstellung intelligenter Robotik-Anwendungen. Zu den Partnern gehören Nvidia, Qualcomm, und UP Squared; der Cloud-Robotik-Service unterstützt die am weitesten verbreitete Open-Source-Robotik Software-Framework, das Robot Operating System (ROS). Zu den Anbietern gehört auch Google (Cloud Robotics Core: Eine Open-Source-Plattform).

Wussten Sie außerdem: Inzwischen ist es gelungen, Computer bis auf die Größe eines Sandkorns oder eines Staubkorns zu miniaturisieren. Ein solcher Partikel-Computer besteht aus Schaltkreisen und Sensoren, die in der Lage sind, die Umgebung zu überwachen und sogar Fotos zu machen. Sie können auch Energie sammeln, und zwar über passives Wi-Fi oder über die menschliche Körperwärme. Der Einsatz dieser Partikel-Computer (auch MEMS: microelectromechanical system) wird nun häufiger: Sie sind die Beschleunigungssensoren für unsere Airbag-Systeme und finden sich auch in Biosensoren. Wissenschaftler an der Universität von Kalifornien, Berkeley, entwickelten den so genannten neuronalen Staub: Diese mikroskopisch kleinen Computern arbeiten zusammen mit ferngesteuertem Ultraschall, um Daten über das Gehirn zu senden und zu empfangen. In Gesundheit und Medizin wird diese Technologie unsere Herangehensweise an die Bildgebung dramatisch verändern. Anstatt sich auf unsere endoskopische Technologie zu verlassen, die die sperrig und invasiv ist, könnte ein Patient einfach intelligenten Staub einatmen.

Das autonome Fahren kommt – und auch das autonome Fliegen: Zunächst für Lieferdrohnen: Der Einsatz von Drohnen zur Paketauslieferung erreicht die ersten Konsumenten. Nicht nur Silicon Valley Player (Google Wing, Amazon) haben bereits eine Starterlaubnis der Luftfahrtbehörden, sondern auch etablierte Unternehmen der Logistikindustrie (z.B. UPS). Drohnen werden heute aber auch in anderen Anwendungsbereichen eingesetzt: Für Kartierungen und Inspektionen in der Landwirtschaft, im Bergbau und im Bauwesen. Drohnen inspizieren gefährliche und schwer zugängliche Orte wie Chemiewaffenanlagen und ausbrechende Vulkane.

Scoring and Recognition: Anonymity is dead

Es ist eine Hiobsbotschaft, die uns alle betrifft: Anonymity is dead. Und: Everyone alive today is being scored

Wir sind umgeben von Kameras, Lautsprechern und einer Vielzahl anderer intelligenter Geräte. Erkennungssysteme verwenden Hunderte von verschiedenen Datenpunkten, um uns zu identifizieren, zu verfolgen und um unsere wahrscheinlichen zukünftigen Aktionen zu prognostizieren – sowohl online als auch in der physischen Welt. Sprachassistenten können erraten, was Menschen auf Geräten in der Nähe tippen.

So wie jeder Mensch einen einzigartigen Satz von Gesichtsmerkmalen hat, enthalten auch unsere Stimmen verschiedene messbare Merkmale, die uns eindeutig identifizieren. Intelligente Bluetooth-Lautsprecher wie der Amazon Alexa-fähige Echo verwenden Stimmabdrücke, um verschiedene Personen im selben Raum zu erkennen. Mithilfe neuer maschineller Lerntechniken und riesiger Datensätze aufgezeichneter Stimmen können Forscher auf die Mikrosignaturen in unseren Stimmen hören und uns verlässlich identifizieren.

Folgenden Anwendungsfall kann man gut in einem James Bond-Film vorstellen. Wir sind ständig von Funkwellen umgeben, dank der Millionen von WiFi-Routern um uns herum. Obwohl wir sie nicht sehen, hören oder fühlen können, leben wir in einem Feld von 2,4- und 5-Gigahertz-Funksignalen. Jedes Mal, wenn wir uns bewegen verzerren wir die Wellen. Der Wi-Fi-Sender im Haus sendet und empfängt ständig Informationen, die er in Funkwellen umwandelt. Die Signale sind nicht sehr stark und füllen nur den Raum um uns herum aus. Nun gilt: Mit dem richtigen Gerät ist es möglich, uns dabei zu beobachten, wie wir uns durch die Signale bewegen, während sie an uns und an anderen Objekten abprallen.

Was das in der Praxis bedeutet: Wi-Fi-Signale können genutzt werden, um uns und unsere Bewegungen durch unsere Wände hindurch zu erkennen. Forscher an der University of California, Santa Barbara, nutzten Wi-Fi-Signale aus der Umgebung und ein Smartphone, um nach auffälligen Mustern zu suchen (Änderungen in der Signalstärke). Das Computer Science and Artificial Intelligence Laboratory (CSAIL) des MIT und das Massachusetts General Hospital haben ein Gerät entwickelt, das mit einem fortschrittlichen KI-Algorithmus die Funksignale um eine schlafende Person analysiert. Das System übersetzt diese Körperbewegungen dann in die Schlafstadien: leicht, tief oder REM (Rapid Eye Movement).

Vergleiche dazu auch meinen Blogartikel: Europäische Regulierung von KI: Der Stand der Dinge und der Brüssel-Effekt

Author

Der Autor ist Manager in der Softwareindustrie mit internationaler Expertise: Prokurist bei einem der großen Beratungshäuser - Verantwortung für den Aufbau eines IT Entwicklungszentrums am Offshore-Standort Bangalore - Director M&A bei einem Softwarehaus in Berlin.