Die South by Southwest (SXSW) ist ein jährlich stattfindendes Festival in Austin, Texas, und zwar rund um Musik, Film, interaktive Medien und Tech. Dieses Jahr: Vom 7. Bis 15. März, es werden einige Hundertausend Besucher erwartet. Es lohnt, einen Blick auf die SXSW zu werfen, hier kündigen sich Trends an, hier wird Zukunft diskutiert. Nachfolgend einige (persönliche) Highlights.

Es ist geradezu Tradition, dass das Future Today Institute (FTI) (renamed to Future Today Strategy Group – FTSG) auf der SXSW den jeweils neuesten Tech Trend Report vorstellt; das macht die FTSG-Gründerin und SXSW Legende Amy Webb (Zum Linked-In Profil: HIER ) höchstpersönlich, in der Regel verbunden mit einem Ausblick auf die längerfristigen Auswirkungen der identifizierten Trends.

Die Keynote von Amy Webb ist äußerst unterhaltsam und sehenswert, anbei das Link auf die aufgezeichnete Rede (YouTube, Dauer: 1h 10 min);

Die Essenz Ihrer Erkenntnisse aus dem Tech Trend Report lassen sich wie folgt zusammenfassen:

Das Thema für 2025 lautet „Beyond“ – ein Verweis auf die Übergangsphase, in der wir uns derzeit befinden. Amy Webbs Keynote konzentrierte sich auf die Konvergenz dreier technologischer Bereiche, die unsere Realität grundlegend verändern: Künstliche Intelligenz, Biotechnologie und fortschrittliche Sensorik. Diese bilden die Grundlage eines sogenannten Technologie-Superzyklus – einer langfristigen Welle von Innovation und Wachstum, die letztlich wirtschaftliche und gesellschaftliche Normen neu definieren wird.

Cluster 1: KI + Datenaufnahme → Sensornetzwerke + Multi-Agenten-Systeme

KI-Systeme haben sich rasant weiterentwickelt – nicht nur in ihrer Leistungsfähigkeit, sondern auch in ihrer Architektur. Multi-Agenten-Systeme (MAS), in denen KIs ohne menschliches Zutun zusammenarbeiten, werden immer leistungsfähiger und autonomer. Webb verwies auf Experimente von DARPA und in Minecraft, bei denen sich Agenten selbst organisierten, Rechtssysteme entwickelten, Memes verbreiteten – und sich schließlich sogar bewusst für Faulheit entschieden, um „das System auszutricksen“.

Amy Webb betonte, dass sich diese Systeme zunehmend von schwerfälligen menschlichen Sprachen hin zu effizienteren mathematischen Sprachen (z. B. Microsofts DroidSpeak) bewegen. Dadurch beschleunigt sich die Kommunikation von KI zu KI – bis zu 100-mal schneller als das menschliche Verständnis.

Auch die Konvergenz von Sensoren nimmt Fahrt auf. Von Mikro-Fitbits, die Hunden injiziert werden, bis hin zu Roboterarmen, die Knöpfe drücken – physische Daten werden zum Schlüssel für die Verkörperung von KI. Webb erklärte, dass KI „physisch“ werden müsse, um Intuition, gesunden Menschenverstand und ein Verständnis für die reale Welt zu entwickeln. Dafür braucht es neue Daten aus menschlicher Bewegung, Gehirnaktivität und biologischen Prozessen.

Zentrale Erkenntnis #1: Sensornetzwerke verwandeln KI von Beobachtern in Steuerungseinheiten.

Cluster 2: KI + Biologie → Programmierbare Materie und reprogrammierbares Leben

Webb beleuchtete den Aufstieg der „generativen Biologie“ und stellte DeepMinds AlphaFold 3 vor, welches das nahezu sofortige Vorhersagen komplexer biologischer Moleküle ermöglicht. Damit beginnt eine Ära, in der jeder – unabhängig von Fachkenntnissen – Proteine, Behandlungen oder Materialien innerhalb weniger Minuten entwerfen kann.

Sie zeigte, wie entwickelte Materialien („Metamaterialien“) nun programmierbar sind – sie verändern ihre Form oder Eigenschaften als Reaktion auf äußere Reize. So könnten Ziegelsteine beispielsweise wie Lungen Luft filtern oder sich bei Erdbeben flexibel verhalten. Einige dieser Materialien könnten mit organoider Intelligenz (OAI) erschaffen werden – winzige Computer aus lebenden Gehirnzellen.

Unternehmen wie Cortical Labs und FinalSpark vermarkten bereits erste Gehirn-Computer-Hybride. Webb verglich deren frühe Fähigkeiten mit den ersten Apple-Computern – klein, aber revolutionär.

Zentrale Erkenntnis #2: KI und Biologie verschmelzen, um Materie programmierbar und Leben reprogrammierbar zu machen.

Cluster 3: Biologie + Sensoren → Wearables für Zellen und Mikromaschinen

Die dritte Konvergenz verbindet Biologie mit Sensorik und führt zu mikroskopisch kleinen Maschinen und Wearables, die in unseren Körpern leben. Webb zeigte unter anderem: Spermien-Bots, die Spermien mithilfe magnetischer Spulen steuern, und neuronale Wearables, die sich um Gehirnzellen legen, um gezielte Stimulation auszulösen.

Diese Fortschritte eröffnen neue Möglichkeiten in der personalisierten Medizin, bei Prothesen und sogar der menschlichen Erweiterung (z. B. robotische Tentakelarme). Sie werfen jedoch auch philosophische und gesellschaftliche Fragen auf.

Zentrale Erkenntnis #3: Mikroskopische Maschinen werden uns Macht über die Natur verleihen.

Ebenfalls sehr sehenswert: Die Keynote von Meredith Whittaker, Präsidentin des Chat-Dienstes Signaly. Whitaker plädierte leidenschaftlich dafür, warum Datenschutz grundlegend für menschliche Würde, Freiheit und Demokratie ist – und warum Werkzeuge wie Signal in einer Welt, die zunehmend von Datenausbeutung und zentralisierter Macht geprägt ist, unverzichtbar sind. Anbei der Link auf die aufgezeichnete Rede (YouTube, Dauer: 1h)

Whitaker stellte die gängige Erzählung infrage, dass nur Menschen mit „etwas zu verbergen“ sich für Datenschutz interessieren. Sie argumentierte, dass Datenschutz essenziell für Gedankenfreiheit, Intimität und Ausdrucksfreiheit sei. Ob es sich um ein Gespräch mit der besten Freundin, eine Nachricht an den Arzt oder einen Moment der Selbstreflexion handelt – jeder Mensch braucht geschützte Räume, in denen er denken und kommunizieren kann, ohne überwacht zu werden. Es geht dabei nicht um Paranoia – sondern um Menschlichkeit.

Sie warnte davor, dass wir den Datenschutz haben sterilisieren und technokratisieren lassen – zu einem abstrakten Konzept reduziert, anstatt ihn als Grundlage persönlicher und politischer Freiheit anzuerkennen. Signal, so betonte sie, existiert, um genau diese privaten Räume in einer digital überwachten Welt wiederherzustellen.

Das Argument für Signal: Signal ist eine gemeinnützige, quelloffene Messaging-Plattform, die von Grund auf dafür entwickelt wurde, die Privatsphäre der Nutzer zu schützen. Anders als andere Plattformen (z. B. WhatsApp, iMessage, Telegram) erfasst Signal praktisch keine Metadaten, speichert keine Inhalte und erlaubt eine unabhängige Prüfung des Quellcodes. Das Verschlüsselungsprotokoll von Signal gilt branchenweit als Goldstandard – selbst WhatsApp lizenziert es.

Wie Whitaker jedoch betonte, sammeln WhatsApp und andere weiterhin umfangreiche Metadaten: Wer mit wem kommuniziert, wann, von wo und über welches Gerät. Diese Daten können – und wurden – an Regierungen und Strafverfolgungsbehörden weitergegeben, mit teils gravierenden Konsequenzen. Sie verwies auf den Fall einer Frau in Nebraska, die nach der Weitergabe ihrer privaten Facebook-Nachrichten durch Meta (nach dem Dobbs-Urteil) inhaftiert wurde, sowie auf den massiven Salt-Typhoon-Hack, bei dem chinesische Staatsakteure Berichten zufolge Zugriff auf US-Telekom-Metadaten erlangten.

Der Vorteil von Signal? Wenn Behörden Nutzerdaten verlangen, gibt es nichts, das übergeben werden kann – Signal hat sie schlichtweg nicht.

Überwachungskapitalismus und die Illusion der Wahlfreiheit: Whitaker zeigte auf, wie große Plattformen wie Meta, Apple und Google sich als datenschutzbewusst präsentieren, während sie gleichzeitig enorme Mengen an Verhaltensdaten monetarisieren. Sie wies darauf hin, dass diese Plattformen zwar Ende-zu-Ende-Verschlüsselung für Inhalte bewerben, jedoch weiterhin sämtliche Begleitdaten erfassen, die ebenso viel aussagen können.

In einer pointierten Kritik erklärte sie, dass die Datenerhebung kein unbeabsichtigter Nebeneffekt sei – sondern das Geschäftsmodell selbst. Werbung, verhaltensbasierte Personalisierung und inzwischen auch das Training von KI-Modellen beruhen auf massiver Überwachung. Signal hingegen finanziert sich über Spenden und verzichtet konsequent auf jede Form der Nutzer-Monetarisierung.

Und schließlich noch der Verweis auf die Keynote von Cristiano Amon, CEO von Qualcomm. Er legte dar, wie Künstliche Intelligenz (KI), On-Device-Computing und räumliche Schnittstellen zusammenkommen, um unsere Interaktion mit Technologie grundlegend zu verändern. Hier ist die Rede (YouTube, Dauer: 1h):

KI als Generationenwandel: Amon beschrieb Künstliche Intelligenz (KI) als die vierte große Welle in der Mensch-Computer-Interaktion – nach Tastatur, Maus und Touch-Oberflächen. Da große Sprachmodelle (LLMs) und visuelle KI inzwischen natürliche Sprache und Bilder verstehen können, verschiebt sich die Interaktion vom App-zentrierten hin zum menschenzentrierten Ansatz. Anstatt sich durch verschiedene Apps zu navigieren, werden Nutzer zunehmend mit KI-Agenten interagieren, die ihren Kontext, ihre Bedürfnisse und Vorlieben verstehen. Dieses „agentenbasierte Computing“ verspricht eine nahtlose, intuitive Nutzererfahrung. So könnte eine KI beispielsweise erkennen, dass ein Nutzer ein Sofa in einem Hotel bewundert, und automatisch Kaufoptionen vorschlagen, das Budget prüfen und den Kauf abschließen – ganz ohne eine App zu öffnen.

KI am Edge – Warum das wichtig ist: Amon betonte die Bedeutung von lokal ausgeführter KI – also direkt auf Geräten wie Smartphones, PCs, Autos oder AR-Brillen – statt ausschließlich in der Cloud. KI auf dem Gerät ist schneller, privater und effizienter. Die neuronalen Verarbeitungseinheiten (NPUs) in Qualcomms Snapdragon-Chips sind speziell dafür optimiert, komplexe Modelle in Echtzeit auszuführen und damit eine reaktionsschnelle und sichere Interaktion zu ermöglichen.

Der Aufstieg von Wearables und Spatial Computing: Amon hob Spatial Computing als weiteres zukunftsweisendes Feld hervor. Augmented-Reality-Brillen (AR), wie die von Snapdragon betriebenen Meta Ray-Ban Smart Glasses, ermöglichen eine freihändige Interaktion mit der Umgebung. Diese Geräte können im Namen des Nutzers „sehen“ und „hören“ und ermöglichen so Anwendungsfälle wie Echtzeitübersetzungen, Objekterkennung und kontextbezogene Suchanfragen. In Kombination mit KI eröffnet Spatial Computing eine Zukunft, in der Nutzer nicht mehr auf Bildschirme starren, sondern mit einer proaktiven, multimodalen und umgebungsbewussten KI interagieren.

Das Teaser Bild wurde mit Midjourney.ai kreiiert.

Zum Weiterlesen

  • Highlights der CES 2025, Las Vegas
  • Quick Review der IFA Berlin 2024
  • Blick in die Zukunft: Der „Tech Trend Report 2024“ des Future Today Instituts
  • Highlights der SXSW 2023 – Film, TV, Tech und Musik Festival
  • Author

    Sebastian Zang hat eine herausragende Karriere in der IT-Branche aufgebaut und eine Vielzahl von Softwareprojekten mit einem klaren Fokus auf Automatisierung und Unternehmensentwicklung geleitet. In seiner aktuellen Rolle als Vice President Partners & Alliances bei der Beta Systems Software AG nutzt er seine umfassende Expertise, um technologische Innovationen auf globaler Ebene voranzutreiben. Als Absolvent der Universität Passau bringt Sebastian wertvolle internationale Erfahrung mit, die er in verschiedenen Märkten und Branchen gesammelt hat. Neben seiner technischen Kompetenz ist er als Vordenker in Bereichen wie Automatisierung, Künstliche Intelligenz und Unternehmensstrategie anerkannt.