Welche Gedankenströmungen bestimmen den Diskurs im Silicon Valley? Welche ethische Rolle sieht das Silicon Valley im technologischen Fortschritt? – Ein Überblick zu aktuellen Entwicklungen:

KI-Katastrophenszenarien

Ein prominentes Stelldichein feierte die neue Doomsday-Ideologie zuletzt in New York. Mustafa Suleyman war geladen, der 39-jährige Gründer von Inflection AI, dem aufstrebenden KI-Start-up, in das Microsoft, Nvidia und mehrere Milliardäre investiert haben. Der Ort: der University Club von 1865. Die Gäste: New Yorks High Society. Das Thema: die KI-Apokalypse.

Was da auf uns zukomme, wollte die Moderatorin von Suleyman wissen. „Es wird sehr einfach sein, die Modelle zu nutzen. Jede neue Generation ist zehnmal so leistungsstark wie die davor“, werde die Arbeit menschlicher Erfinder, Forscher, Gründer übertreffen, so Suleyman. „Es wird viele Akteure geben, die die Modelle nutzen, um anderen zu schaden.“

Mit KI ließen sich „hochgradig süchtig machende Drogen“ produzieren, künstliche Erreger, „den nächsten Covid-Stamm, zehnmal leichter übertragbar“, Wahlmanipulation, Wirtschaftskrisen. „Wir werden in eine Welt eintreten, in der man in seiner Garage biologische Substanz drucken kann“, DNA modifizieren und so weiter.

Der Gründer von OpenAI, Sam Altman, warnte bei seiner Anhörung im US-Kongress vor dem menschlichen „Risiko des Aussterbens durch KI“, vor „schweren, schrecklichen Folgen“. Dario Amodei, der CEO von Anthropic, glaubt, dass Gangster dank KI schon in zwei bis drei Jahren Bio- und Massenvernichtungswaffen herstellen. Und Elon Musk forderte einen KI-Entwicklungsstopp wegen „tiefgreifender Risiken für die Gesellschaft und die Menschheit“.

Nun herrscht in der Menschheitsgeschichte kein Mangel an Untergangspropheten. Das Besondere ist diesmal nur: Erstmals kommen die Kassandrarufe nicht von alternden Philosophen, sondern von den bisherigen Hohepriestern des Fortschritts, den jungen KI-Visionären aus dem Silicon Valley.

Aber es gibt natürlich auch weniger dramatisierende Stimmen. Bill Gates etwa. Er forderte, die Auswirkungen dieser „manchmal überragenden und dann wieder so armseligen“ Technologie nicht überzubewerten.

„Bald nachdem die ersten Autos auf der Straße waren, gab es Unfälle. Aber wir haben Autos nicht verboten. Wir haben Geschwindigkeitsbegrenzungen, Sicherheitsgurte und andere Regeln erlassen“, erklärte Gates.

Longtermism

Befeuert wird die Lust am Untergang vom Aufstieg einer exklusiven Ideologie, der viele Tech-Vordenker anhängen: „Longtermism“, zu Deutsch Langfristigkeit. Die Idee wurde 1984 von dem Oxforder Philosophen Derek Parfit enzwickelt und durch William MacAskills Buch „Was wir der Zukunft schulden“ aus dem Jahr 2022 populär gemacht.

Die Idee entstammt dem Gedankengebäude des „effektiven Altruismus“. Dieses ethische Konzept besagt, dass wir uns um die anderen Menschen auf der Erde moralisch gesehen genauso sorgen sollten wie um uns selbst und unsere Nachbarn – ein zutiefst humanistisches Konzept. Die Anhänger des „Longtermism“ dehnen den moralischen Impetus, dass jedes Leben zählt, nun nicht nur in die räumliche Dimension aus, sondern auch in die zeitliche. Heute leben 7,8 Milliarden Menschen auf der Erde. Wie viele werden in Zukunft geboren?

Bis zu dem Tag, an dem die Erde nicht mehr lebensfreundlich ist, werden vielleicht 80 Billionen Menschen gelebt haben. Oder doch gleich 40 Billiarden, eine Zahl mit 15 Nullen?

Angesichts derlei großer Zahlen sollten wir, so die Schlussfolgerung, kommende Leben priorisieren. Es entsteht eine Ethik, die der langfristigen Zukunft der Menschheit Vorrang vor der Gegenwart einräumt.

Heißt für die KI-Entwicklung: Wenn auch nur eine winzige Chance besteht, dass intelligente Maschinen die Menschheit auslöschen, dann ist die Eintrittswahrscheinlichkeit dieser Möglichkeit in einer fast unendlichen Zukunft sehr groß – und muss schon heute mit aller Macht (und viel Geld) bekämpft werden.

Diese Art moralischer Mathematik fasziniert viele der sozial distanzierten Silicon-Valley-Größen. Und ihr Siegeszug hat ganz reale Konsequenzen: Wenn das Hauptziel ist, die Menschheit vor einer künftigen Killer-KI zu retten, warum dann heute noch Geld gegen den Welthunger spenden? Wenn die Menschheit noch Milliarden von Jahre das Universum besiedelt, warum dann den akuten Klimawandel bekämpfen? In den Worten von MacAskill: „Für die Bewertung unseres Handelns können wir in erster Linie alle Auswirkungen in den ersten 100 (oder sogar 1000) Jahren ignorieren und uns auf die Auswirkungen in der weiteren Zukunft konzentrieren.“ Na dann!

Zugestanden: Nicht alle Vertreter des „Longtermism“ sind so radikal, manche wollen Umweltverschmutzung und andere Probleme schon heute angehen. Doch denkt man die zunächst progressiv erscheinende Idee konsequent zu Ende, dann führt sie zu einer Vernachlässigung gegenwärtigen menschlichen Leids – und lässt die Empathie verkümmern.

Effective Accelerationism

Nun gibt es die ersten Denker, die sich dem Doomsday-Sound entgegenstellen. Vor Kurzem veröffentlichte der US-Investor Marc Andreessen ein Manifest. Die Pessimisten lögen, schreibt Andreessen darin: „Man sagt uns, dass die Technologie uns die Arbeitsplätze wegnimmt, unsere Gesundheit bedroht, unsere Gesellschaft verdirbt, unsere Zukunft gefährdet und immer kurz davor ist, alles zu ruinieren.“ Er überbringe die gute Nachricht: „Es ist an der Zeit, die Fahne der Technologie hochzuhalten. Es ist an der Zeit, Techno-Optimist zu sein.“

Das klingt knallig. Nur was umfasst das Gegenmodell inhaltlich? Vor allem eine große Negation. Was uns auf dem Weg in die perfekte Zukunft im Weg stehe, seien unsere Zweifel, ethischen Fragen und Bequemlichkeiten, glaubt Andreessen.

Der von ihm propagierte „Effective Accelerationism“ (die Idee der effektiven Beschleunigung) will die Zukunft schon heute in Gegenwart verwandeln. Dafür ist die KI-Technik so schnell wie möglich voranzutreiben, ohne lästig bremsende Vorschriften. Bereits überzeugt: Amazon-Gründer Jeff Bezos und Gary Tan vom Gründerzentrum „Y Combinator“.

Das Universum selbst sei ein ständiger Optimierungsprozess, glauben die Techno-Optimisten. „Der Motor dieser Expansion ist das Technokapital. Er kann nicht gestoppt werden.“ Innovation soll also ungeprüft voranschreiten, jede Diskussion über Chancen und Risiken sei sinnfrei.

Dabei argumentiert auch Andreessen mit dem Armageddon – stellt den Ablauf jedoch auf den Kopf: Nicht die möglichen Folgen der KI-Revolution, sondern unsere heutige Wirklichkeit sind hier die Katastrophe. Einzig Technologie kann uns daraus erretten.

Andreessens krudes Manifest endet mit einer Art Glaubensbekenntnis. „Effective Accelerationism“ sei keine Ideologie, sagt er, sondern „einfach ein Bekenntnis zur Wahrheit“. Nun hat die Menschheit mit allein die Wahrheit kennenden Gruppen so ihre Erfahrungen gemacht: Die Publizistin Miriam Meckel nennt den Techno-Optimismus denn auch „Silicon Scientology“. Der Beobachter wendet sich schaudernd ab.

Dieser Blogpost ist eine gekürzte Version eines Artikels im Handelsblatt (Link HIER) von Journalist Felix Holtermann.

Author

Der Autor ist Manager in der Softwareindustrie mit internationaler Expertise: Prokurist bei einem der großen Beratungshäuser - Verantwortung für den Aufbau eines IT Entwicklungszentrums am Offshore-Standort Bangalore - Director M&A bei einem Softwarehaus in Berlin.