Wir kennen Künstliche Intelligenz (KI) aus Anwendungsfeldern wie Suchmaschinen (Google), Sprachassistenten (Alexa, Siri) oder Social Media (TikTok). Längst hat sich KI den Weg in weitere Anwendungsfelder gebahnt: Bäckereien bzw. Bäckereiketten setzen KI ein, um Reste in der Verkaufstheke zu Ladenschluss zu minimieren; Maschinenbauer nutzen KI für predictive maintenance und erzielen Einsparungen bis zu mehreren Millionen Euro pro Jahr.

Die Einführung von KI ist selten (bis nie) Plug & Play, es ist kein Geheimnis, dass noch ein Großteil von KI-Projekten scheitern. Kein Grund, die Flinte ins Korn zu werfen, dieser Trial&Error ist Teil des Lernprozesses. Inzwischen gibt es aber auch einige Best Practices, und die Erfolgsfaktoren für erfolgreiche KI-Projekte in Unternehmen lassen sich benennen; umgekehrt sind auch die pitfalls bekannt, die es zu vermeiden gilt.

In diesem Interview spreche ich mit Kevin Engelke (Zum LinkedIn Profil), KI-Experte und Leiter des KI-Competence Center bei der Beta Systems Software AG, wo ich selbst für das Thema Corporate Development stehe. Kurz: Wir sind Kollegen.

Hinweis: Die Links zu den verschiedenen von Kevin genannten Podcasts, Blogs oder weiterführende Quellen wurden im Nachgang von Kevin bereitgestellt und von mir noch eingearbeitet. Auch Aufzählungen habe ich der besseren Übersichtlichkeit halber in der Nachbearbeitung als Liste formatiert.

Und noch ein Hinweis: Aus Gründen der besseren Lesbarkeit/Verständnis wird auf die gleichzeitige Verwendung der Sprachformen männlich, weiblich und divers (m/w/d) verzichtet. Sämtliche Personenbezeichnungen gelten gleichermaßen für alle Geschlechter.

Sebastian: Bei Dir als KI-Experten muss man in der Kommunikation aufpassen, dass man nicht mit einem ChatBot spricht. Da wir uns just gegenübersitzen, bin ich aber auf der sicheren Seite. Schön, dass Du Dir Zeit genommen hast. Lass‘ uns mit einer einfachen Frage einsteigen. Wo nutzt Du denn persönlich KI in Deinem privaten Umfeld?
Ich nutze KI in verschiedene Anwendungsfällen; In den meisten Fällen nutze ich das gar nicht mal so proaktiv, indem ich ein KI-Modell selber trainiere und anwende; sondern ich nutze Anwendungen, die im Hintergrund KI einsetzen, und bin damit einfach Konsument. Als KI-Experte dürfte ich mir aber sehr viel häufiger darüber im Klaren sein, dass da eine Art von KI eingesetzt wird, als das vielleicht bei anderen Nutzern der Fall ist.

Online-Shopping, Videoplattform wie Netflix und YouTube und Social Media sind so Beispiele davon – da agiere ich mal als Content Creator, mal als Konsument.

Meine Erfahrungen hierbei sind, dass die KI(s) im Hintergrund sehr gut funktionieren, z.B.: beim Pattern Matching für die Auswahl von Content für mich, und ich mich gerne von den Empfehlungen zu einem Klick verleiten lassen. Ich klicke so beispielsweise gerne und häufig bei YouTube auf die Recommendations auf der Startseite, da diese meine Interessen widerspiegeln.

Und dann ist natürlich auch ChatGPT dabei, das hat sich bei mir inzwischen als Standard im Alltag etabliert. Ich nutze das aber keineswegs in dem Sinne von „jetzt erledige ich damit mal meine Aufgaben“, aber wenn ich eine Aufgabe habe, zum Beispiel ein Interview organisieren und durchführen müsste, dann würde ich mir von ChatGPT beispielsweise 10 Fragen als Anregung holen. Das ist vergleichbar etwa dazu, einen Freund zu bitten, ein paar Ideen beizusteuern – und zwar als Ergänzung zu meinen bereits existierenden eigenen Ideen. Kurz: ChatGPT ist für mich eine Quelle an Inspiration, bisweilen auch ein fail-check.

Rein privat habe ich KI vor ein paar Jahren mal in meinem Smart Home eingebaut. Ich habe zuhause verschiedene Sensoren-/Aktoren verbaut (beispielsweise jeden Lichtschalter automatisiert) und weiß, wann welche Lampe an und welche Fenster/Türen geöffnet sind. Das ist total nerdig, aber es macht mir einfach Spaß.

Und an einem Punkt habe ich mich gefragt: „Hey, wüsste eine KI eigentlich, wann ich was machen möchte? Welches Licht wann an sein sollte?“ Für diese Idee habe ich die im Smart Home anfallenden Daten gesammelte und dann während eines Urlaubes über Weihnachten ausgewertet; am Anfang war das cool, aber NACH dem Urlaub passierten solche lustigen Dinge wie: Nachts um zwei Uhr geht das Licht an. Hierfür muss man wissen, dass ich im Urlaub eher nachtaktiv bin, anders als während meiner regulären Arbeitswochen.

Gut, woher sollte die KI auch „wissen“, das ich zum Zeitpunkt der Erstellung im Urlaub bin oder in einer Arbeitswoche, das pattern hat einfach nicht gepasst. Kurz: Das war ein großer lustiger Fail, das muss man schon klar sagen – zumindest im ersten Anlauf. Für einen zweiten Anlauf hatte ich seitdem ehrlich gesagt keine Zeit, aber vielleicht kommt das noch. Ich habe das Smart Home dann wieder auf den zuvor ebenfalls verwendeten rein regelbasierten Modus umgestellt.

Sebastian: Wenn Unternehmen das Potential von KI nutzen möchten, sei es zur Optimierung interner Workflows, sei es zur Anreicherung bestehender Produkte oder zur Entwicklung neuer digitaler Geschäftsfelder, was sind die drei wichtigsten Erfolgsfaktoren?
Das Erste, und das ist noch nicht einmal spezifisch für KI-Projekte: Man muss klar definieren:

  • „Was ist das Problem?“
  • „Was möchte ich erreichen?“
  • „Warum eigentlich? Was erhoffe ich mir?“
  • Man muss das Problem ganz klar definieren und „scopen“. Wenn man etwa einen Workflow optimieren möchte, dann bedeutet das, dass ich mir die Fragen stelle:

  • „Was ist das Problem am bestehenden Workflow?“
  • „Sind es die Übergänge zwischen den einzelnen Phasen im Workflow, die optimiert werden müssen?“
  • „Was benötigen wir, um den Workflow zu verbessern?“
  • „Wann ist der Workflow gut? Gibt es Kennzahlen oder reicht ein Vorher/Nachher-Vergleich?“
  • Ich sollte mir einen kleinen Teil davon raussuchen und meine Lösungsfindung erst einmal darauf fokussieren. Und ich muss auch klar definieren, wann habe ich eine Lösung eigentlich erreicht, also meine Aufgabe gelöst?

    Denn sehr, sehr oft passiert es, dass die Idee platziert wird:
    Auftraggeber: „Ich würde gerne etwas mit KI machen.“
    Ich: „Ok, was willst Du denn machen?“
    Auftraggeber: „Ich benötige die ‚eierlegende Wollmilchsau‘“ – sinngemäß.

    Etwas technischer gesprochen möchten Unternehmen häufig mit nur wenigen Schritten von keinerlei Einsatz von KI zum vollumfänglichen Ausschöpfen der KI-Technologie kommen, oder formulieren gar Anforderung an eine Lösung, welche einer „Artificial General Intelligence“ (AGI) nahe kommen würde – sinngemäß. Und davon muss man sich gedanklich lösen. Denn eines wissen wir nach Jahren von Trial und Error mit KI sehr gut: KI funktioniert (Stand Heute) für spezifische Use Cases sehr, sehr gut. Also gilt es, sein Problem auf einen solchen spezifischen Use Case herunterzubrechen.

    Zweiter Punkt ist dann: Daten sammeln und vorbereiten. Deshalb gehe ich in der Analyse/Bewertung von KI-Projekt in der Regel sehr schnell auf die Daten ein. Die müssen folgende Kriterien erfüllen:

  • qualitativ hochwertig – relevant, genau, vollständig
  • quantitativ – in ausreichender Menge
  • Diversifiziert – Repräsentation aller charakteristischen Eigenschaften meiner Datenmenge
  • Wenn man das nicht im Auge behält, dann kann ein KI-Projekt aus dem Ruder laufen. Wir erinnern uns an Schlagzeilen, wo etwa eine KI rassistische Züge entwickelte. Das lässt sich dann häufig darauf zurückführen, dass bestimmte charakteristische Eigenschaften in den Daten unterrepräsentiert sind, oder dass ein Pattern erkannt worden ist, wo bestimmte Menschen aus dem Datenpool wirklich benachteiligt behandelt wurden.

    Aus diesem Grund ist es in der sogenannten „Data-Exploration-Phase“ so wichtig, sich die Daten und die repräsentativen Eigenschaften – also Menge, Verteilung und Qualität aus verschiedensten Gesichtspunkten – anzuschauen und zu bewerten, beziehungsweise zu korrigieren oder ergänzen. Dasselbe gilt auch für die Phase der Qualitätssicherung.

    [Bonusmaterial] Vertiefende Lektüre: Falsche Trainingsdaten verzerren Güte-Einschätzung von KI-Modellen und „It’s the dataset, stupid!“ – Was einen guten Datensatz ausmacht [Bonusmaterial Ende]

    Und somit kommen wir auch schon zu meinem dritten Punkt: Dem Aspekt von Ethik und Moral. Darüber müssen wir uns Menschen, die Projektbeteiligten, Gedanken machen, denn: die KI analysiert ganz objektiv-statistisch vorhandene Muster in vorhandenen Daten. Den Impact auf Menschen, auf die Gesellschaft, auf das Environment müssen wir im Fokus behalten, zumal dann, wenn KI-Lösungen bestimmte Prozesse voll oder teilweise automatisieren.

    Neben Ethik zählt natürlich auch der Aspekt der Legalität, was darf ich überhaupt? Stichpunkt: Bundesdatenschutzgesetz, die DSGVO etcetera. Die Regularien hierzu will ich gar nicht bewerten, sie sind einfach gegeben und wir müssen uns daran orientieren – Punkt. Und dabei sollten wir uns daran erinnern, dass auch große Player im Bereich der KI diese Regulierung im erforderlichen Maß einfordern, etwa Sam Altman, einer der zentralen Figuren hinter OpenAI und damit ChatGPT, auch er hat das jüngst erst eingefordert. Und das zeigt, die Leute wollen es – Wir sollten es nur nicht überregulieren.

    [Bonusmaterial] Vertiefende Lektüre: OpenAI: CEO Sam Altman fordert schnelle KI-Regulierung von der Politik [Bonusmaterial Ende]

    Sebastian: KI setzt in der Regel also eine ganze Menge an Daten voraus. Damit ein Unternehmen erfolgreich sein kann, braucht es also eine neue Kultur des Umgangs mit Daten, eine datenzentrierte Kultur? Wie lässt sich so etwas entwickeln?
    Fangen wir an mit einem Blick zurück in die junge Historie von KI: Ich starte mit riesigen Datenmengen, trainiere eine KI und die erkennt dann Muster in den Daten; und für jeden Spezialfall habe ich damals eine vielleicht existierende Architektur eines bekannten Modell als Grundlage verwendet, jedoch von Grund auf neu trainiert – das war ein unfassbarer Aufwand. Mittlerweile gibt es gut funktionierende Herangehensweise wie das

  • Few-Shot-Learning oder
  • Zero-Shot-Learning
  • Das Prinzip hinter Few-Shot-Learning und Zero-Shot-Learning ist das anpassende Training (Re-Training) eines existierenden neuronalen Netzes, welches eigentlich mal für eine andere Problemstellung entwickelt wurde. So wurde rausgefunden, dass neuronale Netze für die Bildverarbeitung – sogenannte CNN: Convolutional Neural Networks – super gut darin sind, in den Hidden Layern Formen zu erkennen, die zunehmend komplexer wurden:

  • erstes Layer erkennt beispielsweise eine Linie
  • zweites Layer erkennt dann etwas komplexere Strukturen wie Kreise, Dreiecke
  • drittes Layer erkennt dann den Zusammenhang dieser Formen
  • so dass am Ende eine Sammlung an Linien/Formen/Strukturen als ein Auto, eine Katze oder ein Hund klassifiziert werden können.

    Und eben diese fertig trainierten funktionierenden neuronalen Netze kann man sehr gut „re-trainieren“. Das bedeutet, wenn ich ein neuronales Netz habe, was exemplarisch darauf optimiert ist, ein Bild in die Kategorien „Hunde“ oder „Katzen“ zu klassifizieren, hat dieses neuronale Netz in Wirklichkeit nicht gelernt, was ein Hund oder eine Katze ist, sondern es hat gelernt: Was sind typische Repräsentationen an Formen in Bildern, um die Klassifizierung vornehmen zu können. Und ausgehend davon reicht es oft aus, nur einen kleinen Teil des neuronalen Netzes zu re-trainieren. Das funktioniert, auch wenn das neuronale Netz vorher für eine andere Aufgabe ausgelegt war.

    Das Erstaunliche dabei: Um nun eine andere Aufgabe zu lösen, z.B. eine andere Klassifizierung, wird nur ein Bruchteil der Datenmenge im Vergleich zum ursprünglichen Training und somit deutlich weniger Rechenkapazität benötigt. Warum? Weil das Erkennen von Linien, Formen und Strukturen bereits vom neuronalen Netz gelernt worden ist und oft unverändert bleiben kann.

    So schaffen es folgende Beispielprojekte mit wenigen Datensätzen beachtliche Ergebnisse zu erzielen:

  • LINK: Few Shot Image Classification
  • LINK: Few Shot Learning
  • Somit brauchen wir heute häufig deutlich weniger Daten als für frühere KI-Ansätze und das bringt mich zum nächsten wichtigen Aspekt: Der Kultur im Umgang mit Daten: Wie schafft man also eine Kultur, in der es anerkannt wird, dass man Daten sammelt und was man damit überhaupt macht? Ich glaube, am besten schafft man Akzeptanz durch Verständnis.

    Grundlegend notwendig ist hierbei Vertrauen, wir müssen den Beteiligten transparent und verständlich machen,

  • welche Daten werden gesammelt?
  • warum sammele ich die Daten?
  • welchen konkreten Anwendungsfall habe ich damit?
  • was passiert danach mit den Daten?
  • Da hilft und dazu verpflichtet uns auch die Datenschutzgrundverordnung und das Bundesdatenschutzgesetz, da man Daten immer nur zweckgebunden verarbeiten darf und da man die Verarbeitung für die Betroffenen transparent und verständlich machen muss.

    Im Umgang mit Daten fällt mir immer wieder der ehemalige Leitsatz von Google ein: „Don’t do evil“ – diesen Grundgedanken unterstütze ich sehr.

    [Bonusmaterial] Vertiefende Lektüre zum ehemaligen Leitsatz von Google: Google verabschiedet sich von „Don’t be evil“ [Bonusmaterial Ende]

    Die technischen Möglichkeiten, um Dokumente und Daten abzulegen, Data Warehouses aufzubauen: mit strukturierten oder nicht-strukturierten Daten existieren heute bereits, beispielsweise mittels: Dokumentendatenbanken, Graphdatenbanken, klassische relationale Datenbanken etcetera: Kurz: Es gibt zahlreiche technologische Möglichkeiten, beliebig große Datenmengen zu sammeln und zu speichern. Damit möchte ich explizit nicht sagen, dass das ganze leicht ist oder keinen Aufwand bedeutet, das natürlich schon. Aber so gut technisch machbar wie heute war es vermutlich nie zuvor und es wird auch in Zukunft nur noch einfacher werden.

    Ich sehe somit den Hauptfokus darin dafür zu sorgen, dass Betroffene die volle Transparenz über das geplante Vorhaben erhalten und es auch verständlich erklärt wird, so dass es (das Vorhaben), wenn es sinnvoll und mehrwertschaffend ist, auch auf die notwendige Akzeptanz und Bereitschaft der betroffenen Personen trifft – und meiner Erfahrung nach tut es dies auch.

    Darüber hinaus sehe ich uns als DataScienstists / DataEngineers in der moralischen Pflicht auch die Auswirkung sowie Funktionsweise der entstehenden KI-Lösungen (Stichwort Explainable-AI) selbst im Detail zu verstehen und Betroffenen zu erklären, um das Thema auch weiterhin für sich zu bewerten zu können.

    Sebastian: Wie sieht Dein Masterplan für die KI-Transformation aus, die Dir als Leiter des KI-Competence Centers vorschwebt? Was sind die wesentlichen Meilensteine und Maßnahmen?
    Tatsächlich habe ich bereits – und werde hieran auch in Zukunft weiter arbeiten – sehr spezifische Meilensteine für meine Tätigkeit bei Beta Systems ausgearbeitet, die man als Masterplan bezeichnen könnte. Es ist aber sicherlich kein Masterplan im Sinne von: „Funktioniert für alle Unternehmen“. Es ist, ein Masterplan maßgeschneidert für Beta Systems, denn die Ausgangsvoraussetzungen sind nun mal in allen Unternehmen unterschiedlich. Wir sind ein langjährig bestehendes Softwareunternehmen, mit einer hohen Anzahl an Produkten, wir bewegen uns auf verschiedensten Plattformen (zOS, Linux, Windows) und haben aufgrund unserer Geschäftsbereiche rund um Data-Center-Intelligence und Identity-Access-Management eine immense Vielfalt an Anwendungsgebieten und teilweise hoch spezialisierte Softwarelösungen – darin findet man eine Menge an Potenzial, aber auch individuelle Herausforderungen, was man sicherlich nicht auf viele andere Unternehmen übertragen kann. Zu meinem Masterplan allgemein gehören:

    Erster Punkt Wissen, Verständnis, Involvieren. Ich bin bei Beta Systems der Erste, der das Thema KI als separate Abteilung im Unternehmen etabliert, also institutionalisiert. Zwar gab es schon vorher die Auseinandersetzung mit dem Themengebiet, auch mit Partnern, aber die jetzige Etablierung eines „Competence Centers“ wird diesen Prozess ganz klar beschleunigen und auf ein ganz anderes Level heben.

    Mein Ziel ist nun, das Wissen und Verständnis zu KI im gesamten Unternehmen zu vertiefen, vom Azubi bis zum Vorstand. Wir müssen die Leute involvieren, damit wir einen Austausch und somit das Potenzial in den Köpfen aller Mitarbeiter:innen nutzen können. Ich habe alleine in den letzten drei Monaten und auch in meinen privaten Projekten sehr stark gemerkt, dass gilt: umso tiefer das Verständnis der Technologie gegeben ist, desto stärker fördert dies einen Austausch und es können fantastische Ideen entwickelt werden – und zwar durch alle Abteilungen und Erfahrungslevel mit KI hinweg.

    Dann, zweiter Punkt, das ganze Vorhaben wird „Step by Step“ erfolgen und sukzessive wachsen: Ich habe es im ersten Teil unseres Gespräches schon angesprochen: Wir werden Probleme/Ideen/Vorhaben identifizieren, diese miteinander vergleichen, priorisieren und strikt scopen.

    Diese Projekte werden wir dann mit KI-basierten Lösungsansätzen umsetzen; und dabei gilt: eine KI-Lösung kann auf der zuvor entstandenen Lösung aufbauen oder diese nutzen. Ich baue nicht die KI, die dann ALLES lösen kann. Natürlich, wäre das schön, aber die künstliche Allgemeine-Intelligenz ist schon seeehr ambitioniert. In der Praxis heißt das: Wir machen ein (kleines) Modell, lösen damit ein konkretes Problem, denken das Problem oder die Lösung weiter und bauen ein darauf aufbauendes größeres Modell oder die nächste KI-Lösung. Später verknüpfen wir vielleicht die beiden Modelle etcetera – wie in der klassischen Softwareentwicklung: eine Problemlösung nach der anderen, und dann gucken wir, was wir auf Basis der beiden schaffen können. Und entwickeln beziehungsweise designen immer weitere Funktionen, Module und Lösungen.

    Ob das entstehende KI-Modell nun ein klassischer Ansatz aus dem maschinellen Lernen, ein kleines neuronales Netz, ein Transformer oder ein Deep-Neural-Network mit Milliarden von Neuronen oder gar eine Mischung aus diesen wird, machen wir natürlich von der Aufgabenstellung abhängig.

    Drittens. Wir können einige parallele Projekte betreiben, ist häufig auch besser als „alles auf ein Pferd zu setzen“. Aber bei der zunehmenden Anzahl an Projektideen dürfen wir den Fokus nicht verlieren. Wir haben bei uns schon eine Menge an Projekten identifiziert, und das in verschiedenen Geschäftsbereichen. Diese werden intern bewertet und priorisiert, aber wir können und sollten nicht jedem Hype und jeder Idee nachrennen, sondern überlegen: Wie sind die Prioritäten? Dann committen wir uns darauf und bearbeiten das Thema.

    Und jetzt kommt ein entscheidender Punkt: Viertens, wir müssen gucken, wie lange lohnt es sich, das zu bearbeiten? Heißt: Kontinuierlich evaluieren. Ich orientiere mich seit meiner Zeit als Softwareentwickler und Teamleiter stark an der Methodologie der agilen Softwareentwicklung. Wir werden immer wieder überlegen und evaluieren: Sind wir auf dem richtigen Pfad, gehe ich in die richtige Richtung? Lohnt sich das Projekt noch? Haben sich vielleicht die Anforderungen seit Projektstart verändert? Dieses Vorgehen kennt man z.B. aus der agilen Softwareentwicklung, das ist nichts KI-spezifisches … aber es gilt dort eben auch.

    Und schlussendlich, fünftens, Vorgehen nach methodisch-didaktische Prinzipien, ich habe sie bereits im Verlauf des Gesprächs schon teilweise genannt:

  • Vom Einfachen zum Schweren / Verständlichen zum Abstrakten: als erstes Projekt etwas Verständliches und ggf. auch Leichtes, später dann die abstrakten Ideen umsetzen. So kann ich Skepsis reduzieren und durch Ergebnisse motivieren.
  • Prinzip der Visualisierung: Wir können Daten visualisieren und so deutlich einfacher für alle zugänglich und interpretierbar darstellen. Dies ist für mich typisch für die Phase der Data-Exploration innerhalb eines KI-Projektes.
  • Individualisierung / Verständlichkeit: Ich bin ein großer Fan von „Eli5“ (explain like I’m five), bei dem man versucht, mit einfachsten Mitteln oder eher einfachster Sprache mehr und minder komplexe und abstrakte Themen zu beschreiben, so dass diese hoffentlich von allen verstanden werden können.
  • Sebastian: Es gibt ja bereits einige KI-Projekte bei Beta Systems; was sind Deine Grundsätze bei der Projektauswahl, bei der Projektsteuerung? Wann würdest Du ein Projekt auch mal beenden, und wie findet man vielversprechende KI-Projekte?
    Ich bin gerade dabei, bei uns hausintern einen Bewertungsbogen zu erarbeiten. Ich habe mich dabei an der Vorarbeit von bekannten großen Unternehmen und OpenSource-Communities orientiert. Online sind hier eine Vielzahl solcher Guidelines, aber auch Bewertungsbögen und Checklisten für KI-Projekte verfügbar, zum Beispiel auf Regierungsebenen, aber auch von großen Tech Firmen. Und das liest sich gar nicht mal so sperrig wie irgendwelche AGB – die Texte sind wirklich gut verständlich.

    Worum soll es da gehen? Auf der einen Seite um Ethik und Moral. Auf der anderen Seite: Technische Evaluierung. Man sollte da herangehen wie an eine User Story aus der agilen Softwareentwicklung. Wer bin ich, was möchte ich, warum möchte ich das, was möchte ich erreichen? Und wenn dabei rauskommt, dass man mit KI die Performance o.Ä. von Mitarbeitenden bewerten beziehungsweise vergleichen will: dann lass‘ es – meine Meinung dazu.

    An der Stelle will ich auch nochmal klarmachen, dass Datenschutz für mich ein sehr wichtiges Thema ist. Das mag kontraintuitiv erscheinen, oft sagt man ja, KI-Firmen oder KI-Experten würden nicht so viel Wert auf Datenschutz legen. Aber ich lege darauf großen Wert … es sind ja auch meine eigenen Daten betroffen. Außerdem verweise ich nochmal auf das Thema Akzeptanz durch Verständnis, das ich im Verlauf unseres Gesprächs schon als wichtigen Punkt herausgearbeitet habe.

    Beim Bewertungsbogen geht es darum, Projekte vergleichbar zu machen, um eine einheitliche Entscheidungsbasis bei der Projektauswahl zu haben. Ich arbeite, wie gesagt, am ersten Entwurf, der in enger Zusammenarbeit mit anderen Stakeholdern bei Beta Systems entsteht. Wichtige Bewertungsdimensionen neben Ethik und Datenschutz sind natürlich Machbarkeit, Datenverfügbarkeit, Umsetzungsaufwand, Risiko fürs Unternehmen und Ähnliches. Wir brauchen auch KPIs, mit denen wir den Projekterfolg während der Implementierung und nach Abschluss bewerten können. Und wir müssen auch klarstellen, wer bei einem Projekt alles beteiligt wäre und ob die Beteiligten überhaupt verfügbar sind.

    Man muss eine mittelfristige Perspektive bei solchen Entscheidungen über KI-Projekte haben: Die Entscheidung über die Umsetzung beziehungsweise Machbarkeit ein potenzielles KI-Projekt ist kein ewig gültiges Ja oder Nein; bisweilen kann es gute Gründe geben, eine KI-Projektidee nicht sofort umzusetzen, etwa weil die Datengrundlage fehlt. Dann kann eine Entscheidung auch darauf hinauslaufen, dass man zum gegebenen Zeitraum entscheidet, über einen Zeitraum X die Datensammlung zu definieren und umzusetzen, und nach dieser Phase geht man in die eigentliche Projektumsetzung.

    Was ich insgesamt vermeiden will: Dass wir KI machen, nur weil es gerade ein Hype-Thema ist. Und eben deshalb müssen wir eine saubere Evaluierung vor der Entscheidung zur Umsetzung durchführen.

    Und was ich auch vermeiden will: Das Rad neu erfinden. Es gibt eine Vielzahl von Lösungen und Algorithmen. In den allermeisten Fällen haben Leute das schon mal gemacht. Es gibt da draußen eine ganze Reihe von Köpfen, die verdammt schlau sind; und hier nutze ich gerne den Begriff der Schwarmintelligenz, der ist von meinem Lieblingsforum Reddit. Sich connecten, untereinander austauschen, einander unterstützen und gemeinsam Großartiges schaffen.

    Sebastian: Was habe ich noch nicht gefragt, was würdest Du noch ergänzen wollen?
    Ich glaube, ein Punkt, den wir insgesamt stark vorantreiben müssen, ist die Akzeptanz dafür, dass KI im Kern Potenziale birgt und Dinge in der Welt auslösen wird, bei denen wir uns nicht vorstellen können, dass das funktioniert.

    Ein Beispiel dazu: Es gibt ja gerade das Projekt zum Bau von Fusionsreaktoren, wovon ein Testreaktor in der letzten Zeit große Schlagzeilen machte, weil zum ersten Mal mehr Energie erzeugt als eingesetzt wurde. Dabei ist – nach meinem laienhaften Verständnis – die Herausforderung gegeben, das ultra-heiße Plasma mit Millionen von Grad Celsius in einer „stabilen Form“ im Raum zu halten, was wohl mit super starken Magneten geschieht, wodurch das Plasma im Raum schwebt. Um diese stabile Form jedoch aufrecht zu erhalten, so dass das Plasma nicht zerfällt, müssen in sehr kleinen zeitlichen Abständen, ich denke es waren Bruchteile von Millisekunden, diese Magneten gesteuert und hierfür ein System trainiert werden, das diese Aufgabe – also die Steuerung der Magneten – übernimmt.

    [Bonusmaterial] Vertiefende Lektüre: DeepMind steuert Fusionsreaktor mit künstlicher Intelligenz“ [Bonusmaterial Ende]

    Nun komme ich zum eigentlichen Punkt. Der Vorschlag zur Nutzung von KI zur Lösung dieser Herausforderung hat nach meinem Hörensagen zunächst Kopfschütteln ausgelöst, weil: „Wie soll man KI hier sinnvoll nutzen können?“ Was für Muster sollten dabei relevant sein, für deren Analyse man KI nutzen könnte? Nun, Du ahnst es, KI hat aber tatsächlich einen entscheidenden Beitrag geleistet. Und eben das meine ich … ergebnisoffen KI bei der Lösungsfindung einbeziehen.

    Zu dem Thema empfehle ich übrigens auch den Podcast von Lex Fridman, der sich mit diesen Fragen besonders auseinandersetzt: Was trauen wir KI zu, wie beeinflusst uns der Einsatz von KI und so weiter.

    Quintessenz: Wir Menschen sollten nicht zum limitierenden Faktor von KI werden, denn das würde das Potential von KI einschränken. Und sind wir ehrlich: Ich hätte mir vor einem Jahr auch kein ChatGPT vorstellen können, also, in der komplexen Form, wie das heute machbar ist, GPT-4. Aber hier gilt eben: Alles ist unmöglich … bis es einer macht.

    Sebastian: Kevin, Du hast eigentlich schon das richtige Stichwort genannt. Nämlich Podcast und weitere Lesetipps. Könntest Du uns zum Schluss noch Lesetipps für zwei, drei gute Blogs rund um Künstliche Intelligenz geben? Für alle, die von Deinem Interview inspiriert sind, sich tiefer mit dem Thema zu befassen …
    Na klar, gerne. Dabei muss man wissen: Ich bin ein Kind des Internets, ich bin viel mit Blog-Posts und YouTube-Videos groß geworden. Und inzwischen gilt für mich, dass Blogs häufig die Quantität und Qualität eines Buchs erreichen … wenn nicht gar auch schon übersteigen.

    Und was ich daran sehr schätze, ist die Tatsache, dass das sehr interaktiv ist. Das ist keine Einbahnstraße, man erfährt etwa, was andere Leute darüber denken in Form von Kommentaren; und es wird auch auf andere Blogs verwiesen. Insgesamt ist das auch sehr dynamisch.

    An erster Stelle würde ich gerne Josh Stormer nennen; seine Videos sind in den ersten Sekunden gewöhnungsbedürftig, da er die ersten X Sekunden in seinen Videos meist das Thema „singt“ – schaut einfach rein, ihr wisst dann was ich meine. Aber er schafft es wirklich, nach dem Prinzip ELI5 seinen Content zu vermitteln, auch mit super Bildern und witzigen Figuren, etcetera. Hier geht’s zu seinem Videokanal: StatQuest | Josh Stormer

    Wen ich auch unbedingt nennen möchte: Lex Fridman. Er behandelt KI, wie z.B.: das mit dem Fusionsreaktor, ebenso wie andere Themen, und zwar in seinem Podcast, aber auch in seinen LinkedIn Posts.Hier geht’s zum Podcast: Lex Fridman Podcast

    Außerdem bin ich sehr viel auf medium.com/tag/artificial-intelligence unterwegs. Medium ist meiner Meinung nach zwar inzwischen stark kommerzialisiert, aber es gibt dort sehr guten Content.

    Als Community empfehle ich www.huggingface.co und www.kaggle.com. Und mein all-time favourite ist www.reddit.com, dort bin ich z.B.: in den Subreddits rund um die Themen Machine Learning, DataScience und Datenvisualisierung aktiv

    Author

    Der Autor ist Manager in der Softwareindustrie mit internationaler Expertise: Prokurist bei einem der großen Beratungshäuser - Verantwortung für den Aufbau eines IT Entwicklungszentrums am Offshore-Standort Bangalore - Director M&A bei einem Softwarehaus in Berlin.