Venture Capital Gesellschaften wollen mithilfe von Data Science die Goldene Nadel im Heuhaufen finden – the Next Big Thing, das nächste Facebook. Modefirmen suchen nach dem Trend des nächsten Sommers. Und wer weiß: Vielleicht gibt es eines Tages den perfekten Matching-Algorithmus auf Partnerbörsen – und die Scheidungsrate sinkt auf Null.

Data Science spielt in einer wachsenden Anzahl von Anwendungsbereichen eine Rolle. Data Scientists müssen mit großen Datenmengen umgehen können (Big Data). Zudem beherrschen diese Spezialisten eine Vielzahl mathematischer Methoden, um Muster herauszuarbeiten, Zusammenhänge sichtbar zu machen. Es wird schnell kompliziert.

Über die Zukunft von Data Science, über den Fachkräftemangel in diesem Bereich und die Vision für seine Firma spreche ich mit Rico Knapper (Zum LinkedIn-Profil), dem Co-Gründer des Data-Science-Unternehmens anacision GmbH (www.anacision.ai).

Sebastian: Hallo Rico! Schön, dass das geklappt hat. Lass‘ uns doch gleich mal mit einem Zitat einsteigen. Anfang Oktober habe ich ein Handelsblatt-Interview mit dem CEO des Daten-Unternehmens Palantir, Dr. Alexander Karp, gelesen. Alex Karp erklärte darin: „2030 werden Sie kaum noch Unternehmen mit großen eigenen IT-Abteilungen finden. Das wird künftig von Anfang bis Ende von Dritten geliefert. Der Umgang mit Daten wird einfach zu kompliziert.“ Warum wird das so kompliziert?
Rico: Nun, das ist schon eine steile These. Ob das ganz so kommt, wage ich zu bezweifeln. Aber es wird in die Richtung gehen. Schaut man auf Daten, deren Menge, Verfügbarkeit und insbesondere deren Nutzung, dann ist das sicher eine Entwicklung, die wir bei manchen Unternehmen in den kommenden Jahren sehen werden. Woran liegt das?

Schauen wir mal, was nahezu alle Unternehmen – und damit meine ich vor allem größere Unternehmen – mit ihren Daten aktuell tun, dann beginnt das meist mit dem Wunsch, „alle“ Daten „trusted“ und zentral verfügbar zu haben. Allein das Zusammenführen und das Management der Daten ist dabei eine große Herausforderung und das kann unmöglich jedes Unternehmen intern leisten. Und dabei sind Sicherheitsaspekte noch gar nicht berücksichtigt.

Im zweiten Schritt geht es in den Unternehmen dann darum, unternehmerischen Kontext in die Daten zu bekommen, sie zu nutzen, zu visualisieren, zu analysieren und aus ihnen zu lernen. Hierbei gibt es unzählige Aufgaben, die sich wiederholen und standardisieren lassen. Warum sollte ich eine Horde teurer Data Scientisten beschäftigen, wenn die Plattform des Drittanbieters Bildanalyse out of the box liefert?

Und dann geht es im letzten Schritt darum, die Ergebnisse den Nutzern konsumierbar zu präsentieren. Hierbei gilt das Gleiche – warum neu entwickeln, was es schon perfekt gibt? Die Entwicklung hin zu solchen Plattformen bzw. Drittanbietern macht daher absolut Sinn. Und IT-Abteilungen werden – übrigens genauso wie wir als Spezialisten für Data Science und KI – viel mehr für ganz spezielle, komplexe Nischenaufgaben gebraucht.

Sebastian: In vielen Bereichen werden komplexe Methoden in einfache Easy-to-Use-Anwendungen überführt. Die Software Tableau ist so ein Beispiel. Und der CTO von Microsoft, Kevin Scott, fordert die KI-Szene auf, die Angebote so zu gestalten, dass eines Tages der Mais-Farmer in Iowa sich seine KI-Anwendungen zusammenbauen kann. Drag&Drop. Ist denn nicht denkbar, dass Data Science Methoden auch nutzbar werden für Anwender, die nicht in Mathematik oder Physik promoviert haben?
Rico: Absolut, davon bin ich überzeugt, grob habe ich das ja eben schon angesprochen. Allerdings stößt man da irgendwann an Grenzen – zumindest heute und vermutlich auch noch eine ganze Weile. Viele Aufgaben lassen sich natürlich automatisieren. Wenn sich der Mais-Farmer für 500 Dollar eine Drohne mit hoher Kameraauflösung kauft, dann kann er sicher – das sogar teilweise schon heute – mit bestehenden Angeboten und ohne tiefe Ausbildung in Data Science eine Bildanalyse vornehmen. Die Analyseschritte kann er sich per Drag&Drop zusammenbauen, um beispielsweise den Wachstumsfortschritt zu messen oder Anomalien zu erkennen, die auf Schäden hindeuten.

Datenanalysen sind ja eigentlich am Ende nichts anderes als eine spezifische Lösung für ein spezifisches Problem. Manche Lösungen lassen sich gut standardisieren, zumindest zum Teil. Das ist etwa im Bereich Landwirtschaft gegeben, weil die Äcker von Farmern im Jahresverlauf meist recht gleichmäßig aussehen, beziehungsweise zumindest eine gleichmäßige Saisonalität aufweisen und Anomalien daher mit wenig Trainingsdaten leicht erkennbar sind. Und für diese standardisierten Fälle können Lösungen auch ganz einfach vielen Anwendern zugänglich gemacht werden.

Anders sieht es da schon aus, wenn es sehr komplexe Prozesse betrifft. Das erleben wir häufig in der Prozessindustrie, aber auch wenn die Datenverfügbarkeit überschaubar ist und das auch erstmal aufgrund prozessualer Gründe so bleiben wird. Dann stößt Standardisierung und Drag&Drop von Bausteinen schnell an die Grenzen. Dann braucht es eben doch noch den Fachmann. Aber der Trend ist klar.

Sebastian: Kannst Du mal ein Beispiel aus Eurer Projektpraxis erzählen, das den Mehrwert von Data Science gut illustriert?
Rico: Gerne, da gibt es – zum Glück – einige. Zu nennen ist dabei sicher ein Predictive Maintenance Projekt mit einem großen Unternehmen aus dem Anlagenbau. Hierbei ging es darum, in Großkompressoren diejenigen Fehlerfälle frühzeitig zu erkennen, die so außergewöhnlich sind, dass sie bisher meist nicht aufgetreten sind und daher auch nicht gut erkannt werden – nicht mal von den Experten! Da gibt es so Dinge wie sich lösende Schrauben in Turbinen, die dann ganze Turbinen zerstören. Das passiert natürlich nur ein einziges Mal, denn danach werden viele Experten dafür sorgen, dass diese Schrauben sich nie wieder lösen.

Und genau so ein System haben wir entwickelt und weltweit erfolgreich zum Einsatz gebracht. Der CEO hat damals in einem Interview gesagt, dass dieses System dem Unternehmen mehr als 5 Millionen Euro pro Jahr spart. Pro Jahr! Das ist gemessen an unseren Kosten natürlich immens. Und das ist auch ein schöner Fall, in dem Data Science keinen Menschen ersetzt, sondern ihn nur perfekt an der Stelle ergänzt, wo er an seine Grenzen kommt. Gleichzeitig gibt es Bereiche, da wird es noch lange dauern, bis Data Science die Qualität von Menschen hat.

Sebastian: In welchen Anwendungsbereichen in Unternehmen siehst Du das größte Potential von Data Science?
Rico: In fast allen ehrlich gesagt … wobei es da sehr auf das individuelle Unternehmen ankommt. Ich bin ja ein großer Verfechter davon, Daten nicht einfach zu analysieren, nur weil man zufälligerweise einen großen Data Lake hat oder weil andere das auch machen. Sondern ich empfehle immer, wirklich vorher mal zu überlegen, an welcher Stelle denn Schmerzen bestehen und ob ich die mit Data Science zu akzeptablen Kosten lindern kann.

Aber zurück zu deiner Frage: Process Mining zur Optimierung von Unternehmensprozesse hat aus meiner Sicht riesiges Potential. Und auch der HR-Bereich wird sich wandeln und viel mehr Daten systematisch nutzen. Und da geht es gar nicht darum, Mitarbeiter zu kontrollieren. Vielmehr zielt der Einsatz von Data Science darauf ab, Mitarbeitern zu helfen und beispielsweise frühzeitig negative Entwicklungen vorherzusehen. Forecasting ist auch eine unterschätzte Disziplin, obwohl sie eine derjenigen ist, die schon am längsten diskutiert werden.

Sebastian: Sind Data Science Projekte in Unternehmen eher One-Off Anwendungen. Heißt: Da wird zum Beispiel einmal Predictive Maintenance eingerichtet und dann läuft das. Oder macht es für Unternehmen Sinn, Data Scientisten dauerhaft einzustellen bzw. auszubilden?
Rico: Leider ist das aktuell noch oft der Fall. Aber das wird sich wandeln. Wie bei jeder Software – und etwas anderes ist Predictive Maintenance am Ende auch nicht – wird es hier in Zukunft vermehrt auch um Updates, Support, Wartung und-so-weiter gehen. Aber wenn man dabei nochmal an deine ersten Fragen denkt und sich vor Augen hält, dass das Entwickeln von Predictive Maintenance vielleicht in Zukunft über Plattformen viel leichter wird und auch die Daten dort liegen, dann braucht es vermutlich gar nicht mehr so viele Data Scientists. Sondern nur einen kleinen, feinen Kern. Drumherum dafür aber viel für die Integration, Wartung und-so-weiter. Also eine etwas neue Disziplin rund um Software Engineering.

Sebastian: Wie geht es bei Euch weiter? Was ist Deine Vision für das Unternehmen in – sagen wir – 10 Jahren?
Rico: Wir sind gerade in einer spannenden Phase. In den ersten Jahren konnten wir gut wachsen und waren trotzdem profitabel. Dabei haben wir exzellente Leute gewonnen, mit vielen erfolgreichen Projekten überzeugt und dabei viel Wissen generiert. Jetzt ist es an der Zeit, mehr auf das Generieren von IP Wert zu legen. Da sind wir dran über die Entwicklung von spezifischen Lösungen und Produkten. Meist, aber nicht ausschließlich, in unserem Kernmarkt rund um die Produktion und die Maschinen- und Anlagenbauer für die Produktion. Klares Ziel ist es dabei, uns in einer Nische als absoluter inhaltlicher Marktführer zu positionieren. Das fängt gerade an und ist aus vielen Perspektiven super spannend – ich freue mich darauf zu sehen, was in 10 Jahren wirklich da ist und ich bin mir sicher, dass Data Science ein völlig neues Level hat, wenn wir eine Fortsetzung zu diesem Gespräch in 10 Jahren führen.

Sebastian: Lieber Rico, vielen Dank für Deine Zeit und dieses Gespräch!

Author

Der Autor ist Manager in der Softwareindustrie mit internationaler Expertise: Prokurist bei einem der großen Beratungshäuser - Verantwortung für den Aufbau eines IT Entwicklungszentrums am Offshore-Standort Bangalore - Director M&A bei einem Softwarehaus in Berlin.