Die Computerlinguistik ist längst im Alltag angekommen. Wir kommunizieren mit dem Sprachassistenten Alexa, wir nutzen die Übersetzungsengine von DeepL. Wenn wir auf den Webseiten von MYTHERESA oder OTTO shoppen, dann lesen wir Produktbeschreibungen, die von Textrobotern generiert wurden.

Die Technologie ist nicht in allen genannten Fällen die Gleiche. Im Wesentlichen lassen sich zwei technologische Entwicklungen unterscheiden. Zum einen Natural Language Processing (NLP). Hier werden umfangreiche KI-basierte Sprachmodelle mit umfangreichen Textkorpora trainiert (Millionen von Texten). Die Grundlage ist Statistik. Zum anderen Textroboter, die auf Basis eines umfangreichen semantischen Regelwerks einer Sprache Texte generieren; und zwar nach Vorgaben, die mithilfe einer spezifischen Programmiersprache generiert werden. Die Grundlage ist hier also das linguistische Regelwerk einer Sprache – nicht Statistik.

Hinweis: Statistik mag ebenfalls „korrekte“ Texte hervorbringen, aber die Methodik ist grundverschieden. Zudem liegt für Textroboter die Fehlerquote bei Null. Was beide Technologien gemeinsam haben: Der Computer besitzt kein Verständnis für den generierten Text – und das ist in absehbarer Zukunft auch nicht zu erwarten.

Die Einsatzbereiche sind im Großen und Ganzen unterschiedlich: Text-to-Speech, Speech-to-Text und Übersetzungen sind die ausschließliche Domäne der KI-basierten NLP. Die Textgenerierung für den eCommerce oder das Verlagswesen ist die klassische Domäne der Textroboter. Es ist allerdings abzusehen, dass KI-basierte NLP mittelfristig ebenfalls in diese Domäne der Textroboter vordringen wird.

Nachfolgend eine kurze Vorstellung beider Technologien.

KI-basierte Verfahren zur Texterkennung und Textgenerierung

Natural Language Processing basiert (wie Deep Learning ganz grundsätzlich) auf statistischen Korrelationen. Sätze werden auf Basis statistischer Zusammenhänge aus Trainingsdaten generiert (im einfachsten Fall: Subjekt-Prädikat-Objekt), es werden Wahrscheinlichkeiten für die Nutzung bestimmter Vokabeln in sprachlichen Kontexten ermittelt, etcetera. Vergleiche dazu auch den Blogpost Natural Language Processing: Status Quo & Ausblick.

Sprachassistenten wie Alexa oder Siri wurden bereits benannt als Anwendungsfälle. Diese Technologie steckt auch in Chatbots, die für einfache Kundenanfragen praxistauglich sind. Auch die Deutsche Telekom setzt diese Technologie im Übrigen in der Hotline ein. In einem Vortrag auf der Digital X (Oktober 2019) hatte er damalige Leiter für die Entwicklung dieser „Conversational AI“, Jan Morgenthal, folgende Zahlen genannt: Allein bis zum Zeitpunkt des Vortrags wurden ca. 1,7 Mio. Kundenanfragen rund um Rechnungen, Störungen und Ähnliches erfolgreich (!) gelöst. Dieser Service entlastet damit bereits spürbar die Hotline. Ein interessantes Faktum: Allein 14 Millionen Sessions sind nur gelaufen, weil Interessierte einmal ausprobieren wollten, was diese Lösung bereits alles kann.

KI-basierte NLP wird auch für Sprachassistenten (oder: Sprachdialogsysteme) in Fahrzeugen einsetzt. Beispielsweise für das Navigationssystem der Mercedes A-Klasse. Im Bereich Marketing wird NLP eingesetzt für sogenannte „Sentiment Analysen“: Sämtliche Postings und Kommentare zu einer bestimmten Marke oder einem bestimmten Produkt werden dahingehend ausgewertet, um positive/negative Reaktionen messen zu können. Wie kommt ein Produkt bei der Zielgruppe an? Eine solche Sentimentanalyse fungiert dann nicht zuletzt als Frühwarnsystem für einen Shitstorm.

Im Bereich Content Creation wird KI-basiertes NLP heute noch nicht eingesetzt. Zwar bringen leistungsstarke Sprachmodelle sinnhafte Texte hervor; diese erfordern jedoch immer eine Nachredaktion. KI-basierte Sprachmodelle haben eine hohe Trefferquote; bei einer Trefferquote von – sagen wir: 90% – heißt dies, dass 5% des Textinhaltes korrigiert werden müssen. Mittelfristig werden KI-basierte Modelle die erforderliche Reife für Content Creation erreichen. Zur Illustration dient ein Ausschnitt aus einem vollständig automatisch generierten Gedichts über Elon Musk, und zwar auf Basis des Sprachmodells GPT3, das mit einem Textkorpus von über einer Milliarde (!) Wörtern trainiert wurde.

Once there was a man
who really was a Musk.
He liked to build robots
and rocket ships and such.

He said, “I’m building a car
that’s electric and cool.
I’ll bet it outsells those
Gasoline-burning clunkers soon!”

They sell cool cars
that are electric and clean.
And then he wanted to go
even farther, you see.

The first Tesla, Roadster,
Was just the start of a bigger dream.
He said, “I’m building a plane
that’s electric and green.

Das vollständige Gedicht finden Sie unter: Poem on Elon Musk (unabridged) on www.ar.am

Der regelbasierte Textroboter

Der Textroboter (auch: Natural Language Generator – NLG) hat vor über 20 Jahren seinen Siegeszug im Verlagswesen angetreten. Die Verlagsbranche lebt von Content, von Werbeanzeigen in Newsletter, auf Printprodukten, Webseiten und derlei mehr. Und auch heute spielt der Textroboter noch eine Rolle in der Medienindustrie: Zahlreiche Finanznachrichten, Wettberichte, Sportnachrichten oder Börsennachrichten werden heutzutage vom Textroboter verfasst.

Inzwischen hat sich der eCommerce zum Wachstumsfeld für Textroboter entwickelt. Produkte müssten betextet werden, vom Unterhemd bis zum Schlafzimmermöbiliar. Hinzu kommen Produktvergleiche, Produktempfehlungen und die Kategoriebetextung. Zu den Kunden von Textroboter-Anbietern zählen folglich Firmen wie OTTO, Staples, Euronics, MYTHERESA, Schäfer Shop, windeln.de, reifen-discount.de oder home24.

Aber auch für sogenannte funktionale Content Creation werden Textroboter eingesetzt, etwa Geschäftsberichte. Die Wirtschaftsprüfungs- und Beratungsgesellschaft Deloitte setzt Textroboter nach eigenen Aussagen zur (teilweisen) Automatisierung von etablierten Prozessen wie Risiko- und Compliance-Berichte ein, oder auch im Bereich Finanzen oder Bilanzerstellung. Der Aufwand könne mit einem Textroboter um 80% reduziert werden.

Wie funktioniert nun ein Textroboter?

Vorweg: Textroboter arbeiten ausschließlich regelbasiert (aufgrund eines 100%-igen Qualitätsanspruchs), es gibt folglich kein „kreatives Genie“, das wie von Zauberhand Nobelpreis-verdächtige Texte generiert. Die Software (z.B. AX Semantics) unterstützt den Nutzer dabei, diese Regeln strukturiert aufzubauen und auch bei umfangreichen Regelwerken den Überblick zu behalten.

Sie können sich das wie folgt vorstellen: Nehmen wir an, Sie müssten 100 Sofas betexten. Dann gehen Sie wie folgt vor. Sie schaffen zunächst für jedes Sofa ein Datensatz, wo relevante Produkteigenschaften beschrieben sind. Beispiele: Produktname („Traumsofa Lisa“, „Supersofa Ulf“) Produkttyp („Schlafsofa“, „Wohnsofa“), Stil („Landhaus“, „Bauhaus“) oder Material („Webstoff“, „Echtleder“, „Kunstleder“) oder Sitzzahl („2 Personen“, „3 Personen“, „4 Personen“). Im nächsten Schritt generieren Sie einige beschreibende Sätze mit den Produkteigenschaften. Etwa: „Das Produkt Traumsofa Lisa passt toll in jede Wohnung im Landhaus-Stil. Es bietet Platz für 3 Personen und überzeugt mit sorgfältig verarbeitetem Echtleder.“

Nun „parametrisieren“ Sie den Text. Sie können in dem von Ihnen erstellten Text die VARIABLEN einsetzen, die für die Produkteigenschaften stehen. Das sieht für den Beispieltext wie folgt aus: „Das Produkt [PRODUKTNAME] passt toll in jede Wohnung im [STIL]-Stil. Es bietet Platz für [SITZZAHL] und überzeugt mit sorgfältig verarbeitetem [MATERIAL].“ Die Software erlaubt natürlich noch mehr. Ein paar Beispiele: Sie können beispielsweise 3 verschiedene Varianten für jeden Satz formulieren; ein Zufallsgenerator wählt dann eine dieser Varianten aus, so dass – bei einem Dutzend oder mehr Sätzen – eine Vielzahl einzigartiger Texte generiert werden können. Sie können auch WENN-DANN-Regeln nutzen: Bietet das Sofa etwa für 4 Personen und mehr Personen Platz, dann wird der Satz ausgegeben: „Das Modell zählt zu den größeren Modellen im Angebot.“ Falls diese Bedingung nicht erfüllt ist, dann folgt der Satz: „Das Modell ist kompakt ausgelegt und passt in jedes Wohnzimmer.“

Ich denke, Sie erkennen, worauf das hinausläuft. In nachfolgendem DEMO-Video erhalten Sie in einer halben Stunde einen Einblick darin, wie die Bedienoberfläche der Textroboter-Software AX Semantics gestaltet ist und wie das Regelwerk „programmiert“ wird:

Man muss sich im Übrigen vergegenwärtigen, dass die generierten Textbausteine bei smartem sprachlicher Ausgestaltung eine hohe Wiederverwendbarkeit aufweisen. Betrachten wir einmal folgendes Satztemplate (so wird ein solcher Textbaustein von Textern genannt): „Das [PRODUKT] mit sommerlicher Farbauswahl wird bei jedem Grillfest und Ausflug in den Park zum Hingucker.“ Ganz egal ob Hose, Hemd, T-Shirt, Rock, Kleid oder Shorts. Dieser Satz passt immer, vorausgesetzt die Farbe ist nicht schwarz, weiß oder braun (WENN-DANN-Regel). Und wenn die Farbe schwarz oder weiß ist, dann liegt es nahe, dass das Kleidungsstück „zeitlos“ ist …

Zum Weiterlesen

Sebastian Zang
Author

Der Autor ist Manager in der Softwareindustrie mit internationaler Expertise: Prokurist bei einem der großen Beratungshäuser - Verantwortung für den Aufbau eines IT Entwicklungszentrums am Offshore-Standort Bangalore - Director M&A bei einem Softwarehaus in Berlin.