Im Herbst 2018 verkündete das Magazin Wired: „KI hat ein Problem mit Halluzinationen“. Gemeint war die Tatsache, dass das Prinzip der Mustererkennung bei der Bildanalyse durch KI-Algorithmen durch (für den Menschen insignifikante) kleine Aufkleber mit bestimmten Mustern in die Irre geführt wurde. Stoppschilder werden nicht mehr erkannt, einfache Gegenstände werden nicht mehr erkannt.
Diese Verwirrung wird etwa hervorgerufen durch Aufkleber mit psychedelischen Mustern (darum der Wired-Titel) oder durch Aufkleber mit spezifischen geometrischen Mustern. KI-Experten sprechen dann davon, dass ein Neuronales Netz („Deep Learning“) noch nicht „robust“ sei. An dieser Stelle sei auch darauf hingewiesen, dass Neuronale Netze eine Black Box darstellen (vgl. auch Convolutional Networks für die Bilderkennung); welche Merkmale eines Bildes Neuronale Netzwerke herausfiltern und interpretieren, ist weder Teil des Designprozesses eines Neuronalen Netzwerkes, noch lässt sich das von Entwicklern bestimmen.
Adversarial KI ist übrigens nicht zu verwechseln mit Generative Adversarial Networks (GAN). Dieser Aufbau wird eingesetzt, um einen KI-Algorithmus zu trainieren, um etwa täuschen echte Portraits zu generieren (vgl. diesen Blogartikel). Ein solches GAN besteht aus zwei Komponenten, dem „Generator“ und dem „Discriminator“. Der „Generator“ versucht hierbei etwa Portraits zu produzieren. Der „Discriminator“ bewertet diese Ergebnisse und verwirft diese – oder akzeptiert diese. Hier wird also eine Feedbackschleife zwischen zwei Instanzen implementiert, die den „Generator“ trainieren.