Digitale Bilder mit KI, GAN und OpenAI GPT3
Untersuchung und Beispiele Eingabedatum: 14.03.2020

Zu Beginn steht eine zufällige Verteilung der Pixel im Bild.
GAN (Generative Adversarial Networks)
Neuronale Netze können Berechnungen zu Bildern, Texten und Wörtern erstellen, aber solange man ihnen kein Ziel vorgibt, wissen sie nicht wie sie sich weiterentwickeln sollen. Um solch eine Entwicklung zu initiieren, lässt man zwei neuronale Netze zusammenarbeiten, einerseits einen Generator, der entwickelt und andererseits einen Diskriminator, der die Entwicklung des Generators anhand von Daten aus der Vergangenheit positiv oder negativ beurteilt.
So entstehen Häufungen und Muster z.B. von Pixeln, die der Diskriminator von den Ausgangsdaten nicht mehr unterscheiden kann.
In diesem Fall handelt es sich bei den Ausgangsdaten um Gesichter.

Der hier dargestellte Zyklus umfasst mehr als 1.000.000 Iterationen.
Während die oben gezeigten Bilder auf Grafikkarten in der Cloud berechnet wurden, kann der Grafikkartenhersteller nvidia aufgrund der anderen Resourcen auch Trainingsdaten zur Verfügung stellen, mit denen folgende Bilder generiert wurden.

Overfitted
OpenAI GPT-3
Eine weitere Stufe in der digitalen Bildwerdung wurde durch die Entwicklungen von OpenAI und dem GPT3 Modell, dass sowohl der Sprach- als auch Bildgenerierung dient, erklommen.
Auch hier kommt es zum Einsatz der Transformer. Die Transformer sind in der Lage anwendungsbezogen die Gewichtung der Gewichtungen individuell zu optimieren.
Das heißt, es werden auf der Metaebene signifikante Korrekturen/Eingrenzungen bei der Selektion vorgeschaltet.
Ein bekanntes Beispiel stellen die Avocado-Sessel dar. Hier wurde das DALL·E Modell durch eine Texteingabe angewiesen, einen Sessel in Avocadoform zu entwerfen, was das Modell dann auch in vielfältigen, attraktiven Versionen vollzog.
"DALL·E is a neural network that can generate images from the wildest text and image descriptions.
CLIP uses a new method of training for image classification, meant to be more accurate, efficient, and flexible across a range of image types."
Wir nutzten für die folgenden kurzen Videos das Clip Modell (ClipBigGan, ein jupyter-notebook). Es handelt sich bei den Videos um erste, experimentelle Studien und Versuche.
Textvorgabe: taping a banana to the wall
Textvorgabe: a banana attached by tape in the white cube
Textvorgabe: fine art installation in a white cube
Textvorgabe: fine art installation in a museum