Hochschul-Absolvent der FHWS lässt Roboter ohne menschliche Intervention Bilder malen.

Sind ausschließlich Menschen in der Lage, Kunst zu schaffen? Oder können dies auch Roboter? Mit dieser Fragestellung hat sich Titus Ebbecek, Absolvent der Hochschule für angewandte Wissenschaften Würzburg-Schweinfurt (FHWS) in seiner Bachelorarbeit „Art(ificial)“ auseinandergesetzt. Sein autonomer Roboter malt ohne menschliche Intervention eigene Werke.

Beim Starten des Systems wird zufällig ein Bild generiert und mit Acryl auf Leinwand gemalt. Sein Netzwerk wurde an Tausenden von Kunstwerken sowie an menschlichen Gesichtern „geschult“, so Ebbecke. Niemand überwacht oder steuert diesen Prozess, um somit den schöpferischen Einfluss von Menschen herauszuhalten. „Wenn Kunst Ausdruck tiefer Gedanken und komplexer Emotionen ist, eine Art Kommunikation intimer Teile der eigenen Seele oder ein reflektierter Kommentar zu historischen Ereignissen, dann kann die Schaffung authentischer Kunst ein wichtiger Beweis für einen intelligenten Autor sein.“ Sind Roboter „intelligente Autoren“? Ein Interview mit dem Bachelor-Absolventen, zur Verfügung gestellt von der FHWS.

 

 

Wie kamen Sie auf die Idee, einen Roboter Bilder malen zu lassen?

Im Semester zuvor belegte ich einen Kurs, in dem wir uns mit künstlicher Intelligenz beschäftigten. Ich war zuerst ziemlich eingeschüchtert. Bald jedoch stieß ich per Zufall auf sogenannte „Generative Adversarial Networks“. Diese „GANs“, eine Gruppe von Algorithmen für unüberwachtes Lernen, sind sehr effektive „Machine Learning Algorithmen“, die ohne menschlichen Eingriff z.B. das Generieren von realistischen menschlichen Gesichtern erlernen können. Sie verändern nicht bestehende Bilder, sondern erlernen ihre Inhalte und erschaffen diese von Grund auf neu. Diese künstlich generierten Bilder sind nach einem langen „Lernprozess“ nicht mehr von realen Fotos zu unterscheiden.

Einige Künstler sind auf die Idee gekommen, mit dieser Art von neuronalen Netzwerken digitale Kunstwerke zu generieren. Nachdem ich ein ähnliches Experiment mit einem neuen Algorithmus von Terro Karras et al. und rund 25.000 menschlichen Gemälden erfolgreich ausprobiert hatte, wollte ich den physischen Schöpfungsprozess automatisieren. Die computergenerierte Kunst sollte nicht rein digital bleiben, sondern maschinell gemalt werden. Das war für mich vor allem eine philosophische Frage. Das Erschaffen von Kunst ist ein derart menschliches Verhaltensmuster, sodass Eigenschaften wie „Intelligenz“ und „Bewusstsein“ eng an künstlerische Kreativität gebunden sein müssen. Kennen Sie ein Tier, das in seiner Freizeit Gemälde auf Höhlenwände streicht? Auf der Suche nach „echter künstlicher Intelligenz“ müssen wir also zwangsweise auch einen Blick in die künstlerische Kreativität werfen. Entsprechend wollte ich eine Maschine bauen, die ohne menschliches Eingreifen Kunst fertigt.

 

Gibt es bereits ähnliche Projekte?

Roboter, die malen, deterministisch (festgelegt) oder probabilistisch (wahrscheinlich), sind natürlich nichts Neues. Das Generieren von digitaler Kunst durch „künstliche Intelligenz“, oder „KI“, ist auf spektakuläre und zwielichtige Weise berühmt geworden. Die französische Künstlergruppe „Obvious“ hat ein bereits auf Kunst trainiertes GAN-Modell genutzt, um ein Porträt zu generieren, dies ausgedruckt und das Ergebnis 2018 für eine halbe Million Dollar im Auktionshaus „Christie’s“ versteigert.

 

Neben der fehlenden Transparenz des Code-Ursprungs war ich vor allem mit der Erzeugung des physischen Teils des Werks unzufrieden: Die maschinelle Urheberschaft geht verloren, wenn ein Mensch die alleinige Kontrolle über das Konvertieren des digitalen KI-Bilds in einen physischen Druck hat. Obwohl einige Künstler bereits Werke mit ähnlichem Aufbau erstellt haben, greifen viele auf teilsynthetische Methoden wie „Stiltransfers“ zurück, die menschliche Bilder verändern, aber nicht von Grund auf generieren. Einen Industrieroboter, der vollständig synthetische Bilder mit maschinellem Lernen malt, konnte ich zum damaligen Zeitpunkt nicht finden.

 

Inwiefern sucht der Roboter sich Motive und Farben aus?

Bis wir neurologisch wissen, warum menschliche Gehirne einfach so scheinbar zwecklose Kunst erschaffen, kann ich diesen Prozess leider noch nicht imitieren. Künstlerische Muse fehlt dem Roboterarm entsprechend noch. Stattdessen generiert mein Programm eine Zufallszahl, die als sogenannter „Seed“ ein zufälliges Bild durch die bereits trainierten neuronalen Netzwerke erschafft. Dieses Bild ist zuerst digital und wird anschließend durch einen von mir entwickelten Algorithmus in Koordinaten für den Roboter konvertiert. Nachdem die Farben des KI-Bildes reduziert und die Position der Farbbehälter definiert wurden, fährt der Arm samt Pinsel diese Pfade ab. Das kann das System theoretisch ganz alleine für mehrere Stunden, bis die Farbe leer ist.

 

Welche Motive kann er zeichnen?

Der für das Projekt entwickelte Rasterbild-Koordinaten-Algorithmus ist natürlich in der Lage, auch nicht KI-erstellte Bilder in Roboter-Pfade zu konvertieren. Entsprechend kann der Arm jedes Bild malen. Die generativen neuronalen Netzwerke hingegen müssen erst mal das Erstellen von Motiven erlernen. Das dauert mehrere Tage auf Hochleistungsrechnern. Wenn also die Motive eine rein maschinelle Urheberschaft haben sollen, muss zuerst die GAN-Software auf das Erschaffen besagter Motive trainiert werden. Ich hatte meine GANs lediglich auf das Erschaffen von gemalten Porträts und abstrakter Kunst trainiert. Der Roboterarm selber kann jedoch jedes Motiv auf Leinwand bringen – egal ob KI-generiert oder menschlichen Ursprungs.

 

Wenn man sagt, Kunst kommt von „künstlich“ oder Kunst käme von „Können“ – was würde aus Ihrer Perspektive eher auf diese Art der Kunst zutreffen?

Vermutlich mehr „Können“ als „künstlich“, auch wenn natürlich nicht jedes Resultat ästhetisch überzeugt. Per Definition ist alles, was „künstlich“ ist, ein menschliches Artefakt, und der Roboter ist definitiv eine unmenschliche Maschine. Das System ist jedoch auch kein Drucker, der perfekte Bilder auf Papier bringt. Kein Mensch kann ernsthaft kontrollieren, was genau die neuronalen Netzwerke erlernen, wenn sie über Tage Abertausende Kunstwerke studieren. Welches Motiv letztlich ausgewählt wird, ist genauso außerhalb meiner Kontrolle wie das finale Gemälde. Wo maschinelles „Können“ aufhört und das menschlich „künstliche“ beginnt, ist also Diskussionsgegenstand. Genau das wollte ich mit dem Projekt erzielen.

 

Wäre es möglich, dass die Software, wie es bei Musik schon durchführbar ist, „lernen“ kann, wie z.B. ein Salvador Dal gemalt hat und könnte sie entsprechend ähnliche surrealistische Motive zeichnen oder unvollendete Bilder ergänzen und vervollständigen?

Nun, das ist bereits der Fall. Die digitalen Motive sind von keinem Menschen erschaffen. Ein GAN-Algorithmus erlernte über mehrere Tage das Erschaffen von Kunstwerken, indem er Zehntausende menschliche Gemälde betrachtete und sich versteckte Eigenschaften wie Komposition, Farbwahl und andere Muster einprägte. Nach diesem Training konnte der Algorithmus digitale Bilder generieren, die in ihrer Qualität zwar den echten Kunstwerken ähneln, aber vollkommen neuartig waren. Wie ein Kind also, dass solange durch ein Museum spaziert, bis es selbst ähnliche Werke erstellen kann. Dieser lernbasierte generative Ursprung war essenziell, um der Roboterkunst die menschliche Urheberschaft zu entziehen und von künstlicher Intelligenz reden zu können. Was der Roboter also auf Leinwand malt, kommt nicht aus der realen Welt, sondern aus der „Fantasie“ eines künstlichen neuronalen Netzwerkes.

 

Wie sieht es rechtlich aus? Wer hat die Rechte an den Bildern? Kuka, eine Software-Firma oder Informatiker?
Möglich gemacht hat dieses Projekt erst die Firma KUKA, bei der ich als Werkstudent eingestellt war. Deren Team war unglaublich hilfsbereit und fügte, ohne zu zögern, eine Klausel zu meinem Arbeitsvertrag hinzu, die mir die Rechte an den Bildern garantiert. Es gibt weder eine weitere Softwarefirma, noch Informatiker. Der GAN-Algorithmus ist von NVIDIA Research als Open-Source-Projekt veröffentlicht, und die daraus resultierenden Machine-Learning-Modelle wurden von mir trainiert. Glücklicherweise bin ich somit menschlicher Rechteinhaber der Werke. Der eigentliche Sinn des Projektes war es natürlich, den Roboter zum Urheber zu machen.

Wie sieht es aus mit Fälschungen? Könnte ein Mensch mit kriminellem Hintergrund z.B. verschwundene Werke nachmalen lassen und sie in den Handel bringen?

Ich glaube, als Künstler gibt es kaum eine größere Ehre, als Kriminelle zu haben, die ihre Werke fälschen! Wer so gefragt ist, hat’s geschafft. Im Zweifel muss dann wohl die Pigmentanalyse her.

 

Wie sehen Ihre weiteren Ideen in Erweiterungen dieses Programms aus?

Das menschliche Wesen ist etwas arrogant und mag es eigentlich viel lieber, wenn eine Maschine auf sie reagiert, als wenn diese ganz autonom ihr „Leben lebt“. Vermutlich halten wir deswegen Haustiere, die mit uns spielen, anstatt wie in freier Wildbahn einfach weglaufen. Obwohl diese Autonomie ein wichtiges Ziel dieser Arbeit war, wäre es spannender, wenn die Maschine mit der Umwelt agiert. Eine Kamera und Mikrofon könnte beispielsweise die Motivwahl beeinflussen. Der Roboter würde sich also optisch und akustisch durch seine Umgebung inspirieren.

 

Auch die physischen Bewegungen des Roboters sind mir noch nicht intelligent genug. Während die Bildmotive maschinell erlernt werden, ist das Abfahren von Koordinaten ein rein deterministischer und „dummer“ Prozess. Idealerweise würde der Roboter auch erlernen, wie er sich mechanisch verhalten muss, um sein Motiv auf Leinwand zu bekommen. Ein Mensch, der schöne Motive im Kopf hat, muss schließlich auch jahrelang lernen, bis das was er auf Papier bringt, seiner Fantasie ähnelt. Dieser Lernprozess ist aber außerordentlich kompliziert und aufgrund der unvorhersehbaren Bewegungen von 150 kg Stahl nicht ungefährlich. Glücklicherweise arbeitet einer der wichtigsten Forscher im Umfeld maschinell erlernter Roboterbewegungen an der Universität Berkeley, wo ich im Januar meinen Master beginne. Wenn sich die Wege „zufällig“ kreuzen, kann man vielleicht über das Projekt reden.

 

Hat die Wirtschaft Interesse gezeigt?

Das Team von KUKA, das mich hervorragend unterstützt hat, lud mich nach meinem Abschluss nach Augsburg ein. Ich durfte dort das Projekt dem Forschungslabor und der Marketingabteilung vorstellen. Für eine wirtschaftliche Applikation steckt vermutlich zu viel Kunst im Projekt. Obwohl wir in unserer Fantasie künstliche Intelligenz gerne mit Robotern kombinieren, führen im echten Leben Industrieroboter zuallererst „dumme“ Arbeit aus. Ihr Erfolg kommt von den enorm präzisen, sich immer perfekt wiederholenden Bewegungen. Selbst das Wort „Roboter“ kommt aus dem Slawischen und heißt „Frondienst“ – einfache, unkomplizierte Arbeit von Dienern der Grundherren. Intelligente Roboter, die Lernen und autonom entscheiden, sind Gegenstand neuester Forschung. Umso glücklicher bin ich natürlich, dass mein kommender Master in Kalifornien an einem Zentrum mit diesem Schwerpunkt stattfindet.

Einen Filmbeitrag von Titus Ebbecke gibt es hier zum Anschauen.

Weitere Informationen dazu finden Sie hier