Design und künstliche Intelligenz: Theoretische und praktische Grundlagen der Gestaltung mit maschinell lernenden Systemen 9783035625554, 9783035625547

Designing with intelligent applications Intelligent machines are no longer merely the stuff of science fiction; we are

246 66 26MB

German Pages 208 Year 2022

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

Design und künstliche Intelligenz: Theoretische und praktische Grundlagen der Gestaltung mit maschinell lernenden Systemen
 9783035625554, 9783035625547

Table of contents :
Inhaltsverzeichnis
1. Künstliche Intelligenz als Designproblem – eine Einführung
2. Grundfragen künstlich-intelligenter Systeme
3. Gestaltung mit und für intelligente Systeme
4. Anwendungsfälle intelligenter Systeme im Designprozess
5. Mit intelligenten Systemen gestalten – ein praktischer Einstieg
Literaturverzeichnis
Abbildungsverzeichnis
Danksagung
Die Autoren
Impressum

Citation preview

Design und künstliche Intelligenz

Design und künstliche Intelligenz Theoretische und praktische Grundlagen der Gestaltung mit maschinell lernenden Systemen Marc Engenhart Sebastian Löwe

Birkhäuser Basel

Für Kristin

Für Laura

Inhaltsverzeichnis

Inhaltsverzeichnis

10

1. Künstliche Intelligenz als Designproblem – eine Einführung

15

2. Grundfragen künstlich-intelligenter Systeme

16 18 20 22 23 23 25 27 30 30 38 43 45 47 47 50 53 54

2.1 Zur Notwendigkeit für Designer:innen, sich mit künstlicher Intelligenz zu befassen 2.2 Aus Daten lernen 2.3 Arten des Lernens und Problemlösens 2.4 Arten der Prognose 2.5 Einige wichtige Klassen des statistischen Lernens 2.5.1 Lineare Regression 2.5.2 Entscheidungsbäume 2.5.3 Clustering und Ähnlichkeit 2.5.4 Neuronale Netze Künstliche neuronale Netze Convolutional Neural Networks Recurrent Neural Networks Generative Adversarial Networks 2.6 Prognosemaschinen – ein Zwischenfazit 2.7 Die Frage der Intelligenz optimierender Systeme 2.8 Zur Frage der (Un-)Voreingenommenheit und Ethik diskriminierender Systeme 2.9 Eine Technologie für die Leistungs- und Wachstumsgesellschaft 2.10 Konsequenzen für das Design

56

3. Gestaltung mit und für intelligente Systeme

57 58 60 62 64 70 75 82 84 85 88 94 96 108 109 109 113 118 119 121

3.1 Einleitung 3.2 Gestaltung mit intelligenten Systemen: Ko-Kreation von Designer:in und Maschine 3.2.1 Systeme für Strategie und Needfinding 3.2.2 Systeme für Ideation und Inspiration 3.2.3 Systeme für Suche und Generierung 3.2.4 Systeme für Low-Fidelity-Prototyping 3.2.5 Systeme für Designoptimierung und -automatisierung 3.2.6 Resultate 3.3 Gestaltung für intelligente Systeme: Intelligence Experience 3.3.1 Vorhersage und Personalisierung als zentrale Eigenschaften von Intelligence Experience 3.3.2 Intelligente User Interfaces 3.3.3 Faktoren und Modi der Intelligence Experience 3.3.4 Designprinzipien für Intelligence Experience 3.3.5 Resultate 3.4 Auswirkungen auf Gestaltung und Gestalter:innen 3.4.1 Ein neues Verständnis von Kreativität, Autorschaft und Design in Zeiten intelligenter Gestaltung? 3.4.2 Neue Herausforderungen und Fähigkeiten für Designer:innen 3.4.3 Neue Bereiche in der Designausbildung 3.4.4 Neue rechtliche und ethische Fragen 3.4.5 Neue Wertschöpfung mit und Strategien für intelligente Produkte

124

4. Anwendungsfälle intelligenter Systeme im Designprozess

125 127 133 141 149



4.1 Einleitung 4.2 Kommunikationsdesign: DHL Layout Creator von Strichpunkt 4.3 Medienkunst: Neural Zoo und Artificial Remnants von Sofia Crespo 4.4 Interface-Design: Einstein Designer von Salesforce 4.5 Modedesign: Pangolin Dress von Anouk Wipprecht

7

Inhaltsverzeichnis

154 161

4.6 Architectural Design: Spacemaker von Autodesk 4.7 Interaktionsdesign: Archive Dreaming von Refik Anadol

168

5. Mit intelligenten Systemen gestalten – ein praktischer Einstieg

169 170 171 172 172 173 174 176 177 178

5.1 Einleitung 5.2 Needs: Was Designer:innen tatsächlich möchten 5.3 Storys: Erste Gedankenexperimente für intelligente Systeme 5.4 Tools: Praktische Werkzeuge und ihre Anwendungsgebiete 5.4.1 Tools 1: Experimentelle Werkzeuge 5.4.2 Tools 2: Professionelle Werkzeuge und Stand-alone-Lösungen 5.4.3 Tools 3: Anwendungen ohne Coding-Kenntnisse gestalten 5.4.4 Tools 4: Intelligente Anwendungen selbst programmieren 5.4.5 Tools 5: Intelligente Anwendungen interdisziplinär erarbeiten 5.5 Floom: Ein visuelles, interaktives Innovation Framework für nutzer:innenzentriertes Machine Learning in interdisziplinären Teams

182 201

Literaturverzeichnis Abbildungsverzeichnis

206 207

Danksagung Die Autoren

208

Impressum

8

9

1. Künstliche Intelligenz als Designproblem – eine Einführung

Kapitel 1: Künstliche Intelligenz als Designproblem – eine Einführung

11

Wer noch vor einigen Jahren Bilder anschaute, die

deutlich, dass sich die Bilder durch KI von ihrem

mit künstlicher Intelligenz, kurz KI, hergestellt wur-

Original abgelöst haben und durch das rasante Tempo

den, sah selbst als ungeübte:r Betrachter:in sofort,

des Fortschritts der KI-Techniken selbstständig ge-

dass es sich nicht um Fotografien handeln konnte.

worden sind.

Man staunte zwar, dass solche Bilder überhaupt existierten, und malte sich aus, welche Art von in-

Das Phänomen Deep Fake ist allerdings nur ein

formatischer Magie diese Artefakte hergestellt haben

Beispiel aus einer Vielzahl von Technologien und

mag. Doch man war sich sicher, dass diese Bilder so

Methoden, die sich hinter dem Schlagwort KI ver-

schnell ihren eingezäunten Bereich der KI-Labore

bergen. Künstliche Intelligenz ist nicht nur auf Bilder

nicht verlassen und als Massenware niemanden täu-

beschränkt, sie erkennt auch Stimmen, Sprache, Töne,

schen oder schädigen werden.

Gesten und Emotionen und kann diese entsprechend verarbeiten und selbst erschaffen. Seit einiger Zeit

Ihre Unschuld haben diese Bilder längst verloren.

werden sogar Bilder durch Sprache generiert und KI,

Unter dem Namen „Deep Fake“ sind sie zu einem kul-

die zur Spracherkennung entwickelt wurde, erkennt

turellen Massenphänomen geworden. Websites wie

Bildelemente. Künstliche Intelligenz kann zudem in

„This Person Does Not Exist“ erlauben auf Knopf-

riesigen Mengen von Daten Muster erkennen und so

druck, Porträts von Menschen zu erzeugen, die es

helfen, Kaufentscheidungen zu verstehen oder erfolg-

erstens nicht gibt und die zweitens mit dem bloßen

reiche Designfeatures auszumachen.

1

Auge nicht mehr von einer Porträtfotografie zu unterscheiden sind. Adobes Photoshop bietet neuronale

Für die Welt der Gestaltung und der Gestaltenden

Filter, die es erlauben, porträtierte Menschen zum

in ihr hat künstliche Intelligenz, wie man unschwer

Lächeln zu bringen, auch wenn die Personen vorher

erkennen kann, weitreichende Konsequenzen. Wenn

auf den Bildern gar nicht gelächelt haben. Strafver-

KI Einzug in die Designwerkzeuge erhält, werden

folgungsbehörden nutzen Deep Fakes, um Bilder

zentrale Fragen für die Gestaltung aufgeworfen:

pädophiler Straftaten zu generieren und Täter anzulocken.2 Deep Fakes von Prominenten wie Bruce Willis



Welche

Wirkung hat KI auf das Design

und den Designprozess?

werden erfolgreich in der Werbung eingesetzt. Dabei



kommt nicht die aktuelle Version von Willis zum

Wie verändert KI die Aufgabenbereiche und Arbeitsweisen von Designer:innen?

Einsatz, sondern der junge Bruce Willis. 3 Deep Fakes



Welche

setzt, etwa um Menschen in Ländern zu schützen,



wo sie wegen ihrer sexuellen Orientierung verfolgt

Wie

Gestaltungsprozess eingebunden?

werden. Ihre wahren Gesichter müssen dann nicht



mehr verpixelt werden, sondern werden durch Deep

methoden und -prozesse?

werden aber auch in Filmdokumentationen einge-

Möglichkeiten ergeben sich

durch KI-Designwerkzeuge? sind diese Werkzeuge in den

Entstehen

durch KI neue Gestaltungs-

Fake zu einem ganz anderen Gesicht. 4 Schnell wird

1 2

This Person Does Not Exist: „Random Face Generator“,

Rothkopf, Joshua: „Deepfake Technology Enters the Documentary World“, https://www.nytimes.com/2020/07/01/movies/deepfakes-documentary-

Truscheit, Karin: „Durch Tauschen zum Täter“, Frankfurter Allgemeine

welcome-to-chechnya.html (20.4.2022).

Zeitung, 8.3.2021, S. 7. 3

4

https://this-person-does-not-exist.com/en (19.4.2022).

Foster, George: „That’s Not Bruce Willis In A Russian Phone Commercial, That’s Another Deepfake“, https://www.thegamer.com/bruce-willis-deepfake (20.4.2022).

Kapitel 1: Künstliche Intelligenz als Designproblem – eine Einführung

12

Neben diesen unmittelbar designspezifischen Fra-

auf das Rollenverständnis der Designer:innen. Hier

gen werden aber auch ethische und rechtliche Fragen

sind folgende Fragen zentral:

aufgeworfen, etwa: • •

Wem



Welche

gehören die Bilder? ethischen Implikationen hat KI?

Wie verändert

sich das Verständnis von Kreativität

und Gestaltung durch KI? •

Welche

neuen Fähigkeiten brauchen Designer:innen

im Umgang mit KI?

Nicht nur wird KI in den Gestaltungswerkzeugen selbst verwendet, sie wird auch in digitalen Produk-

Obwohl künstliche Intelligenz kein neues Phäno-

ten eingebaut, die Designer:innen konzipieren und

men und bereits weitreichend in digitale Produkte

umsetzen. Designer:innen nutzen hier KI als Design-

integriert ist, sind die meisten der oben aufgeworfe-

material und gestalten neue „User Experiences“ für

nen Fragen noch keinesfalls beantwortet. In vielen

intelligente Produkte und Medien. Hier stellen sich

Fällen fehlt überhaupt eine belastbare Basis der aka-

Fragen, wie:

demischen Auseinandersetzung mit der KI-Technologie in der Gestaltung. Die Fragen des Designs mit



Wie verändert



Welche

KI das Erlebnis digitaler Produkte?

Möglichkeiten ergeben sich durch KI

für die Nutzenden? •

Welche

Prinzipien guter Gestaltung ergeben

sich daraus?

KI sind überraschenderweise also weder systematisch beantwortet noch in eine theoretische Ordnung überführt oder aus der Sicht des Designs umfassend wissenschaftlich diskutiert und ausgewertet. Im Ganzen sind die meisten der oben aufgeworfenen Fragen noch ein Desiderat der Designforschung und ihre

Auch an diese inhärent designerischen Fragen

systematische Beantwortung ein erstes wichtiges

schließt die zentrale ethische Frage an:

Anliegen des hier vorliegenden Buches.



Wie

schütze ich Nutzer:innen vor einer

diskriminierenden KI?

Da künstliche Intelligenz als universale Technologie ein inhärent interdisziplinäres Phänomen ist, ist es auch nicht nur auf eine Disziplin beschränkt.

Auf der Ebene der Designstrategie stellen sich

Vielmehr entstanden viele wichtige Beiträge in Dis-

zentrale Fragen, wie:

ziplinen, die an das Design angrenzen, wie etwa der Human-Computer-Interaction-Forschung, die eher



Welche

neuen Geschäftsmodelle ergeben sich

aus Gestaltungssicht relevante akademische Beiträge

mit KI? •

Wie



Welche



Wie

dem Bereich der Informatik zugeordnet wird. Einige

schafft KI Differenzierung im Markt? Folgen hat KI für das Markenerlebnis?

strukturiert und steuert man Innovations-

prozesse für KI-basierte Produkte?

stammen auch aus der Psychologie oder den Ingenieurwissenschaften. Hier sind die Disziplinengrenzen oft ein Hindernis für eine informierte Debatte und Schnittstellenwissen wäre von zentraler Bedeutung. Ziel des Buches ist es daher genauso, die vielen Strän-

Abschließend hat künstliche Intelligenz auch Wir-

ge und Wissensstände aus den unterschiedlichsten

kungen auf die Design- und Kreativitätstheorie sowie

Disziplinen zusammenzuführen und für Gestalter:in-

Kapitel 1: Künstliche Intelligenz als Designproblem – eine Einführung

13

nen in verständlicher Weise zugänglich zu machen.

Auch die Fragen, wie man als Designer:in die

Dazu soll zunächst einmal – in Kapitel 2 – geklärt

neuen KI-Werkzeuge praktisch nutzt und neue KI-

werden, was sich hinter der Chiffre künstliche Intel-

Anwendungen im Team generiert, beantwortet das

ligenz überhaupt verbirgt, wieso KI-Technologie auf

Buch. Im abschließenden fünften Kapitel möchte das

so große Mengen von Daten angewiesen ist und um

Buch praktische Hilfestellungen für Designer:innen

welche Art von Intelligenz es sich bei KI überhaupt

leisten und zeigen, wie ein leichter Einstieg in die

handelt. Es sollen zentrale Verfahren der KI vorge-

Arbeit mit KI-Werkzeugen gelingen kann. Für den

stellt werden, welche Probleme sie lösen und welche

Unternehmens- und Beratungskontext stellt das

Anwendungsgebiete, aber auch welche ethischen,

Buch erstmals ein umfängliches visuelles interaktives

ökonomischen und designerischen Implikationen

Innovation Framework vor, mit dem Designer:innen

sich daraus ergeben.

im Team KI-Produkte entwickeln können.

Im dritten Kapitel wird systematisch erklärt,

Obwohl sich das Buch als Grundlagenwerk ver-

welche Auswirkung KI auf den Gestaltungsprozess

steht, kann es unmöglich alle Aspekte der KI-Tech-

hat und wie KI-Werkzeuge in den Designprozess

nologie oder der Gestaltung mit und für KI abdecken.

integriert sind. Das Buch macht zum ersten Mal in

Die Einführung in die Grundlagen der KI setzt

der deutschsprachigen Designforschung den Ver-

ausgewählte Schwerpunkte auf solche Verfahren, die

such, anhand von fünf Systemebenen ein kohärentes

die Prinzipien der Technologie am schlüssigsten il-

Ordnungsprinzip der KI-Technologie für das Design

lustrieren und häufig verwendet werden. Es ist nicht

abzuleiten. Ergänzt wird das Kapitel durch die syste-

Absicht des Buches, sich grundlegend mathematisch

matische Untersuchung der KI als Designmaterial für

oder informatisch mit dem Thema auseinanderzu-

digitale Produkte und Produkterlebnisse. Untersucht

setzen. Dafür sind bereits viele Grundlagenwerke

wird die für KI zentrale Anpassung an Nutzer:in-

zum Thema KI erschienen. Das Buch soll vielmehr

nenwünsche durch Personalisierung, von der aus

einerseits KI-Schnittstellenwissen für Designer:in-

dann Prinzipien guter Gestaltung mit KI entwickelt

nen erarbeiten. Zum anderen fokussiert es vor allem

werden. Das Kapitel schließt mit einer Diskussion

auf die visuelle Gestaltung. Der große Bereich der

darüber, wie sich das Designverständnis und die

Spracherkennung und -verarbeitung und ihre An-

Fähigkeiten von Designer:innen durch KI erweitern

wendung in den Sprachassistenten soll hier nur am

müssen, aber auch wie sich designstrategische Über-

Rande behandelt werden und nur dort, wo sie für

legungen anpassen müssen.

visuelle Gestaltung relevant ist.

Im vierten Kapitel illustriert das Buch anhand

Die Publikation ist eine Einführung in das Thema

einschlägiger Fallbeispiele in ausgesuchten Design-

Design und künstliche Intelligenz und richtet sich

disziplinen, wie KI-Werkzeuge eingesetzt werden

vornehmlich an Theoretiker:innen und Praktiker:in-

können, sodass eine gelungene Gestaltung und ein

nen aus den Bereichen Design, Designmanagement

gutes Designerlebnis daraus resultieren. Insgesamt

und angrenzenden Gebieten, wie der Human-Com-

sechs Designer:innen, Designagenturen und -studios

puter-Interaction, der Medienkunst oder dem Projekt-

sowie Beratungsunternehmen geben Einblicke in ihre

management. Es wurde bewusst darauf geachtet, dass

Arbeitsschritte und die Überlegungen, die letztlich

auf keine spezifische Designdisziplin fokussiert wird

zu ihrem intelligenten Design führten.

Kapitel 1: Künstliche Intelligenz als Designproblem – eine Einführung

und die meisten Bereiche, in denen Designer:innen heute arbeiten, gleichberechtigt repräsentiert sind. Das Buch ist aber sicher auch für Leser:innen interessant, die nicht im Design arbeiten, sich aber dennoch zu Grundfragen der Gestaltung mit dieser schillernden Technologie ein erstes umfassendes Bild machen möchten.

14

2. Grundfragen künstlich-intelligenter Systeme

Kapitel 2: Grundfragen künstlich-intelligenter Systeme

16

Um die Wirkung und das Potenzial künstlicher

Verfahren im Designprozess als intelligente Werk-

Intelligenz ranken sich viele eher überzogene Vorstel-

zeuge und in den Designanwendungen als Design-

lungen. So trifft man häufiger auf die Überzeugung,

material verwendet werden. Abschließend reflektiert

dass KI als Vorstufe einer umfassenden, menschen-

das Kapitel kritisch die ethischen und ökonomischen

gleichen Intelligenz zu begreifen wäre. Ebenfalls

Implikationen des statistischen Lernens.

wird häufig wiederholt, dass Designer:innen bald durch intelligente Maschinen ersetzt werden. Solche

Zunächst soll jedoch die Frage beantwortet

Ansichten gehen am Wesen der künstlichen Intelli-

werden, wieso sich Designer:innen überhaupt mit

genz vorbei. Gemeinhin werden unter dem Begriff

Verfahren statistischen Lernens auseinandersetzen

„künstliche Intelligenz“ Verfahren der Informatik

sollten.

gefasst, die in der Lage sind, für bestimmte eingegrenzte Problembereiche selbstständig Lösungen zu

2.1 Zur Notwendigkeit für Designer:innen, sich

generieren. Es sind computergestützte Verfahren,

mit künstlicher Intelligenz zu befassen

die das Moment der Optimierung ihrer Ergebnisse von Grund auf eingebaut haben, denn sie lernen, ihre

Design nutzt immer Gestaltungswerkzeuge, egal ob

eigenen Fehler zu korrigieren. Weil diese Verfahren

sie Jahrtausende alt sind oder erst kürzlich entwickelt

entfernt an menschliche Intelligenz erinnern, nutzt

wurden. Diese Werkzeuge helfen nicht nur, Gestal-

man den Begriff „künstliche Intelligenz“. Allerdings

tung dem Zweck ihrer Nutzung gemäß zu planen und

ist der Begriff fragwürdig, denn er betont zu stark

zu implementieren. Sie sind auch Mittel, um schnel-

die wenig vorhandenen Gemeinsamkeiten mit

ler, effektiver und präziser zu gestalten. Es ist kein

menschlicher Intelligenz. Prüft man genauer, was die

Geheimnis, dass digitale Werkzeuge ihren analogen

Technologien tatsächlich vermögen, die als intelligent

Gegenstücken in puncto Verarbeitung und An-

gefasst werden, merkt man schnell, dass sie mit einer

wendung vielfach überlegen sind. Oft sind Stift und

menschlichen Intelligenz noch sehr wenig teilen.

Papier gute Werkzeuge für Ideenfindung und Prototyping, aber wenn es um die Umsetzung geht, müssen

Das folgende Kapitel soll klären, was eigentlich das

gestalterische Werkzeuge mittlerweile komplexe Auf-

Intelligente an künstlich-intelligenten Systemen ist

gaben bewältigen können, die nur digitale Systeme

oder mit anderen Worten, wie intelligente Systeme

zufriedenstellend ausführen.

lernen. Der Oberbegriff für alle Verfahren der künstlichen Intelligenz und des maschinellen Lernens

Digitale Werkzeuge, darin unterscheiden sie sich

in diesem Kapitel ist das statistische Lernen. Das

nicht von den analogen, haben ihre je eigenen Not-

Kapitel hat zum Ziel, zentrale Verfahren des statisti-

wendigkeiten, Funktionsweisen, Potenziale und

schen Lernens zu erklären, ohne informatische oder

Grenzen. Die intelligenten Gestaltungswerkzeuge

mathematische Kenntnisse vorauszusetzen. Gezeigt

sind in dieser Hinsicht keine Ausnahme. So arbeiten

werden soll, worin das Moment des Lernens besteht

intelligente Systeme nur in ihrem jeweils definierten

und welche Konsequenzen es für die Lösung welcher

Bereich und das auch nur, wenn sie eine genügend

Probleme hat. Damit soll der Grundstein für ein bes-

gute Basis haben.

seres Verständnis darüber gelegt werden, wie diese

Kapitel 2: Grundfragen künstlich-intelligenter Systeme

17

In einer anderen Hinsicht jedoch sind intelligente

dungsmöglichkeiten zentraler Verfahren statistischen

Werkzeuge tatsächlich von allen anderen zu unter-

Lernens. Neben den Bedürfnissen der Nutzenden

scheiden. Mit statistischen Lernverfahren ist es

müssen sie nun auch die Datenbedürfnisse der intel-

möglich, auf der Grundlage von mehr oder weniger

ligenten Systeme kennen.

genauen Vorhersagen zu gestalten, sowohl was die digitalen Erlebnisse von Nutzer:innen angeht als

Vielfach sind Gestalter:innen heute in interdiszi-

auch die Mittel der Gestaltung. Damit ändert sich die

plinäre Entwicklungsteams eingebunden. Mit Data

Qualität der Werkzeuge für Gestaltung ein ganzes

Scientists oder Developer:innen in interdisziplinären

Stück weit und schafft neue, kreativere oder effekti-

Teams zusammenzuarbeiten, ohne ein Verständnis

vere Möglichkeiten zu gestalten. Für Designer:innen

des gemeinsamen Gegenstandes zu haben, ist schwie-

bedeutet dies, dass sie ohne ein grundlegendes Ver-

rig und unproduktiv. Gerade in Teams, die keinen

ständnis der Funktionsweise von statistischem Ler-

homogenen fachlichen Background besitzen, ist es

nen in Zukunft nicht mehr die vollen Potenziale von

für Gestaltende wichtig, ein Grundverständnis zu

Gestaltungswerkzeugen werden ausschöpfen können.

entwickeln, wie intelligente Systeme funktionieren,

Wenn sie die Logik und Funktionsweise ihrer Werk-

um sich mit Kolleg:innen austauschen und gemein-

zeuge nicht verstehen, können sie sie schlicht nicht

sam neue Ideen entwickeln und umsetzen zu können.

effektiv einsetzen.

Wie gut Innovationspotenziale ausgeschöpft werden, ist daher auch eine Frage des gelingenden Austauschs zwischen den Teammitgliedern.

Aber nicht nur die Technologie hat sich in den letzten Jahren rasant fortentwickelt. Auch die Arbeitsbereiche der Designer:innen haben sich

In einigen Firmen haben es sich Designer:innen

immer mehr erweitert. Gestalter:innen sind heu-

daher zur Aufgabe gemacht, eine gestalterische

te nicht mehr nur die Schönheitsbeauftragten, die

Grundlage für die gemeinsame Arbeit zu schaffen.

fertige Produkte aufhübschen, sondern mittlerweile

Bei Airbnb haben Designer:innen und Designma-

in agile Innovations- und Produktentwicklungspro-

nager:innen beispielsweise ein Framework mit dem

zesse von Beginn an einbezogen. Sie forschen dort

Namen „Invisible Design“ entwickelt, das ihnen

an nutzer:innenzentrierten Lösungen für tatsächlich

ermöglicht, eine gemeinsame Verständigung mit Data

vorhandene Bedürfnisse. Dabei fällt ihnen die Auf-

Scientists und Entwickler:innen herzustellen, indem

gabe zu, solche Bedürfnisse mittels technologischer

sie die Wirkungsweise eines für Airbnb zentralen

Möglichkeiten in komplexe digitale Lösungen und

Verfahrens statistischen Lernens, die lineare Regres-

User Experiences zu überführen. Mit intelligenten

sion, visualisierten.5 In dem interdisziplinären Ent-

Systemen ändern sich auch Nutzer:innenerfahrungen

wicklungsteam wurde ein gemeinsames Verständnis

grundlegend, denn sie können Präferenzen, Vorlieben

entwickelt, wie lineare Regression funktioniert,

und Handlungen von Nutzer:innen antizipieren und

indem man die mathematische Formel, die den De-

das Produkt daran anpassen. Um diese Erfahrungen

signer:innen nicht zugänglich war, grafisch übertrug.

mit intelligenten Produkten bestmöglich gestalten zu

So wurde die Wirkungsweise des Lernverfahrens

können, benötigen Designer:innen ein grundlegendes

visuell verdeutlicht. Dies wiederum lieferte dann die

Verständnis von der Wirkungsweise und den Anwen-

gemeinsame Grundlage, um erfolgreich Services, wie

5

Cartwright, Amber: „Invisible Design: Co-designing with machines“, https://medium.com/swlh/invisible-design-co-designing-with-machinesaea62a1e0f6d (20.4.2022).

Kapitel 2: Grundfragen künstlich-intelligenter Systeme

18

die automatische Preisempfehlung für Airbnb-Gast-

man fest kodierte, regelbasierte Programmierung.

geber:innen umzusetzen. Gestaltende verantworten

Beispielsweise bekommt ein Sortierungsalgorithmus

nicht mehr nur Nutzer:innenerlebnisse, sie spielen

eine unsortierte Liste von Zahlen. Er prüft dann, ob

auch eine zentrale Rolle dabei, die technologische

die Eingabedaten überhaupt eine Liste von Zahlen

Grundlage dieser Erlebnisse zu kommunizieren und

sind, schaut jede Zahl in der Liste an, vergleicht sie

in eine User Experience zu übersetzen.

mit der vorhergehenden und ändert dann auf Basis dieses Vergleichs die Platzierung dieser Zahl in der

Alle hier angesprochenen Aspekte müssen Desig-

Liste. Sind alle Schritte der Handlungsanweisung

ner:innen, die mit intelligenten Systemen gestalten,

ausgeführt, sind also alle Zahlen einmal angeschaut

nachvollziehen und beherrschen, um zu nützlichen

und platziert worden, ist der Algorithmus fertig und

Lösungen zu gelangen. Gestalter:innen sollten

die Nutzenden erhalten eine fertig sortierte Liste.

deshalb eine grundlegende Vorstellung haben, was

Egal welche Zahlen das Programm bekommt und wie

zentrale Verfahren statistischen Lernens sind, was sie

viele es sind, es führt immer nur das aus, was vorher

für die Nutzer:innen leisten können und worin ihre

als seine Handlungsanweisung eindeutig definiert

wesentlichen Unterschiede und Anwendungsgebiete

wurde, es sortiert immer nur Zahlen.

bestehen. Nun sind aber manche Probleme mit solchen Allen Anwendungen statistischen Lernens ist ein

vordefinierten Handlungsanweisungen nicht lös-

Moment wesentlich zu eigen: Einem Nutzer:innen-

bar, auch nicht mit sehr detailliert beschriebenen

bedürfnis kann nur so gut gedient werden, wie es die

Handlungsschritten. So etwas wie die Prognose,

Funktionsweise des Lernverfahrens erlaubt. Dessen

ob eine bestimmte Kundin ein bestimmtes Produkt

Qualität der Vorhersagen ist entscheidend abhängig

kaufen wird, scheitert daran, dass es schlicht zu viele

von den Trainingsdaten. Damit wird eine zentrale

Möglichkeiten gibt, die ein Algorithmus zu beachten

Frage aufgeworfen: Was bedeutet es eigentlich, wenn

hätte. Programmierer:innen müssten alle möglichen

ein Algorithmus aus Daten lernen kann, und wieso

Kaufentscheidungen und vor allem deren jeweilige

sind Daten so wichtig für statistisches Lernen?

psychologische, ökonomische, soziale und ästhetische Faktoren kennen, um sie in eine funktionale

2.2 Aus Daten lernen

Handlungsanweisung zu überführen. Es ist schlicht unmöglich, in der Logik einzeln definierter Regeln

Alle Problemlösungen, die den Computer als Hilfs-

dieses Verhalten für viele Millionen Kund:innen

mittel verwenden, benötigen konkrete Handlungsan-

abzubilden; abgesehen davon, dass das auch viel zu

weisungen, sogenannte Algorithmen. Diese Algo-

teuer wäre. Das Prinzip der fest kodierten, regelba-

rithmen sind für Computer verständlich formulierte,

sierten Programmierung scheitert hier.

zeitlich begrenzte Schritte, die er nacheinander abarbeiten muss, um ein bestimmtes Problem zu

Trotzdem können manche Algorithmen solche

lösen. Algorithmen bekommen bestimmte Daten als

Kaufentscheidungen recht gut bestimmen. Nicht in-

Eingabedaten vorgegeben und liefern dann durch

dem sie jeden Schritt streng vordefiniert bekommen,

ihre Ausführung bestimmte Ausgabedaten; das nennt

sondern indem man sie ermächtigt, aus Millionen

Kapitel 2: Grundfragen künstlich-intelligenter Systeme

19

von Einzeldaten logische Schlüsse zu ziehen. Dieses

Die Algorithmen sind nun zweitens in der Lage,

Vorgehen ist der Kern des statistischen Lernens. Es

nur auf der Basis des gelernten Prinzips neue, un-

umfasst Verfahren, die aus einer großen Menge von

bekannte Daten mit hoher Wahrscheinlichkeit richtig

Daten lernen, ob und wie ein bestimmter statistischer

zu bestimmen. Manchmal müssen Anwender:innen

Zusammenhang in ihnen vorhanden ist. Verfahren

diese Prinzipien und Zusammenhänge noch nicht

des statistischen Lernens können aber auch ganz und

einmal vollständig verstehen und die Algorithmen

gar selbstständig aus den Daten statistische Muster

decken diese Prinzipien selbstständig auf. Das macht

ermitteln, die dem Menschen gar nicht zugänglich

diese Arten von Algorithmen so wirkungsvoll und

sind, und ihre Vorgehensweise darauf anpassen. 6

attraktiv. All das hat nichts mit Magie oder einer quasimenschlichen Fähigkeit zu tun, sondern vielmehr mit informatischen Strategien der Optimierung.

Voraussetzung und Grundlage dieser Lernprozesse sind große Mengen an Daten, weshalb man dieses Phänomen auch Big Data getauft hat. Der selbst-

Ein Anwendungsbeispiel soll dies erhellen: So

lernende Algorithmus hat im Unterschied zu vorher

möchte Airbnb den optimalen Übernachtungspreis

streng definierten Handlungsanweisungen einstell-

kennen, den ein Apartment zu einem bestimmten

bare Parameter, die er im Laufe seines Lernprozesses

Zeitpunkt an einem bestimmten Ort und mit be-

anpasst, indem er sie optimiert.7 Lernenden Algo-

stimmter Ausstattung erzielen kann. Kennt das

rithmen gibt man also ein Optimierungsproblem, das

Unternehmen diesen Preis, hat das enorme Aus-

sie mittels ihres Aufbaus und der verfügbaren Daten

wirkungen auf die User Experience von Airbnb.

sukzessive lösen können. Wie das im Einzelnen

Vermieter:innen müssen nicht mehr Preise intuitiv

geschieht, welche Arten und Strategien des Optimie-

bestimmen und Mieter:innen bekommen immer den

rens es gibt, ist Gegenstand der folgenden Unterkapi-

für sie besten Preis. Gesucht ist also ein Preis, der das

tel.

Maximum für die Vermieter:innen herausholt, ohne für potenzielle Gäste zu teuer zu werden. Airbnb

Grundsätzlich hat man es also beim statistischen

nutzt lineare Regression 9, um den idealen Preis zu

Lernen mit Verfahren zu tun, die durch sukzessi-

ermitteln. Da es einen linearen Zusammenhang gibt

ves Training und fortlaufende Optimierung besser

zwischen dem Ort des Apartments, seiner Verkehrs-

werden. Dabei ist erstens wesentlich, dass sie aus den

anbindung und Ausstattung sowie dem Preis, kann

vielen einzelnen Daten einen statistisch signifikan-

man mit dem Verfahren diesen Zusammenhang er-

ten, also allgemeinen Zusammenhang erschließen

lernen. Hat der Algorithmus, der das Verfahren nutzt,

können. Mit anderen Worten: dass sie in der Lage

diesen Zusammenhang erst einmal ermittelt, kann er

sind zu generalisieren, also von vielen konkreten

ohne Probleme für das kommende Wochenende den optimalen Preis für ein Apartment vorhersagen. Den

Daten auf ein übergeordnetes, in den Daten verborgenes Wirkungsverhältnis oder Prinzip zu schließen.

Preis kann Airbnb dann seinen Gastgeber:innen als

8

Man nennt diese Algorithmen auch Modelle, weil sie

Optimum für jedes einzelne Apartment vorschlagen

ein Abbild der Wirklichkeit geben in Form von aus

und so die Bedürfnisse von Nutzer:in und Gastge-

Daten gelernten Annäherungen.

ber:in befriedigen.

9

6

Alpaydin, Ethem: Machine Learning, Cambridge: MIT Press 2016, S. 16.

7

Alpaydin: Machine Learning, S. 24.

genauer erklärt. An dieser Stelle reicht der Gedanke, dass dieses Verfahren

8

Daumé, Hal: A Course in Machine Learning, Eigenpublikation 2017, S. 9,

einen linearen Zusammenhang zwischen Preis und Wohnungseigenschaften

http://ciml.info (20.4.2022).

erkennt.

Im Kapitel „Lineare Regression“ wird die Funktionsweise des Verfahrens

Kapitel 2: Grundfragen künstlich-intelligenter Systeme

20

Die Preisermittlung behält immer die Qualität

prognostizierten und dem korrekten Ergebnis ab und

einer Prognose, weil sie eine statistische Annäherung

lernt anhand des Labels, wie es optimieren muss. So

an die Wirklichkeit ist; sie bleibt also Spekulation,

klassifiziert beispielsweise der Bilderkennungsalgo-

wenn auch statistisch abgesicherte Spekulation. Man

rithmus in den ersten Optimierungsdurchläufen das

kann schon an dieser Stelle festhalten, dass Verfah-

Foto einer Katze noch als Hund, weil er die wesent-

ren statistischen Lernens informierte Spekulation

lichen Unterschiede noch nicht erkannt und auf sie

betreiben, die auf vorher gelernten Zusammenhängen

hin optimiert hat. Er bekommt beim überwachten

basiert. Diese Verfahren antizipieren damit ein Stück

Lernen nach jedem Durchlauf das Feedback anhand

weit zukünftige Wirklichkeit. Dass diese Natur der

des Labels, ob seine bisherige Klassifikation stimmt

informierten Spekulation interessante Auswirkungen

oder nicht, denn mit dem Label ist eindeutig ver-

auf die Gestaltung hat, wird sich im Weiteren zeigen.

merkt, ob es sich um eine Katze oder einen Hund handelt. Solange der Algorithmus Fehler macht, ist

2.3 Arten des Lernens und Problemlösens

klar, dass er weiter optimieren muss; so lange, bis er das Ergebnis richtig prognostiziert. Ist der Bild-

Zunächst kann man lernfähige Algorithmen anhand

erkennungsalgorithmus, der zwischen Hunden und

der drei Strategien unterscheiden, mit und durch

Katzen unterscheiden kann, fertig trainiert, kann er

die sie lernen und Probleme lösen. Das ist erstens

auch unbekannte – also nicht gelabelte – Daten richtig

das sogenannte Supervised Learning, zweitens das

bestimmen. Dies ist das Ziel des Trainings, denn man

Unsupervised Learning und drittens das Reinforcement

möchte einen Algorithmus, der ungelabelte Daten

Learning.

richtig klassifiziert. Ein typisches Verfahren für überwachtes Lernen ist das künstliche neuronale Netz,

Am weitesten verbreitet ist derzeit Supervised

das später ausführlicher erklärt wird.

Learning, das man mit „beaufsichtigtes Lernen“ oder „überwachtes Lernen“ übersetzen kann. Die Überwa-

Beim Unsupervised Learning, dem unbeaufsichtigten

chung besteht darin, Modelle mit Daten zu trainieren,

oder nicht überwachten Lernen ist das Modell in der

deren korrektes Ergebnis vor dem Lernprozess be-

Lage, ohne Rückbezug auf ein Label innerhalb einer

reits bekannt ist. Beispielsweise kann so ein Modell

Menge von Daten Zusammenhänge selbstständig

trainiert werden, dass es Hunde- von Katzenbildern

auszumachen. So wird beispielsweise bei der Waren-

unterscheiden kann. Die Trainingsdaten hierfür

korbanalyse das Einkaufsverhalten vieler Tausend

sind Bilder, die jeweils individuell als Hunde- oder

Supermarktkund:innen ausgewertet und ermittelt,

Katzenbilder gekennzeichnet sind. Zu jedem Bild ist

welche Einkäufe häufig zusammen getätigt werden.

also die Angabe hinterlegt, ob es sich um ein Bild von

Mit dem unüberwachten Lernen können statistische

einem Hund oder einer Katze handelt. Dies nennt

Zusammenhänge in Daten ausfindig gemacht wer-

man in der Fachsprache Label. In der überwachten

den, die vorher unbekannt oder wegen der zu großen

Lernphase gleicht der Algorithmus seine aktuelle

Datenmenge für menschliche Wahrnehmung nicht

Prognose mit dem Label ab und erfährt, ob er bereits

auffindbar waren. Mit der Warenkorbanalyse hat man

richtig liegt oder weiter optimieren muss. Das Modell

beispielsweise herausgefunden, dass Kund:innen, die

gleicht also immer wieder zwischen seinem jeweils

Milch und Käse kaufen, mit 70-prozentiger Wahr-

Kapitel 2: Grundfragen künstlich-intelligenter Systeme

21

scheinlichkeit auch gleich noch Brot kaufen.10 Mit

Die letzte Gruppe der Lernverfahren, die hier be-

diesem Wissen kann das Management des Super-

leuchtet werden soll, ist das Reinforcement Learning

markts dann Schlüsse auf den Grundriss des Markt-

oder bestärkende Lernen. Bei diesem Verfahren

es ziehen, den Architekt:innen, Planer:innen oder

werden keine richtigen Lösungen vorgegeben, son-

Interiordesigner:innen dann umsetzen. Legt man die

dern Lösungswege honoriert, indem es einen Score

Milchprodukte näher an die Bäckerei, schafft man

für richtige Lösungen gibt. Einzelne Schritte auf

Bequemlichkeit für die Kundschaft. Legt man sie

dem Weg zur richtigen Lösung werden belohnt oder

weiter auseinander, garantiert man, dass Kund:innen

bestraft und ergeben dann den Gesamtscore. Der

an anderen Produkten vorbeigehen, und erhöht damit

Algorithmus lernt also, welche Handlungen stärker

Impulskäufe. Verfahren für unüberwachtes Lernen

belohnt werden, und optimiert dadurch sein Ver-

sind die später ausgeführten Entscheidungsbäume

halten. Beispielsweise kann ein Staubsaugerroboter

und das Clustering.

die Aufgabe bekommen, den optimalen, das heißt schnellsten Weg durch eine Wohnung zu finden, um

Zwischen Supervised und Unsupervised Lear-

alle Räume zu reinigen. Der Algorithmus, der den

ning bestehen Mischformen, die unter dem Begriff

Roboter steuert, arbeitet mit Reinforcement Learning,

Semi-supervised Learning zusammengefasst werden.

das sowohl den aktuellen Status des Roboters kennt,

Eines der wichtigsten Verfahren, die in diese Katego-

in diesem Fall den Raum, in dem sich der Roboter

rie fallen, ist das Self-supervised Learning. Denn mit

befindet, als auch mögliche Aktionen, die er aus-

diesem Verfahren kann einer der großen Nachteile

führen kann. In diesem Fall soll der Algorithmus nur

von Supervised Learning behoben werden, und zwar

entscheiden, wie er am schnellsten durch die gesamte

die großen Mengen an gelabelten Daten, die benötigt

Wohnung gelangt; alle anderen Reinigungsaktionen

werden. Das Verfahren heißt selbstüberwacht, weil

automatisiert ein anderer Algorithmus. Manche der

es die Signale für das unüberwachte Lernen selbst-

möglichen Aktionen sind nachteilig, weil der Roboter

ständig ermittelt. Damit ist dieses Verfahren eine Art

in Räume gelangt, die er schon gesaugt hat oder die

Vortraining auf Basis eines Unsupervised Learnings,

ihn auf einen Umweg führen. Andere Aktionen sind

das subtile Muster in großen Datenmengen selbst-

vorteilhaft, weil sie schneller zum Ziel, einer sauberen

ständig erkennt und als Hinweis für das weitere

Wohnung, führen. Mit dem Reinforcement Learning

überwachte Lernen versteht. In der überwachten

wird ohne Vorwissen gelernt, welche der je nach Sta-

Lernphase lernt ein System dann anhand von nur

tus verschiedenen Aktionen vorteilhaft ist und wel-

wenigen Daten die relevanten Zusammenhänge und

che nachteilhaft. Jede einzelne Aktion wird zunächst

kann somit auch aus kleinen Datenmengen erfolg-

mit einem vorläufigen Score versehen. Je höher der

reich Prinzipien ableiten. Anwendungsgebiete hierfür

Score, umso besser ist die Aktion und umso höher ist

sind beispielsweise Algorithmen, die Schwarz-Weiß-

der Gesamtscore am Ende des Lerndurchgangs. 12 Auf

Bilder kolorieren oder fehlerhafte Bilder retuschieren

diese Weise findet der Roboter nach dem Training

können.

den besten Weg zum Staubsaugen.

11

10

Bramer, Max: Principles of Data Mining, London: Springer-Verlag 2016, S. 8.

11

LeCun, Yann/Misra, Ishan: „Self-supervised learning: The dark matter of intelligence“, https://ai.facebook.com/blog/self-supervised-learningthe-dark-matter-of-intelligence (9.2.2022).

12

Breuer, Klaus: Computerspiele programmieren. Künstliche Intelligenz für künstliche Gehirne, München: Oldenbourg 2012, S. 85.

Kapitel 2: Grundfragen künstlich-intelligenter Systeme

22

Bei der Wahl der Aktionen wird im Reinforcement

Kennt ein Modell nur zwei Kategorien, etwa bei den

Learning nicht zufällig gewählt, sondern abgewogen

Kategorien Spammail und Nicht-Spammail, spricht

zwischen einem Vorgehen, das mögliche Aktionen

man von binärer Klassifikation. Bei mehr als zwei

erkundet und dabei riskiert, schlechte Scores zu

Kategorien, etwa bei dem Beispiel der Tiere, spricht

erhalten, und einem Vorgehen, das besonders hohe

man von Mehrklassen-Klassifikation.

Scores ausnutzt und riskiert, unbekannte, aber bessere Wege zu übersehen. Diese Strategie, beiden Vor-

Vorhersagen, die einen Zahlenwert ermitteln,

gehensweisen entsprechend abzuwägen, nennt man

werden als Regression bezeichnet.15 Regression heißt

in der Fachsprache Exploration vs. Exploitation. Im

so viel wie „Rückführung“ und meint, dass von einer

Laufe des Lernens passt sich der Anteil zwischen Ex-

oder mehreren unabhängigen Variablen auf eine

ploration und Exploitation sukzessive an, denn sind

abhängige Variable zurückgeschlossen wird. Mit

alle Wege erkundet, kann der Anteil an explorativem

anderen Worten wird ein Zahlenwert abhängig von

Verhalten reduziert werden. Reinforcement Learning

anderen feststehenden Zahlenwerten bestimmt, etwa

eignet sich in der Anwendung für solche Probleme,

der Preis für ein Haus aus der Quadratmeterzahl aller

die abstrakte Spielregeln oder komplexe Vorgehens-

Zimmer. Der Häuserpreis ist die abhängige Variable,

weisen lernen sollen. Das reicht vom bereits zitierten

die feststehende unabhängige Variable ist die Ge-

Roboter, der sich in einer Umgebung optimal be-

samtquadratmeterzahl.16 Mit der Regression werden

wegen soll, über Computer- und Brettspiele, wie das

keine für immer feststehenden Zahlenwerte ermittelt;

berühmte AlphaGo, bis hin zu Systemen wie einem

sie können sich je nach genutzten Variablen mehr

Restaurant, dessen Ressourcenmanagement mit

oder weniger signifikant verändern.

13

Reinforcement Learning optimiert werden kann.

14

Die dritte Art der Prognose sind die Rankings, die 2.4 Arten der Prognose

zwischen Klassifikation und Regression angesiedelt sind und beispielsweise durch Suchmaschinen oder

In einem zweiten Schritt können lernfähige Algorith-

Empfehlungsalgorithmen ermittelt werden. Soll ein

men anhand der Prognosen unterschieden werden,

Empfehlungsalgorithmus geeignete Filme vorschla-

die sie machen. Hier gibt es die drei großen Bereiche

gen, dann ermittelt er je Zuschauer:in die Wahr-

Klassifikation, Regression und Ranking. Klassifika-

scheinlichkeit, mit der sie oder er einen bestimmten

tionsalgorithmen lernen, Daten korrekt zu klassifizie-

Film mögen wird. Dabei sind die Filme nicht gelabelt

ren, also in Kategorien einzuordnen. Kategorien sind

in „gefällt“/„gefällt-nicht“, denn damit könnte man

begrenzte Mengen von unterscheidbaren Klassen,

einen Klassifikationsalgorithmus trainieren. Sie sind

wie beispielsweise Tiere. Zu den Tierkategorien, die

auch nicht mit einem Sternesystem von eins bis

ein Algorithmus erkennen kann, gehören dann etwa

fünf bewertet worden, denn dann könnte man einen

Hund, Katze oder Vogel. Klassifikationsalgorithmen

Regressionsalgorithmus trainieren. Der Rankingal-

kennen immer nur eine begrenzte Zahl an Katego-

gorithmus ermittelt für Film und Nutzer:in einen

rien. Man kann die Kategorien zwar erweitern, dann

Score, indem solche Filme, die der Nutzerin oder dem

muss aber auch das Modell neu trainiert werden.

Nutzer am meisten gefallen könnten, hoch bewertet

13

Breuer: Computerspiele programmieren, S. 86.

15

Bramer: Principles of Data Mining, S. 6.

14

Mao, Hongzi/Alizadeh, Mohammad/Menache, Ishai et al.: „Resource

16

Burkov, Andriy: The Hundred-Page Machine Learning Book,

Management with Deep Reinforcement Learning“, https://dl.acm.org/ doi/10.1145/3005745.3005750 (20.4.2022).

Eigenpublikation 2019, S. 19.

Kapitel 2: Grundfragen künstlich-intelligenter Systeme

23

werden. Anhand der Scores wird dann bestimmt,

in und mit den Daten ein mathematischer Zusam-

welche Filme in welcher Reihenfolge empfohlen

menhang, der sich als lineares Verhältnis beschreiben

werden.17

und dann auch prognostizieren lässt. So besteht beispielsweise ein linearer Zusammenhang zwischen

2.5 Einige wichtige Klassen des statistischen

Alter und Klimabewusstsein.18 Das bedeutet: Je älter

Lernens

Personen werden, umso mehr steigt die statistische Wahrscheinlichkeit, dass sie Klimafragen bewusster

In diesem Kapitel sollen nun einige zentrale Klassen

wahrnehmen. Mit anderen Worten steigt statistisch

statistischen Lernens beleuchtet, also ihr wesent-

gesehen das Klimabewusstsein linear, also in gleich-

licher Aufbau und ihre Funktionsweise dargelegt

bleibender Proportion zum Alter.

werden. Besprochen werden sollen die Klassen in der Logik ihrer zunehmenden Komplexität. Begonnen

Bei der einfachen linearen Regression, um die es

wird demnach mit der linearen Regression als einer

hier gehen soll, wird der Zusammenhang zwischen

der einfachsten Klassen statistischen Lernens, den

einer unabhängigen Input-Variable x und der soge-

Abschluss bildet eine Reihe von Deep-Learning-Klas-

nannten Response-Variable y ermittelt. 19 Im Bei-

sen. Allen Klassen ist zu eigen, dass sie ein statisti-

spielfall wäre das Alter die Input-Variable und das

sches Verteilungsprinzip in einer Menge von Daten

Klimabewusstsein die Response-Variable. Die lineare

ermitteln können. In den allermeisten Fällen lernt der

Regression setzt voraus, dass der Zusammenhang von

Algorithmus mittels Optimierungsfunktionen, die Vor-

Input-Variable und Response-Variable tatsächlich ein

gehensweisen zur Fehlerverringerung sind. Zentral

linearer ist. Erhöht sich der Input-Wert um einen be-

für dieses Kapitel ist also der Aufbau der jeweiligen

stimmten Faktor, muss sich auch der Response-Wert

Klasse in Verbindung mit der Funktionsweise ihrer

um einen gleichbleibenden Faktor erhöhen.

Optimierungsfunktionen. Nicht alle existierenden Klassen statistischen Lernens können und sollen hier

Allerdings liegt es in der Natur der Daten, dass sie

betrachtet werden. Es geht vielmehr darum, einige

nicht durch reine mathematische Funktionen in die

grundlegende Wirkungsprinzipien des statistischen

Welt gekommen sind, sondern im Falle des Klimabe-

Lernens exemplarisch zu beleuchten, um so darzu-

wusstseins individuelle Einstellungen repräsentieren.

legen, für welche Problemfelder man sie einsetzen

Diese Einstellungen können in Bezug auf die Lineari-

kann.

tät, die sie als statistisches Prinzip zusammenhält, schwanken. Deutlich wird dies, wenn man die Daten

2.5.1 Lineare Regression

wie in der Abbildung 2.1 als grafische Darstellung visualisiert. Die x-Achse zeigt die Verteilung der

Eine der simpleren, wenn auch häufig gebrauchten

Menschen anhand ihres Alters, die y-Achse zeigt den

Klassen des statistischen Lernens ist die lineare Re-

Grad des Klimabewusstseins dieser Menschen.

gression. Wie der Name schon andeutet, ist das statis-

17

tische Verteilungsprinzip der Daten, das mit dieser

Man erkennt in Abbildung 2.1, dass die Daten nicht

Klasse aufgefunden wird, ein lineares. Es besteht also

auf einer Linie liegen, und trotzdem kann man den li-

Mehr dazu dann im Kapitel 2.5.3 zu Clustering und Ähnlichkeit.

18

Kuckartz, Udo/Rädiker, Stefan/Ebert, Thomas et al.: Statistik. Eine verständliche Einführung, Wiesbaden: VS Verlag 2010, S. 333.

19

Igual, Laura/Seguí, Santi: Introduction to Data Science, Cham: Springer 2017, S. 98.

Kapitel 2: Grundfragen künstlich-intelligenter Systeme

24

nearen Zusammenhang bereits mit dem bloßen Auge

ler angenommen. Dieser Fehler soll dann so lange

erkennen. Jüngere Menschen haben oft ein niedri-

minimiert werden, bis sich der Punkt auf der Aus-

geres Klimabewusstsein, ältere Menschen oft ein

gleichsgerade befindet. Die Fehler der Punkte werden

höheres. Mit der linearen Regression kann man nun

mit dem Optimierungsverfahren also immer weiter

den linearen Zusammenhang ermitteln, der in der

minimiert und der Punkt damit auf die Gerade ver-

Gesamtheit der Datenpunkte steckt, und damit die

schoben. Dazu wird der Abstand quadriert, was den

Ausgleichsgerade einzeichnen, die in der Abbildung

Effekt hat, dass große Fehler stärker bestraft werden,

zu sehen ist. Diese Ausgleichsgerade repräsentiert

kleine Fehler dagegen weniger stark, denn alle Werte

den statistischen Mittelwert des linearen Zusammen-

kleiner als eins werden durch das Quadrat verringert,

hangs zwischen Alter und Klimabewusstsein. Ziel

alle Werte größer als eins werden erhöht. Das hat zur

der linearen Regression ist es also, über die tatsäch-

Folge, dass Punkte, die nahe der Ausgleichsgerade lie-

lich vorhandenen Datenpunkte die Ausgleichsgerade

gen, nur wenig verschoben werden. Punkte, die weit

zu berechnen.

weg liegen, werden entsprechend stärker verschoben. Durch das Verfahren wird für jeden Datenpunkt also sukzessive der Fehler minimiert und letztlich werden

y-Achse

alle Punkte in einer Gerade angeordnet, also wird die e

d era

korrekte Ausgleichsgerade ermittelt.

sg

ch lei

sg Au

Hat der Algorithmus den konkreten linearen

Klimabewusstsein

Zusammenhang aus einer Menge an Daten gelernt, dann kann er aus einem bekannten x-Wert einen

Fehler

unbekannten y-Wert inferieren, also mit hoher Wahrscheinlichkeit richtig bestimmen. Mit anderen Worten: Ist die Ausgleichsgerade bestimmt, kann eine Response-Variable prognostiziert werden, auch wenn nur die Input-Variable bekannt ist. Es kann also für jedes beliebige Alter ein statistisch wahrscheinlicher

Alter

Grad an Klimabewusstsein vorhergesagt werden.

x-Achse

Man kann mit der linearen Regression aber auch die Menge von Abverkäufen eines Produkts prognosti-

Abb. 2.1: Lineare Regression

zieren, je nachdem ob der Produktpreis sinkt oder Um sie zu bestimmen, wird ein Optimierungsver-

steigt. 21 Ebenso kann man die Gewichtszunahme von

fahren eingesetzt, das unter dem Namen „Methode

Sportler:innen anhand von Alter und Körpergröße

der kleinsten Quadrate“ firmiert. Dafür wird der

ermitteln.22 Die Anwendungsfälle sind enorm viel-

Abstand vom tatsächlichen Punkt zum vorher-

fältig und nur durch den Verteilungszusammenhang

gesagten Punkt auf der Ausgleichsgerade, der in

der Daten beschränkt.

20

der Abbildung gestrichelt dargestellt ist, als Feh-

20

Igual/Seguí: Introduction to Data Science, S. 99.

21

Igual/Seguí: Introduction to Data Science, S. 97.

22

Matloff, Norman: From Linear Models to Machine Learning. Regression and Classification, with R Examples, Oxfordshire: Taylor & Francis 2017, S. 6.

Kapitel 2: Grundfragen künstlich-intelligenter Systeme

25

Regression, lateinisch für Rückführung, bedeu-

spezifische, den Symptomen angemessene Untersu-

tet also, von einem oder mehreren unabhängigen

chungen vor. 24 Sie überlegen demnach anhand von

Parametern auf einen davon abhängigen Parameter

übergeordneten Kategorien, welches Krankheits-

rückzuschließen. Das mag an dieser Stelle vielleicht

symptom in welche Kategorie passt, und grenzen so

etwas simpel erscheinen, kann man den Mittelwert

immer mehr ein. Ähnlich sind Entscheidungsbäume

in der obigen Abbildung doch mit dem bloßen Auge

aufgebaut und Kategorien werden durch Verzwei-

erkennen. Aber schon bei mehr als zwei unabhän-

gungen am Baum, sogenannte Nodes, repräsentiert.

gigen Variablen kann der mehrdimensionale lineare

Verzweigt sich der Ast weiter nach unten, bilden sich

Zusammenhang nicht mehr grafisch dargestellt und

Unterkategorien. Am Ende des Baums finden sich

visuell wahrgenommen werden. Zur Klasse der Re-

dann die klassifizierten Objekte in den jeweils für sie

gressionsverfahren zählen weitere Unterklassen, wie

relevanten Kategorien. 25

etwa die logistische Regression, die jedoch an dieser Stelle nicht weiter ausgeführt werden soll.

In der Logik des Lernens beginnt der Entscheidungsbaum mit einem Stamm und demnach mit dem

2.5.2 Entscheidungsbäume

Attribut mit dem höchsten Informationsgewinn, also mit dem stärksten Einfluss auf das Ergebnis. Danach

Nicht immer ist der statistische Zusammenhang der

wird das Attribut mit dem nächsthöchsten Informa-

Daten, der durch das Lernverfahren ermittelt werden

tionsgewinn als Verzweigung implementiert. Der

soll, von vornherein bekannt. Oft sind Datenmen-

Baum wird anhand bestimmter relevanter Schwellen-

gen so unübersichtlich und komplex, dass mit dem

werte verzweigt, so lange, bis alle Attribute eingeflos-

Lernverfahren gleichzeitig auch entschieden werden

sen sind oder die noch verbleibenden Attribute kei-

muss, wie die Daten geordnet werden können. Ein

nen signifikanten Einfluss mehr auf die Verzweigung

solches unüberwachtes Verfahren ist der Entschei-

nehmen. Die Funktionen, die darüber entscheiden,

dungsbaum. Entscheidungsbäume können sowohl

an welcher Stelle eine Verzweigung entstehen soll,

für Regressions- als auch Klassifikationsprobleme

das heißt ein relevanter Schwellenwerte erreicht ist,

angewendet werden.

sind die Optimierungsfunktionen des Entscheidungs-

23

baums. Sie entscheiden auch darüber, wie akkurat der Der Vorteil des Entscheidungsbaums ist, dass er

Baum am Ende prognostizieren kann.

durch die Lernphase die wichtigsten Daten identifizieren, einteilen und sukzessive Unterkategorien

In Abbildung 2.2 ist das berühmte Trainingsbei-

bilden kann. Um eine Parallele zu bilden, die die Wir-

spiel der Titanic dargestellt. Ermittelt wird in diesem

kungsweise verdeutlicht, kann man Entscheidungs-

Beispiel eine Antwort auf die Frage, ob bestimmte

bäume auch mit medizinischen Untersuchungen ver-

Passagiergruppen den Untergang der Titanic wahr-

gleichen. Dort lassen die behandelnden Ärzt:innen

scheinlich überlebten. 26

nicht gleich alle verfügbaren Tests an Patient:innen durchführen, sondern grenzen anhand von Krankheitssymptomen Ursachen ein und schlagen dann 24 Kubat, Miroslav: An Introduction to Machine Learning, London: Springer-Verlag 2017, S. 113. 23

James, Gareth/Witten, Daniela/Hastie, Trevor et al.: An Introduction to Statistical Learning, New York: Springer Science+Business Media 2017, S. 303.

25 Ertel, Wolfgang: Introduction to Artificial Intelligence, London: Springer-Verlag 2017, S. 199. 26 Skiena, Steven: The Data Science Design Manual, Cham: Springer Nature 2017, S. 358.

Kapitel 2: Grundfragen künstlich-intelligenter Systeme

26

Ist der Passagier männlich?

Ja

daten anzupassen. Dies wird in der Fachsprache als

Nein

Overfitting bezeichnet. 27 Damit kann man das Modell dann nicht mehr für unbekannte Daten außerhalb des Trainingssets generalisieren; seine Prognosen sind nur mit den ihm bekannten Daten wirklich treffend.

Überlebt

Alter > 9.5 ?

Dies gilt es unbedingt zu vermeiden. Ja

Nein

Für männliche Passagiere verzweigt sich der Entscheidungsbaum weiter und macht mit dem Alter ein weiteres signifikantes Attribut aus. Waren männliche

Gestorben

Passagiere älter als zehn Jahre, sind sie wahrscheinMehr als zwei Geschwister?

lich gestorben. Auch für diese Gruppe endet der Entscheidungsbaum an dieser Stelle, da keine signi-

Ja

fikanten Attribute mehr ermittelt werden konnten.

Nein

Dieser Umstand deckt sich mit der empirischen Beobachtung und der traurigen Wahrheit, dass die meisten Todesopfer der Titanic-Katastrophe erwach-

Gestorben

sene männliche Reisende waren.

Überlebt

Eine letzte Verzweigung macht der Algorithmus anhand des Attributs „Geschwister“ für männliche

Abb. 2.2: Entscheidungsbaumalgorithmus

Reisende unter zehn Jahren. Jungen, die mehr als Der dargestellte Entscheidungsbaumalgorithmus

zwei Geschwister hatten, sind wahrscheinlich gestor-

hat als wichtigstes Unterscheidungsmerkmal das Ge-

ben. Führt man jetzt alle Passagiere als Datenpunkte

schlecht der Reisenden identifiziert. Dass Passagiere

durch den Entscheidungsbaum, dann kann man

auf der Titanic wahrscheinlich überlebten, wenn sie

prognostizieren, welches Schicksal den betreffenden

weiblich waren, lässt sich leicht nachvollziehen, denn

Passagier wahrscheinlich ereilt hat.

bekannt ist die nautische Regel, dass Frauen und Kinder zuerst in die Rettungsboote einsteigen dürfen. Die Frage, die sich nun mit Blick auf die VerzweiAn dieser Stelle erreicht der Entscheidungsbaum

gung des Entscheidungsbaums und der Optimie-

für Frauen bereits sein Ende. Weitere Kriterien der

rungsfunktion stellt, ist, wie genau der Algorithmus

Unterscheidung sind für sie in diesem Fall nicht rele-

weiß, welche Attribute relevant sind und welche

vant, etwa ihr Alter oder die Klasse, in der sie reisen,

nicht. Um Spaltungsregeln zu ermitteln, berechnet

denn das gesamte Modell hat für Frauen schon eine

der Algorithmus die sogenannten Kosten für die

Prognosegenauigkeit von etwa 80 Prozent erreicht,

Spaltung des Baumes und entscheidet mit ihnen, ob

die hier genügen soll. Man könnte zwar eine höhe-

eine Verzweigung sinnvoll ist. Eine solche Optimie-

re Genauigkeit des Modells erreichen, indem man

rungs- oder Kostenfunktion ist beispielsweise der

beispielsweise Altersklassen einführt, läuft damit al-

Root Mean Square Error, kurz RMSE, mit dessen

lerdings Gefahr, das Modell zu sehr an die Trainings-

Hilfe ermittelt wird, welche Attribute am homogen27

Skiena: The Data Science Design Manual, S. 358.

Kapitel 2: Grundfragen künstlich-intelligenter Systeme

27

sten und am relevantesten sind, sich daher auch am

beispielsweise in der Social-Network-Analyse ge-

meisten als Verzweigung eignen. An dieser Stelle

nutzt, um die Ähnlichkeiten von Communitys zu

sollen keine Details der Operation erläutert werden,

ermitteln.31

28

da nur das abstrakte Prinzip verdeutlicht werden sollte.

Auch viele Empfehlungsmaschinen bauen auf Clustering-Methoden auf, wenn sie Nutzer:innen mit

Entscheidungsbäume können für eine Vielzahl von

ähnlichen Vorlieben oder Produkte mit ähnlichen

Anwendungsfällen genutzt werden. Sie bewerten bei-

Eigenschaften ermitteln, um sie zu empfehlen.

spielsweise das Ausfallrisiko bei Kreditvergabe oder bei Investitionen. Oder sie können Nutzer:innen nach

Eine der am häufigsten verwendeten Methoden für

Kaufverhalten und soziodemografischen Eigenschaf-

Clustering ist das sogenannte Collaborative Filte-

ten gruppieren und damit eine sinnvolle Vorauswahl

ring.32 Die Bezeichnung „collaborative“, zu Deutsch

für User Research und Personas-Erstellung bereitstel-

gemeinschaftlich, leitet sich aus dem Umstand her,

len.

dass Daten von vielen verschiedenen Nutzer:innen für individualisierte Empfehlungen herangezogen

2.5.3 Clustering und Ähnlichkeit

werden. Innerhalb des Collaborative Filterings existieren viele unterschiedliche Ansätze und Methoden,

Oftmals ist es wichtig, Daten ihren Eigenschaften

um Ähnlichkeiten zu ermitteln. Die beiden wesent-

nach zu gruppieren, um dadurch Schlüsse auf die

lichen sind nutzerbasierte und produktbasierte

Eigenschaften unbekannter Daten ziehen zu können.

Filtering-Methoden. Das nutzerbasierte Filtering, das

Im Kern haben Clustering-Methoden den Vorteil,

sogenannte User-based Filtering nimmt eine bestimm-

dass sie Strukturen und Zusammenhänge in den

te Nutzerin oder einen bestimmten Nutzer und findet

Daten entdecken, die vorher noch nicht bekannt sein

eine ähnliche Nutzerin oder einen ähnlichen Nutzer,

müssen. Damit gehört auch das Clustering zu den

basierend auf Bewertungen, die beide Nutzer:innen

unüberwachten Lernverfahren, da man dem Algo-

abgegeben haben. Zwischen beiden Bewertungen, die

rithmus nicht schon ein bereits bekanntes, korrektes

entweder explizit durch Ratings oder implizit durch

Ergebnis im Lernprozess mitteilen muss. Cluste-

Surfverhalten abgegeben worden sind, können Ähn-

ring-Verfahren gruppieren beliebige Datenmengen

lichkeiten – also gemeinsame ästhetische, funktionale

ihren Eigenschaften entsprechend in Gruppen mit

oder preisliche Präferenzen – ermittelt werden. Basie-

ähnlichen Eigenschaften und sind damit in vielen

rend auf dieser Gemeinsamkeit werden dann Pro-

Bereichen einsetzbar. Für einen Großteil der An-

dukte ermittelt, für die es noch keine expliziten oder

wendungen, die riesige Datenmengen auswerten,

impliziten Feedbacks gibt. Es wird einfach angenom-

ist Clustering ein notwendiger erster Schritt in der

men, dass die Personen mit dem gleichen Geschmack

Datenaufbereitung und umfasst eine Vielzahl von

auch dieselben Dinge bevorzugen.33

29

unterschiedlichen Methoden.30 Clustering wird

28

Gupta, Prashant: „Decision Trees in Machine Learning“,

31 Aggarwal: Data Mining, S. 154.

https://towardsdatascience.com/decision-trees-in-machine-

32 Grover, Prince: „Various Implementations of Collaborative Filtering“,

learning-641b9c4e8052 (20.4.2022). 29

Alpaydin: Machine Learning, S. 115.

30

Aggarwal, Charu: Data Mining. The Textbook, Cham: Springer International Switzerland 2015, S. 153.

https://towardsdatascience.com/various-implementations-ofcollaborative-filtering-100385c6dfe0 (20.4.2022). 33 Igual/Seguí: Introduction to Data Science, S. 167.

Kapitel 2: Grundfragen künstlich-intelligenter Systeme

28

Im Unterschied zum User-based Filtering nimmt

euklidischen Abstand und Kosinus-Ähnlichkeit.

der Vergleich beim Item-based Filtering seinen Aus-

Die Abbildung 2.3 verdeutlicht die Wirkungsweise

gangspunkt im Produkt und nicht bei den Nutzer:in-

der Algorithmen.36

ten ermittelt, die wiederum die Grundlage bilden, um Nutzer:innen Vorschläge zu unterbreiten.34 Dieses Verfahren wird für Produktempfehlungen nach dem

y-Achse

nen. Es werden Ähnlichkeiten zwischen den Produk-

5

Muster „Kund:innen, die dieses Produkt gekauft haben, interessierten sich auch für jenes Produkt“

A (2, 4)

4

verwendet, wie man es schon seit zwei Jahrzehnten

e

aus Onlineshops kennt.35

C (3, 3)

3

d

φ3

Eines der grundlegendsten, wenn auch nicht mehr

B (5, 2)

2

so häufig verwendeten Verfahren für Collaborative

a

Filtering sind die sogenannten KNN-Algorithmen. Sie

f

1

φ1 φ2

c

sollen hier im Folgenden näher erläutert werden, da

b

sie sich gut eignen, Ähnlichkeitsbestimmungen zu 1

verdeutlichen. KNN steht für „K-nearest Neighbor“

2

3

4

5

und wie der Name schon sagt, werden mit diesem Verfahren Ähnlichkeiten der Daten als Nachbar-

Abb. 2.3: Berechnung der Ähnlichkeit durch KNN-Algorithmen

schaftsverhältnis ausgedrückt. KNN-Algorithmen

34

ermitteln semantische und inhaltliche Ähnlichkeiten,

Für die Datenpunkte A, B und C, mit jeweils einem

indem sie die Distanz zwischen zwei Datenpunk-

x- und einem y-Wert, soll sowohl der euklidische

ten berechnen. Eine geringe Distanz zwischen zwei

Abstand als auch die Kosinus-Ähnlichkeit ermittelt

Datenpunkten repräsentiert eine große Ähnlich-

werden. Die drei Datenpunkte können beispielsweise

keit, und eine größere Distanz bedeutet umgekehrt

Sterne-Ratings von drei Nutzer:innen für zwei Filme

weniger Gemeinsamkeit. Es gibt viele mathematische

repräsentieren. Nutzerin A hat dem ersten Film

Verfahren zur Berechnung dieser Distanzen. An die-

(x1) ein Rating von zwei Sternen gegeben und dem

ser Stelle reicht es, sich auf zwei zentrale und leicht

zweiten Film (y1) ein Rating von vier Sternen. In

verständliche Verfahren zu beschränken. Die erste

dem Koordinatensystem ist sie als Datenpunkt A (2,4)

mathematische Operation ermittelt die Distanz als

eingezeichnet. Nutzer B dagegen hat dem ersten Film

zweidimensionalen Abstand zwischen zwei Punkten,

(x2) ein Rating von fünf Sternen gegeben und dem

die zweite den Winkel zwischen zwei Vektoren, die

zweiten Film (y2) ein Rating von zwei Sternen. In

durch die Kosinus-Funktion berechnet wird. Vek-

dem Koordinatensystem ist er als Datenpunkt B (5,2)

toren sind hier im geometrischen Sinne Darstellun-

eingezeichnet. Nutzerin C wiederum hat jeweils drei

gen von Strecken mit einer bestimmten Länge und

Sterne vergeben und wird folgerichtig als C (3,3) in

Richtung. Beide Verfahren nennt man deshalb auch

das Koordinatensystem eingetragen.

Sarwar, Badrul/Karypis, George/Konstan, Joseph et al.: „Item-based collaborative filtering recommendation algorithms“, https://dl.acm.org/doi/10.1145/371920.372071 (20.4.2022).

35

Igual/Seguí: Introduction to Data Science, S. 167.

36

Die Beispiele sind angelehnt an solche aus Igual/Seguí: Introduction to Data Science, S. 175.

x-Achse

Kapitel 2: Grundfragen künstlich-intelligenter Systeme

29

Berechnet man nun den euklidischen Abstand, also

dass es Faktoren, wie Filmgenre, Lieblingsschauspie-

den direkten Abstand zwischen zwei Punkten, dann

lerin oder Jahreszeiten, die die Filmvorlieben signi-

werden die Nachbarschaften sichtbar. Die Linien d,

fikant bestimmen können, nicht abbilden kann. Diese

e und f zeigen die Abstände zwischen A und B, A

Faktoren sind meist nicht bekannt, was die Empfeh-

und C sowie B und C. Der geringste Abstand existiert

lungen noch schwieriger macht. Zudem hat das KNN-

demnach zwischen den Nutzerinnen A und C, gefolgt

Verfahren einen zweiten wesentlichen Nachteil. Trotz

vom Abstand zwischen Nutzer B und Nutzerin C.

der theoretisch unbegrenzten Menge an Daten, die es

Die wenigsten Gemeinsamkeiten in Bezug auf ihre

zur Grundlage für Berechnungen macht, ist es nicht

Vorliebe für die beiden Filme haben die Nutzerin A

wirklich gut skalierbar. Es dauert schlicht zu lange,

und der Nutzer B.

für Millionen von Datenpunkten Empfehlungen in Echtzeit zu ermitteln, und ist daher für Echtzeitan-

Für die Kosinus-Ähnlichkeit wird ein Vektor zwi-

wendungen im Internet nicht sinnvoll.37

schen dem Ursprung des Koordinatensystems (0,0) und dem jeweiligen Datenpunkt gezogen. Die Linie

Um beide Nachteile zu beheben, wurde ein Ver-

vom Nullpunkt zu A (4,2) in der Abbildung zeigt den

fahren namens Matrix Factorization entwickelt, das im

Vektor a für die Nutzerin A. Durch eine Kosinus-

Unterschied zum KNN-Verfahren eine Optimierungs-

Berechnung, die an dieser Stelle wieder ohne mathe-

funktion nutzt. Das KNN-Clustering ist ganz ohne

matische Formel auskommen soll, wird der Winkel

eine solche ausgekommen, musste also im engeren

zwischen zwei Vektoren berechnet. Auch auf diese

Sinne nicht optimieren. Die Distanz zu anderen

Weise wird deutlich, dass Nutzerin A und Nutzerin C

Nutzer:innen oder Produkten einmal zu berechnen,

mehr Gemeinsamkeiten haben, da der Winkel φ 1 der

reichte völlig aus, um Ähnlichkeiten zu bestimmen.

Vektoren a und c deutlich kleiner ist als der Winkel

Um die Schwäche des KNN-Verfahrens also zu be-

φ 2 der Vektoren a und b.

heben und die versteckten Faktoren bei Nutzer:innenpräferenzen zu berücksichtigen, leitet die Matrix

Natürlich kann man auf einer Grundlage von

Factorization versteckte Faktoren aus vergangenen

zwei Bewertungen noch keine guten Empfehlungen

Aktionen ab und macht sie zur Grundlage für Emp-

abgeben, aber das Prinzip sollte deutlich geworden

fehlungen. Beispielsweise werden für Filmempfeh-

sein. Man würde also der Nutzerin C auch solche für

lungen, Bewertungen in zwei Ähnlichkeitsverhältnis-

sie unbekannten Filme empfehlen, die die Nutzerin

se, sogenannte Mappings, zerlegt. Das erste Mapping

A hoch bewertet hat. Die Wahrscheinlichkeit, dass

erfasst die Ähnlichkeiten zwischen Nutzer:in und

beide einen ähnlichen Geschmack in Bezug auf be-

Faktoren, wie etwa der Lieblingsschauspielerin, das

stimmte Filme haben, ist hoch.

zweite Mapping erfasst die Ähnlichkeit zwischen Faktoren und Filmen.38 Der Algorithmus lernt dann,

Allerdings muss man das Wort „bestimmt“ in

Ähnlichkeitsverhältnisse so zu optimieren, dass sie

„bestimmte Filme“ betonen, da die Realität deutlich

geschmackliche Präferenzen der Nutzer:innen besser

komplexer ist. Das KNN-Verfahren hat den Nachteil,

abbilden.39 37 Sarwar/Karypis/Konstan et al.: Item-based collaborative filtering recommendation algorithms. 38 Alpaydin: Machine Learning, S. 120 f. 39 Ajitsaria, Abhinav: „Build a Recommendation Engine With Collaborative Filtering. Real Python“, https://realpython.com/build-recommendationengine-collaborative-filtering (25.5.2021).

Kapitel 2: Grundfragen künstlich-intelligenter Systeme

30

Die wichtigsten Anwendungsgebiete für alle Arten

Aufbau und Funktionsweise auch für besondere

von Clustering-Verfahren wurden bereits erwähnt.

Aufgabenfelder und Anwendungen ausgelegt, die

Es sind zum einen Empfehlungsalgorithmen und

hier kurz näher vorgestellt werden sollen. Begonnen

zum anderen eine Vielzahl an Datenanwendungen

werden soll mit der einfachsten Variante eines künst-

für Kund:innen- oder Marktsegmentierung. Viele

lichen neuronalen Netzes. Darauf aufbauend werden

digitale Services nutzen diese Art der Vorauswahl

dann elaborierte Formen neuronaler Netze, wie die

und des kuratorischen Eingriffs. Schon ein einfacher

Convolutional Neural Networks, Recurrent Neural

Feed auf Facebook oder Instagram basiert auf einem

Networks und Generative Adversarial Networks, be-

elaborierten Empfehlungsalgorithmus. Auch wenn

trachtet.

die Anwendungen im Design erst später thematisiert Künstliche neuronale Netze

werden, sind entsprechende Use-Cases schon jetzt erkennbar, etwa die „Font-Map“

40

der Designagentur

IDEO, die Ähnlichkeiten von Schriftschnitten als

Ein künstliches neuronales Netzwerk oder synonym

Nachbarschaftsverhältnisse auf einer Landkarte dar-

Artificial Neural Network, kurz ANN, ist ein Algo-

stellt, oder das dreidimensionale Cluster, das unter

rithmus, der in Aufbau und Funktionsweise biologi-

dem Namen „Runway Palette“ farbige Ähnlichkeiten

schen Nervenzellen, den sogenannten Neuronen, lose

von Modekollektionen repräsentiert.

nachempfunden ist. Forscher:innen ließen sich von

41

der Biologie inspirieren, um die Leistungsfähigkeit 2.5.4 Neuronale Netze

der menschlichen und tierischen Gehirne auch für rechnerbasierte Vorgänge nutzen zu können. Im-

Künstliche neuronale Netze sind im Unterschied zu

merhin sind schon mit wenigen Hundert Neuronen

anderen statistischen Lernverfahren nicht an be-

äußerst komplexe Verhaltensweisen bei niederen

stimmte Aufgaben und Probleme gebunden. Sie sind

Tieren wie den Fadenwürmern möglich, die Compu-

in der Lage, viele unterschiedliche regressive und

terprogramme vor größere Schwierigkeiten stellen. 42

klassifikatorische Probleme durch ein Verfahren zu

Übernommen haben Forscher:innen die Qualität der

lösen, das im Grunde jeden statistischen Zusammen-

Neuronen, sich untereinander zu vernetzen und Ein-

hang nachmodellieren und damit theoretisch jedes

gangssignale synchron zu verarbeiten. Außerdem hat

Problem lösen kann. Durch enorme Fortschritte im

man in der Architektur künstlicher neuronaler Netze

Aufbau und der Funktionsweise dieser künstlichen

berücksichtigt, dass sie, ähnlich den biologischen

neuronalen Netze, aber auch durch immer massivere

Vorbildern, nicht jeden Impuls weiterleiten, sondern

Datenbestände, die ein effektives Training unterstüt-

erst ab einer bestimmten Signalstärke eingehende Sig-

zen, sowie durch steigende Rechnerkapazitäten und

nale weiterleiten. Entsprechend kennen künstliche

effizientere Hardware haben diese Netze an enormer

Neuronen die Zustände „erregt“ und „gehemmt“. 43

Bedeutung gewonnen und sind zum Inbegriff für maschinelle Intelligenz geworden.

Der tatsächliche Aufbau eines ANN unterscheidet sich allerdings dann doch deutlich von organisch

Neuronale Netze kommen in unterschiedlichen

gewachsenen Nervenzellen und dem menschlichen

Formen und Architekturen vor; sie sind je nach

Gehirn, denn biologische Nervenzellen wachsen und

40

IDEO: „Fontmap“, http://fontmap.ideo.com (20.4.2022).

41

Experiments with Google: „Runway Palette“, https://experiments.withgoogle.com/business-of-fashion (20.4.2022).

42

Rashid, Tariq: Neuronale Netze selbst programmieren, Heidelberg: dpunkt.verlag 2017, S. 31.

43

Alpaydin: Machine Learning, S. 87.

Kapitel 2: Grundfragen künstlich-intelligenter Systeme Eingabeschicht

Versteckte Schicht

Ausgabeschicht

N 1.0

vernetzen sich. Durch das Wachstum wird bestimmt,

N 0.0

N 1.1

welche und wie viele Zellen sich vernetzen und

N 2.0

damit auch, welche mehr oder weniger komplexen N 1.2

Funktionen Organismen ausführen können. 44 Künstliche neuronale Netze müssen mit mathematischen

N 0.1

und informatischen Methoden solche Vernetzungen

N 1.3

nachempfinden. Diese Differenz ist entscheidend, will man sachlich über die Qualität der Intelligenz urteilen, die mit diesen Methoden möglich wird.

N 2.1 N 0.2

N 1.4

Während also in der Natur durch Zellwachstum entschieden wird, welche Zellen miteinander Ver-

N 1.5

bindungen eingehen, wird bei einem ANN einfach im Vorfeld festgelegt, wie viele Neuronen ein solches Netz besitzen soll. Ein ANN besteht aus einer Einga-

Abb. 2.4: Prinzip eines künstlichen neuronalen Netzes

beschicht, die Daten zur Verfügung gestellt bekommt, während in der Natur die Zellen Umweltreize aufneh-

erregten Zustand weiter oder unterdrücken sie in

men und in einem komplex vernetzten System wei-

einem gehemmten Zustand. Am Ende laufen dann

tergeben. Künstliche neuronale Netze haben neben

starke, schwache oder keine Signale in alle Neuro-

der Eingabeschicht noch zwei weitere Komponenten,

nen der Ausgabeschicht. In dieser Ausgabeschicht

eine oder mehrere versteckte Schichten und eine

findet dann die eigentliche Klassifizierung statt.

Ausgabeschicht. In einem ANN sind in der Regel alle

Jedes Neuron in der Ausgabeschicht steht für eine

Neuronen in einer Schicht mit allen Neuronen in der

Klasse, die das neuronale Netzwerk lernt. Beispiels-

darauffolgenden Schicht vernetzt. Man spricht daher

weise können handgeschriebene Großbuchstaben

auch von „Fully Connected Networks“. Im Gegensatz

klassifiziert werden. Dann gibt es 26 Neuronen in

zu ihren organischen Vorbildern, wo nicht benötig-

der Ausgabeschicht und das erste Neuron klassifi-

te Verbindungen einfach nicht entstehen, erweisen

ziert den Buchstaben A, das letzte entsprechend den

sich irrelevante Verbindungen in einem ANN erst im

Buchstaben Z. Bekommt das richtige Neuron je nach

Nachhinein; sie werden gehemmt, also nicht benutzt,

zu klassifizierendem Buchstaben in der Ausgabe-

und existieren dann nur noch pro forma als Verbin-

schicht den Wert eins, hat das neuronale Netz richtig

dung weiter. In Abbildung 2.4 sieht man das verein-

klassifiziert. Ist der zu bestimmende Buchstabe ein

fachte Schema eines neuronalen Netzes mit einer

handgeschriebenes A, muss also das erste Neuron

einzigen versteckten Schicht.

der Ausgabeschicht den Wert eins bekommen. Dass

45

es richtig klassifiziert hat, weiß das neuronale Netz, Jede Schicht besteht aus mehreren sogenannten

weil es ein Supervised-Learning-Verfahren ist und zu

Neuronen, in der Abbildung mit N bezeichnet. Wie

jedem Trainingsbeispiel auch erfährt, was die richtige

bereits erwähnt, leiten sie Eingangssignale in einem

Kategorie für den Buchstaben ist.

44 Mainzer, Klaus: Gehirn, Computer, Komplexität, Berlin, Heidelberg: Springer Verlag 1997, S. 15. 45 Der Terminus „versteckt“ ist etwas merkwürdig, geht aber darauf zurück, dass die Schichten nicht direkt einsehbar sind, wenn man nur die Eingangs- und Ausgangswerte kennt. Der Begriff hat sich aber als feststehender Fachbegriff etabliert und wird sehr häufig verwendet.

Kapitel 2: Grundfragen künstlich-intelligenter Systeme

32

Damit die Neuronen die richtigen Werte an die

neuronale Netz sorgt mit den Neuronen also dafür,

richtigen Ausgabeneuronen senden, sind alle Neuro-

dass die Signale verstärkt oder geschwächt werden,

nen der versteckten Schicht zu kleinen Rechen-

und zwar so lange, bis sie richtig eingestellt sind und

maschinen gemacht worden. Schaut man sich ein

nur die relevanten Signale mit den richtigen Werten

Neuron, beispielsweise das oberste aus der versteck-

durch die relevanten Neuronen hindurchgelassen

ten Schicht, hier mit N 1.0 bezeichnet, in Abbildung

werden. Auf diese Weise kommen dann am Ende des

2.5 genauer an, dann sieht man, dass die drei Ein-

Trainings die korrekten Zahlenwerte in der Ausgabe-

gangssignale nicht einfach zufällig hindurchgeleitet

schicht an den richtigen Neuronen an und der hand-

oder gestoppt werden.

geschriebene Buchstabe wird dann richtig klassifiziert. Die Gewichte sind zentral bei der Anpassung der Netzwerke; hier findet das eigentliche Lernen statt. Zu Beginn der Lernphase werden die Gewichte zufällig bestimmt und dann im Laufe der Lernphase

N 1.0

i0

Summe

W2

Die gewichteten, also mit den Gewichten verrech-

1

W1

i1

Output

W0

immer weiter optimiert.

neten Eingangssignale werden dann in einem zwei-

0 W0+W1 +W2+b

ten Schritt zu einem einzigen Wert zusammenaddiert,

Input

denn das Neuron kann im Weiteren nur einen Wert weiterverarbeiten. Zu dieser Summe wird ein vierter

b

Summand addiert, das sogenannte Bias, das in der

i2

Abbildung mit b gekennzeichnet ist. 47 An dieser Stelle kann man das Bias allerdings für die Erklärung der Wirkungsweise vernachlässigen.

Abb. 2.5: Detail der Funktion eines Neurons in der versteckten Schicht

Im letzten Schritt wird der summierte Wert dann Alle drei Eingangswerte werden mit drei Fakto-

noch einmal überprüft und geschaut, ob er hoch

ren, sogenannten Gewichten oder englisch Weights,

genug ist, damit das Neuron wirklich aktiviert wird,

multipliziert, die in der Abbildung mit „w0“ bis „w2“

oder ob das Neuron unterdrückt bleibt. Eine solche

gekennzeichnet sind. Durch diese Gewichte, die von

Aktivierungsfunktion wird in jedem Neuron der ver-

ihren Zahlenwerten her in der Regel zwischen –1 und

steckten Schicht als Letztes ausgeführt. Die Funk-

2 liegen, werden die Eingangssignale verstärkt oder

tion ist zuständig dafür, in einem erregten Zustand

abgeschwächt. Multipliziert man mit einer negati-

Signale weiterzuleiten und sie in einem inhibito-

ven Zahl über eins, werden die Signale stark abge-

rischen Zustand zu unterdrücken. Dies passiert in

schwächt. Bei Zahlen zwischen null und eins werden

Abbildung 2.5 über eine Schwellenwertfunktion, die

in der Multiplikation die Signale leicht unterdrückt

die Eigenschaft hat, dass sie bis zu einem bestimmten

und bei Zahlen über eins werden sie verstärkt. Das

Eingangswert alle Signale unterdrückt und erst wenn

46

46 Breuer: Computerspiele programmieren, S. 62.

47 Das Bias sollte an dieser Stelle nicht verwechselt werden mit der technisch bedingten Befangenheit solcher Netzwerke, die ebenfalls Bias genannt und in einem späteren Kapitel ausgeführt wird. 48 Breuer: Computerspiele programmieren, S. 62.

Kapitel 2: Grundfragen künstlich-intelligenter Systeme

33

der Wert überschritten ist, das Signal als Ausgangs-

sechs Neuronen alle den Wert null übergeben bekom-

wert weiterleitet. Ist also das Eingangssignal stark

men. Erst das siebte Neuron in der Eingabeschicht

genug, „feuert“ auch das Neuron und leitet den Wert

bekommt den Wert eins, weil dort das Dach des

an die Ausgabeschicht weiter. Insgesamt wirken also

Buchstaben A in einen schwarzen Pixel und den Wert

alle Neuronen in der versteckten Schicht als Ein- und

eins übersetzt wurde. Für alle handgeschriebenen

Ausschalter, die jeweils konkrete Werte weiterleiten

Buchstaben bleibt insgesamt die Zahl der Pixel gleich,

oder blockieren. Je nachdem welche Werte durch

doch es verändert sich natürlich je nach Handschrift

die Neuronen blockiert oder weitergeleitet werden,

und Buchstabe der Wert für jedes einzelne Pixel. Eine

erhalten die Neuronen der Ausgabeschicht ihre

zweite Person schreibt das A vielleicht so, dass schon

Ergebnisse.

der zweite Pixel den Wert eins bekommt. Das neuro-

48

49

nale Netz besitzt die Fähigkeit, für jede Handschrift Schon hier wird die Universalität des Verfahrens

immer den Buchstaben A zu erkennen, wenn ein A

deutlich, eine beliebige Art von Eingabedatum mit

geschrieben und trainiert wurde.

einem spezifischen Ausgabedatum sinnvoll zu verknüpfen. 50 So können wie in dem zitierten Beispiel

Die versteckte Schicht in der Mitte besteht in

handgeschriebene Buchstaben richtig klassifiziert

der Abbildung nur aus einer einzelnen Schicht mit

werden. Es können aber auch Fotografien und Bild-

50 Neuronen. Die Ausgabeschicht besteht aus 26

beschreibungen verknüpft werden, Sprachlaute und

Neuronen, eins für jeden Buchstaben im Alphabet.51

Buchstaben oder Töne und Farben.

Insgesamt hat das neuronale Netz also drei Schichten. Die Zahl der Schichten hängt in der Regel von der

Die Abbildung 2.6 auf der folgenden Seite zeigt

Komplexität des zu lernenden Zusammenhangs von

den Ausschnitt eines „Fully Connected ANN“, das in

Eingangs- und Ausgangsdaten ab. Je größer das Netz-

der Lage ist, von Hand geschriebene Buchstaben zu

werk, umso besser kann ein neuronales Netz statisti-

erkennen und den Klassen „A“ bis „Z“ zuzuordnen.

sche Zusammenhänge abbilden.

Die Buchstaben haben eine Auflösung von acht mal acht Pixeln, wobei jedes Pixel in einen Zahlenwert

Die Eingangswerte werden nun wie oben beschrie-

überführt wird und als Eingangssignal für die Einga-

ben verarbeitet und in die jeweils nächste Schicht

beschicht fungiert. Die weißen Pixel bekommen den

übergeben, bis sie dann an die Ausgabeschicht ge-

Wert null, die schwarzen Pixel den Wert eins. Damit

langen. Man nennt diese Netzwerke deshalb auch

ergeben sich für die Eingabeschicht 64 Neuronen, für

vorwärtsgerichtete Netzwerke oder Feed Forward

jedes Pixel ein Neuron. Im Beispiel des handgeschrie-

Networks. Wie weiß ein neuronales Netz nun, welche

benen Buchstaben A ist zu erkennen, dass die ersten

Neuronen es aktivieren, welche es hemmen muss?

49 Deutlich wird, dass man mit diesem Prinzip die informatischen Operatoren UND, ODER, EXKLUSIVES-ODER (XOR) abbilden kann. Im Grunde ist ein künstliches neuronales Netz also eine universelle Rechenmaschine bestehend aus lauter AND-, OR- und XOROperatoren, die die abstrakten Regeln einer n-dimensionalen Funktion „lernt“, indem sie diese Operatoren anpasst. 50 Oder in der Sprache der Data Scientists: Es wird deutlich, dass man einen beliebigen Input-Vektor sinnvoll auf einen OutputVektor abbilden kann. Siehe Goodfellow, Ian/Bengio, Yoshua/ Courville, Aaron: Deep Learning, Cambridge: MIT Press 2016, S. 167.

51 Sonderzeichen und Umlaute werden hier der Einfachheit halber nicht mitgezählt.

Kapitel 2: Grundfragen künstlich-intelligenter Systeme

Handgeschriebener Buchstabe

Digitale Konvertierung

0

0

0

0

0

0

1

0

0

0

0

0

0

0

1

0

Erste Zeile

0

0

0

0

0

1

1

0

Zweite Zeile

0

0

0

0

1

1

1

0

0

0

0

1

1

0

1

0

0

0

1

1

1

1

1

0

0

1

1

1

0

1

1

0

0

1

0

0

0

1

1

0

1

1

0

0

0

1

1

0

Resultierende Daten

Abb. 2.6: Übersicht eines künstlich neuronalen Netzes, das von Hand geschriebene Buchstaben erkennen kann

35

Eingabeschicht

Versteckte Schicht

Ausgabeschicht

0

0,27

„A“

0

0,82

„B“

0

0,1

„C“

0

0,09

„D“

0

0,12

„E“

0

0,01

„F“

1

0,1

„G“

0

0,11

„H“

Erster Wert der ersten Zeile

0

Erster Wert der zweiten Zeile 0

0

Kapitel 2: Grundfragen künstlich-intelligenter Systeme

36

Es führt einfach die Rechenoperationen aus, die

das heißt schrittweise in ihrem Wert angepasst. Zur

in den Neuronen der versteckten Schicht angelegt

Erinnerung: Liegt der Gewichtswert über eins, dann

wurden. Das erste Neuron der versteckten Schicht

verstärkt sich auch der Eingangswert für das jeweili-

in dem Beispiel bekommt also 64 Eingangswerte,

ge Neuron, liegt er unter eins, schwächt man sie und

davon haben 38 den Wert null und 26 den Wert eins.

senkt damit den Eingangswert, der durch die Neuro-

Jeder Wert wird mit seinem Gewicht multipliziert,

nen verarbeitet wird.

dann werden alle Werte addiert und zum Schluss wird geschaut, ob der Wert hoch genug ist, damit die

Um die Gewichte zu optimieren, muss aber zu-

Aktivierungsfunktion den Wert an die Neuronen der

nächst einmal erkannt werden, in welche Richtung

Ausgabeschicht weitergibt.

ein Gewicht verändert werden muss, denn das Netzwerk weiß nicht automatisch, ob es die Werte der

Am Ende der allerersten Vorwärtsbewegung

Gewichte senken oder erhöhen muss. Dafür muss ein

der Daten von der Eingabeschicht zur versteckten

Fehler ermittelt werden zwischen einem Istwert, den

Schicht hin zur Ausgabeschicht bekommen die Neu-

das neuronale Netz ermittelt, und dem Sollwert, also

ronen der Ausgabeschicht einen Wert übergeben, der

der richtigen Klassifikation des handgeschriebenen

das Ergebnis der Klassifikation nach einem einzigen

Buchstaben. Dafür werden die aktuell gelieferten

Trainingsdurchlauf für das erste Trainingsbeispiel,

Werte der Ausgabeschicht mit dem Label der Trai-

den Buchstaben A, darstellt. Diese Anfangswerte

ningsdaten verglichen, denn neuronale Netze lernen

für den Buchstaben A, die durch das Netzwerk ver-

im Supervised-Learning-Verfahren.

arbeitet und weitergegeben wurden, führen anfangs gar nicht zur richtigen Klassifikation. Das Netzwerk

In dem Beispiel des handgeschriebenen Buch-

bestimmt im ersten Durchlauf das A noch als B,

staben hat das Netz am ersten Neuron der Aus-

weil die Gewichte, wie erwähnt, zufällig bestimmt

gabeschicht, dem Neuron, das den Buchstaben A

wurden. Dies hat seinen Grund darin, dass man noch

klassifiziert, den Wert 0,27 bekommen. Am zweiten

nicht weiß, wie die Gewichte wirklich einzustellen

Ausgabe-Neuron, dem Neuron, das den Buchstaben

sind. Man überlässt es dem Netzwerk, das erst durch

B klassifiziert, kam der Wert 0,82 an. Alle anderen

seine Optimierung herauszufinden, also zu lernen. Es

Neuronen haben nur sehr geringe Werte bekommen,

ist klar, dass hier viele Tausend Durchläufe benötigt

die zwischen 0,1 und 0,001 lagen und damit zu ver-

werden, bis das Netz vollständig gelernt hat, welche

nachlässigen sind. Das ANN hat also mit nur 27-pro-

Gewichte zur korrekten Klassifikation führen.

zentiger Sicherheit ein A erkannt, stattdessen hat es mit 82-prozentiger Sicherheit auf den Buchstaben

Die spannende Frage ist nun, wie die Gewichte op-

B getippt. 52 Das ist aber falsch, denn das Eingangs-

timiert werden, also welchen Wert die jeweiligen Ge-

datum war ein handgeschriebenes A, und somit wird

wichte haben müssen, damit sie zu einem richtigen

deutlich, dass das Netz weiter trainiert werden muss.

Ergebnis führen. Die Gewichte werden in den Neuro-

Das ist nach dem allerersten Durchlauf beim statisti-

nen der versteckten Schicht sukzessive optimiert,

schen Lernen auch keine Überraschung. Der Aus52 Die Zahlen sind ganz offensichtlich ausgedacht und sollen hier nur das Prinzip verdeutlichen. Wer sehen möchte, welche Werte tatsächlich bei einem MNIST ANN herauskommen, dem sei das Processing-Tutorial „Let’s Code a Neural Network From Scratch“ von Charles Fried empfohlen, https://medium.com/typeme/lets-code-a-neural-network-from-scratchpart-1-24f0a30d7d62 (20.4.2022).

Kapitel 2: Grundfragen künstlich-intelligenter Systeme

37

gabefehler für den Buchstaben A im ersten Ausgabe-

das ganze Gelände. Der oben ermittelte Fehler wird

Neuron ist demnach die Differenz zwischen 0,27, dem

nun in eine einfache Funktion gegeben und der Gra-

tatsächlichen Ausgabewert, und 1,0, dem Solltrai-

dient, also der Abstieg des Geländes, dazu ermittelt.

ningswert, den das Label beim Supervised Learning

Ist der Gradient positiv, muss der Wert des Gewichts

vorgibt. Allerdings kann man nicht einfach den

verringert werden, ist er negativ, muss er erhöht wer-

Ausgabefehler nehmen und jedes einzelne Gewicht

den. Das geschieht schrittweise und die sogenannte

um diese Differenz reduzieren, denn die Gewichte

Lernrate gibt an, in welchen Abständen die Gewichte

waren letztlich dafür zuständig, die Werte zu bestim-

optimiert werden. 57 Denn sind die Schritte und damit

men. Für den Fehler sind also viele unterschiedliche

die Lernrate zu groß, läuft man Gefahr, das Optimum

Gewichte mit jeweils unterschiedlichen Anteilen

immer zu übergehen und den Berg wieder hinaufzu-

verantwortlich und daher muss das neuronale Netz

steigen; ist die Lernrate zu klein, dauert das Training

auch die Gewichte so anpassen, wie sie anteilig zum

zu lange. Das Gradientenverfahren optimiert hin zu

Fehler beigetragen haben. In dem Beispiel sind also

einem Fehlerminimum für jedes einzelne Gewicht

in einer versteckten Schicht mit 50 Neuronen, die

im neuronalen Netzwerk. Wurde das Gewicht ein

jeweils 64 Gewichte haben, für jedes Signal der Ein-

paarmal optimiert, heißt das allerdings nicht, dass das

gabeschicht 3.200 Gewichte auf ihre Fehler zurück-

ANN auch schon alle Buchstaben im Alphabet richtig

zuverfolgen. Es ist also notwendig, für jedes einzelne

klassifiziert. Es bedarf oft vieler Tausend Trainings-

Gewicht zurückzuverfolgen, welchen Beitrag es am

durchgänge, sogenannter Epochen, um ein Netzwerk

Gesamtfehler des Ausgabe-Neurons hatte. Diese

auszutrainieren.

53

Fehlerrückführung, englisch Backpropagation genannt, passiert entgegen der Richtung, in der die Eingabe-

Nimmt man nun Testdaten, für die das Netzwerk

werte verarbeitet und weitergegeben wurden. Dies

noch nicht das richtige Ergebnis kennt, die aber mit

kann man für alle Gewichte im ANN machen und so

der nun gelernten Funktion ermittelt werden können,

die konkreten Fehleranteile der Gewichte ermitteln.

kann es mit hoher Sicherheit das richtige Ergebnis

Um nicht in endlose Berechnungen zu verfallen, die

prognostizieren. Im Beispiel wären das handgeschrie-

Jahre an Rechenzeit benötigen, werden die richtigen

bene Buchstaben beispielsweise von einer anderen

Gewichte nicht exakt berechnet, sondern mit einer

Person, mit denen das Netzwerk nicht trainiert

Optimierungsfunktion schrittweise einem Optimum

wurde, die es also noch nicht kennt. Neuronale Netze

angenähert. Die Funktion für diese Annäherung ist

können aber auch den Preis eines Grundstücks be-

bei ANNs oft ein sogenanntes Gradientenabstiegs-

stimmen oder in einem digitalen Bild Tiere entde-

verfahren oder Verfahren des steilsten Abstiegs.

cken.

54

55

Dieses Verfahren nähert sich einem Minimum, ohne die komplexe Funktion, die es optimiert, verstehen zu

Aber selbst wenn das Netzwerk fertig trainiert ist,

müssen. Es ist vergleichbar mit einem Bergabstieg

heißt das nicht, dass es keine Fehler mehr macht. Es

im Dunklen mit einer Taschenlampe. Man sieht nur

liegt an der Qualität der Optimierungsfunktion, ein

in unmittelbarer Nähe, wo es hinabgeht, nicht aber

fast exaktes Fehlerminimum zu finden, das darüber

56

53 Rashid: Neuronale Netze selbst programmieren, S. 59.

57

Brownlee, Jason: „Understand the Impact of Learning Rate on

54 Rashid: Neuronale Netze selbst programmieren, S. 72.

Neural Network Performance“, https://machinelearningmastery.com/

55 Für eine Übersicht der verschiedenen Gradientenverfahren siehe

understand-the-dynamics-of-learning-rate-on-deep-learning-neural-

Ruder, Sebastian: „An overview of gradient descent optimization algorithms“, https://arxiv.org/abs/1609.04747 (20.4.2022). 56 Rashid: Neuronale Netze selbst programmieren, S. 73.

networks (20.4.2022).

Kapitel 2: Grundfragen künstlich-intelligenter Systeme

38

entscheidet, ob und wie genau ein neuronales Netz

ren. Diese hochdimensionalen Datenräume haben

klassifizieren kann. Eine 100-prozentige Genauigkeit

Forscher:innen dazu motiviert, sehr tiefe neuronale

wird man mit einem neuronalen Netz wegen dieser

Netze, sogenannte Deep Neural Networks,60 und

Optimierungsverfahren allerdings nie erreichen.

unterschiedliche Verfahren des Deep Learnings zu

Je nach Anwendungskontext bedarf es aber einer

entwickeln, die in den folgenden Kapiteln besprochen

solchen exakten Genauigkeit oft nicht. In manchen

werden sollen. Zwar konnte man den komplexen

kritischen Kontexten, wie etwa im medizinischen

Aufgaben mit Deep Learning beikommen, doch der

Bereich bei der Krebsdiagnose, können allerdings

„Fluch der Dimensionalität“ 61 hat gleichzeitig dazu

schon geringe Fehlertoleranzen schwerwiegende Fol-

geführt, dass auch die Zahl der Trainingsdaten erhöht

gen haben. Dies gilt es bei der Anwendung der ANN

werden und Tausende von Trainingsbeispielen zur

im Auge zu behalten.

Verfügung stehen mussten.

Trotz angebrachter Vorsicht bezüglich seiner Prog-

Convolutional Neural Networks

nosegenauigkeit hat man mit dem neuronalen Netzwerk nichts Geringeres als eine universelle Rechen-

Um dem Fluch der Dimensionalität bei der Bild-

maschine geschaffen, die prinzipiell jeden komplexen

erkennung zu entkommen, wurden Convolutional

Zusammenhang, jede multidimensionale Beziehung

Neural Networks, kurz CNN, entwickelt, die nicht

von Eingangs- und Ausgangswerten durch ihre

mehr voll untereinander vernetzt sein müssen, wie

Neuronenstruktur abbilden und dadurch das innere

noch die ANNs. Die CNNs sind ebenfalls Feed-For-

Gesetz der Daten nachahmen kann. Mit anderen

ward-Netze, 62 aber sehr spezielle, die hochdimen-

Worten kann man mit den neuronalen Netzwerken

sionale Daten verarbeiten und in ihrer Komplexität

jedes Eingabedatum mit jedem Ausgabedatum sinn-

reduzieren, um Bildinhalte zu klassifizieren. Bilder zu

voll verbinden. Damit hat man eine Rechenmaschine,

erkennen ist für Rechenmaschinen keine triviale Auf-

die universell jeden tatsächlichen Zusammenhang

gabe. Menschen erkennen einen Hund auf einem Bild

von Daten lernen und vorhersagen kann.

in Bruchteilen einer Sekunde. Eine Maschine kann

58

diese Abstraktionen von „Das ist ein Hund“ nicht Für einige sehr komplexe Aufgaben wie Sprach-

ohne Weiteres vornehmen. Sie „kennt“ das Bild als

und Bilderkennung reichen neuronale Netzwerke

viele Tausend Zahlenwerte, die die Farben Rot, Grün

mit nur einer versteckten Schicht allerdings nicht

und Blau jedes einzelnen Pixels repräsentieren. Diese

aus. Neue, noch unbekannte Daten zu generalisieren

große Menge an Zahlen wird in sogenannten Matri-

und zu erkennen, wird exponentiell schwieriger,

zen gespeichert. Matrizen, oder im Singular Matrix,

wenn man mit Daten arbeitet, die nicht nur ein

sind zweidimensionale Container, in der die Zahlen

oder zwei Eigenschaften haben, sondern sehr viele

horizontal und vertikal angeordnet sind. Program-

Dimensionen. Schon für ein 1.000 mal 1.000 Pixel

miersprachen können diese Container verarbeiten,

großes Bild mit den drei Farbkanälen Rot, Grün und

indem sie beispielsweise den Auftrag bekommen, die

Blau sind über drei Millionen Gewichte zu optimie-

Matrizen miteinander zu multiplizieren. Eine solche

59

58

Eine interaktive Darstellung eines ANN findet sich hier:

60 Tiefe neuronale Netze haben in der Regel mehr als zwei

http://playground.tensorflow.org. 59

Goodfellow/Bengio/Courville: Deep Learning, S. 155.

versteckte Schichten. 61

Goodfellow/Bengio/Courville: Deep Learning, S. 155.

62 Goodfellow/Bengio/Courville: Deep Learning, S. 168.

Kapitel 2: Grundfragen künstlich-intelligenter Systeme

39

Matrixmultiplikation, die im Deutschen „Faltung“

Dieses Prinzip voneinander unabhängig gesuch-

heißt, wird im Englischen „Convolution“ genannt,

ter Low-Level-Features, die zu immer komplexeren

woher die Convolutional Neural Networks ihren

Formen zusammengesetzt werden, ist ähnlich wie

Namen erhalten haben.

bei den ANNs lose der Natur entnommen, denn auch die Neuronen im visuellen Cortex, derjenigen Region

Die mathematische Operation der Faltung besteht

der Großhirnrinde, die die visuelle Wahrnehmung

im Grunde aus einer elementweisen Multiplikation

ermöglicht, sind nicht alle gleichzeitig erregt. Sie

von zwei Matrizen. In der Abbildung 2.7 auf der Fol-

werden nach bestimmten Gesetzen aktiviert. So sind

geseite sind diese Matrizen rechts des Hundebildes

manche Neuronen aktiv, wenn sie horizontale Kanten

abgebildet. Die erste Matrix beinhaltet die Pixelwerte

sehen, andere, wenn sie vertikale Kanten erkennen. 64

eines Bildausschnittes, die zweite Matrix ist der so-

Die erste wesentliche Leistung der Matrixmultiplika-

genannte Faltungskern, der auch Filter oder Kernel

tion ist also, dass sie die visuellen Eigenschaften des

genannt wird. Der Faltungskern ist eine weitere

Bildes verstärken und herausfiltern kann. Die zweite

kleine Matrix, bestehend aus Zahlenwerten, die die

Leistung der gesamten CNN-Technologie ist, dass

Faktoren für die Multiplikation mit den Pixelwerten

die Faltungskerne, die für diese Operation zuständig

bilden. Stück für Stück bewegt sich nun der Faltungs-

sind, sich selbst durch eine Optimierungsfunktion

kern über den Bildausschnitt, führt die elementweise

einstellen, die hier nicht weiter erklärt werden soll.65

Multiplikation durch und errechnet so neue Werte.

Damit können sie selbst die besten Zahlenwerte

Die Operation der Faltung erlaubt es so, die Pixelwer-

finden, die sie in der Matrixmultiplikation benötigen,

te des Bildausschnitts zu filtern und so anfänglich

um die relevanten Bildeigenschaften mathematisch

bestimmte niedrigschwellige Eigenschaften, die soge-

zum Vorschein zu bringen. Letztlich können CNNs

nannten Low-Level-Features, des Ausschnitts heraus-

damit jedes noch so komplexe Verhältnis formaler

zuarbeiten. So kann mittels Faltung ermittelt werden,

Bildinhalte und ihrer Wechselbeziehungen durch

ob Kanten, Rundungen oder Ecken im Bild existieren.

Optimierungs- und Lernvorgänge erkennen und aus-

Basierend auf diesen rechnerisch verstärkten Eigen-

werten.

schaften des Bildes wird eine Funktion aktiviert, die sogenannte Activation Map oder Feature Map, die

Das CNN besteht also folgerichtig am Anfang aus

die neu errechnete Matrix mit den herausgefilterten

Schichten, die die einzelnen Bildausschnitte auf ihre

Eigenschaften an die nächste Schicht weitergibt. Auf

simplen Eigenschaften hin untersuchen und dann

diese Weise können immer abstraktere Zusammen-

immer komplexere und abstraktere Zusammenhänge

hänge des Bildes, beispielsweise komplexe Beziehun-

der Bilder entdecken. Man bedarf dabei keines voll-

gen von Augen- und Schnauzenformen beim Hund,

umfänglich verbundenen Netzes, weil viele Bildberei-

erkannt werden. 63

che gar nicht miteinander im Zusammenhang stehen.

63 Deshpande, Adit: „A Beginner‘s Guide To Understanding Convolutional Neural Networks“, https://adeshpande3.github.io/ adeshpande3.github.io/A-Beginner‘s-Guide-To-UnderstandingConvolutional-Neural-Networks (20.4.2022).

64 Deshpande: A Beginner‘s Guide. 65 Otte, Ralf: Künstliche Intelligenz für Dummies, Weinheim: Wiley VCH 2019, S. 268.

Kapitel 2: Grundfragen künstlich-intelligenter Systeme

40

Faltungsschichten

Feature Map für Ausschnitt in erster Schicht

Faltungskern

15

0

7 6

6 4

5 5 6 7

3 2 2 4 6

-1

5 5 3 3 3 3 5

6 4

3 3 3 5

0 7

-1 5 -1

0 -1 0

6 2 2 4 6

5 5 6 7

Abb. 2.7: Übersicht eines vollständigen Convolutional Neural Network, CNN

Kapitel 2: Grundfragen künstlich-intelligenter Systeme

41

Schichten Schichten desdes neuronalen neuronalen Netzes Netzes

Klassifikation Klassifikation

1000 1000 Klassen Klassen Wahrscheinlichkeit Wahrscheinlichkeit 0-100% 0-100%

Max-Pooling Max-Pooling

x1 x1 x2 x2 x3 x3

Beagle Beagle

Bodeguero Bodeguero

x4 x4 Dalmatiner Dalmatiner

x5 x5 x6 x6

Mops Mops

Labrador Labrador

Pitbull Pitbull

Rehpinscher Rehpinscher

Whippet Whippet

Kapitel 2: Grundfragen künstlich-intelligenter Systeme

42

Der Hund auf dem Bild ist im Vordergrund, und der

mehrere Tausend Neuronen und bekommt die vielen

Hintergrund ist unwichtig für die Klassifikation.

kleinen Bildausschnitte als Zahlenwerte geliefert

Wenn der Hund auf einem weit entfernten Stuhl sitzt

(in der Abbildung x1, x2 usw.), die Ausgabeschicht

oder in einer Makroaufnahme zu sehen ist, soll der

nur noch 1.000 Neuronen; sie kann also Bildinhalte

Algorithmus das Tier trotzdem richtig klassifizieren

für 1.000 unterschiedliche Klassen bestimmen. Das

können. Wichtig ist die charakteristische Form der

gesamte CNN wurde mit 1,2 Millionen Trainingsbei-

Schnauze, aber auch die typischen formalen Bezie-

spielen in 150.000 Dimensionen trainiert.66

hungen zwischen Schnauze, Auge und Körper. All das muss für eine bestimmte Hundeart ähnlich sein,

Trotz dieses beachtlichen Ergebnisses werden

egal wie der Hund im Bild positioniert ist. Deshalb

CNNs stetig weiterentwickelt und können mittler-

abstrahiert das CNN mit den Filtern hin zu dominan-

weile viele unterschiedliche Inhalte in einem einzi-

ten Bildeigenschaften. Man könnte auch sagen, dass

gen Bild erkennen. „Fully Convolutional Networks“ 67

die Filter als Identifikatoren für Bildeigenschaften

können sogar eine semantische Segmentierung

fungieren. Mittels Max-Pooling, eines Verfahrens zur

des Bilds vornehmen, erkennen also nicht nur ob,

Reduktion von Informationen und zur Ermittlung

ein Mensch oder Hund auf dem Bild zu sehen ist.

der interessantesten, in diesem Falle der maximalen

Modelle wie U-Net 68 oder Mask R-CNN 69 können

Werte, werden die Ausgabewerte der vorhergehenden

Bildobjekte mit ihrer tatsächlichen Position auf dem

Schicht zu den Eingabewerten der nächsten Schicht.

Bild bestimmen. Damit sind Anwendungen in vielen

Das CNN versucht also so lange Wichtiges von Un-

verschiedenen Bereichen möglich, angefangen bei der

wichtigem zu unterscheiden, bis alle Eigenschaften

Überwachung und Qualitätssicherung im Industrie-

nacheinander für sich erkannt und in immer komple-

kontext oder der Verkehrsüberwachung für auto-

xere Verhältnisse gesetzt wurden.

nomes Fahren über den Einsatz in medizinischen Diagnoseinstrumenten oder bei der Schrift-, Ge-

In Krizhevskys und Hintons berühmtem ersten

sichts- und Emotionserkennung bis hin zu Videofil-

CNN-Modell von 2012 hat das CNN insgesamt acht

tern in digitalen Consumerprodukten.

Schichten; die ersten fünf sind Faltungsschichten, die die Bildeigenschaften von simpel bis komplex

Interessanterweise sind CNNs nicht nur in der

erkunden. Die letzten drei Schichten bestehen aus

Lage, Bilder zu klassifizieren. Forscher bei Google

einem vollumfänglich verbundenen neuronalen Netz,

Brain haben herausgefunden, dass CNNs auch Bilder

das die komplexen Eigenschaften als Eingabedaten

generieren können, als sie versuchten, zu visualisie-

für ein neuronales Netzwerk bekommt. Dieses Netz-

ren, was das Netzwerk in einem bestimmten Bild er-

werk dient dann zur eigentlichen Klassifikation der

kennt. Das CNN wurde dazu gebracht, zu visualisie-

Bilder. Die Eingabeschicht des neuronalen Netzes hat

ren, was es als Objekt im Bild erkennt, und mit den

66 Krizhevsky, Alex/Sutskever, Ilya/Hinton, Geoffrey: „ImageNet classification with deep convolutional neural networks“, https://doi.org/10.1145/3065386 (20.4.2022). 67 Long, Jonathan/Shelhamer, Evan/Darrell, Trevor: „Fully Convolutional Networks for Semantic Segmentation“, https://arxiv.org/abs/1411.4038 (20.4.2022). 68 Ronneberger, Olaf/Fischer, Philip/Brox, Thomas: „U-Net: Convolutional Networks for Biomedical Image Segmentation“, https://doi.org/10.1007/978-3-319-24574-4_28 (20.4.2022). 69 He, Kaiming/Gkioxari, Georgia/Dollár, Piotr et al.: „Mask R-CNN“, https://ieeexplore.ieee.org/document/8237584 (20.4.2022).

Kapitel 2: Grundfragen künstlich-intelligenter Systeme

43

Informationen anzureichern, die es über das jeweilige

sentationen von beispielsweise Menschen erstellen.72

Objekt gelernt hat. Je nach Schicht des Netzwerkes,

Die Schwierigkeit bestand hier sowohl darin, flache

die man es verstärken lässt, sind die visuellen Er-

Bilder in räumliche zu übersetzen, als auch darin,

gebnisse, die es liefert, auch sehr verschieden. In den

nicht vorhandene Daten – wie etwa eine Rücken-

frühen Schichten sind die Formen, aus denen sich

ansicht bei einer von vorne fotografierten Person –

das Bild zusammensetzt, einfach und lassen viel von

sinnvoll zu ergänzen.

dem ursprünglichen Bild erkennen. In den späteren Schichten des Netzwerks werden sie komplexer und

Recurrent Neural Networks

die gelernten Eigenschaften überlagern daher das Ursprungsbild. In vielen Fällen hat das CNN ganz

Ein zweites großes Feld der Anwendungen, die für

neue Objekte erschaffen, wenn es in Bildern bild-

einfache ANNs schnell zu komplex wurden, ist die

fremde Objekte entdeckt hat. Ließ man das Netz

Spracherkennung und damit der Bereich, der in der

iterativ vorgehen und seine eigenen Ergebnisse als

Fachsprache Natural Language Processing genannt

neuen Input nehmen, entstanden absurde, aber sehr

wird. Anders als bei einem Bild, das räumlich in Pixel

interessante Bildwelten. Die Forscher tauften diese

aufgeteilt werden kann, operiert Sprache mit vielen

Entdeckung Inceptionism ; später wurde es unter

semantischen Einheiten, die sich zwar aufeinander

dem Namen Deep Dream bekannt. Eine zweite bild-

beziehen, aber zeitlich nicht immer aufeinander

gebende Verwendung der CNNs ist der sogenannte

folgen müssen. Einer solchen sequenziellen Komple-

Style Transfer.71 Hier nutzte man den Umstand, dass

xität gesprochener und geschriebener Sprache wurde

die CNNs sehr genaue visuelle Repräsentationen des

man dadurch Herr, indem man das neuronale Netz

Bildes lernen. Diese Repräsentationen liegen in den

so erweiterte, dass es die Temporalität und Sequen-

Feature Maps, also den durch Faltung errechneten

zialität der Sprache abbilden konnte. So wurden

Bildern, am deutlichsten vor. Man nutzte sie, um den

Netzwerkarchitekturen entwickelt, die keine reinen

Stil eines Input-Bildes zu erlernen und diesen dann

Feed-Forward-Netzwerke sind, sondern eingebaute

auf ein zweites Bild zu applizieren, indem man das

Feedback-Loops haben.73 Diese rückgekoppelte Sig-

Output-Bild im Stil des Input-Bildes rekonstruierte.

nalverarbeitung wird im Englischen als „recurrent“

So ließen sich beispielsweise Bilder des Malers

bezeichnet und gibt dem Netz seinen Namen: Recur-

Vincent van Gogh nehmen und dessen Stil auf eine

rent Neural Network oder kurz RNN. Die Daten, die

beliebige Fotografie einer Stadt applizieren. Entstan-

durch das Netzwerk hindurchgerechnet werden, kön-

den ist dann eine Stadtansicht, die einem Gemälde

nen damit an jedem Neuron der versteckten Schicht

van Goghs ähnelte. Eine dritte bildgebende Anwen-

für eine kurze Zeit gespeichert, zurück in dasselbe

dung der CNNs betrifft 3D-Bilder. In Kombination

Neuron als Input gegeben und damit nochmals ver-

mit einem zweiten Netzwerk können CNNs aus

wendet werden.

70

zweidimensionalen Fotos dreidimensionale Reprä-

70 Mordvintsev, Alexander/Olah, Christopher/Tyka, Mike: „Inceptionism: Going Deeper into Neural Networks“, https://ai.googleblog.com/ 2015/06/inceptionism-going-deeper-into-neural.html (20.4.2022). 71 Gatys, Leon/Ecker, Alexander/Bethge, Matthias: „A Neural Algorithm of Artistic Style“, https://arxiv.org/abs/1508.06576 (20.4.2022).

72 Saito, Shunsuke/Simon, Tomas/Saragih, Jason et al.: „PIFuHD: MultiLevel Pixel-Aligned Implicit Function for High-Resolution 3D Human Digitization“, https://shunsukesaito.github.io/PIFuHD (20.4.2022). 73 Skansi, Sandro: Introduction to Deep Learning. From Logical Calculus to Artificial Intelligence, Cham: Springer Nature 2018, S. 136.

Kapitel 2: Grundfragen künstlich-intelligenter Systeme

44

Durch parallele Verbindungen der Neuronen in

Weiterentwickelt wurden die LSTMs durch die

derselben Schicht einerseits und durch Verbindungen

Differentiable Neural Computer 77 und später durch

mit sich selbst andererseits sind RNNs in der Lage,

die sogenannten Transformer, die die Gedächtniska-

Sequenzen zu speichern und sequenzielle Eigenschaf-

pazität der Netzwerke noch einmal enorm erhöhten.

ten zu bestimmen. Das Kurzzeitgedächtnis, das diese

Aktuelle Modelle, wie das Transformer-Netzwerk

Netze damit besitzen, hat immense Vorteile für die

GPT-3 78 oder Google DeepMinds Compressive

Verarbeitung von Datensequenzen, die in der Sprache

Transformer 79, haben Milliarden von Neuronen und

in Form von Buchstaben- und Wortfolgen vorkom-

können ganze Buchinhalte in ihr informatisches

men.74 Je komplexer der Aufbau und die Verschrän-

Gedächtnis zwischenspeichern. Damit ist Sprachsyn-

kung dieser rückgekoppelten neuronalen Netze, umso

these möglich, die auf einem menschlichen Sprach-

weiter zurück können sich die Netzwerke erinnern

niveau liegt.

und umso genauer können sie die Komplexität der Sprache abbilden und simulieren.

RNNs werden hauptsätzlich eingesetzt, um Grammatik und Semantik in gesprochener oder ge-

Einfache RNNs mit einer versteckten Schicht

schriebener Sprache zu erkennen. So können sie als

können sich Informationen nicht sehr lange merken

Chatbots oder Personal Assistants Fragen beantwor-

und ganze Sätze zu analysieren war noch vor zwei

ten oder einfache Befehle ausführen. Zudem werden

Jahrzehnten eine große Herausforderung. Die beiden

RNNs für die Sentimentanalyse eingesetzt, um die

Forscher Sepp Hochreiter and Jürgen Schmidhuber

emotionale Verfasstheit der Schöpfer:innen von Pro-

haben daher 1997 eine Art von RNN entworfen,

duktrezensionen, Umfragen oder Social-Media-Inhal-

das sie „Long-Short Term Memory Network“, kurz

ten zu analysieren.

LSTM,75 tauften und das es erlaubte, durch eine Vielzahl von Aktivierungsfunktionen in einem einzigen

Kombiniert mit CNNs können RNNs semantische

Neuron selbst Informationen über lange Sequenzen

Bildinhalte sowie die Gesetze ihrer Anordnung und

hinweg zu gewinnen, zu behalten und wiederzu-

damit komplexe Layouts lernen. 80 In diesem Fall ver-

verwenden. Solche RNNs mit Langzeitgedächtnis

stehen RNNs die einzelnen Elemente eines Layouts,

können komplexe Satzstrukturen lernen, indem sie

also etwa Headline, Fotos oder Bildunterschriften, als

Wort für Wort durch den Satz gehen und das aktuelle

Elemente einer Sprache, deren Regeln das Netzwerk

Wort als Input nehmen und das jeweils nächste Wort

lernt. Das RNN hat damit im Grunde Gestaltungsre-

als Zielwert. Damit sind sie in der Lage, in unfertigen

geln für Editorial Design gelernt.

Sätzen diejenigen Wörter zu prognostizieren, die am wahrscheinlichsten auf eine gegebene Kette von Wörtern folgen werden.76 Eine Leistung, die heutzutage mit der Predictive-Text-Funktion in jedem Smartphone verwendet wird.

77 Graves, Alex/Wayne, Greg/Reynolds, Malcolm et al.: „Hybrid computing using a neural network with dynamic external memory“, https://www.nature.com/articles/nature20101 (20.4.2022). 78 Brown, Tom/Mann, Benjamin/Ryder, Nick et al.: „Language Models are

74 Skansi: Introduction to Deep Learning, S. 136. 75 Hochreiter, Sepp/Schmidhuber, Jürgen: „Long Short-Term Memory“, https://doi.org/10.1162/neco.1997.9.8.1735 (20.4.2022). 76 Skansi: Introduction to Deep Learning, S. 138.

Few-Shot Learners“, https://arxiv.org/abs/2005.14165 (20.4.2022). 79 Rae, Jack/Potapenko, Anna/Jayakumar, Siddhant et al.: „Compressive Transformers for Long-Range Sequence Modelling“, https://arxiv.org/ abs/1911.05507 (20.4.2022). 80 He, Zecheng/Sunkara, Srinivas/Zang, Xiaoxue et al.: „ActionBert: „Leveraging User Actions for Semantic Understanding of User Interfaces“, https://arxiv.org/abs/2012.12350 (20.4.2022).

Kapitel 2: Grundfragen künstlich-intelligenter Systeme

45

Große RNNs wie GPT-3 sind multimodale Netz-

klassifizieren. Das Generator-Netzwerk dagegen ist

werke und besitzen damit Neuronen, die konzeptba-

angehalten, den Discriminator möglichst geschickt zu

siert aktiviert werden. Das bedeutet, dass die Neuro-

täuschen, also die Wahrscheinlichkeit des Discrimi-

nen über einen großen Bereich hinweg für jeweils

nator-Netzes zu erhöhen, Daten falsch zu bestimmen.

einen Gegenstand aktiviert werden. GPT-3 kann

Das ganze System besteht aus tiefen neuronalen

dann beispielsweise eine Banane mit hoher Genauig-

Netzen, die ähnlich den einfachen neuronalen Netzen

keit nicht nur in den klassischen Fotos erkennen, wie

mithilfe von Backpropagation optimieren. Durch die

andere CNNs, sondern auch in Handzeichnungen,

Optimierung verbessern beide Netze sukzessive ihre

Comics, in Produkten anderer bildgenerierender

Methoden, sodass am Ende des Trainings die Origi-

Netze und natürlich als geschriebenes Wort. Damit

nale von der Fälschung nicht mehr zu unterscheiden

sind diese Netze besonders geeignet, Wort und Bild

sind. 83

81

auf neue Art zu verbinden. Kombiniert man sie mit einem zweiten bildgebenden Netzwerk, sind sie

Zu Beginn ihrer Karriere waren die Ergebnisse der

in der Lage, selbst komplexe Bilder durch Eingabe

GANs für das menschliche Auge noch sehr einfach

von Textbeschreibungen zu generieren. Die Firma

von einem echten Foto zu unterscheiden. Mittler-

OpenAI hat mit DALL·E eine Variante des RNN

weile wurden GANs unter anderem in Form des

entwickelt, die es erlaubt, qualitativ sehr hochwertige

StyleGANs 84 weiterentwickelt und ihre Ergebnisse

Bilder, Zeichnungen und Illustrationen aus geschrie-

können mit dem bloßen Auge nicht mehr von echten

benem Text zu generieren.

Bildern unterschieden werden. 85 Der Aufbau der

82

GANs wurde auch in Bezug auf die Merkmale der Generative Adversarial Networks

Bilder weiterentwickelt, die sie erschaffen können, denn früher näherte sich ein GAN den Trainings-

Ähnlich wie GPT-3 kann auch ein Generative Adver-

daten an, ohne in Features zu unterscheiden, also

sarial Network oder kurz GAN Bilder selbst generie-

ohne zu berücksichtigen, ob beispielsweise ein älterer

ren. Ein GAN besteht aus zwei Netzwerken, die in

Mann oder eine jüngere Frau generiert werden soll.

einem gegenläufigen Prozess aufeinander bezogen

Mit den Conditional Generative Adversarial Net-

und miteinander verknüpft sind. Das erste Netzwerk,

works, kurz cGANs, können die Bildgenerierung und

Generator genannt, erzeugt Bilder und übergibt sie

das Training an bestimmte Merkmale und Konditio-

dem zweiten Netz. Das zweite Netzwerk, Discrimina-

nen geknüpft werden, die in den Labels hinterlegt

tor genannt, versucht nun, zwischen den erzeugten

sind. 86 Auf diese Weise kann man die Bilderzeugung

Bildern aus dem Generator-Netzwerk und echten

steuern und inhaltlich anpassen und beispielsweise

Bildern, die es zusätzlich erhält, zu unterscheiden. Es

ältere Männer generieren, die warm und herzlich

ist darauf ausgelegt, die Fälschungen des Generators

wirken.

aufzudecken und nur die echten Bilder als solche zu

83 Goodfellow, Ian/Pouget-Abadie, Jean/Mirza, Mehdi et al.: „Generative Adversarial Nets“, https://arxiv.org/abs/1406.2661 (20.4.2022). 84 Karras, Tero/Aittala, Miika/Laine, Samuli et al.: „Alias-Free Generative 81 Open AI: „CLIP: Connecting Text and Images“, https://openai.com/blog/clip (20.4.2022). 82 Open AI: „DALL·E 2 is a new AI system that can create realistic images and art from a description in natural language“, https://openai.com/ dall-e-2 (20.4.2022).

Adversarial Networks (StyleGAN3)“, https://nvlabs.github.io/stylegan3 (20.4.2022). 85 This Person Does Not Exist: Random Face Generator. 86 Mirza, Mehdi/Osindero, Simon: „Conditional Generative Adversarial Nets“, https://arxiv.org/abs/1411.1784 (20.4.2022).

Kapitel 2: Grundfragen künstlich-intelligenter Systeme

46

Mit den cGANs sind eine Reihe interessanter

Es ist kein Wunder angesichts der Bandbreite

Anwendungen möglich. Bei der „Image-to-Image

bildgebender Anwendungen, dass die Kunst- und

Translation“, also der Übertragung eines Bildstils

Designwelt auf diese Netzwerke besonders angespro-

auf ein zweites Bild, das dann in diesem Stil darge-

chen hat und sie manchmal exklusiv und ungerecht-

stellt wird, können cGANs in ganz neue bildgebende

fertigtermaßen mit dem Label „künstliche Intelligenz“

Dimensionen vorstoßen. 87 Sie können verschiedene

assoziiert. GAN-basierte Kunst ist im Kunst-Main-

neue Funktionen bei der Bildübertragung ausführen,

stream angekommen und wird auf Auktionen

etwa ein Bild, das nur aus semantisch segmentierten

verkauft 94 und die Technologie wird für vielfältige

Bereichen oder architektonischen Labels besteht, in

Design- und Kunstprojekte benutzt. 95 Das Projekt The

ein realistisches Straßen- oder Fassadenbild zurück-

Next Rembrandt 96 beispielsweise versuchte, die Essenz

rechnen. Sie können Satellitenbilder in grafische

des bekannten Malers in neue Bilder zu transferieren,

Karten übertragen oder eine tagsüber aufgenom-

die aus seiner Hand entstanden sein könnten, was ge-

mene Straßenszene in ein Foto derselben Szene bei

wisse anachronistische Züge hat. Zur Umsetzung hat

Nacht verwandeln. Mit ihnen ist es auch möglich,

man Deep-Learning-Modelle ganz unterschiedlicher

Schwarz-Weiß-Zeichnungen zu kolorieren oder

Bauart benutzt. Neben neuronalen Netzen, die eine

Handzeichnungen in realistisch aussehende Objekte

demografische Analyse der Bildmotive vorgenommen

zu verwandeln. 88 Es gibt GANs, die fehlende Bereiche

haben, nutzte man CNNs, um die Gesichtszüge zu

eines Bildes ergänzen, handgezeichnete Porträts in

analysieren, und GANs, um sie neu zu generieren. Ein

fotorealistische Porträtfotografien transformieren90

Clustering-Algorithmus bestimmte dann die Ähn-

oder den Alterungsprozess simulieren. Auch für Vi-

lichkeit der neu geschaffenen Bilder mit den Origi-

deogenerierung und 3D-Objekte sind GANs sehr viel-

nalen. Am Ende setzte man von Menschenhand die

versprechend getestet worden. Sie können nicht nur

neuen Gemälde aus vielen einzelnen Ausschnitten

dreidimensionale Objekte generieren, sondern auch

zusammen, ließ für diese Konstellation das typisch

aus zweidimensionalen Vorlagen verräumlichen.

Rembrandt’sche Licht berechnen und anschließend

Mittlerweile benötigen diese Netzwerke nicht mehr

dreidimensional ausdrucken. Die komplexen An-

Millionen, sondern nur noch wenige Tausend Trai-

wendungen von statistischen Lernverfahren im

ningsbeispiele, um sehr gute Ergebnisse zu erzeugen,

Fall von The Next Rembrandt zeigen nicht nur die

was ihre Einsatzgebiete weiter verbreitert.

Vielzahl der Verfahren, sondern auch ihre Vorzüge

89

91

92

93

87 Isola, Phillip/Zhu, Jun-Yan/Efros, Alexei et al.: „Image-to-Image Translation with Conditional Adversarial Networks“, https://arxiv.org/ abs/1611.07004 (20.4.2022). 88 Isola/Zhu/Efros et al.: Image-to-Image Translation. 89 Yu, Jiahui/Lin, Zhe/Yang, Jimei et al.: „Generative Image Inpainting with Contextual Attention“, https://arxiv.org/abs/1801.07892 (20.4.2022). 90 Chen, Shu-Yu/Su, Wanchao/Gao, Lin et al.: „DeepFaceDrawing: Deep Generation of Face Images from Sketches“, http://geometrylearning.com/ DeepFaceDrawing (20.4.2022). 91 Antipov, Grigory/Baccouche, Moez/Dugelay, Jean-Luc: „Face Aging With Conditional Generative Adversarial Networks“, https://arxiv.org/ abs/1702.01983 (20.4.2022). 92 Wu, Jiajun/Zhang, Chengkai/Xue, Tianfan et al.: „Learning a Probabilistic Latent Space of Object Shapes via 3D Generative-Adversarial Modeling“, https://arxiv.org/abs/1610.07584 (20.4.2022). 93 Karras, Tero/Aittala, Miika/Hellsten, Janne et al.: „Training Generative Adversarial Networks with Limited Data“, https://arxiv.org/ abs/2006.06676 (20.4.2022).

94 Vincent, James: „A never-ending stream of AI art goes up for auction“, https://www.theverge.com/2019/3/5/18251267/ai-art-gans-marioklingemann-auction-sothebys-technology (20.4.2022). 95 This Artwork Does Not Exist: „This Artwork Does Not Exist“, https://thisartworkdoesnotexist.com (20.4.2022). 96 Mauritshuis: „The Next Rembrandt“, https://www.nextrembrandt.com (20.4.2022).

Kapitel 2: Grundfragen künstlich-intelligenter Systeme

47

für bestimmte Aufgaben. Neben den prominenten

gleichen oder nicht. Völlig zu Recht unterstreicht

neuronalen Netzwerkarchitekturen, die in diesem Ka-

der Computerwissenschaftler Tariq Rashid, dass sich

pitel besprochen wurden, gibt es noch eine Vielzahl

Klassifizieren nicht sehr vom Vorhersagen unter-

mehr, die hier nicht berücksichtigt werden können.

scheidet.98 Verfahren statistischen Lernens betreiben

Das Asimov Institute hat eine illustrierte Liste der

mit anderen Worten informierte Spekulation.

bekanntesten neuronalen Netze herausgegeben, die es den „Zoo der neuronalen Netze“ taufte und die die

Sie sind damit drittens gleichzeitig auch universel-

Vielfalt der Netze veranschaulichen soll.

le Schöpfer. Mit jeder Klassifikation, jeder Regression

97

oder jedem Bilderkennungsvorgang erschaffen die 2.6 Prognosemaschinen – ein Zwischenfazit

Verfahren aus einem Set historischer Daten ganz neue Daten. Damit sind sie Kreatoren, also Maschi-

Der Blick auf die wichtigsten Verfahren statistischen

nen, die Neues schaffen. Im ganz engen Sinne des

Lernens führt deutlich vor Augen, wie diese Algo-

Wortes und noch ohne Blick auf Kreativitätstheorien,

rithmen lernen, das heißt, wie sie aus einer großen

die erst in Kapitel 3 diskutiert werden sollen, erschaf-

Menge von Daten Zusammenhänge ermitteln können,

fen alle Verfahren statistischen Lernens neue Matri-

die für Menschen einerseits einfach in wenigen

zen, Vektoren und Zahlen, die die Grundlage bilden

Hundertstelsekunden zu erfassen oder anderer-

für korrekte Prognosen. An diese Leistung schließen

seits gar nicht ohne Weiteres zu begreifen sind. Die

die neuronalen Netze mit ihren bildgebenden Ver-

Algorithmen sind durch die vielen ausgeklügelten

fahren an, die in der Welt der Gestaltung für so viel

Optimierungsverfahren in der Lage, versteckte

Aufmerksamkeit sorgen. Es bleibt aber festzuhalten:

Wirkungsprinzipien in großen Datenmengen zu er-

Nicht nur die Generative Adversarial Networks sind

mitteln. Die neuronalen Netze sind sogar in der Lage,

Kreatoren, alle Verfahren, die lernen und optimieren,

theoretisch zumindest, jedes komplexe Prinzip abzu-

erschaffen neue Daten, die die Eigenschaft besitzen,

bilden. Sie sind universelle Analysemaschinen, weil

Wirklichkeit zu antizipieren. Das Prinzip dieser Leis-

sie prinzipiell zumindest zwischen jedem beliebigen

tung basiert nicht auf einer strengen mathematischen

Eingangsdatum und jedem beliebigen Ausgangs-

Formel, sondern bleibt eine statistische Annäherung.

datum einen Zusammenhang lernen können. Sie sind

Dieser Umstand hat weitreichende Konsequenzen für

aber gleichzeitig auch universelle Prognosemaschi-

Fragen der Intelligenz, der Ethik und der wirtschaft-

nen, weil sie den gelernten Zusammenhang auf für

lichen Bedeutung dieser Systeme.

sie unbekannte Daten anwenden, also generalisieren und so Vorhersagen treffen können. Sie können

2.7 Die Frage der Intelligenz optimierender

Apartmentpreise für bestimmte saisonale Ereig-

Systeme

nisse vorhersagen, sie können die geschmacklichen Präferenzen von Zuschauer:innen vorhersagen oder

Schaut man sich die Verfahren an, die unter dem

aber die Wahrscheinlichkeit prognostizieren, mit der

Label „künstliche Intelligenz“ gefasst werden, wird

Objekte in Bildern vorhanden sind. Sie sind sogar in

deutlich, dass das, was als intelligent gilt, nicht

der Lage, durch Optimierung vorherzusagen, ob ihre

vergleichbar ist mit den weitreichenden kognitiven

eigenen Kreationen einem bekannten Gegenstand

Leistungen eines menschlichen Gehirns, die als

97 The Asimov Institute: „The Neural Network Zoo“, https://www.asimovinstitute.org/neural-network-zoo (20.4.2022).

98 Rashid: Neuronale Netze selbst programmieren, S. 8.

Kapitel 2: Grundfragen künstlich-intelligenter Systeme

48

Intelligenz gefasst werden. Statistische Lernverfah-

Die berechtigten Fragen hier sind, ob Maschinen

ren verknüpfen Eingabe- und Ausgabedaten mittels

ohne Bewusstsein und Körper so etwas wie Intelli-

mathematischer Methoden. Diese Verfahren – allen

genz überhaupt besitzen können; ob diese maschinel-

voran die neuronalen Netze – haben mit mensch-

le Intelligenz mit menschlicher Intelligenz überhaupt

lichem Lernen im engeren Sinne nicht viel gemein.

verglichen werden darf; und um welche Art Intel-

Überspitzt könnte man formulieren, dass das Hirn

ligenz es sich handelt, wenn sie mit dem Konzept

keine Backpropagation macht. Zur Erinnerung:

menschlicher Intelligenz nicht kommensurabel ist.

Backpropagation ist das Optimierungsverfahren der

Diese umfang- und weitreichenden Fragen können

neuronalen Netze, mit dem sie die idealen Gewichte

an dieser Stelle nicht beantwortet werden. 100 Sie

der Neuronen bestimmen. Entsprechend begrenzt

sollen aber die Komplexität der Fragen aufzeigen, die

und spezialisiert sind die Aufgaben, die statisti-

beantwortet werden müssen, wenn man menschliche

sche Lernverfahren bewältigen können. Sie können

Intelligenz mit maschinellen Optimierungsverfahren

Zahlenwerte ermitteln oder die Wahrscheinlich-

vergleichen möchte.

99

keit, mit der ein handgeschriebenes Zeichen einem Buchstaben entspricht. Schon bei der Bilderkennung

Die große Mehrheit, vor allem in der öffentlichen

erkennen die Verfahren die Inhalte der Bilder nicht

Debatte, geht jedoch einfach davon aus, dass Intelli-

im verstandesmäßigen Sinne. Sie haben verständli-

genz und Optimierung ohne Weiteres vergleichbar

cherweise weder Wissen über irgendein Objekt, das

sind. Mehrheitlich wird in den Debatten ein teleo-

in den Bildern repräsentiert wird, noch Wissen über

logisches Stufenmodell der Optimierungsalgorithmen

die Welt, die das Objekt erzeugt hat. Sie wurden ge-

unterstellt, also ein Modell des zielgerichteten und

baut und instruiert, einen Zusammenhang zwischen

unausweichlichen Fortschritts dieser Verfahren, die

den eingehenden Pixelwerten und dem Ausgabevek-

schlussendlich auf Gleichwertigkeit mit menschli-

tor herzustellen. Was dieser Zusammenhang bedeu-

chen kognitiven Fähigkeiten drängen und diese sogar

tet, welche weiteren wirtschaftlichen, politischen,

überwinden möchten. So wird in und mit diesem

sozialen und ethischen Folgen ihr Tun hat und wieso

Modell eingeräumt, dass die Intelligenz der Maschi-

man diese Bilder überhaupt verarbeiten soll, bleibt

nen momentan noch auf der Stufe einer begrenzten

ihnen zu Recht völlig verschlossen. Noch nicht ein-

Intelligenz, der sogenannten „Narrow AI“ oder „Weak

mal die Kategorien der Zustimmung oder Ablehnung

AI“ steht. Diese Form der Intelligenz wird „narrow“,

sind hier passend gewählt in Bezug auf das, was eine

also begrenzt genannt, weil sie auf ein spezifisches

intelligente Maschine tut. Sie ist reines Instrument

Problem oder eine beschränkte Aufgabe fokussiert

eines menschlichen Willens, auch wenn es bei sehr

ist, wie etwa autonomes Fahren oder Bilderkennung.

tiefen Netzwerken, wie dem Transformer GPT-3, den

Die maschinelle Intelligenz drängt in diesem Modell

Anschein haben mag, dass da eine verstandesmäßige

jedoch auf die Stufe der „General AI“ oder „Strong

Leistung durch die Ergebnisse des Netzwerks hin-

AI“, eine Form, die jede Aufgabe und jedes noch so

durchschaut. Neuronale Netze sind nicht mehr und

komplexe Problem in jedem erdenklichen Bereich

nicht weniger als leistungsstarke Generalisierungs-

lösen kann. Systeme mit einer generellen Intelligenz

maschinen.

sind bis heute nicht existent, werden jedoch ima-

99 Otte: Künstliche Intelligenz für Dummies, S. 271.

100 Wer sich für diese Fragen interessiert, siehe Mainzer: Gehirn, Computer, Komplexität.

Kapitel 2: Grundfragen künstlich-intelligenter Systeme

49

giniert als solche, die menschengleiche kognitive, emotionale und intellektuelle Fähigkeiten besitzen.

bis 2029 dauert, bis die starke, intelligente Maschine 101

entsteht und ihren Weg bahnt, 105 oder ob es schon

Im Moment verweist man einfach auf die Welt künst-

2025 so weit ist. 106 Dass Milliardenmärkte schon jetzt

lerischer Fantasie, um diese Vorstellung zu bebildern,

existieren und wenige globale Unternehmen in einer

oder stuft die Komplexität menschlicher emotionaler

hitzigen Konkurrenz um die Technologieführerschaft

und intellektueller Fähigkeiten zu algorithmusglei-

auf diesem Feld kämpfen und damit de facto die

chen Handlungen hinab, um die Analogie passend

hauptursächlichen Treiber dieser Entwicklung sind,

zu machen.

wird mit dem Telos der Machtübernahme der Ma-

102

Besonders anhängliche Verfechter:in-

nen dieser Theorie sind überzeugt, dass sobald die

schinen einfach verdrängt. Das Bild einer autonomen

Singularität, also die Gleichwertigkeit von Mensch

Maschine, begabt mit eigenem Willen und ausgestat-

und Maschine, erst einmal erreicht ist, es ganz auto-

tet mit eigenen Motiven, eignet sich offenbar besser

matisch zu einem Umschlagpunkt kommt, der zur

dazu, die Konkurrenz unter Akteuren zu legitimieren,

Superintelligenz der Maschinen führt.

die intelligente Systeme als Instrumente ihrer öko-

103

nomischen und politischen Konkurrenz nutzen. Die In diesem einfachen dreistufigen Modell der künst-

Analogiebildung zwischen Optimierungsverfahren

lichen Intelligenz wird einfach unterschlagen, was die

und dem menschlichen Verstand bleibt jedenfalls

lernende Maschine de facto leistet und wozu sie über-

das, bloße Analogie. Verfahren statistischen Lernens

haupt in der Welt ist. Sie hat keinen eigenen Willen

können nicht über die eigenen Modelle und Trai-

und kein eigenes Interesse, sondern ist Instrument

ningsdaten hinaus generalisieren, 107 auch wenn sich

politischer, wirtschaftlicher, sozialer und kultureller

die Dystopie des Aufstands der Maschinen im Lichte

Interessen. Die Gesellschaft und die Subjekte in ihr –

zahlloser menschengemachter Katastrophen so evi-

mit ihren antagonistischen Interessen und ihren sehr

dent anfühlt. Trotzdem werden lernende Maschinen

unterschiedlich ausgestatteten Ressourcen – werden

anthropomorphisiert, 108 also hinter der mathemati-

in diesem Bild einfach einer Gesamtheit der Maschi-

schen Funktionsweise menschenähnlicher Verstand

nen gegenübergestellt, die wie von selbst als Gegen-

und Motivation identifiziert. Wer Personal Digital

spieler auftreten. „Wir“ gegen „die“ heißt dann die

Assistants Namen wie Alexa oder Siri gibt oder sie

simple Gegenüberstellung und die Frage ist eröffnet,

als autonome Autor:innen 109 und Künstler:innen 110

wer am Ende das Rennen gewinnt und wann es so

feiert, der deutet damit nicht nur an, dass es sich bei

weit ist.

Maschinen um Persönlichkeiten handelt, der besteht

104

Unternehmer:innen, Transhumanist:innen

und Futurist:innen spekulieren dann, ob es nur noch

darauf. Kritiker:innen dieser Übertreibung und der

105 Kurzweil, Ray: The Singularity Is Near, New York: Penguin Random House 2006. 101 Walch, Kathleen: „Rethinking Weak Vs. Strong AI“,

106 Cuthbertson, Anthony: „Elon Musk claims AI will overtake humans

https://www.forbes.com/sites/cognitiveworld/2019/10/04/

in less than five years“, https://www.independent.co.uk/life-style/

rethinking-weak-vs-strong-ai/?sh=3238e57b6da3 (21.4.2022).

gadgets-and-tech/news/elon-musk-artificial-intelligence-ai-

102 Walch: Rethinking Weak Vs. Strong AI. 103 Bostrom, Nick: Superintelligence: Paths, Dangers, Strategies, Oxford: Oxford University Press 2014. 104 Galeon, Dom: „Softbank CEO: The Singularity Will Happen by 2047“, https://futurism.com/softbank-ceo-the-singularity-will-happenby-2047 (21.4.2022).

singularity-a9640196.html (21.4.2022). 107 Daumé: A Course in Machine Learning, S. 17. 108 Epley, Nicholas/Waytz, Adam/Cacioppo, John: „On seeing human: a three-factor theory of anthropomorphism“, https://pubmed.ncbi.nlm.nih.gov/17907867 (21.4.2022). 109 GPT-3: „A robot wrote this entire article. Are you scared yet, human?“, https://www.theguardian.com/commentisfree/2020/sep/08/ robot-wrote-this-article-gpt-3 (21.4.2022). 110 Kelly, Liam: „Meet Ai-Da, the robot artist who is making an exhibition of herself“, https://www.thetimes.co.uk/article/meet-ai-da-the-robotartist-who-is-making-an-exhibition-of-herself-hxhcdsm0j (21.4.2022).

Kapitel 2: Grundfragen künstlich-intelligenter Systeme

50

manchmal folgenschweren Entscheidungen dieser

mit denjenigen Parametern, die ihnen ihr Aufbau

Maschinen wirken dann wie Blasphemiker:innen,

gewährt. Ob die gelernten Zusammenhänge über-

die einer mit Intelligenz ausgestatteten Entität das

haupt vertret- oder zumutbar sind, ob sie nicht eine

Existenzrecht absprechen.

ungerechtfertigte Eingrenzung eines viel komplexe-

111

ren Zusammenhangs darstellen, können die Systeme 2.8 Zur Frage der (Un-)Voreingenommenheit

weder beurteilen noch beeinflussen. Noch können

und Ethik diskriminierender Systeme

sie bewerten, ob bestimmte vorgegebene Lernparameter sinnvoll sind in Bezug auf die gewünschten

Die Analyse der unterschiedlichen statistischen

Prognosen. Sie sind technisch eingeschränkt und

Lernverfahren hat auch gezeigt, dass sie Wirklichkeit

damit im weitesten Sinne voreingenommen. Diese

nicht exakt mathematisch repräsentieren, sondern

Voreingenommenheit, die man Inductive Bias oder

sich ihr – basierend auf Abertausenden Trainings-

Learning Bias 114 nennt, hängt eng damit zusammen,

beispielen – über Optimierungsverfahren annähern.

welche Expertise diejenigen haben, die diese Systeme

Dieses induktive Vorgehen, das statistisches Ler-

aufsetzen und trainieren. Schon hier wird deutlich,

nen nutzt, liefert immer eine Prognose und bleibt

dass ein Bias kein bewusst gepflegtes Vorurteil oder

daher im engeren Sinne immer eine Annäherung

keine aktiv angestrebte Verzerrung der algorithmi-

an Wirklichkeit. Überspitzt formuliert könnte man

schen Funktionen sein muss. Die Bias bleiben wirk-

sagen, dass statistisches Lernen immer ein Stück

sam, auch wenn der Algorithmus korrekt im Sinne

weit verzerrt, also im engen Sinne diskriminiert. Der

der Anwendenden funktioniert und eigentlich gute

Begriff der Diskriminierung wird im Zusammenhang

Ergebnisse liefert.

mit dem statistischen Lernen auch oft als Bias bezeichnet. 112 Das Bias im Sinne einer Diskriminierung

Ein zweiter großer Wirkungsbereich der Voreinge-

oszilliert im Bedeutungsraum zwischen einer rein

nommenheit erstreckt sich auf die genutzten Daten.

technischen Verzerrung von Wirklichkeit und einer

Da statistische Lernverfahren immer auf Grundlage

politisch-sozialen Kritik der Voreingenommenheit

von Daten lernen, können damit auch durch Daten

gegen bestimmte Menschen, die herabgesetzt und

Verzerrungen entstehen. Die meisten Bias in diesem

stigmatisiert werden. 113 Beide Pole dieses Bedeu-

Bereich treten dort auf, wo Datensätze nicht aus-

tungsraums hängen beim statistischen Lernen wech-

gewogen erstellt werden und somit die Wirklichkeit

selseitig und notwendig miteinander zusammen.

nicht akkurat repräsentieren. Das Reporting Bias 115 benennt den Umstand, dass für bestimmte Daten-

Der erste Wirkungsbereich der Voreingenom-

sätze keine durchschnittlichen Ereignisse festgehal-

menheit betrifft die statistischen Lernverfahren

ten werden und dann als Daten zugänglich sind. So

selbst. Sie lernen nur diejenigen Zusammenhänge

kommt es oft vor, dass Kund:innen ihre Rezensionen

111 Anger, Gerhard: „Drop That Intelligence and Get on with It!“, in: Engenhart, Marc/Loewe, Sebastian (Hrsg.): Proceedings of the First Conference on Designing with Artificial Intelligence, München: appliedAI 2021, S. 64–69. 112 Der Begriff ist abzugrenzen gegen seine Verwendung im Bereich der neuronalen Netze. Dort wird mit Bias ein Summand bezeichnet, der zu den gewichteten Eingabewerten in den Neuronen hinzuaddiert wird. Siehe dazu ausführlicher das Kapitel 2.5.4 „Neuronale Netze“. 113 Hellström, Thomas/Dignum, Virginia/Bensch, Suna: „Bias in Machine Learning – What is it Good for?“, http://ceur-ws.org/Vol-2659 (24.2.2022).

114 Hellström/Dignum/Bensch: Bias in Machine Learning, S. 4. 115 Google Developers: „Fairness: Types of Bias“, https://developers.google. com/machine-learning/crash-course/fairness/types-of-bias (24.2.2022).

Kapitel 2: Grundfragen künstlich-intelligenter Systeme

51

nur schreiben, wenn sie besonders zufrieden oder

vereinzelte Fehlfunktionen der Algorithmen sind,

enttäuscht waren von einem gekauften Produkt.

sondern People of Color systematisch in den Daten-

Durchschnittliche Erlebnisse werden nicht als mit-

sätzen unter- oder überrepräsentiert sind. 121 Damit ist

teilungswürdig erachtet und finden sich in Produkt-

beispielsweise in der Strafverfolgung die Anwendung

rezensionen deshalb seltener als außergewöhnliche.

von Modellen, die schwarze Menschen prinzipiell als krimineller einstufen, hochgradig problematisch und

Die sogenannten Selection Bias

116

wiederum treten

hat weitreichende politische und ethische Implika-

auf, wenn Daten zu selektiv in Datensätze eingepflegt

tionen. 122 Speziell gegen die rassistisch diskriminie-

werden. Zu dieser Gruppe von Bias gehören das

renden Systeme hat sich in den letzten Jahren ein

Coverage Bias, das den Umstand benennt, dass be-

wissenschaftlicher 123 und politischer Aktivismus 124

stimmte Verzerrungen durch die einseitige Auswahl

geformt, der diese System verurteilt und auf ihre

von beispielsweise Personengruppen auftreten. Wenn

Reform oder Beseitigung drängt. Selbst bei scheinbar

nur bestimmte Personengruppen bereit sind, Daten

harmlosen Fällen wie der Prognose von Schulnoten

von sich preiszugeben, spricht man von einem Par-

in Zeiten von Corona zeigt sich, dass Algorithmen

ticipation Bias. Sind Datensätze statistisch gesehen

sexistische und klassistische Vorurteile oftmals ein-

nicht rein zufällig ausgewählt worden, bezeichnet

fach ungefiltert abbilden. Die Algorithmen wurden

man das als Sampling Bias.

in Großbritannien in der ersten Phase der Pandemie eingesetzt, um nicht erbringbare Schulnoten zu

Werden Daten zu einseitig zum Lernen bereitge-

prognostizieren. Die Schüler:innen bekamen keinen

stellt, kann das weitreichende soziale, politische und

Unterricht, sollten aber dennoch ihre Noten und

ökonomische Konsequenzen haben. Beispielsweise

Abschlüsse bekommen. Im Streit um diese Prognose

reproduzieren Chat- 117 und Hiring-Bots 118 rassistische

von Schulnoten wurde deutlich, dass statistische

oder sexistische Sprache und Muster. Bilderken-

Lernverfahren einkommensschwache und weibliche

nungsalgorithmen klassifizieren People of Color als

Schüler:innen niedriger bewerteten als ihre männli-

Gorillas 119 oder erkennen sie gar nicht erst und ma-

chen und reicheren Mitschüler:innen. 125 Ein Um-

chen es ihnen dann beispielsweise unmöglich, sich

stand, der sich ganz aus den historischen Daten und

in öffentlichen Räumen die Hände zu waschen. 120

den darin festgehaltenen tatsächlichen Leistungen

Forscherinnen haben herausgefunden, dass das nicht

erklärt, in die sicher auch Vorurteile der Lehrer:innen

116 Google Developers: Fairness. 117 Buranyi, Stephen: „Rise of the racist robots – how AI is learning all our worst impulses“, https://www.theguardian.com/inequality/2017/ aug/08/rise-of-the-racist-robots-how-ai-is-learning-all-our-worstimpulses (24.2.2022). Wille, Matt: „South Korean chatbot Lee Luda killed off for spewing hate“, https://www.inputmag.com/culture/south-korean-chatbotlee-luda-killed-off-for-spewing-hate (24.2.2022). 118 Oppenheim, Maya: „Amazon scraps ‚sexist AI‘ recruitment tool“,

121 Buolamwini, Joy/Gebru, Timnit: „Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification“, Proceedings of Machine Learning Research 81 (2018), S. 77–91. 122 Angwin, Julia/Larson, Jeff/Mattu, Surya et al.: „Machine Bias“, https://www.propublica.org/article/machine-bias-risk-assessmentsin-criminal-sentencing (24.2.2022). 123 Myers West, Sarah/Whittaker, Meredith/Crawford, Kate: Discriminating Systems. Gender, Race, and Power in AI, New York: AI Institute Now 2019. 124 Lynch, Jennifer: „Face Off: Law Enforcement Use of Face

https://www.independent.co.uk/life-style/gadgets-and-tech/

Recognition Technology“, https://www.eff.org/wp/law-enforcement-use-

amazon-ai-sexist-recruitment-tool-algorithm-a8579161.html

face-recognition (24.2.2022).

(24.2.2022).

Breland, Ali: „How white engineers built racist code – and why it’s

119 Vincent, James: „Google ‚fixed‘ its racist algorithm by removing

dangerous for black people“, https://www.theguardian.com/technology/

gorillas from its image-labeling tech”, https://www.theverge.com/

2017/dec/04/racist-facial-recognition-white-coders-black-people-police

2018/1/12/16882408/google-racist-gorillas-photo-recognition-

(24.2.2022).

algorithm-ai (24.2.2022). 120 Plenke, Max: „The Reason This ‚Racist Soap Dispenser‘ Doesn’t Work

Algorithmic Justice League: „Research“, https://www.ajl.org (24.2.2022). 125 Fokken, Silke: „Neuer Ärger um Abschlussnoten – und Belege für

on Black Skin“, https://www.mic.com/articles/124899/the-reason-

Noteninflation“, https://www.spiegel.de/panorama/bildung/corona-

this-racist-soap-dispenser-doesn-t-work-on-black-skin (24.2.2022).

in-grossbritannien-neuer-aerger-um-abschlussnoten-und-belegefuer-noteninflation-a-4eddf750-d51e-488e-a8e8-d10cdcc3bcf1 (24.2.2022).

Kapitel 2: Grundfragen künstlich-intelligenter Systeme

52

gegenüber schlechter gestellten Schüler:innen, vor

hielten Data Scientists bei der Qualitätskontrolle

allem aber Bildungsnachteile aufgrund von Armut

eines Herstellers die auf Machine Learning basierende

eingeflossen sind. Ein Versuch, diese Bias zu mini-

Überwachung für effektiver als diejenige mensch-

mieren, wie ihn beispielsweise Google unternimmt,

licher Expert:innen, obwohl sie das de facto nicht

kann zwar Erfolge vorweisen, Diskriminierung letzt-

gewesen ist.

lich aber nicht ganz ausschließen. 126 Alle drei Bereiche der Verzerrungen und Voreinge Ein dritter großer Bereich sind menschliche Vor-

nommenheit spielen ineinander und fordern letztlich

annahmen, die in statistisches Lernen einfließen

sowohl Entwickler:innen als auch Designer:innen

und sich mit Teilen soziologischer und sozialpsycho-

und Nutzer:innen heraus. Sie sollten achtsam auf

logischer Definitionen von Diskriminierung über-

Modelle, Daten und ihre eigenen Urteile schauen, um

schneiden. Bei den Group Attribution Bias

Bias so weit wie möglich zu reduzieren. Allerdings

127

hat man

es mit Verzerrungen zu tun, die tatsächliche oder

wird mit den massenhaft genutzten intelligenten

eingebildete Eigenschaften von einzelnen Personen

Systemen, wie beispielsweise den Feeds bei Facebook

auf Gruppen übertragen. Beim In-Group Bias gehört

oder Instagram, auch deutlich, dass die voreingenom-

man derselben Gruppe an und bekommt deshalb eine

mene Maschine immer mehr bestimmt, was man als

verzerrte positive Sicht auf Fähigkeiten und Eigen-

wichtig wahrnimmt und sogar als wahr. Gerade des-

schaften der In-Group. Beim Out-Group Homoge-

halb kann hier ein grundlegendes ethisches Prinzip in

neity Bias hat man eine verzerrte Sicht auf Perso-

Form eines Maschinen-intelligenten Imperativs abge-

nen, die nicht zur eigenen Gruppe gehören. Oftmals

leitet werden. Er lautet: Erschaffe intelligente Anwen-

werden Eigenschaften und Fähigkeiten der Gruppe

dungen, die nicht gefährlich sind, wenn sie scheitern,

als homogener und einheitlicher gesehen, als sie tat-

und nicht schädlich, wenn sie funktionieren.

sächlich sind. In diesem Lichte arbeiten Unternehmen, Regierun Das Implicit Bias 128 wiederum tritt auf, wenn man

gen und die Zivilgesellschaft an Regeln einer fairen

eigene Erfahrungen und eigenes Verständnis un-

und transparenten Verwendung von statistischen

zulässig verallgemeinert. Eine verbreitete Form des

Lernverfahren, die die Bereiche Haftung, Ausrichtung

Implicit Bias ist das Confirmation Bias, bei und mit

an Werten, Erklärbarkeit, Gerechtigkeit und Recht auf

dem Algorithmen eine erwartete Sichtweise affirmie-

Nutzerdaten umfasst. Gegen die vielfältigen Bias, die

ren müssen, damit man ihre Ergebnisse als richtig

sich in die Daten und Modelle einschreiben, hat man

und unverfälscht bewertet. Beispielsweise werden

beispielsweise Metriken 129 entwickelt, die versuchen,

hier nur Nachrichtenempfehlungen gelesen, die die

diese Verzerrungen so weit wie möglich zu minimie-

eigene politische Sichtweise wiedergeben. Das Auto-

ren. Sie ganz zu beseitigen hat bis heute aufgrund der

mation Bias besagt, dass man softwaregenerierten

genutzten Modelle und Daten noch nicht funktioniert.

Datensätzen mehr Glaubwürdigkeit attestiert als den von Menschen zusammengestellten. Beispielsweise

126 Google People and AI Research: „Hidden Bias“, https://pair.withgoogle.com/explorables/hidden-bias (24.2.2022).

129 Xu, Catherina/Doshi, Tulsee: „Fairness Indicators: Scalable Infrastructure for Fair ML Systems“, https://ai.googleblog.com/2019/12/fairness-

127 Google Developers: Fairness.

indicators-scalable.html (21.4.2022). Google PAIR: „What-If Tool“,

128 Google Developers: Fairness.

https://pair-code.github.io/what-if-tool (21.4.2022).

Kapitel 2: Grundfragen künstlich-intelligenter Systeme

53

Auch eigens geschaffene Ethikkommissionen 130 in

2.9 Eine Technologie für die Leistungs- und

Regierungen und großen Techunternehmen

Wachstumsgesellschaft

131

haben

ihre Arbeit aufgenommen, werden aber immer wieder von Skandalen 132 und Protesten 133 heimgesucht

Schaut man sich die Berichterstattung zu künstlicher

und demonstrieren damit, dass Ethik und Fairness

Intelligenz an, wird dieser Grund sehr unmittelbar

trotz ihrer zentralen Bedeutung für die Anwender:

zum Thema gemacht. Es sind ihre enormen ökonomi-

innen derzeit in der Wirtschaft oftmals noch mar-

schen Wirkungen in der Wachstumsgesellschaft, die

ginalisiert werden. Begriffe wie „Ethics Washing“

Wirtschaft und Politik so stark auf diese Technologie

134

zeugen von dieser Beziehung der Wirtschaft zu

fixieren lässt. Nichts Geringeres als eine neue wirt-

ethischen Fragen intelligenter Systeme.

schaftliche Revolution stehe mit dieser Allzwecktechnologie ins Haus, die man auf eine Stufe mit der

Am Ende bleibt der Versuch, Phänomene wie

Dampfmaschine und dem Roboter stellt. 138 Sagen-

Deep Fakes, Fake News oder Filter-Bubbles durch

hafte Gewinnsteigerungen von 25 Prozent verspricht

wissenschaftliche Forschung 135 sowie durch poli-

sich die Bundesregierung im Namen von Industrie

tische, zivilgesellschaftliche

und Dienstleistern für den Einsatz des statistischen

136

und künstlerische

137

Aufklärung einzudämmen. An der Technologie selbst

Lernens, nebst gesteigerter Innovationskraft in den

und ihren Wirkungen hält man aus einem ganz

Unternehmen. 139 Wurde vor einigen Jahren noch die

anderen, schwerwiegenden Grund entschieden fest.

große Jobvernichtung durch künstliche Intelligenz thematisiert und dabei die eine oder andere Stilblüte 140 hervorgebracht, hat sich der Diskurs mittlerweile gewandelt und man betont verstärkt, dass die Unternehmen neue Jobs durch den Einsatz der

130 Applied AI: „Ethical use of AI“, https://www.appliedai.de/hub/ethical-use-of-ai (21.4.2022). 131 Quiñonero Candela, Joaquin: „Facebook and the Technical University of Munich Announce New Independent TUM Institute for Ethics in Artificial Intelligence“, https://about.fb.com/news/2019/01/tuminstitute-for-ethics-in-ai (21.4.2022). 132 Böhm, Markus: „Google trennt sich von KI-Forscherin. ‚Das Ausmaß der Respektlosigkeit ist unglaublich‘“, https://www.spiegel.de/netzwelt/

Technologie schaffen. 141 Studien gehen davon aus, dass in den nächsten zehn Jahren etwa drei Viertel der Unternehmen weltweit mindestens eine Art von statistischem Lernen im Unternehmen anwenden werden. 142

web/google-warum-ist-ki-forscherin-timnit-gebru-nicht-mehr-imunternehmen-a-79c1daba-caf1-4d7e-b019-6389274c9409 (21.4.2022). 133 Vincent, James: „The problem with AI ethics“, https://www.theverge.com/2019/4/3/18293410/ai-artificialintelligence-ethics-boards-charters-problem-big-tech (21.4.2022). 134 Wagner, Ben: „Ethics as an Escape from Regulation. From EthicsWashing to Ethics-Shopping“, in: Bayamlioglu, Emre/Baraliuc, Irina/ Janssens, Liisa et al. (Hrsg.): Being Profiled. Cogitas Ergo Sum. 10 Years of Profiling the European Citizen, Amsterdam: Amsterdam University Press 2018. 135 Rössler, Andreas/Cozzolino, Davide/Verdoliva, Luisa et al.: „aceForensics++: Learning to Detect Manipulated Facial Images“,

138 Wladawsky-Berger, Irving: „The Impact of Artificial Intelligence on the World Economy“, https://www.wsj.com/articles/the-impact-ofartificial-intelligence-on-the-world-economy-1542398991 (14.6.2021). 139 Rammer, Christian: Auf Künstliche Intelligenz kommt es an. Beitrag von KI zur Innovationsleistung und Performance der deutschen Wirtschaft, Berlin: Bundesministerium für Wirtschaft und Energie 2020, S. 19. 140 Will Robots Take My Job: „Will Robots Take My Job?“ https://willrobotstakemyjob.com (24.2.2022). 141 Gründel, Marleen: „So macht Künstliche Intelligenz Unternehmen

http://www.niessnerlab.org/projects/

profitabler“, https://www.manager-magazin.de/unternehmen/

roessler2019faceforensicspp.html (21.4.2022).

kuenstliche-intelligenz-macht-unternehmen-laut-zew-studie-profitabler-

136 Cole, Samantha: „Deepfake of Boris Johnson Wants to Warn You About Deepfakes“, https://www.vice.com/en/article/8xwjkp/deepfake-

und-innovativer-a-f7bb26a6-0d4e-4954-aea7-9f0e342c2435 (24.2.2022). 142 Bughin, Jacques/Seong, Jeongmin/Manyika, James et al.: „Notes from the

of-boris-johnson-wants-to-warn-you-about-deepfakes (21.4.2022).

AI frontier: Modeling the impact of AI on the world economy“,

MIT Media Lab: „Detect DeepFakes: How to counteract misinformation

https://www.mckinsey.com/~/media/McKinsey/Featured%20Insights/

created by AI“, https://www.media.mit.edu/projects/detect-fakes/

Artificial%20Intelligence/Notes%20from%20the%20frontier%20Modeling

overview (21.4.2022).

%20the%20impact%20of%20AI%20on%20the%20world%20economy/

137 Martins, Tiago/Nuno Correia, João/Rebelo, Sérgio: „Portraits of No One“, https://cdv.dei.uc.pt/portraits-of-no-one (21.4.2022).

MGI-Notes-from-the-AI-frontier-Modeling-the-impact-of-AI-on-theworld-economy-September-2018.pdf (24.2.2022).

Kapitel 2: Grundfragen künstlich-intelligenter Systeme

54

Einige Autor:innen gehen im Lichte dieser Ent-

Produktivitätssteigerung und Automatisierung einen

wicklungen sogar so weit, ein neues Zeitalter der

großen Schritt vorangetrieben. 145 Man kann die Tech-

Freizeit auszurufen. Wenn Maschinen flächende-

nologie als potenzielle Befreierin feiern, muss aber

ckend und kostengünstig komplexe Aufgaben erledi-

genauso ihre realen Wirkungen auf die Arbeit sehen.

gen können, die Menschen vorher machen mussten,

Mit der Technologie werden tradierte Arbeitszusam-

dann wäre doch mehr Zeit, sich auf die schönen

menhänge umgewälzt und dynamisiert, wird Arbeit

Dinge im Leben zu konzentrieren. Das World Econo-

intensiviert, Fähigkeiten und Qualifikationen werden

mic Forum spekuliert darüber, dass mit den ökonomi-

entwertet. Das schließt Disziplinen wie das Design

schen Verheißungen der künstlichen Intelligenz auch

nicht aus.

die Annehmlichkeiten des Sozialstaates beibehalten 2.10 Konsequenzen für das Design

werden können und auch bei sinkenden Steuereinnahmen Bürger:innen westlicher Staaten mehr Freizeit bekämen. 143 Der amerikanische Theoretiker

Statistisches Lernen hat enormes Potenzial, Ge-

Michael Betancourt beispielsweise sieht sogar eine

staltungswerkzeuge und -prozesse, aber auch die

gänzliche Befreiung von der Arbeit durch den Einsatz

zu gestaltenden Produkte zu verändern. Wenn die

von künstlicher Intelligenz.

Vorhersage, als bestimmendes Moment intelligenter

144

Systeme, weiträumig in die Welt des Designs ein Diese Positionen betonen, dass eine solche Utopie

zieht, gar zu seinem bestimmenden Modus werden

die Änderung der Einstellung zur Arbeit voraussetzt.

sollte, hat das für das Design, seine Prinzipien und

Es muss sich davon verabschiedet werden, sich durch

Praktiker:innen weitreichende Konsequenzen. Wenn

seine Arbeit als Subjekt zu definieren und damit von

statistische Lernverfahren basierend auf historischen

einer Arbeitsethik, die Faulenzen bestraft und harte

Daten korrekte Vorhersagen über die Wahrschein-

Arbeit anerkennt. Interessanterweise überlassen es

lichkeit zukünftiger Ereignisse treffen, dann machen

die Autor:innen der Imagination der Leser:innen, ob

sie neue Zusammenhänge sichtbar. Das gilt nicht nur

das Gebot, den eigenen Lebensunterhalt durch ein

für Ereignisse, die sich aus statistischen Zusammen-

Einkommen zu bestreiten, suspendiert wird vor dem

hängen in enorm großen Datenmengen ermitteln

Sinneswandel. Am Ende bleibt eine technizistische

lassen. Das betrifft auch Daten, die Maschinen bisher

Utopie, in der es die Technologie erlaubt, sich gänz-

nicht verarbeiten konnten, weil sie zu ungenau wa-

lich frei zu geltenden ökonomischen Sachzwängen zu

ren, etwa bei der Klassifikation von digitalen Bildern.

stellen.

Bilder richtig zu klassifizieren heißt ja nichts anderes, als die Wahrscheinlichkeit ihrer Inhalte richtig vor-

De facto wird die Technologie durch ökonomisches

herzusagen.

Kalkül vorangetrieben und nicht für die Befreiung geplagter Arbeitnehmer:innen. Mit und durch statis-

Maschinen sind nun in der Lage, menschliche

tisches Lernen wird die marktwirtschaftliche Logik

Gesten, Mimiken, Worte, Handlungen, Gefühle und

der Gewinnmaximierung und des Wachstums durch

Geschmackspräferenzen in genügender Genauigkeit

143 Mahroum, Sami: „How an AI utopia would work“,

145 Neuburg, Klaus/Quadflieg, Sven/Nestler, Simon: „Will Artificial

https://www.weforum.org/agenda/2019/07/how-an-ai-utopia-

Intelligence Make Designers Obsolete?“, in: Engenhart, Marc/

would-work (24.2.2022).

Loewe, Sebastian (Hrsg.): Proceedings of the First Conference on

144 Betancourt, Michel: Force Magnifier. The Cultural Impacts of Artificial Intelligence, Cabin John: Wild Side Press 2020, S. 134.

Designing with Artificial Intelligence, München: appliedAI 2021, S. 80–85.

Kapitel 2: Grundfragen künstlich-intelligenter Systeme

55

zu bestimmen; sie sind in der Lage, abstrakte Regeln

sinnvollen Zusammenhang gebracht, die Logik dieses

von politischen, sozialen, ökonomischen und virtu-

Zusammenhangs gelernt und Ausgabedaten dann

ellen Systemen zu lernen und zu bestimmen; außer-

autonom generierbar werden. Hier eröffnet statisti-

dem können sie aus großen Datenmengen auf bisher

sches Lernen das weite Feld der Assistenzsysteme

unbekannte statistische Zusammenhänge und Regeln

für Gestalter:innen und wirft weitreichende Fragen

rückschließen.

auf, wie Kreativität verstärkt und Gestaltungsprozesse automatisiert werden, aber auch wie Gestalter:in

Damit eröffnet statistisches Lernen die Dimen-

und System als Lehrende und Lernende interagieren.

sion der Vorhersage für das Design, die im folgenden

Auch diese Fragen sollen im Folgenden beantwortet

Kapitel im Detail dargelegt werden soll. So viel sei

werden.

schon vorweggenommen: Wenn intelligente Systeme Rückschlüsse auf zukünftige Vorhaben, Bewegungen,

Auf der Ebene der Ethik lösen die intelligenten

Aktionen, Ereignisse, Handlungen, Geschmäcker

Systeme prinzipiell die Unterscheidung zwischen

und Emotionen ziehen können, dann ist Gestaltung

korrekter Funktion und Diskriminierung auf, denn

nicht mehr nur eine Frage des einzigartigen Entwurfs

Bias sind grundlegend in ihren Aufbau und ihre

durch Designer:innen. Prinzipiell jeder Entwurf

Wirkungsweise integriert. Damit werden Fragen der

kann sich dann individuell an die Nutzer:innen und

gestalterischen Verantwortung, der Inklusion und des

ihre Präferenzen anpassen. Auf der Ebene der User

Schutzes der Nutzer:innen virulent, die mit einem

Experience schaffen intelligente Systeme ein radi-

Standpunkt der individuellen Nützlichkeit nicht

kal individuelles Nutzer:innenerlebnis und lösen

immer korrelieren müssen.

die Grenze zwischen Nutzung und Gestaltung auf. Design entsteht dann automatisch im Moment der

Letztendlich zeitigt statistisches Lernen auch

Benutzung. Hier werfen die intelligenten Systeme

auf der Ebene eines kritischen, spekulativen De-

Fragen zur Natur, Qualität und den Prinzipien dieser

signs Konsequenzen und verlangt neue Formen des

neuen Erfahrungen auf, die im folgenden Kapitel be-

Engagements, der Einmischung und Aufklärung für

antwortet werden.

Gestalter:innen, Nutzer:innen und eine breitere Gesellschaft. Hier werden Fragen nach neuen kritischen

Auf der Ebene der Gestaltungspraxis lösen die in-

Formen des Experiments, der gesellschaftlich-tech-

telligenten Systeme den Unterschied zwischen Altem

nologischen Gegenentwürfe und der DIY-Kultur

und Neuem, zwischen bekannten Daten und Kreation

aufgeworfen. Diesen Fragen soll nun systematisch

auf, denn nur mit und aus dem Alten entsteht das

nachgegangen werden.

Neue. Dieses Prinzip wird sicher am deutlichsten bei der Bilderzeugung durch GANs, die neue Bilder auf Basis gelernter Bilder erschaffen. Aber auch andere Arten von Gestaltungswerkzeugen werden hier möglich, wenn Eingabe- und Ausgabedaten in einen

3. Gestaltung mit und für intelligente Systeme

Kapitel 3: Gestaltung mit und für intelligente Systeme

3.1 Einleitung

57

Zum anderen steht die Gestaltung von User Experiences im Mittelpunkt, die erst durch statistisches

Dass und wie die Vorhersage als bestimmendes Mo-

Lernen möglich werden. Das Kapitel beleuchtet mit

ment intelligenter Systeme Design modifiziert, muss

anderen Worten zweitens die Gestaltung für intelli-

nun ausgeführt und belegt werden. Die intelligenten

gente Systeme, für eine intelligente User Experience.

Systeme, das ist die zentrale Behauptung, werden

Hier stellen sich Fragen nach den Prinzipien und

nicht nur zu einer neuen Art Designwerkzeug oder

dem Erleben von intelligenten Anwendungen durch

Designmaterial unter vielen, sondern verändern das

Nutzer:innen sowie den daraus resultierenden De-

Design in vielen Aspekten grundlegend. Es stimmt

signprinzipien. Es wird die Frage aufgeworfen, wie

zwar, dass statistisches Lernen in vielen Designdis-

digitale Produkte, die statistisches Lernen verwen-

ziplinen und -bereichen die Entwurfsarbeit lediglich

den, so gestaltet werden müssen, dass Nutzer:innen

automatisiert und damit beschleunigt. Bekannte

die Ergebnisse der Prognosen in ihrem Kontext

Gestaltungspraktiken werden hier nicht grundlegend

und ihrer Funktionalität bestmöglich verstehen

revolutioniert, sondern nur optimiert. In anderen

und nutzen können. Mit anderen Worten, es soll

Bereichen jedoch wird Gestaltung durchaus grund-

erläutert werden, wie Gestaltende nutzer:innenzen-

legend durch die Technologie verändert. Das Kapitel

trierte, transparente und ethische Anwendungen für

möchte zeigen, auf welche Art und Weise das Anti-

intelligente Systeme schaffen können. Das Kapitel

zipatorische das Design modifiziert, wie es also die

schließt damit, die Wirkungen der beiden Abteilun-

Methoden, Formen und Inhalte von Gestaltung und

gen – Gestaltung für und Gestaltung mit intelligenten

somit ihre Wirkung und Wirksamkeit beeinflusst

Systemen – sowohl auf das theoretische Designver-

und sich dann in neue Designprozesse und -konzepte,

ständnis als auch auf die praktischen Fähigkeiten

neue Gestaltungsprinzipien sowie neue Rollenver-

der Gestalter:innen kritisch zu reflektieren. Letztlich

ständnisse und berufliche Fähigkeiten von Gestal-

fragt es auch nach ethischen und ökonomischen

ter:innen übersetzt. Fokus des Kapitels sind zwei

Konsequenzen für das Design.

wesentliche Bereiche des Designs. Zum einen steht die Gestaltungspraxis selbst im Mittelpunkt der Untersuchung. Herausgearbeitet werden soll die Wechselwirkung von intelligenten Systemen auf Gestaltungsarbeit und die Kreativität der Gestaltenden. Das Kapitel beleuchtet mit anderen Worten den großen Bereich der Gestaltung mit intelligenten Systemen, die als Werkzeuge, Koautoren und autonome Maschinen die Gestaltungspraktiken selbst automatisieren, erweitern und modifizieren. Es stellen sich hier Fragen, wie die intelligenten Systeme den Designprozess selbst unterstützen oder überformen können und welche Rolle Gestalter:innen dabei spielen.

Kapitel 3: Gestaltung mit und für intelligente Systeme

58

3.2 Gestaltung mit intelligenten Systemen:

mit welchen Informationen und welchen Mitteln

Ko-Kreation von Designer:in und Maschine

Designprozesse unterstützt werden, ändert sich auch der Aufgabenumfang und die Rolle der Gestaltenden

Bisher wurde das weite Feld der Gestaltung mit

sowie der Grad ihrer Mitbestimmung, ihrer Agency.

intelligenten Systemen weder in der Designtheorie

Anhand eines schematisch vereinfachten Designpro-

noch in angrenzenden Bereichen theoretisch ge-

zesses, der viele unterschiedliche Designdisziplinen

ordnet und damit systematisch erschlossen. Dieses

abdeckt, soll im Folgenden die systematische Ord-

Forschungsdesiderat soll nun im Folgenden behoben

nung der intelligenten Systeme als Designwerkzeuge

und eine Ordnung intelligenter Werkzeuge skizziert

erarbeitet werden. Diese Taxonomie soll sowohl die

werden. Der theoretische Ausgangspunkt wird daher

Dimensionen Automatisierung und Augmentation als

beim Gestaltungsprozess selbst gesetzt und von dort

auch die Rolle der Gestaltenden im Umgang mit dem

aus erschlossen, wie intelligente Systeme Desig-

intelligenten System verdeutlichen.

ner:innen bei der Problemfindung und -lösung im Gestaltungsprozess unterstützen. Zwei wesentliche

Der Designprozess besteht aus fünf übergeord-

Dimensionen kristallisieren sich in dieser theore-

neten Phasen, 146 der Research-Phase, der Ideen-

tischen Perspektive heraus. Das ist zum einen die

findungsphase, der Explorationsphase sowie der

autonome Problemlösungskompetenz intelligenter

Konzeptions- und Umsetzungsphase. Diesen Phasen

Systeme im Designprozess. Im Wesentlichen handelt

sind wiederum einschlägige Anwendungsbereiche

sich dabei um den Bereich der Automatisierung von

zugeordnet, die in der Abbildung 3.1 dargestellt sind.

unterschiedlich komplexen Teilaufgaben, von oft

Aus den Anwendungsbereichen ergeben sich die

wiederholten Arbeitsschritten bis hin zu elaborier-

Ordnungskategorien für die Taxonomie der intelligen-

ten Problemlösungsstrategien. Je nach Komplexität

ten Gestaltungssysteme.

und Umfang des Problems, je nach Arbeitsschritt und Aufgabenstellung können intelligente Systeme

Da bisher noch nicht systematisch erforscht wur-

Gestaltungsprobleme autonom lösen. Das kann die

de, wie intelligente Systeme in den Designprozess

Kolorierung von Handzeichnungen in der Design-

integriert sind, soll diese Taxonomie induktiv anhand

konzeptphase betreffen oder aber ein umfangreiches

einer Vielzahl von exemplarischen Anwendungsfäl-

Game-Level-Design in der Umsetzungsphase. Die

len erschlossen werden. Diese Anwendungsfälle sind

zweite Dimension der Gestaltung mit intelligenten

dabei ganz unterschiedlicher Natur. Viele Systeme

Systemen betrifft die Problemlösungskompetenz der

stammen aus Forschungsprojekten, die von Universi-

Gestaltenden, die durch intelligente Systeme ver-

täten und Unternehmen durchgeführt wurden. Man-

stärkt werden kann. Hier handelt es sich um den

che dieser Projekte und Institutionen sind renom-

Bereich der Augmentation von Intuition und Kreativi-

miert, die erforschten Systeme haben Namen und

tät der Gestalter:innen durch intelligente Werkzeuge.

können in einigen Fällen direkt verwendet werden.

Indem intelligente Systeme kognitive Fähigkeiten

Manche Systeme stammen aus experimentellen Pro-

der Designer:innen erweitern, machen sie komple-

jekten, haben oft keine Namen und sind bisher nicht

xere Designentscheidungen möglich und steigern so

skaliert oder frei zugänglich gemacht worden. Sie

kreative Leistungen. Je nachdem in welchem Umfang,

können also nicht ohne Weiteres verwendet werden.

146 Howard, Thomas/Culley, Stephen/Dekoninck, Elies: „Describing the creative design process by the integration of engineering design and cognitive psychology literature“, https://www.sciencedirect.com/ science/article/pii/S0142694X08000173 (21.4.2022).

Kapitel 3: Gestaltung mit und für intelligente Systeme

59

Phase im Designprozess Recherche

Ideenfindung

Exploration

Konzeption

Umsetzung

Designstrategie

Inspiration

Suche

Low-Fidelity Prototyping

Designoptimierung

Needfinding

Ideation

Generierung

Implementierung

Anwendungsfelder für intelligente Systeme

Abb. 3.1: Taxonomie der intelligenten Gestaltungssysteme

Für manche Systeme gibt es die verwendeten Modelle

vereinfachten Designprozess intelligente Systeme zu

und Trainingsdaten frei verfügbar; sie können daher

bestimmen, die Designer:innen phasen- und auf-

auch, wie in Kapitel 5 beschrieben, in interdisziplinä-

gabenweise unterstützen können. 148 Die Grundvor-

ren Teams zu funktionalen Anwendungen entwickelt

stellung der Ordnung ist, dass intelligente Systeme

werden. In anderen Fällen handelt es sich um Syste-

prinzipiell auf sehr eingegrenzte Anwendungsgebiete

me, die kommerziell verfügbar sind oder von großen

beschränkt sein können und trotzdem einen signifi-

Unternehmen frei zur Verfügung gestellt werden. In

kanten Effekt auf den Designprozess haben, wenn sie

wenigen Fällen gibt es für experimentelle Systeme

skaliert werden. 149 Der hier vorgestellten Systematik

bereits webbasierte Anwendungen, die zum direkten

liegt der Gedanke zugrunde, dass jeder begrenzte An-

Experimentieren einladen. Einige hilfreiche nutz-

wendungsfall eine positive Wirkung auf den Gestal-

bare Anwendungen werden, nach Komplexitäts- und

tungsprozess haben kann. Die Systematik versucht,

Qualifikationsgrad gestaffelt, im Kapitel 5 vorgestellt.

diese Wirkung zusammenzufassen, zu clustern und

Eine umfangreiche Liste von hilfreichen Anwendun-

dadurch zu verdeutlichen und zugänglich zu machen.

gen, die Designer:innen direkt nutzen können, findet

Die Taxonomie intelligenter Gestaltungssysteme soll

sich auf der Website zum Buch: designundki.de.

zudem Anwendungsbereiche und Konsequenzen für den Designprozess verdeutlichen und darüber spätere

Ziel der systematischen Erschließung war es

praktische Projekte erleichtern. Die Anwendungsfälle

nicht, ein einziges intelligentes Gesamtsystem für

für die Systematik sind den Bereichen der visuellen

Gestaltung zu imaginieren, das den Fähigkeiten der

Kommunikation, des Interaktions- und Interface-

Gestaltenden letztlich auf Augenhöhe begegnet, Ge-

Designs, des Game-Designs, des Digital-Film-Designs/

staltungsaufgaben universell übernimmt und an jeder

VFX, des Modedesigns, des Produktdesigns, des

Stelle mit ihnen rückgekoppelt ist, wie es Janin Koch

User-Experience-Designs und des Kommunikations-

vorschlägt. 147 Ziel war es vielmehr, im schematisch

designs entnommen. Darüber hinaus können einige

148 Schneider, Sven/Fischer, Jan-Ruben/König, Reinhard: „Rethinking Automated Layout Design: Developing a Creative Evolutionary Design Method for the Layout Problems in Architecture and Urban Design“, in: Gero, John (Hrsg): 147 Koch, Janin: „Design implications for Designing with a Collaborative AI“, https://research.aalto.fi/en/publications/design-implicationsfor-designing-with-a-collaborative-ai (21.4.2022).

Design Computing and Cognition 10, Berlin, Heidelberg: Springer Science+Business Media 2011, S. 367–386. 149 Verganti, Roberto/Vendraminelli, Luca/Iansiti, Marco: „Innovation and Design in the Age of Artificial Intelligence“, Journal of Product Innovation Management 37 (2020), S. 221.

Kapitel 3: Gestaltung mit und für intelligente Systeme

60

Anwendungsfälle auch dem weiten Methodenspek-

den Markt startet, dann wird der Designprozess aus

trum des Design Thinkings zugeordnet werden. In

designstrategischer Sicht essenziell verbessert. Die

einer multimodalen und oftmals disziplinübergrei-

Anwendungsgebiete hierfür reichen von Social-

fenden Arbeitsweise der Gestalter:innen sind natür-

Listening-Analysen und Social-Media-Sentiment-

lich auch Ton-, Stimm- und Spracherkennung, sind

Analysen über Trend- und Product-Hype-Analysen

Gestenerkennung sowie alle multimodalen Vermi-

bis hin zu Datenanalysetools, die unternehmens- und

schungen nicht weniger relevant. Durch die Eingren-

branchenspezifische Voraussagen zum Produkterfolg

zung auf zuvorderst visuelle Medien soll die hier vor-

treffen können. Zu Letzteren gehört beispielsweise

gestellte Systematik an Fokus und Klarheit gewinnen,

Cinelytic, 150 ein Tool, das den Erfolg von Spielfilmen

ohne die multimodalen Wechselbezüge dieser uni-

anhand bestimmter Parameter wie Filmlänge, Be-

versalen Technologie, das sogenannte Cross-Domain

setzung, Genre oder Verleih prognostiziert und so die

Modeling, zu unterschlagen. Wo es sich inhaltlich

voraussichtlichen Einspielergebnisse geplanter Filme

anbot und die Anwendungsfälle es hergaben, sind die

für bestimmte Regionen und Medien ermitteln kann.

multimodalen Wechselbezüge auch eingearbeitet und hervorgehoben. Nicht jeder Anwendungsfall passt

Eine Trendanalyse hingegen erlaubt beispielsweise

exklusiv in nur eine Systemkategorie. Wo das der Fall

das Visualisierungstool Runway Palette 151, das mittels

war, wird explizit auf die Wechselbezüge hingewie-

Clustering-Verfahren dominante Farbschemen von

sen. Es obliegt den Leser:innen, diese Bezüge darüber

Modekollektionen darstellt. Mithilfe dieser Darstel-

hinaus auch für ihre Disziplin und ihre Expertisefel-

lung ist es möglich, auf einen Blick besonders häufig

der herzustellen.

oder selten genutzte Farbkombinationen innerhalb der Modekollektionen zu erkennen und basierend da-

3.2.1 Systeme für Strategie und Needfinding

rauf die strategische Farbwahl künftiger Kollektionen zu entscheiden.

In der Research-Phase sind für den Einsatz intelligenter Systeme vor allem zwei Bereiche interes-

Social-Listening- oder Social-Media-Sentiment-

sant. Im ersten großen Anwendungsbereich liefern

Analysen dienen dazu, Nutzer:innenfeedback aus

intelligente Systeme Informationen, die die Markt-

sozialen Medien zu gewinnen, um positive wie

anpassung verbessern, indem sie den Erfolg eines

negative emotionale Reaktionen auf Produkteigen-

Produkts analysieren und voraussagen. Damit sind

schaften oder langfristige Nutzer:innentrends zu

sie von strategischer Bedeutung, möchte man neue

erkennen. 152 Mittels Natural Language Processing

Produkte entwickeln oder bestehende Produkte

sowie durch Clustering- und Sentimentanalysen, die

neu ausrichten. Denn wenn die Gestaltung und das

die Stimmung der Nutzer:innen erkennen, können

Erlebnis des zukünftigen Produkts zu einem gewis-

Informationen gewonnen werden, die die Funk-

sen Grad an bestehende Nutzer:innenbedürfnisse,

tionsweise, Experience und Gestaltung von neuen

kulturelle Gewohnheiten, Trends und Geschmacks-

Produkten entscheidend beeinflussen. So kann bei-

vorstellungen angepasst werden können, bevor es in

spielsweise erkundet werden, ob bestimmte Features 150 Cinelytic: „Leading the AI Revolution in the Entertainment Industry“, https://www.cinelytic.com/about (24.2.2022). 151 Diagne, Cyril: „Runway Palette“, https://experiments.withgoogle.com/ business-of-fashion (24.1.2022). 152 IBM: „What is social media analytics?“, https://www.ibm.com/topics/ social-media-analytics (24.2.2022).

Kapitel 3: Gestaltung mit und für intelligente Systeme

61

von bestimmten Nutzer:innengruppen negativ auf-

der Erstellung datengetriebener Personas entlang

genommen werden. Auf Basis dieser Informationen

der Customer Journey. Personas sind Nutzer:in-

und durch weitere qualitative Nutzer:innenforschung

nen-Archetypen, die bisher in oft langwierigen

kann herausgefunden werden, welche Umstände

User-Research- und Syntheseprozessen quantitativ

die negativen Reaktionen hervorrufen und wie ein

und qualitativ erhoben, synthetisiert und erstellt

Design aussehen müsste, das inklusiver ist.

wurden. 155 Bei der datengetriebenen Persona-Erstellung werden die Nutzer:innentypen nicht mehr

Auch Branding-Strategien können mit solchen

vorrangig durch Interviews ermittelt, sondern durch

Analysetools unterstützt werden, denn sie erlauben

Clustering-Algorithmen aus großen Datenmengen

Aussagen über Markenloyalität, Markenkenntnis

erhoben und synthetisiert. Dabei können einerseits

und -assoziationen sowie Aussagen über marken-

öffentlich zugängliche Daten aus sozialen Medien,

relevante Urteile der Nutzer:innen über die Qualität

als auch unternehmensinterne Nutzer:innendaten

der Produkte. Zudem werden Social-Listening- oder

verwendet werden, 156 um über Behavioral-Segmenta-

Social-Media-Sentiment-Analysen genutzt, um neue

tion-Verfahren Kund:innensegmente zu ermitteln. 157

Designs, Produktfeatures und -trends von Mitbewer-

Ziel der Behavioral Segmentation ist es, Präferenzen,

bern zu erkennen und auszuwerten.

Einstellungen und Typen der Nutzer:innen aus ihrem

153

Verhalten herauszulesen. Nutzer:innen können aber Natürlich können auch Daten, die durch bereits

auch anhand demografischer Daten segmentiert

bestehende Produkte des Unternehmens generiert

werden mittels Demographic-Segmentation-Verfah-

werden, unternehmensintern genutzt und mittels

ren. Durch die Kombination beider Verfahren können

statistischer Lernverfahren ausgewertet werden.

automatisch aussagekräftige Personas erstellt werden.

Datenintensive Produkte wie beispielsweise Automobile liefern den Autokonzernen große Datenmengen,

Allerdings sind automatisch generierte Personas

die oft Hinweise über den Erfolg neuer Produktfea-

nicht automatisch fehlerfrei. Designer:innen müssen

tures liefern oder ganz neue Nutzungsweisen wie das

daher sowohl die Segmentierung der datengetrieben

autonome Fahren ermöglichen.

erstellten Personas durch Vor-Ort-Checks, qualitative

154

Stichproben und Anti-Persona-Vergleiche überprüfen Der zweite große Anwendungsbereich für intel-

als auch Feedback von professionellen Anwender:

ligente Systeme in der Research-Phase umfasst den

innen der Persona-Profile einholen. 158 Zudem sind

User Research selbst. Hier assistieren Systeme bei

automatisch generierte Personas derzeit noch nicht

155 Lewrick, Michael/Leifer, Larry/Link, Patrick: Das Design Thinking Playbook, München: Vahlen 2017, S. 19. Lewrick, Michael/Leifer, Larry/Link, Patrick: Design Thinking Toolbox, 153 D’Arco, Mario/Lo Presti, Letizia/Marino, Vittoriav et al.: „Embracing AI and Big Data in customer journey mapping: from literature review to a theoretical framework“, Innovative Marketing 15 (2019), S. 109. 154 Bauer, Harald/Richter, Gérard/Wüllenweber, Jan et al.: „Smartening

Hoboken: Wiley 2020, S. 97. Adlin, Tamara/Pruitt, John: The Essential Persona Lifecycle. Your Guide to Building and Using Personas, Burlington: Elsevier 2010, S. 15 f. 156 An, Jisun/Kwak, Haewoon/Jung, Soon-gyo et al.: „Customer segmentation

up with Artificial Intelligence. What’s in it for Germany and its

using online platforms: isolating behavioral and demographic segments for

Industrial Sector?“, https://www.mckinsey.com/~/media/mckinsey/

persona creation via aggregated user data“, Social Network Analysis and

industries/semiconductors/our%20insights/smartening%20up% 20with%20artificial%20intelligence/smartening-up-with-artificialintelligence.ashx (24.2.2022).

Mining 8 (2018), S. 4. 157 Jansen, Bernard/Salminen, Joni/Jung, Soon-gyo et al.: Data-driven Personas, San Rafael: Morgan and Claypool 2021, S. 14. 158 Salminen, Joni/Guan, Kathleen/Jung, Soon-Gyo et al.: „A Survey of 15 Years of Data-Driven Persona Development“, International Journal of Human– Computer Interaction 37 (2021), S. 1700.

Kapitel 3: Gestaltung mit und für intelligente Systeme

62

3.2.2 Systeme für Ideation und Inspiration

in der Lage, tiefgreifende Informationen wie etwa Wünsche und Bedürfnisse der Nutzer:innen zu ermitteln.159 Es ist deshalb wichtig, besonders relevante

Nachdem in der Designstrategie- und Needfinding-

Informationen wie Wünsche und Bedürfnisse der

Phase der generelle Fokus des Produkts auf ein

Personas durch qualitative Interviews zu ermitteln

bestehendes Nutzer:innenbedürfnis und damit auf

und im Persona-Profil zu ergänzen, da sonst die

einen potenziellen Markt erforscht wurde, werden

Gefahr besteht, dass die datengenerierten Personas

nun Ideen gesucht, wie dieses Bedürfnis in einem

unvollständig und damit nicht aussagekräftig genug

gestalteten Produkt oder Service umgesetzt werden

sind. Die Gestalter:innen und der User Research

kann. In der Ideenfindungsphase suchen Gestalter:in-

koordinieren dann auf Basis der datengetriebenen

nen oft gemeinsam in einem Produktteam nach mög-

Personas die Auswahl der zu interviewenden Vertre-

lichen neuen Ideen für nützliche Produkte. In dieser

ter:innen der jeweiligen Persona-Gruppe.

Phase können intelligente Systeme auf mehreren Ebenen hilfreiche Dienste leisten.

Der wesentliche Vorteil von datengetriebenen Personas besteht darin, dass sie schneller zu erstellen

Auf der Ebene der konzeptionellen Ideenfindung

sind als qualitativ erhobene Personas und dass sie

stehen Designer:innen oft vor dem Problem, einen

sich auch an veränderliche Nutzer:innenpräferenzen

Lösungsraum sinnvoll zu erkunden. Hier kann ein

schnell anpassen lassen.

Tool wie GPT-3 das Brainstorming sinnvoll unter-

160

Eine Kombination aus

datengetriebener Persona-Erstellung ergänzt um qua-

stützen, 161 da es Ideen nicht nur zufällig generiert,

litative Interviews scheint derzeit das zielführendste

sondern basierend auf ähnlichen Lösungswegen

Vorgehen.

konzeptionell zielführende Vorschläge liefert. GPT-3 ist mit über 17 Milliarden Verknüpfungen eines der

Generell kann man für die Needfinding- und

größten Transformer-Netzwerke weltweit und in

Strategiephase resümieren, dass intelligente Systeme

der Lage, anhand von wenigen Beispielen, die die

dabei unterstützen, Produkte und Services stärker auf

Designer:innen vorgeben, ähnliche Ideen zu generie-

Nutzer:innenbedürfnisse abzustimmen und Trends

ren. Das intelligente System nutzt also konzeptionell

vorherzusagen. Sie sorgen auch dafür, den Zeitauf-

eingegrenzte Lösungswege, ohne dabei zu stark die

wand zu reduzieren, der anfällt, um aussagekräftige

Trainingsbeispiele zu imitieren. Mittels einstellbarer

Nutzer:innenprofile zu erstellen, weshalb Personas

Parameter kann das System auch abwegige Vorschlä-

jederzeit aktuell bleiben.

ge erzeugen und so neue Ideen bei den Gestalter:innen hervorrufen. Derzeit wird auch versucht, die Qualität der Ideen und ihren zukünftigen Erfolg durch statistisches Lernen vorherzusagen. 162 Diese ersten Experimente

159 Salminen, Joni/Jung, Soon-gyo/Jansen, Bernard: „The Future

161 Syverson, Ben: „The Rules of Brainstorming Change When Artificial

of Data-driven Personas. A Marriage of Online Analytics Numbers

Intelligence Gets Involved. Here’s How“, https://www.ideo.com/blog/

and Human Attributes“, in: Filipe, Joaquim/Smialek, Michal/

the-rules-of-brainstorming-change-when-ai-gets-involved-heres-how

Brodsky, Alexander et al. (Hrsg.): Proceedings of the 21st International Conference on Enterprise Information Systems, Setúbal: Scitepress 2019, S. 611. 160 Jansen/Salminen/Jung et al.: Data-driven Personas, S.10.

(27.1.2022). 162 Georgiev, Georgi/Georgiev, Danko: „Enhancing user creativity: Semantic measures for idea generation“, Knowledge-Based Systems 151 (2018), S. 11.

Kapitel 3: Gestaltung mit und für intelligente Systeme

63

erstrecken sich momentan auf Ideen mit einem aka-

Ein Tool wie der Collaborative Ideation Partner 167

demischen Background, werden aber sicher mittel-

liefert so die Möglichkeit, gemeinsam mit dem intel-

fristig auch für den Designprozess erstellt werden

ligenten System Ideen auf der visuellen Ebene direkt

können. Für Ideen, die nicht von Designer:innen,

zu erkunden und ko-kreativ zu transformieren.

sondern durch eine mehr oder weniger große Gruppe von Menschen, also mittels Crowdsourcing, erstellt

Visuelle Ideenfindung findet im Design oft auch

werden sollen, können intelligente Systeme helfen,

über eine Sammlung visueller Materialien und

indem sie Ideen quantifizierbar und so zugänglich

Konzepte statt, die sogenannte Mindmap, die einer-

machen. In einem System, das an der Technischen

seits konkrete Ideen für den Gestaltungsraum des

Universität Singapur erstellt wurde,

Produkts sammelt, andererseits aber auch eine

163

werden die

massenhaft generierten Designideen der Crowd

Materialsammlung zur Inspiration darstellt, über die

darauf geprüft, inwiefern sie neu, einzigartig und

Gestalter:innen oft hinausgehen, indem sie Ideen

umsetzbar, aber auch wie detailliert sie ausgeführt

kombinieren. Eine solche visuelle Mindmap zu er-

sind. Damit wird es möglich, große Mengen von

stellen ist oft zeitaufwendig. Ein semi-automatisches

Ideen über das Designteam hinaus zu evaluieren und

System 168 kann Designer:innen dabei unterstützen,

Crowdsourcing permanent in den Designprozess ein-

visuelle Konzepte in den Mindmaps sinnvoll zu

zubinden.

gruppieren. Das System ordnet basierend auf einem Clustering-Algorithmus das gesammelte Material, so-

Ein weiteres intelligentes System unterstützt De-

dass semantisch und visuell ähnliches Material näher

signer:innen bei der visuellen Ideenfindung. Basie-

beieinander liegt. Als unüberwachtes Lernverfahren

rend auf handgezeichneten Skizzen findet das System

muss beim Clustering das zu sortierende Material

weitere Skizzen mit semantischen und visuellen

noch nicht einmal gelabelt werden. Außerdem ver-

Ähnlichkeiten.

bindet das System ähnliche Inhalte durch Linien.

164

Das System kann sehr ähnliche

oder wenig ähnliche Skizzen liefern und damit die

Designer:innen können so das Material schneller und

kombinatorische und transformationale Kreativität

besser einsehen, zu neuen Ideen kombinieren und zu

von Designer:innen anregen.

unterschiedlichen Stylescapes ausbauen. So kön-

165

Das Verfahren funk-

tioniert ähnlich wie die Ideationsmethoden Scamper

nen Designkonzepte schneller vorbereitet und mit

und Escape,

Kund:innen abgestimmt werden.

166

die es ermöglichen, durch konzeptio-

nelle Umkehrung, Aufhebung und Verschiebung von Bestandteilen der Idee selbige zu transformieren.

163 Camburn, Bradley/He, Yuejun/Raviselvam, Sujithra et al.: „Evaluating Crowdsourced Design Concepts With Machine Learning“, https://doi.org/10.1115/DETC2019-97285 (27.1.2022). 164 Karimi, Pegah/Davis, Nicholas/Maher, Mary Lou et al.: „Relating

167 Kima, Jingoog/Mahera, Mary Lou/Siddiquia, Safat: „Studying the Impact of AI-based Inspiration on Human Ideation in a Co-Creative Design System“, http://ceur-ws.org/Vol-2903/IUI21WS-HAIGEN-7.pdf (27.1.2022). 168 Camburn, Bradley/Arlitt, Ryan/Anderson, David et al.: „Computer-aided

Cognitive Models of Design Creativity to the Similarity of Sketches

mind map generation via crowdsourcing and machine learning“, Research

Generated by an AI Partner“, in: Dow, Steven/Maher, Mary Lou (Hrsg.):

in Engineering Design 31 (2020), S. 383.

Proceedings of the 2019 ACM Conference on Creativity and Cognition, Association for Computing Machinery, New York: Association for Computing Machinery 2019, S. 260. 165 Karimi/Davis/Maher et al.: Relating Cognitive Models, S. 264. 166 Rustler, Florian: Denkwerkzeuge. Thinking Tools for Creativity and Innovation, St. Gallen: Midas 2018, S. 178 ff.

Kapitel 3: Gestaltung mit und für intelligente Systeme

64

Bevor Ideen in der Konzeptionsphase erprobt und

Experimente erlaubt auch GPT-3, denn es übersetzt

umgesetzt werden können, gibt es oft noch eine Pha-

Texteingaben in fertigen Programmcode für künst-

se der freien Inspiration. In dieser Phase suchen Ge-

lerische Experimente, beispielsweise für die Pro-

stalter:innen nach Eingebungen, um ihr Vorstellungs-

grammiersprache Processing. 174 Das Netzwerk erstellt

vermögen darüber zu erweitern, auf welche Art und

basierend auf sprachlichen Umschreibungen funk-

Weise das Designproblem oder -briefing umgesetzt

tionierenden Code. Die experimentellen Ergebnisse

werden könnte. In dieser Inspirationsphase helfen

dieser Ko-Kreation waren sowohl inspirierend als

intelligente Systeme nicht nur bei der Materialsamm-

auch überraschend, weil auch abstrakte Texteingaben

lung, sondern ermöglichen auch eine experimentelle

wie etwa „Erstelle etwas Großartiges“ funktionieren-

Auseinandersetzung mit dem Designmaterial, denn

den Code lieferten, der Ideen anregte.

oft entstehen Ideen erst, wenn Gestalter:innen gestalterische Möglichkeiten praktisch erkunden, verwer-

Insgesamt kann man für die Ideenfindungs- und

fen und neu kombinieren können.

Inspirationsphase festhalten, dass intelligente Systeme die Ideenfindung beschleunigen, indem sie Ideen

Hier sind Tools wie Wekinator, Teachable Machine

171

169

oder ML5.js

172

Playform,

entweder selbst generieren oder den Grad an Kreati-

170

vität und Inspiration, der zur Ideenfindung nötig ist,

nützlich, die

es ermöglichen, Designideen iterativ zu erkunden.

erhöhen, indem sie entscheidende Vorarbeiten leisten,

Designer:innen können mit diesen Tools auf bereits

neue Einfälle provozieren oder Designexperimente

trainierte Modelle zurückgreifen und damit unkom-

ermöglichen. Insgesamt erlauben diese Tools, immer

pliziert Inputs, wie Bilder, Töne oder Gesten, mit

größere Mengen an Ideen in immer kürzerer Zeit zu

bestimmten gestalterischen Outputs, wie Farben,

erstellen, sinnvoll zu ordnen und auszuwerten.

Formen oder Typografie, verknüpfen. Auf diese Weise 3.2.3 Systeme für Suche und Generierung

kommen sie oft zu unvorhergesehenen und überraschenden Ergebnissen. Die Daten, die für diese Experimente benötigt werden, stellen Designer:innen

In der dritten Gestaltungsphase, der Explorations-

in geringen Mengen selbst zur Verfügung. Die Daten

phase, erkunden Gestalter:innen, basierend auf ei-

gleichen eher einem Material für experimentelle und

nem eingegrenzten Problemraum, systematisch den

spielerische Gestaltungsideen und müssen nicht

Möglichkeitsraum für Gestaltungslösungen. Hier

streng kontrolliert werden, damit der Algorithmus

öffnen sich zwei große Anwendungsfelder für in-

korrekt funktioniert, wie Rebecca Fiebrink unter-

telligente Systeme. Zum einen können vorhandene

streicht.

Gestaltungselemente und -lösungen gesucht werden.

173

Zum anderen können intelligente Systeme Gestaltung 169 Wekinator: „Welcome“, http://www.wekinator.org (27.1.2022).

generieren und werden so zu generativen Systemen.

170 Playform: „No Code AI for Creative People“,

Diese vorgeschlagenen Lösungen können Gestal-

https://create.playform.io (27.1.2022). 171 Teachable Machine: „Teachable Machine“, https://teachablemachine.withgoogle.com (27.1.2022). Das Tool wird auch noch einmal in Kapitel 5 vorgestellt.

ter:innen dann erkunden und iterativ weiterentwickeln. Zum Teil sind generative Systeme schon so

172 ML5: „Friendly Machine Learning for the Web“, https://ml5js.org (27.1.2022). Das Tool wird auch noch einmal in Kapitel 5 vorgestellt. 173 Fiebrink, Rebecca: „How Design Changes Machine Learning.

174 Loewe, Sebastian: „We Generated P5-Code Based on Text Inputs with OpenAI’s GPT-3 and This Could Show the Future of Designer-Machine

How Machine Learning Changes Design“, in: Engenhart, Marc/

Co-Creation“, https://sebastian-loewe.medium.com/we-generated-p5-

Loewe, Sebastian (Hrsg.): Proceedings of the First Conference

code-based-on-text-inputs-with-openais-gpt-3-and-this-could-show-

on Designing with Artificial Intelligence, München:

the-future-of-db2ae41efc8d (27.3.2022).

appliedAI 2021, S. 29.

Kapitel 3: Gestaltung mit und für intelligente Systeme

65

elaboriert, dass ihre Ergebnisse je nach Problemstel-

in Bildern unterschiedlichster Epochen auffindbar.

lung keine weitere Bearbeitungsphase mehr benöti-

Damit lassen sich nicht nur designhistorische Zusam-

gen und direkt in das fertige Produkt fließen können.

menhänge entdecken, die inspirierend auf Gestal-

Hier überschneiden sich die Anwendungsgebiete der

ter:innen wirken können, sondern auch Bildelemente

Systeme und generative Systeme können in mehreren

für Gestaltung noch schneller und gezielter finden.

Phasen zum Einsatz kommen. Die Suche von passenden Schriftschnitten wird Die intelligenten Suchsysteme erstrecken sich

durch ein Tool 179 wie den Fontjoy Projector er-

dabei jeweils auf Bild oder Sprache, können aber auch

leichtert, der Schriften in einem dreidimensionalen

beides kombinieren. So sucht Clip

Cluster darstellt. Ähnliche Schriftschnitte werden

175

von OpenAI

basierend auf Texteingaben nach Bildern, die nicht

nah beieinander gruppiert, Schnitte, die keine große

verschlagwortet worden sein müssen. Das neuronale

Ähnlichkeit besitzen, sind weiter voneinander ent-

Netz hat den Zusammenhang von Bildinhalten und

fernt. Durch die dreidimensionale, interaktive Dar-

Bildbeschreibung gelernt und ermöglicht es Gestal-

stellung können Gestalter:innen die Beziehungen der

ter:innen, in großen Mengen unklassifizierter Bilder

Schriftschnitte intuitiv entdecken und ihre formalen

nach Bildinhalten zu suchen. Adobes Bildersuche

Beziehungen auf einen Blick erfassen. Das hilft dabei,

176

ermöglicht es Gestalter:innen sogar, Begriffe räum-

Auswahlprozesse und Vorarbeiten des Designs zu

lich auf einer Canvas zu arrangieren und Bilder zu

beschleunigen, wenn Gestalter:innen beispielsweise

finden, deren Bildinhalte im Bild räumlich genauso

Schriften zu Paaren zusammenstellen wollen.

angeordnet sind wie die Begriffe auf der Canvas. Wenn der Begriff „Hund“ links neben dem Begriff

Ähnlich funktioniert eine Suche, die auf einem

„Mensch“ steht, findet die Suche Bilder, in denen

intelligenten System basiert, das die Charakteris-

ein Hund auch links neben einem Menschen steht.

tika und Begriffe von dreidimensionalen digitalen

Damit wird die Bildrecherche enorm erleichtert und

Objekten gelernt hat. 180 So ist es möglich, in großen

beschleunigt, denn Designer:innen finden nun auch

3D-Modell-Archiven nach spezifischen Details und

komplexere, aufeinander räumlich bezogene Bildin-

Bestandteilen der 3D-Modelle zu suchen. Desig-

halte.

ner:innen können so nach spezifischen Bestandteilen wie beispielsweise Scheibenwischern oder Armatu-

Statistisches Lernen findet zudem formal ähnliche

renbrettern bei Automodellen suchen und ersparen

Elemente in Malerei, 177 Grafiken oder Skulpturen 178

sich aufwendige Recherchen durch Modelle, die diese

über verschiedene Jahrhunderte hinweg. Formal

Bestandteile nicht haben.

gleiche Elemente wie etwa eine Geste werden damit

175 Open AI: „CLIP: Connecting Text and Images“, https://openai.com/blog/clip (27.1.2022). 176 Adobe Creative Cloud: „#ConceptCanvas. Adobe MAX 2016“, https://www.youtube.com/watch?v=Yyj6oWkAI0I (27.1.2022). 177 Hamilton, Mark/Fu, Stephanie/Lu Mindren et al.: „MosAIc: Finding Artistic Connections across Culture with Conditional Image Retrieval“, https://microsoft.github.io/art/app (27.1.2022). 178 Shen, Xi/Efros, Alexei/Aubry, Mathieu: „Discovering Visual Patterns in Art Collections with Spatially-consistent Feature Learning“, http://imagine.enpc.fr/~shenx/ArtMiner (27.1.2022).

179 Fontjoy: „Projector“, https://fontjoy.com/projector (27.1.2022). 180 Yi, Li/Guibas, Leonidas/Hertzmann, Aaron et al.: „Learning Hierarchical Shape Segmentation and Labeling from Online Repositories“, https://cs.stanford.edu/~ericyi/project_page/hier_seg/index.html (27.1.2022).

Kapitel 3: Gestaltung mit und für intelligente Systeme

66

Prinzipiell werden mit intelligenten Systemen alle

Landschaften oder Autos. GANs und VAEs sind

Arten von visuellen Gestaltungskomponenten für

grundsätzlich in der Lage, nicht nur die Bilder zu

Suchaktionen zugänglich, sogar ganze Website-

reproduzieren, mit denen sie trainiert wurden, son-

Wireframes.

dern können den visuellen Möglichkeitsraum – den

181

Designer:innen können damit große

Mengen möglicher Website-Architekturen durch-

sogenannten Latent Space – darstellen, der zwischen

suchen, sich inspirieren lassen und die gefundenen

und neben den bekannten Bildinhalten hypothetisch

Wireframes ihren Gestaltungsvorgaben entsprechend

existiert. So ist es möglich, ganz neue und unvorher-

anpassen.

gesehene Bildinhalte zu generieren und Designer:innen zur Exploration zugänglich zu machen.

Der Effekt aller intelligenten Suchen ist schließlich, dass die Designexplorationsphase beschleunigt

Die momentan fortschrittlichsten Versionen ge-

wird, dass der Möglichkeitsraum systematischer und

nerativer Verfahren sind solche, die es erlauben, den

umfassender erkundet werden kann und dass der An-

visuellen Möglichkeitsraum in zwei Dimensionen zu

schluss an die Prototyping-Phase besser gelingt, weil

kontrollieren. Das ist zum einen die Domain der Bild-

häufig schon die richtigen Assets gefunden wurden.

inhalte, also die Bildkategorien, und zum anderen der Stil der Bildinhalte. 182 Im Falle von Gesichtern wird

In der zweiten großen Abteilung der Explorations-

es möglich, beispielsweise Frauengesichter in eine

phase kommen Verfahren der Bilderstellung zum

andere Domain zu transferieren, also etwa männ-

Einsatz. Hier sind zwei intelligente Systeme zu nen-

lich zu machen, oder das Gesicht eines Prominenten

nen, die häufig genutzt werden. Das sind zum einen

mit dem eines anderen zu mischen. 183 Es wird aber

die Generative Adversarial Networks, GANs, die

auch möglich, ein lachendes Gesicht in ein trauriges

auch in Kapitel 2 erklärt wurden, und zum anderen

zu überführen, Katzen mit Hunden zu kreuzen oder

die Variational Autoencoder, VAEs, die ähnlich wie

Tages- in Nachtansichten zu verwandeln. Mittlerwei-

die GANs generative Verfahren sind und ähnliche

le können bildgebende Verfahren auch schon mit nur

Ergebnisse erzeugen. Beide Systeme sind mittler-

einem Bild als Trainingsbeispiel eine menschliche

weile in der Lage, selbstständig hochwertige, pixel-,

Pose erkennen und dieselbe Person in einer anderen

voxel- und meshbasierte Formen für im Prinzip jeden

Pose fotorealistisch darstellen. 184 Weiterhin ist es

Bildinhalt zu generieren. Da aber oft eine sehr große

möglich, den Stil der Bilder zu verändern und für

Datenmenge nötig ist, um das System zu trainieren,

ein weibliches Gesicht die Haarfarbe und -länge zu

sind die meisten GANs und VAEs nur auf einen be-

ändern, ohne dass dafür ein Vorbild tatsächlich hätte

stimmten Bildinhalt spezialisiert. In der Regel sind

existieren müssen. Es ist ebenfalls möglich, Stile

das Bildinhalte, für die schon große Bildbibliotheken

zwischen zwei Bildern zu übertragen. Mit dem Style

zu Trainingszwecken angelegt und öffentlich zu-

Transfer 185 wird der Stil eines Ausgangsbilds auf das

gänglich gemacht wurden, etwa für Gesichter, Tiere,

Zielbild übertragen. So werden einfache Landschafts182 Choi, Yunjey/Uh, Youngjung/Yoo, Jaejun et al.: „StarGAN v2: Diverse Image Synthesis for Multiple Domains“, https://github.com/clovaai/stargan-v2 (28.1.2022). 183 Karras, Tero/Aittala, Miika/Laine, Samuli et al.: „Alias-Free Generative Adversarial Networks (StyleGAN3)“, https://nvlabs.github.io/stylegan3 (28.1.2022). 184 AlBahar, Badour/Lu, Jingwan/Yang, Jimei et al.: „Pose with Style: Detail-

181 Chen, Jieshan/Chen, Chunyang/Xing, Zhenchang et al.: „Wireframe-Based UI Design Search Through Image Autoencoder“, https://arxiv.org/abs/2103.07085 (28.1.2022).

Preserving Pose-Guided Image Synthesis with Conditional StyleGAN“, https://arxiv.org/abs/2109.06166 (4.2.2022). 185 Pang, Yingxue/Lin, Jianxin/Qin, Tao et al.: „Image-to-Image Translation: Methods and Applications“, https://arxiv.org/abs/2101.08629 (28.1.2022).

Kapitel 3: Gestaltung mit und für intelligente Systeme

67

fotos zu Gemälden von van Gogh oder Porträtfotos

Alle diese oben beschriebenen Elemente und

zu Comiczeichnungen.

Funktionen finden sich im derzeit aktuellsten GANModell, EditGAN 189 von Nvidia, wieder. Mit diesem

Die beiden Dimensionen Stil und Domain lassen

System ist es außerdem möglich, mit extrem wenigen

sich aber nicht nur visuell steuern; es gibt Systeme,

Bildern die volle individuelle Kontrolle über alle Be-

die auch textbasierte Manipulation unterstützen. 186

reiche des Bildes zu bekommen. In den kommenden

Designer:innen können dann mittels detaillierter

Jahren sind sicher noch viele schnelle Fortschritte in

sprachlicher Beschreibungen zunächst das Ausgangs-

der Entwicklung von GANs zu erwarten und Syste-

bild definieren und dann das Zielbild bestimmen.

me wie EditGAN sicher bald Standard im Designpro-

So kann das Ausgangsbild einer jungen Frau mit der

zess.

Beschreibung „junge Frau“ versehen werden und das Zielbild mit „alter Mann“. Aus dem Bild der jungen

Natürlich beschränken sich die generativen Ver-

Frau wird dann ein älterer Herr. Das Überraschende

fahren der Bilderzeugung nicht nur auf natürliche

daran ist, dass der ältere Herr Ähnlichkeiten aufweist

Gegenstände, wie Personen, Tiere oder Landschaften.

mit der jungen Frau. Man kann das Ausgangsbild

Auch Designartefakte können mit diesen Systemen

der jungen Frau aber auch als „alte Frau“ bezeichnen

generiert werden. So ist es möglich, Logos 190 unter

und das GAN eine „junge Frau“ erstellen lassen. Ent-

Berücksichtigung bestimmter Eigenschaften und

sprechend verjüngt sieht das errechnete Gesicht aus.

Kategorien zu generieren. Allerdings kommen die

Deutlich wird, dass Domain- und Stilmanipulationen

Ergebnisse dieser Systeme bei Weitem noch nicht an

anhand sprachlich-semantischer Konzepte noch freier

die Klarheit, Schönheit, Symbolik oder den formalen

möglich sind und der Möglichkeitsraum für visuelle

Witz gut gestalteter Logos heran. Die symbolische

Exploration noch größer wird.

und semiotische Ebene bleibt den intelligenten Systemen zumindest für gutes Logodesign noch eine Weile

Mittels sogenannter semantischer Segmentie-

verschlossen. Hierfür bedarf es also weiterhin Gestal-

rung 187 der Bilder, die die neueren GANs auch beherr-

ter:innen, die die vielen Vorschläge des Systems in

schen, ist es zudem möglich, spezifische Bildbereiche

ein sinn- und bedeutungsvolles Markenzeichen trans-

zu manipulieren, ohne den Rest des Bildes zu ver-

ferieren. Stattdessen gestalten intelligente Systeme

ändern. So können Designer:innen nur die Farbe und

die Logos dann automatisch farblich. 191 Designer:in-

das Muster von Kleidungsstücken oder nur die Form

nen können so den Farbraum für fertiggestellte Logos

und Farbe von Schuhen oder nur den Haarschnitt

übersichtlich und schnell erkunden, ohne mühselig

und die Haarfarbe in Personendarstellungen ver-

einzelne Farbvariationen erstellen zu müssen.

ändern. Einige dieser Verfahren sind als sogenannte Neural Filters 188 in Adobe Photoshop verbaut und bereits nutzbar.

186 Patashnik, Or/Wu, Zongze/Shechtman, Eli et al.: „StyleCLIP: Text-Driven Manipulation of StyleGAN Imagery“, https://replicate.com/orpatashnik/styleclip (28.1.2022). 187 Zhu, Zhen/Xu, Zhiliang/You, Ansheng et al.: „Semantically Multi-modal Image Synthesis“, https://github.com/Seanseattle/ SMIS (28.1.2022). 188 Adobe: „Neural Filters overview“, https://helpx.adobe.com/ photoshop/using/neural-filters.html (28.1.2022).

189 Ling, Huan/Kreis, Karsten/Fidler, Sanja et al.: „EditGAN: High-Precision Semantic Image Editing“, https://nv-tlabs.github.io/editGAN (1.2.2022). 190 Oeldorf, Cedric/Spanakis, Gerasimos: „LoGANv2: Conditional Style-Based Logo Generation with Generative Adversarial Networks“, https://arxiv.org/abs/1909.09974 (17.6.2022). Sage, Alexander/Agustsson, Eirikur/Timofte, Radu et al.: „Logo Synthesis and Manipulation with Clustered Generative Adversarial Network“, https://data.vision.ee.ethz.ch/sagea/lld (28.1.2022). 191 Brandmark: „AI Color Wheel“, https://brandmark.io/color-wheel (28.1.2022).

Kapitel 3: Gestaltung mit und für intelligente Systeme

68

Neben Logos können auch Schriftschnitte erzeugt

nung lernt und daraus selbstständig Gestaltungsprin-

werden. Ein Variational-Autoencoder-Netzwerk

zipien ableitet. 194 So kann das System lernen, welche

lernt das Skelett von Glyphen, die es in eine Schab-

Elemente zueinander im Zusammenhang stehen,

lone einpasst, um dann kohärente neue Typen und

und verhindern, dass sich Elemente überlappen oder

Schriftschnitte zu erzeugen. Zudem ist es mit diesem

falsch ausgerichtet sind. Das System hat sowohl die

Verfahren möglich, unvollständige Schriftschnitte zu

gesamte Gestaltungsfläche im Blick als auch die Lo-

vervollständigen. So können Gestalter:innen ganze

gik ihrer Einzelelemente zueinander. Auf diese Weise

Schriftschnitte nur auf Grundlage einiger weniger

bekommen Designer:innen noch mehr Kontrolle über

gefundener Typen generieren und damit auf mehr

die Variationen innerhalb der Layoutgenerierung.

Designelemente zugreifen. Natürlich sind die Bilderzeugungsverfahren nicht Auch komplexere Formen, wie Editorial- und Web-

nur auf zweidimensionale Pixel beschränkt, sondern

site-Layouts

umfassen auch dreidimensionale Formen. So ist es

192

können durch GANs und VAEs gene-

riert und erkundet werden. So können Conditional

möglich, den visuellen Möglichkeitsraum auch für

GANs lernen, die Gestaltungselemente eines Layouts,

dreidimensionale Objekte zu berechnen und zugäng-

wie etwa Bilder, Logos, Buttons oder Headlines, in

lich zu machen. 195 Allerdings sind frühe Systeme nur

einem größeren Zusammenhang zu identifizieren,

in der Lage gewesen, Formen als Gesamtform oder in

und dann daraufhin neue Layouts generieren, die

einzelnen Formencontainern zu erstellen, was wiede-

gewohnte Leserichtungen einhalten und die Bildele-

rum weniger gestalterische Manipulation erlaubt. Se-

mente hierarchisch korrekt gliedern.

Je nach Größe

mantische Segmentierung auch für dreidimensionale

der einzelnen Elemente sortieren sich dann die jewei-

Objekte erlaubt es nun, genau definierte Bereiche im

ligen Elemente sinnvoll zu einer neuen Gesamtge-

3D-Modell zu manipulieren, ohne dabei die restliche

staltung. Retargeting und Resizing von bestehenden

Form zu verändern. 196 Analog zu zweidimensionalen

Layouts werden hierdurch automatisiert möglich.

Bildern gibt es auch ein Style-Transfer-Verfahren für

Designer:innen sparen so Zeit, wenn sie Layouts in

dreidimensionale Objekte. 197 So wird es möglich, ein-

andere Formate übertragen müssen.

heitliche Stile schnell auf viele 3D-Modelle gleichzei-

193

tig zu übertragen. Kombiniert man ein Transformer-Netzwerk mit einem Conditional VAE, ist sogar ein intelligentes

Letztlich können intelligente Systeme nicht nur

System möglich, das sowohl die Kategorien der Ge-

eine Vielzahl von 3D-Objekten erstellen, sondern

staltungselemente als auch ihre räumliche Anord-

auch dabei assistieren, diejenigen auszuwählen, auf

192 Zhao, Tianming/Chen, Chunyang/Liu, Yuanning et al.: „GUIGAN: Learning to Generate GUI Designs Using Generative Adversarial Networks“, https://github.com/GUIDesignResearch/GUIGAN (28.1.2022). 193 Li, Jianan/Yang, Jimei/Zhang, Jianming et al.: „Attribute-Conditioned

194 Guo, Mengxi/Huang, Danqing/Xie, Xiaodong: „The Layout Generation Algorithm of Graphic Design Based on Transformer-CVAE“, https://arxiv.org/abs/2110.06794 (28.1.2022). 195 Kleineberg, Marian/Fey, Matthias/Weichert, Frank: „Adversarial Generation of Continuous Implicit Shape Representations“,

Layout GAN for Automatic Graphic Design“, IEEE Transactions on

https://github.com/marian42/shapegan (28.1.2022).

Visualization and Computer Graphics 27 (2021), S. 4039–4048.

This Chair Does Not Exist: „GAN-generated Chairs“, https://thischairdoesnotexist.com (01.02.2022). 196 Wei, Fangyin/Sizikova, Elena/Sud, Avneesh: „Learning to Infer Semantic Parameters for 3D Shape Editing“, https://ieeexplore.ieee.org/document/9320459 (28.1.2022). 197 Lun, Zhaoliang/Kalogerakis, Evangelos/Wang, Rui et al.: „Functionality Preserving Shape Style Transfer“, ACM Transactions on Graphics 35 (2016), S. 1–14.

Kapitel 3: Gestaltung mit und für intelligente Systeme

69

deren Grundlage neue Objekte generiert werden.

einüben müssen, damit sie von Qualität und Neuig-

Dream Lens

keitsgrad der Entwürfe nicht überfordert sind. Eine

198

ist ein solches System, das Desig-

ner:innen unterstützt, indem es nicht nur 3D-Ent-

Studie 199 unterstreicht, dass die Qualität der Entwür-

würfe nach bestimmten gestalterischen Vorgaben

fe wesentlich dadurch beeinflusst wird, welche tech-

generiert. Es listet die Entwürfe auch nach Passungs-

nischen Systeme genutzt werden und wie diese bei

grad auf und hilft so dabei, diejenigen Entwürfe

der Vorauswahl der Entwürfe unterstützen. Je besser

zu identifizieren, die dann die Grundlage für einen

die Unterstützung ausfällt, umso besser sind auch die

weiteren generativen Gestaltungsdurchlauf des

Entwürfe. Designer:innen können die generierten

Systems sein sollen. Damit ermöglicht das System

Vorschläge aber genauso als erste Studien nutzen, um

den Designer:innen, gezielter große Datenmengen zu

sie als Varianten in Kund:innenworkshops zu disku-

explorieren und schneller die Entwürfe ausfindig zu

tieren, bevor sie finalisiert werden. Weniger erfahre-

machen, die sie favorisieren.

nen Designer:innen ermöglichen die Tools, schneller neue Ideen zu finden und leichter in den Designpro-

Insgesamt bekommen Designer:innen mit und

zess hineinzufinden. Das sprichwörtliche leere weiße

durch die generativen Systeme neue Freiheitsgrade

Blatt wird mit diesen Systemen verhindert.

geschenkt. Zudem wird mit den Systemen erheblich Aufwand und damit Zeit erspart. Dabei erfüllen

Darüber hinaus besteht schon mit diesen Systemen

Designer:innen unterschiedliche Rollen. Sie wählen

das Potenzial, Designprozesse zu automatisieren. So

für und mit diesen Systemen entweder das Trai-

kann ein generatives System beispielsweise einerseits

ningsmaterial aus, wenn sie Bilderzeugungssysteme

viele verschiedene Vorschläge für Layouts machen.

mitentwickeln, oder sie greifen auf vorhandene,

Es kann andererseits aber auch – wenn es eine be-

vortrainierte Netzwerke zurück und wählen dann das

stimmte Schwelle der Qualität erreicht hat – Layouts

Quellmaterial für die Bilderzeugung aus oder bestim-

automatisch an bestimmte Seitengrößen anpassen.

men diejenigen Bildbereiche, die das System iterativ

Den Designer:innen spart ein solch automatisiertes

verändert. Sie legen die Parameter fest, mit denen die

Vorgehen in repetitiven Designprozessen häufig viel

Bilder und Formen generiert werden, und werten die

monotone Arbeit. Für Nutzer:innen kann damit das

Ergebnisse der Systeme kritisch aus, prüfen, welche

Produkterlebnis personalisiert werden, etwa wenn

gestalterische Richtung weiterverfolgt werden soll,

Alibaba für Onlinewerbung Tausende unterschied-

und arbeiten sich auf dieser Basis iterativ zum für das

licher Layouts durch automatisches Retargeting und

Designproblem besten Ergebnis vor.

Resizing individuell ausspielt. 200 Dieser Aspekt der Personalisierung wird im Kapitel „Gestaltung für

Es ist wichtig zu vermerken, dass durch die mas-

intelligente Systeme“ näher ausgeführt und vertieft.

senhaft generierten Designvorschläge eine neue Art von Auswahlverfahren entsteht, das Designer:innen

198 Matejka, Justin/Glueck, Michael/Bradner, Erin et al. „Dream Lens: Exploration and Visualization of Large-Scale Generative Design Datasets“, https://dl.acm.org/doi/10.1145/3173574.3173943 (28.1.2022).

199 Sbai, Othman/Elhoseiny, Mohamed/Bordes, Antoine et al.: „Design Inspiration from Generative Networks“, https://arxiv.org/abs/1804.00921 (1.2.2022). 200 Alibaba Luban: „AI-based Graphic Design Tool“, https://www.alibabacloud. com/blog/alibaba-luban-ai-based-graphic-design-tool_594294 (28.1.2022).

Kapitel 3: Gestaltung mit und für intelligente Systeme

70

3.2.4 Systeme für Low-Fidelity-Prototyping

kann der Ausarbeitungsgrad dann ganz unterschiedlich ausfallen. Manche Systeme geben fertig codier-

Im nun folgenden Prozessschritt erstellen Designer:

te Webseiten aus, andere übernehmen repetitive,

innen erste vorläufige Prototypen, um ihre Design-

ermüdende Aufgaben, wie etwa die Säuberung und

idee auszuprobieren und zu evaluieren. Diese

Vektorisierung von Handzeichnungen.

Low-Fidelity-Prototypen, die noch eine sehr geringe Detailtreue im Vergleich zum finalen Design haben

Die erste Klasse von Systemen verwandelt Hand-

– daher der Name –, haben den Vorteil, dass man sie

zeichnungen und Skizzen der Designer:innen in erste

schnell erstellen und überarbeiten kann. So bekom-

grafische Designlösungen. Mit dem GAN-System

men Designer:innen einen ersten Eindruck, wie die

GauGAN2 201 wird es möglich, auf einer Canvas, der

Lösung konkret aussehen könnte, ohne zu viel Zeit

sogenannten Segmentation-Map, abstrakte Zeich-

zu investieren, falls die Lösung wieder verworfen

nungen anzufertigen, die dann in fotorealistische

werden muss. Aber auch zukünftige Nutzer:innen

Bilder verwandelt werden. Die Map besteht aus

können mit Low-Fidelity-Prototypen interagieren und

zwei Sektionen; die linke Sektion ist die Canvas für

so herausfinden, wie sich das Produkt anfühlt und

die Freihandzeichnungen, die rechte zeigt dann das

ob es leistet, was sie sich wünschen. Letztlich ist das

Ergebnis, das generierte Bild. Die abstrakten Striche

Ziel, in so wenigen Arbeitsschritten wie möglich so

und Formen, die man auf die linke Canvas zeichnet,

schnell wie möglich ein Design zu erschaffen, das in

repräsentieren ausgewählte physische Objekte wie

den wesentlichen Dimensionen einer finalen Lösung

Himmel, Sand, Gras, Zäune oder Häuser. Aus einer

nahekommt. Dabei bedürfen Prototypen immer meh-

Palette im User Interface wählt man mit der Segmen-

rerer Bearbeitungsschritte, da niemand vorher weiß,

tation-Brush also diejenigen Objekte, die dann auf

ob erste Designlösungen auch wirklich wie erwartet

der rechten Seite generiert werden. Zeichnet man auf

funktionieren. Entsprechend vorläufig und iterativ

der linken Seite eine Fläche am unteren Rand mit der

ist das Vorgehen. Je mehr Arbeit vorher investiert

Segmentation-Brush, die Sand repräsentiert, generiert

wurde, indem beispielsweise Prototypen im Vorfeld

das System am unteren Rand der rechten Canvas die

immer wieder überarbeitet oder verworfen wurden,

fotorealistische Darstellung einer Düne. Mit diesem

umso größer ist die Gefahr, zu viel davon in den Pro-

Tool ist es daher möglich, schnell und intuitiv Bilder

totyp investiert zu haben. Intelligente Systeme unter-

zu generieren, die etwa als Concept Art im Game-

stützten die Prototyping-Phase, indem sie die Fidelity,

Design oder Digital-Film-Design nutzbar sind. Schnell

also den Ausarbeitungs- und Detailgrad des Proto-

skizzierte Ideen können somit unmittelbar mit relativ

typs, mit wenig Aufwand erhöhen und letztlich die

hoher Fidelity umgesetzt und erprobt werden.

Zeit reduzieren, die für den Prototyp gebraucht wird. Alle Systeme in dieser Phase benötigen einen gestal-

Eine zweite Art von GANs erlaubt es, Skizzen

terischen Input, also das Ausgangsmaterial für den

und Handzeichnungen, die aus Linien bestehen, in

Prototyp, auf dessen Basis sie dann die vorläufigen

fotorealistische Bilder zu transferieren. 202 Das System

Designlösungen erstellen. Das können Handzeich-

erkennt die Striche als Repräsentation eines Gegen-

nungen und Skizzen sein, aber auch Fotosequenzen,

stands, etwa einer Katze, und kann die Skizze dann

Videos, Texte oder Design-Mockups. Je nach System

zu realistisch anmutenden Katzenbildern verarbeiten. 201 NVIDIA: „GauGAN2 Beta“, http://gaugan.org/gaugan2 (28.1.2022). 202 Wang, Sheng-Yu/Bau, David/Zhu, Jun-Yan: „Sketch Your Own GAN“, https://github.com/peterwang512/GANSketching (28.1.2022).

Kapitel 3: Gestaltung mit und für intelligente Systeme

71

Außerdem kann das System aus zwei Strichzeichnun-

Das System ermöglicht es damit, die generierte drei-

gen den visuellen Möglichkeitsraum zwischen beiden

dimensionale Form von allen Seiten zu betrachten,

Zeichnungen errechnen und darstellen. Damit wird

zu zoomen und neue Blickwinkel zu erkunden. So

es möglich – vorausgesetzt, das Netz ist auf die ent-

können Designer:innen schnell erfassen, ob die Form

sprechenden Bildinhalte trainiert –, sehr intuitiv, frei

so aussieht, wie sie es imaginiert haben, und sie dann

und unmittelbar Storyboards, Concept Art, Konzept-

iterativ überarbeiten und präzisieren.

studien und Low-Fidelity-Prototypen zu erstellen. Ebenfalls mit Handzeichnungen arbeiten Syste Andere Systeme erlauben es, Handzeichnungen

me, 207 die Wireframe-Zeichnungen in fertig gecodete

zu säubern, zu vektorisieren 203 oder zu kolorieren. 204

HTML-Seiten übertragen. Die Systeme erkennen in

Dies automatisiert und erhöht den Ausarbeitungs-

den Handzeichnungen die unterschiedlichen grafisch

grad der Zeichnungen und erspart zeitraubende

vereinfachten Elemente. Ausgekreuzte Rechtecke

Bearbeitungsschritte. Ein System, das Bilderkennung,

bedeuten beispielsweise, dass es sich um einen

Vektorisierung und Kolorierung als interaktives

Platzhalter für ein Bild handelt. Das System setzt

System kombiniert, ist Paper Dreams.

dann automatisch ein Bild ein, das Designer:innen

205

Dort können

Nutzer:innen ganz ohne Vorwissen Zeichnungen an-

unkompliziert mit dem finalen Bild austauschen

fertigen, die dann vom System erkannt, klassifiziert,

können. Überschriften, Fließtext und Eingabefelder

nachbearbeitet und koloriert werden. Mit dem so-

werden ebenso erkannt wie die korrekte Gesamt-

genannten Zufallsrad macht das System Nutzer:innen

anordnung der einzelnen Elemente. Damit wird es

Vorschläge für naheliegende oder weniger nahe-

möglich, selbst aufwendige Arbeitsschritte, wie etwa

liegende Gegenstände, die zu bestehenden Objekten

das Coding von HTML-Prototypen, mit intelligenten

auf der Canvas passen könnten. Divergentes Denken

Systemen zu automatisieren.

und kreative Einfälle sollen damit gefördert werden. Nutzer:innen können alle Zeichnungen und Gegen-

Eine zweite Klasse von Systemen nutzt Fotos als

stände auf der Canvas frei anordnen und so in kurzer

Input, um vorläufige Designlösungen automatisiert

Zeit Storyboards, Level-Konzepte oder Illustrationen

zu erstellen. Das System WarpGAN 208 kann aus

erstellen.

Porträtfotos automatisiert Karikaturen erstellen. Das System erkennt und lernt nicht nur die visuell wich-

Ein weiteres System erstellt aus vektorisierten

tigsten Eigenschaften der porträtierten Personen,

Handzeichnungen dreidimensionale Objekte. 206 Das

sondern kann darauf basierend Karikaturen in be-

System erkennt in den auf einer zweidimensionalen

stimmten Stilen generieren. Es hat gelernt, dass eine

Canvas angeordneten Linien, die oft nur locker ge-

Karikatur dominante Eigenschaften der Person über-

zeichnet wurden, nicht nur eine zweidimensionale,

treiben muss, damit ein grotesker Effekt entsteht.

sondern eine intendierte dreidimensionale Form.

Damit eröffnet sich ein spezielles Anwendungsfeld

203 Simo-Serra, Edgar/Iizuka, Satoshi/Sasaki, Kazuma et al.: „Learning

207 Microsoft: „Sketch2Code“, https://sketch2code.azurewebsites.net (31.1.2022). UIzard: „Welcome your new team member: AI“, https://uizard.io/

to simplify: fully convolutional networks for rough sketch cleanup“,

design-assistant (31.1.2022).

ACM Transactions on Graphics 35 (2016), S. 1–11. 204 Zhang, Lvmin/Li, Chengze/Wong, Tien-Tsin et al.: „Two-stage sketch

208 Shi, Yichun/Deb, Debayan/Jain, Anil: „WarpGAN: Automatic Caricature

colorization“, ACM Transactions on Graphics 37 (2018), S. 1–14. 205 Bernal, Guillermo/Zhou, Lily/Yuen, Erica et al.: „Paper Dreams: Real-Time Human and Machine Collaboration for Visual Story Development“, https://www.media.mit.edu/publications/real-timehuman-and-machine-collaboration-for-visual-story-development (28.1.2022). 206 Gryaditskaya, Yulia/Hähnlein, Felix/Liu, Chenxi et al.: „Lifting freehand concept sketches into 3D“, https://dl.acm.org/doi/10.1145/ 3414685.3417851 (31.1.2022).

Generation“, https://arxiv.org/abs/1811.10100 (31.1.2022).

Kapitel 3: Gestaltung mit und für intelligente Systeme

72

für Illustrator:innen, das gleichzeitig auch darüber

algorithmus errechnet und bestimmt; Voxel und

hinausragt, denn Systeme können jetzt bestimmte

Co. sind dafür nicht mehr nötig. Aus diesem Grund

Bereiche des Gesichts gezielt deformieren und er-

nennt man NeRF-Verfahren auch „implizite neuro-

lauben dadurch einen ganz neuen, experimentellen

nale Repräsentationen“, auf Englisch „Implicit Neural

Zugang zur Illustration, der über die Formensprache

Representations“ oder auch „Neural Scene Represen-

der Karikatur auch hinausgehen kann.

tations“. Das NeRF-Verfahren wurde seit seiner Entstehung 2020 bereits mehrfach überarbeitet und

Die nächste Art intelligenter Systeme in dieser

erweitert. Ursprünglich waren hohe Rechnerkapazi-

zweiten Klasse übersetzt aus einer zweidimensio-

täten notwendig, um dreidimensionale Szenen zu

nalen Fotosequenz die in diesen Fotos enthaltenen

berechnen. Neuere Systeme wie DONeRF 211 oder

Objekte in eine dreidimensionale Szene. Mittels des

PixelNeRF 212 konnten den Rechenaufwand erheblich

Bildsyntheseverfahrens der Neural Radiance Fields,

reduzieren. Das ST-NeRF-Verfahren 213 erlaubt es dar-

NeRF, 209 ist es möglich, zweidimensional abgebildete

über hinaus sogar, einzelne Objekte in einer 3D-Sze-

Formen in den dreidimensionalen Raum zurückzuho-

ne unabhängig von anderen Objekten zu editieren, zu

len. Dazu wird eine Reihe von Fotos benötigt, die die

duplizieren und zu skalieren, ohne dass ein erneuter

zu erstellenden Objekte aus mehreren Perspektiven

Arbeitsschritt für Rotoscoping fällig wird. So kön-

zeigen. Das neuronale Netzwerk errechnet dann für

nen Videos mit Personen aufgenommen und diese

jede mögliche Blickrichtung und für jeden einzel-

Personen dann einzeln vergrößert und mehrfach in

nen Pixel die Volumendichte und den Farbwert. So

genau derselben Videosequenz dargestellt werden.

entsteht eine dreidimensionale Repräsentation, die

Neue Verfahren wie das Light Field Network, LFN, 214

man dann als 3D-Szene frei aus jeder Perspektive

reduzieren den Aufwand für implizite neuronale

anschauen kann. Das NeRF-Verfahren ist dabei kein

Repräsentationen noch einmal signifikant, weil sie

herkömmliches 3D-Verfahren, das 3D-Formen aus

die simulierten Lichtstrahlen, die auf die implizit

Voxel-, Mesh- oder Point-Clouds explizit zusam-

repräsentierten Oberflächen fallen, nur noch einmal

mensetzt. Stattdessen werden mit diesem Verfahren

durch das neuronale Netzwerk berechnen müssen

die Oberflächen im Raum implizit durch das neuro-

und nicht wie die NeRFs mehrere Hundert Male. So

nale Netzwerk repräsentiert. 210 Das heißt, dass die

sinkt nicht nur die benötigte Rechenleistung, auch

Grenze zwischen den Objekten, also ihre sichtbaren

die Zahl der Bilder, die es braucht, um eine 3D-Sze-

Oberflächen, nicht mehr aus lauter einzelnen drei-

ne zu errechnen, sinkt signifikant. Designer:innen

dimensionalen Pixeln zusammengesetzt sind, die

können mit diesen Verfahren 3D-Szenen einfach aus

sich im Raum ausdehnen. Stattdessen werden die

wenigen Fotos erstellen. Sie haben aber auch mehr

Oberflächen durch den neuronalen Klassifizierungs-

Freiheit, wenn sie solche Szenen bearbeiten. So wird

209 Mildenhall, Ben/Srinivasan, Pratul/Tancik, Matthew et al.: „NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis“, https://cacm.acm.org/magazines/2022/1/257450-nerf/fulltext (31.1.2022). 210 Oechsle, Michael/Niemeyer, Michael/Mescheder, Lars et al.: „Learning Implicit Surface Light Fields“, https://arxiv.org/abs/ 2003.12406 (31.1.2022).

211 Neff, Thomas/Stadlbauer, Pascal/Parger, Mathias et al.: „DONeRF: Towards Real-Time Rendering of Compact Neural Radiance Fields using Depth Oracle Networks“, https://depthoraclenerf.github.io (31.1.2022). 212 Yu, Alex/Ye, Vickie/Tancik, Matthew et al.: „pixelNeRF. Neural Radiance Fields from One or Few Images“, https://alexyu.net/pixelnerf (31.1.2022). 213 Zhang, Jiakai/Liu, Xinhang/Ye, Xinyi et al.: „Editable Free-Viewpoint Video using a Layered Neural Representation“, https://jiakai-zhang.github.io/st-nerf (31.1.2022). 214 Sitzmann, Vincent/Rezchikov, Semon/Freeman, William et al.: „Light Field Networks. Neural Scene Representations with Single-Evaluation Rendering“, https://www.vincentsitzmann.com/lfns (31.1.2022).

Kapitel 3: Gestaltung mit und für intelligente Systeme

73

es möglich, reale Schauplätze in den virtuellen Raum

aus Videosequenzen eine zweidimensional angeord-

zu holen, ohne aufwendige Szenen von Hand zu ge-

nete Abfolge von Bildern generieren. 218 Die zeitliche

stalten. Für Digital-Film- und Game-Design sowie für

Abfolge einzelner Videobilder wird durch das System

Anwendungen in der virtuellen Realität können hier

erkannt, die wichtigsten Bilder werden extrahiert

schnell Szenen und Assets für Prototypen entstehen.

und auf einer Canvas angeordnet. Das System ändert auch die Bildausschnitte und vereinheitlicht den Stil.

Vollständig interaktive Videosequenzen erstellt das

So entsteht automatisiert ein Storyboard oder Comic.

System „AI Interactive Graphics“ auf Grundlage eines

Ein ähnliches Verfahren nutzt ein System, 219 das

von Nvidia entwickelten GANs,

mehrere Versionen eines Storyboards erstellt, jeweils

215

das in der Lage ist,

Stadtlandschaften zu generieren, während jemand in

mit verschiedenen Bildaus- und -anschnitten sowie

Echtzeit durch diese Stadtansichten navigiert. Wenn

verschiedenen Bildstilen. In der Frühphase der Film-,

Nutzer:innen beispielsweise auf einer Straße abbie-

Game- und VFX-Entwicklung können diese Storybo-

gen, kreiert das Netzwerk unmittelbar neue passende

ards nützliches Ausgangsmaterial für den iterativen

Ansichten. So werden interaktive Prototypen für

Designprozess sein.

Stadtplanung, Architektur oder Game-DesignAnwendungen möglich.

Storyboards können zudem ganz mit textuellen Eingaben generiert werden. Das intelligente Sys-

Intelligente Systeme können aber auch physische

tem mit dem Namen Neural Storyboard Artist 220

Prototyping-Verfahren unterstützen. So errechnet

generiert Storyboards auf Basis von geschriebenen

ein System

basierend auf Bildern, die ein fertiges

Geschichten. Dafür sucht das System nach passenden

Strickmuster darstellen, den Programmcode für die

Visualisierungen der Geschichte in Bilddatenbanken,

Strickmaschine. Der anstrengende Weg der Codie-

schneidet die gefundenen Bilder zu oder stellt sie in

rung entfällt für Modedesigner:innen hier. Aus leicht

einer Art Collagetechnik zu neuen Bildern zusam-

erstellten Bildern wird schnell ein fertig gestricktes

men. In einem zweiten Schritt fasst das System die

Sample, das man anfassen, anschauen und bewerten

gefundenen Bilder zu einem Storyboard zusammen

kann. Ähnlich funktioniert Codex von OpenAI,

und rendert alle Bilder zu formal kohärenten 3D-Sze-

216

217

das

nen.

Texteingaben in ausführbaren Programmcode verwandelt. So ist es möglich, nur auf Basis von einfach formulierten Aufforderungen komplexen Code für

Für die Game- und Digital-Film-Entwicklung ist

einen Prototyp zu erstellen.

ein Prototyping-System hilfreich, das Live-VideoInput von Schauspieler:innen nutzt und darauf ba-

Auch Videos können zum Input werden in der

sierend einen 3D-Avatar in Echtzeit rendert. 221 Das

Prototyping-Phase. So kann ein intelligentes System

System benötigt durch neuronale Netze keine auf-

215 Alarcon, Nefi: „NVIDIA Invents AI Interactive Graphics“, https://developer.nvidia.com/blog/nvidia-invents-ai-interactivegraphics (31.1.2022). 216 Kaspar, Alexandre/Oh, Tae-Hyun/Makatura, Liane et al.: „Neural Inverse Knitting: From Images to Manufacturing Instructions“, http://deepknitting.csail.mit.edu (31.1.2022). 217 Zaremba, Wojciech/Brockman, Greg: „OpenAI Codex“, https://openai.com/blog/openai-codex (4.2.2022).

218 Pęśko, Maciej/Svystun, Adam/Andruszkiewicz, Paweł et al.: „Comixify: Transform video into a comics“, https://arxiv.org/abs/1812.03473 (31.1.2022). 219 Garcia-Dorado, Ignacio/Getreuer, Pascal/Le, Madison et al.: „Graphic Narrative with Interactive Stylization Design“, https://arxiv.org/abs/ 1712.06654 (31.1.2022). 220 Chen, Shizhe/Liu, Bei/Fu, Jianlong et al.: „Neural Storyboard Artist: Visualizing Stories with Coherent Image Sequences“, https://dl.acm.org/ doi/10.1145/3343031.3350571 (31.1.2022) 221 Cubic Motion: „Siren“, https://cubicmotion.com/case-studies/siren (31.1.2022).

Kapitel 3: Gestaltung mit und für intelligente Systeme

74

wendigen Gesichtsmarkierungen der Schauspieler:in-

in einem Tennisvideo als bewegliche Elemente und

nen mehr, sondern erkennt sehr präzise die Gesichts-

transformiert sie zu interaktiv steuerbaren Sprites.

bewegungen und transferiert sie auf das 3D-Modell.

Man kann die Tennisspieler:innen dann als Video-

So können Features für computergenerierte Charak-

spiel steuern und spielen. Außerdem prognostiziert

tere in der Game-Entwicklung live und in Echtzeit

das System die Wahrscheinlichkeit, mit der bestimm-

getestet und iterativ weiterentwickelt werden.

te Bewegungen der Spieler:innen mit einer bestimmten Ballplatzierung im Spielfeld korrelieren. So sehen

Ein anderes System

222

erkennt in einem einzigen

die Bewegungen realistisch aus und schließen fast

Bild die Pose von Händen und erstellt daraufhin 3D-

nahtlos aneinander an. Mit dem System wird es mög-

Modelle der Hand. Dies kann zur Erprobung von in-

lich, aus Videobildern automatisch einen Game-Pro-

tuitiven Spielsteuerungen in Games genutzt werden

totyp zu erstellen.

oder als Interface für andere Designprototypen. Insgesamt erlauben die intelligenten Systeme Für Prototyping im Game-Design sind abschlie-

Designer:innen für das Prototyping einen einfacheren

ßend zwei Systeme interessant, die durch Analyse

Einstieg, weil sie das Phänomen des weißen Blattes

von Sprites – das sind feststehende zweidimensionale

verhindern. Zudem übernehmen sie zum Teil er-

Spielelemente wie etwa Steine, Wolken oder Spiel-

heblichen Arbeitsaufwand, der oft nicht unter die

charaktere – den Designprozess erleichtern. Das erste

Kategorie kreative Arbeit fällt, wie etwa Reinzeich-

System mit dem klingenden Namen Marionette 223

nung, Vektorisierung oder Kolorierung. Die meisten

erlaubt es, Sprites aus bestehenden Leveldesigns zu

intelligenten Systeme für Prototyping erhöhen den

extrahieren und dann in neuen Leveldesigns einzu-

Ausarbeitungsgrad der ersten Entwürfe, indem sie

setzen. Das System erkennt wiederkehrende Spiel-

Prozesse automatisieren, die bisher nur durch um-

elemente und legt sie in Bibliotheken an. Es erlaubt

fangreiche Recherchen oder Bearbeitungsschritte

auch eine Neukombination der Elemente, also ein

erreicht werden konnten. Damit senken sie das

Redesign des Ausgangsmaterials. Mit Marionette

Risiko, zu viel Zeit in Designprozesse zu investieren,

können aus bestehenden Spielen Elemente extrahiert

die möglicherweise wieder verworfen werden. Sie

und genutzt werden, die vorher aufwendig entnom-

ermöglichen damit gleichzeitig, dass die Wirkung

men, angepasst und eingesetzt werden mussten. Das

und das finale Design durch die Prototypen besser

zweite System

erfahrbar und reflektierbar werden. Einige Systeme

224

erkennt in einfachen nichtinterakti-

ven Videos feststehende zweidimensionale Spielele-

erhöhen gleichzeitig den Grad an Kreativität, wie

mente, Sprites, extrahiert sie und legt sie als interak-

etwa Paper Dreams. Alle Systeme reduzieren also den

tive Elemente eines Games an. Das System wurde mit

Aufwand und damit die Zeit, um zu brauchbaren Pro-

Tennisvideos trainiert, erkennt also die Spieler:innen

totypen zu gelangen, und ermöglichen damit weniger iterative Schritte und letztlich ein besseres Design. Designer:innen sind allerdings weiterhin gefordert,

222 Zimmermann, Christian/Ceylan, Duygu/Yang, Jimei et al.: „FreiHAND: A Dataset for Markerless Capture of Hand Pose and Shape from Single RGB Images“, https://arxiv.org/abs/1909.04349 (4.2.2022). 223 Smirnov, Dmitriy/Fisher, Matthew/Campagnolo, Vitor et al.: „MarioNette: Self-Supervised Sprite Learning“, https://openreview.net/forum?id=3zP6RrQtNa (31.1.2022). 224 Zhang, Haotian/Sciutto, Cristobal/Agrawala, Maneesh et al.: „Vid2Player: Controllable Video Sprites That Behave and Appear Like Professional Tennis Players“, https://dl.acm.org/doi/10.1145/3448978 (31.1.2022).

die automatisiert erstellten Prototypen kritisch zu beurteilen, anzupassen und letztlich zu reflektieren, ob sie tatsächlich bessere Designlösungen sind.

Kapitel 3: Gestaltung mit und für intelligente Systeme

75

3.2.5 Systeme für Designoptimierung und

Gestaltungslösung und deren Wahrnehmung durch

-automatisierung

die Nutzer:innen, wenn Systeme beispielsweise zeigen, welche Designs bei ihnen besonders gut ankom-

In der letzten Designphase werden die Ideen, die mit

men. Der dritte Anwendungsbereich betrifft den Zu-

den Low-Fidelity-Prototypen erprobt und iterativ

sammenhang von Gestaltungsgesetzen und konkreter

verfeinert wurden, final umgesetzt, also optimiert,

Gestaltungslösung, wenn Systeme etwa Vorschläge

reingezeichnet und in nutzbare Produkte transfe-

machen können, wie ein Gesamtarrangement von

riert. Zwei große Klassen von intelligenten Systemen

Möbeln oder Fashion-Items verbessert werden kann.

unterstützen den Designprozess in dieser letzten

Der vierte und letzte Bereich betrifft den Zusam-

Phase. Das sind zum einen Systeme, die optimieren,

menhang von Gestaltung und ihrer Wirkung auf die

und zum anderen Systeme, die automatisieren.

Umwelt, wenn Systeme etwa verdeutlichen, welche Gestaltungslösung weniger Umweltschäden ver-

Die erste Klasse von Systemen überspringt viele

ursacht. Alle vier Bereiche sollen nun im Einzelnen

der bereits vorgestellten Schritte und erlaubt es

anhand einschlägiger Beispiele beleuchtet werden.

Designer:innen, in nur einem einzigen Arbeitsschritt den Raum für mögliche Designlösungen zu erkun-

Im ersten Bereich dieser Systemklasse ist Gestal-

den, detailreiche und hochfunktionale Prototypen zu

tung eine Frage der Optimierung von Produkteigen-

erstellen sowie finale Designs umzusetzen. In dieser

schaften, die sich aus der Funktionalität der Produkte

Klasse optimieren intelligente Systeme die Produkt-

ableiten. Ein System wie Instant CAD 225 erlaubt

performance, indem sie gestalterische Intuition mit

beispielsweise eine direkte und interaktive Manipu-

technischer Expertise kombinieren und so kognitive

lation von dreidimensionalen Entwurfsobjekten. Das

Fähigkeiten der Gestalter:innen erweitern. Allen

System zeigt durch Farbverläufe, welche Bereiche des

Systemen dieser Klasse ist eigen, dass sie Zusammen-

Entwurfs bezogen auf physikalische Gesetze noch

hänge zwischen dem jeweils konkreten Gestaltungs-

nicht optimal gestaltet sind. Parameter für die Bewer-

entwurf und den damit verbundenen Produkteigen-

tung können Designer:innen durch Slider anpassen.

schaften lernen, um sie dann den Designer:innen

So erlaubt das System beispielsweise, Stühle zu ge-

für die Gestaltungsentscheidung zur Verfügung zu

stalten, die für Druck- und Spannungsverteilung oder

stellen. Die verschiedenen Anwendungsbereiche

Deformation optimiert wurden. Das System zeigt

der intelligenten Systeme unterscheiden sich dann

dann diejenigen Bereiche in Rot oder Orange an, die

jeweils danach, welche Produkteigenschaften im

sich höchstwahrscheinlich deformieren oder bei zu

Vordergrund stehen.

hoher Druckbelastung brechen. Interaktiv können Designer:innen die verschiedenen Stuhlbein- und

Der erste Anwendungsbereich betrifft die Funk-

Rückenlehnenlängen erkunden oder die Sitzfläche an-

tionalität des Produkts. In diesem Bereich verdeut-

passen und bekommen in Echtzeit die Farbkartierung

lichen Systeme den Gestaltenden beispielsweise den

für die Parameter Druckbelastung und Deformierung

Zusammenhang von physikalischen Gesetzen und der

angezeigt. So können sie sowohl gestalterische In-

Belastbarkeit des gestalteten Produkts. Der zweite

tuition und ästhetisches Empfinden nutzen als auch

Anwendungsbereich betrifft den Zusammenhang von

die für sie nicht erfahrbaren physikalischen Gesetze

225 Schulz, Adriana/Xu, Jie/Zhu, Bo et al.: „Interactive Design Space Exploration and Optimization for CAD Models“, https://people.csail.mit.edu/aschulz/ optCAD/index.html (1.2.2022).

Kapitel 3: Gestaltung mit und für intelligente Systeme

76

visuell erkunden. Sie sind dadurch in der Lage, die

Vorschläge für optimiertes Design machen, indem es

technischen mit den ästhetischen Anforderungen

durch Pfeile visualisiert, welche Komponenten des

übereinzubringen, ohne dass der Gestaltungsprozess

Roboters verkürzt oder verlängert werden müssen,

unterbrochen oder verändert werden müsste.

damit er sich schneller oder stabiler fortbewegt. Ähnlich funktioniert das System Robo Grammar, 229

Eine Vielzahl von Systemen erlaubt diese Art der

mit dem Designer:innen die Gelenke und Gangarten

Augmentation. Ein System wie Fab Forms

der Roboter für unterschiedlichste Oberflächen und

226

berück-

sichtigt, ob bestimmte computergenerierte, drei-

Terrains anpassen können. Das System hat den Zu-

dimensionale Formen auch wirklich druckbar sind,

sammenhang von Fortbewegung und Roboterdesign

und zeigt nur diejenigen Formen an, die physikali-

gelernt und erlaubt es Designer:innen nun, je nach

schen Gesetzen und damit den Anforderungen des

Terrain und Roboterdesign die funktionalste Form

3D-Druckers genügen. So warnt das System, sobald

und Bewegungsart zu finden.

Designer:innen beispielsweise bestimmte Absätze bei Schuhen gestalten wollen, die dem Gewicht der

Im zweiten Bereich dieser Systemklasse lernen

Nutzer:innen nicht standhalten und brechen könn-

intelligente Systeme den Zusammenhang zwischen

ten. Ein drittes System

Designentwurf und dessen Wirkung auf die Nut-

227

unterstützt optimierend,

wenn Designer:innen vorgefertigte Einzelteile zu

zer:innen. So hat beispielsweise ein System 230 für

Schränken, Tischen oder Regalen gestalten wollen.

Schuhe und Autos eine Reihe von Attributen gelernt,

Das interaktive Interface des Systems inkorporiert

mit denen diese Produkte bezeichnet werden. Das

die technischen Vorgaben für Holzverbindungen,

System erlaubt Designer:innen, gezielt anhand sol-

augmentiert so die kognitiven Fähigkeiten der Desig-

cher Attribute wie „modern“, „sportlich“ oder „luxuri-

nerin oder des Designers und stellt sicher, dass alle

ös“, in den Möglichkeitsraum der Gestaltung vorzu-

technischen Vorgaben eingehalten werden.

stoßen. So können Schuhe sportlicher, komfortabler oder modischer, Autos luxuriöser, muskulöser oder

Ein weiteres intelligentes System assistiert De-

moderner gestaltet werden. Die Designerin oder der

signer:innen beim Entwurf von leicht zu bauenden

Designer wählt anhand der Vorschläge des Systems

Robotern. Das Robogami-System 228 ermöglicht es,

aus, wie sportlich, modern und luxuriös das Produkt

Geometrie und Bewegung der Roboter, die im Print-

am Ende sein soll. Die Wahrnehmung der Nutzer:in-

and-fold-Verfahren gefertigt werden, zu optimieren.

nen muss hier nicht mehr umfangreich getestet

Das System macht, basierend auf dem Aufbau und der

werden, sondern ist bereits in den Entwurfsprozess

Fortbewegungsart des Roboters, nicht nur Prognosen

eingeflossen. Das Wissen der Designer:innen bezüg-

zu seiner Geschwindigkeit und Laufrichtung sowie

lich der Präferenzen der Kundschaft wurde durch das

für die Kosten seiner Herstellung. Es kann auch

intelligente System augmentiert.

226 Shugrina, Maria/Shamir, Ariel/Matusik, Wojciech: „Fab forms: customizable objects for fabrication with validity and geometry caching“, https://dl.acm.org/doi/10.1145/2766994 (1.2.2022). 227 Shamir, Ariel/Schulz, Adriana/Levin, David et al.: „Design and

229 Zhao, Allan/Xu, Jie/Konaković Luković, Mina et al.: „RoboGrammar: Graph Grammar for Terrain-Optimized Robot Design“, https://people.csail.mit.edu/ jiex/papers/robogrammar/index.html (4.2.2022). 230 Yumer, Mehmet Ersin/Chaudhuri, Siddhartha/Hodgins, Jessica et al.:

fabrication by example“, https://dspace.mit.edu/handle/1721.1/

„Semantic shape editing using deformation handles“,

111080 (1.2.2022).

https://dl.acm.org/doi/10.1145/2766908 (1.2.2022).

228 Schulz, Adriana/Sung, Cynthia/Spielberg, Andrew et al.: „Interactive robogami: An end-to-end system for design of robots with ground locomotion“, https://journals.sagepub.com/doi/10.1177/ 0278364917723465 (1.2.2022).

Kapitel 3: Gestaltung mit und für intelligente Systeme

77

Andere Systeme, wie etwa das Designsystem

Andere Systeme prognostizieren Nutzer:innenprä-

der Versandfirma Stitch Fix,

ferenzen im Zusammenhang mit Designentscheidun-

231

prognostizieren die

Erfolgsaussichten für neue Designs auf der Basis von

gen. Das Spektrum umfasst Systeme, 234 die Nutzer:in-

vergangener Nachfrage oder der Kund:innenreaktion.

nenpräferenzen als vieldimensionales Modell von

Die begrenzten Fähigkeiten der Modedesigner:innen,

Kund:innen-Produkt-Beziehungen lernen und dann

erfolgreiche Produkte und ihre Eigenschaften zu

prognostizieren, welche Produkteigenschaften positiv

kennen, werden hier stark erweitert.

oder negativ auf Nutzer:innen wirken. Darüber hinaus umfasst es Systeme, 235 die Saliency-Mapping und

Die Wahrnehmung der Gestaltung durch Nut-

Nutzer:innenpräferenzen zusammenschließen und

zer:innen können intelligente Systeme sehr gezielt

Kartierungen erstellen, die zeigen, welche konkreten

überprüfen und in den Designprozess einbringen. So

Designeigenschaften bestimmte festgelegte Perso-

erlaubt eine Reihe von Systemen,

nengruppen – etwa weibliche, suburbane Nutzerin-

232

die Aufmerksam-

keit für visuelle Gestaltung, die sogenannte Saliency,

nen oder wohlhabende Männer über 40 Jahren – bei

zu prognostizieren. Diese Systeme ermöglichen es,

beispielsweise Automobilen interessant finden. Sie

mittels sogenannter Saliency Maps genau zu sehen,

zeigen aber auch, welche Automobile die besagten

welcher visuelle Bereich beispielsweise einer Website

Nutzerinnen als sportlich, innovativ oder anziehend

die Nutzer:innen am stärksten anzieht. Das System

empfinden. Damit werden heterogene Kund:innen-

ersetzt aufwendige Eye-Tracking-Studien und ermög-

segmentierungen für Designer:innen unmittelbar

licht es so, iterativ und schnell diejenigen Bereiche

erfahrbar und für einzelne Designelemente interpre-

anzupassen, auf die strategisch aufmerksam gemacht

tierbar. Designer:innen können dann etwa im Auto-

werden soll, wie etwa Call-to-Action-Aufrufe oder

mobildesign Features intuitiv verändern und bekom-

wichtige Informationen. Ebenfalls kann ein intelli-

men dann zielgenaues Feedback zu ihrer jeweiligen

gentes System

Nutzer:innengruppe.

233

Bildbereiche gezielt optimieren, um

die Aufmerksamkeit direkt auf sie zu lenken. Der Bildbereich wird subtil in einem fast nicht wahr-

Letztlich zählen auch Systeme 236 dazu, die ver-

nehmbaren Bereich manipuliert, um die Reihenfolge

suchen, die Vorlieben der Nutzer:innen für neue,

der Wahrnehmung von Bildinhalten gezielt zu steu-

überraschende Designs mit einer wiedererkennbaren

ern. So können Designer:innen direkt bestimmen,

Markenidentität in Einklang zu bringen. Designer:in-

welche Bildbereiche von den Betrachter:innen zuerst

nen wird hier geholfen, neue Gestaltungsmöglich-

wahrgenommen werden. Sie müssen nicht mehr

keiten in den engen Bahnen einer Markenidentität

wissen, wie sie das Bild verändern müssen, damit

auszuloten. Sie bekommen Feedback, wie weit ihre

Betrachter:innen zuerst auf einen bestimmten Bild-

Gestaltung als Markenattribute verstanden wird und

bereich schauen; das intelligente System optimiert

bei welchen Designentscheidungen die Automarke

den Bildbereich automatisch.

signifikant weniger erkannt wird.

231 Stitch Fix: „Algorithms Tour. How data science is woven into the fabric of Stitch Fix“, https://algorithms-tour.stitchfix.com (1.2.2022). 232 EyeQuant: „The future is here. Data driven design“, https://www.eyequant.com (1.2.2022). Fosco, Camilo/Casser, Vincent/Bedi, Amish Kumar et al.: „Predicting Visual Importance Across Graphic Design Types“, http://predimportance.mit.edu (1.2.2022). 233 Mejjati, Youssef/Gomez, Celso/Kim, Kwang In et al.: „Look here! A parametric learning based approach to redirect visual attention“, https://alamimejjati.github.io/GazeShiftNet (4.2.2022).

234 Wang, Mingxian/Sha, Zhenghui/Huang, Yun et al.: „Predicting product co-consideration and market competitions for technology-driven product design“, https://doi.org/10.1017/dsj.2018.4 (1.2.2022). 235 Pan, Yanxin/Burnap, Alexander/Hartley, Jeffrey et al.: „Deep Design: Product Aesthetics for Heterogeneous Markets“, https://dl.acm.org/ doi/10.1145/3097983.3098176 (1.2.2022). 236 Burnap, Alexander/Hartley, Jeffrey/Pan, Yanxin et al.: „Balancing design freedom and brand recognition in the evolution of automotive brand styling“, https://doi.org/10.1017/dsj.2016.9 (1.2.2022).

Kapitel 3: Gestaltung mit und für intelligente Systeme

78

In der dritten Abteilung der Systemklasse helfen

und einer verbesserten Gesamtwirkung des Looks ge-

intelligente Systeme, Designprinzipien und -richtli-

lernt. So kennt Fashion++ die Gestaltungsprinzipien

nien optimaler anzuwenden. Das erste Beispielsystem

von kompletten Looks, wertet diese aus und schlägt

assistiert im Interior-Design-Prozess und optimiert

minimale Veränderungen vor, die den Gesamtlook

auf Basis bestimmter Guidelines für Interior-Design

optimieren. Beispielsweise schlägt das System vor,

das Arrangement von Möbeln. So bekommen De-

eine Bluse in den Rock zu stecken, um die modische

signer:innen verbesserte Möbelanordnungen vor-

Gesamtwirkung der Person zu erhöhen.

geschlagen, die menschliche Interaktion fördern oder bestimmte Raumwirkungen betonen. Sie können sich

Zu den Systemen, die Gestaltungsprinzipien

bestimmte Designprinzipien vorgeben lassen und

kennen und auf diese hin optimieren, gehören auch

sich trotzdem einen gewissen Gestaltungsspielraum

Systeme für Grafikdesign, die Font-Pairings, Farb-

bewahren.

kombinationen und Layouts optimieren. Ein intelligentes System, 239 das Font-Pairings aus einer Vielzahl

Zwei weitere Systeme optimieren die Arrange-

von positiven Beispielen gelernt hat, optimiert nun

ments von Fashion-Items. Zum einen hat ein Sys-

im Designprozess die Kombination von Schrift-

tem

schnitten. Die Schwierigkeit, die das System meistert,

237

gelernt, welche Modeartikel miteinander

kombinierbar sind und welche modische Gesamt-

ist, Schriften zu kombinieren, die den jeweils unter-

wirkung damit erzielt wird. Auf dieser Basis kann es

schiedlichen Rollen als Headline und Fließtextschrift

die Kombination von Fashion-Items optimieren und

gerecht werden.

macht Vorschläge, wie man verschiedene Hüte, Blusen, Hosen, Schuhe oder Handtaschen kombinieren

In der Farbwahl unterstützt und optimiert ein

könnte. So kann das System, wenn es einen bestimm-

System 240 Designentwürfe, die wenig stimmige Farb-

ten Artikel, wie etwa eine Hose, als Eingangsdatum

kombinationen aufweisen. Das System hat ebenfalls

erhält, ermitteln, welche anderen Items dazu passen.

aus vielen gut bewerteten Farbkombinationen die

Es kann auch ähnliche Artikel finden und so ganze

Prinzipien guter Kombinationen gelernt, die es nun

Looks zusammenstellen. Darüber hinaus hat das

anwenden und neue passende Kombinationen erstel-

System auch die Wirkung der Artikelkombinationen

len kann.

auf die menschliche Wahrnehmung gelernt und kann Designer:innen beraten, welche Kombinationen die

DesignScape 241 ist ein System, das Layoutentwürfe

Träger:innen kompetenter oder motivierter aussehen

optimiert, indem es, basierend auf einem bestehen-

lassen.

den Entwurf, Elemente neu positioniert, gruppiert oder skaliert. Das System erkennt allerdings keine

Das System Fashion++ 238 hat den Zusammenhang

Bildinhalte, kann deshalb auch nicht entscheiden,

zwischen minimalen Änderungen der Garderobe

ob etwa Bilder inhaltlich stimmig oder zu viele Bild-

237 Vasileva, Mariya/Plummer, Bryan/Dusad, Krishna et al.: „Learning Type-Aware Embeddings for Fashion Compatibility“, https://arxiv.org/abs/1803.09196 (4.2.2022). 238 Hsiao, Wei-Lin/Katsman, Isay/Wu, Chao-Yuan et al.: „Fashion++: Minimal Edits for Outfit Improvement“, https://ai.facebook.com/ blog/building-ai-to-inform-peoples-fashion-choice (4.2.2022).

239 Jiang, Shuhui/Wang, Zhaowen/Hertzmann, Aaron: „Visual Font Pairing“, https://arxiv.org/abs/1811.08015 (4.2.2022). 240 O’Donovan, Peter/Agarwala, Aseem/Hertzmann, Aaron: „Collaborative Filtering of Color Aesthetics“, http://www.dgp.toronto.edu/~donovan/ cfcolor/index.html (4.2.2022). 241 O’Donovan, Peter/Agarwala, Aseem/Hertzmann, Aaron: „DesignScape: Design with Interactive Layout Suggestions“, http://www.dgp.toronto.edu/~donovan/design/index.html (4.2.2022).

Kapitel 3: Gestaltung mit und für intelligente Systeme

79

und Textelemente vorhanden sind. Dies müssen De-

kennt sogenannte Idiome, also Designprinzipien für

signer:innen weiterhin mit ihrer Expertise abwägen.

wirkungsvollen Filmschnitt. Es nutzt sowohl das Filmskript als auch das Filmmaterial selbst und stellt

Im Bereich Game-Design optimiert ein System

anhand der ausgewählten Idiome den optimierten

242

Filmschnitt her.

mittels Reinforcement Learning den Levelaufbau für Racing- und Platform-Games und passt das Design nach Vorgabe des Schwierigkeitsgrads an. Das Wis-

Zum vierten und letzten Bereich dieser System-

sen von Game-Designer:innen darüber, wie schwierig

klasse zählen solche Systeme, die den Gesichtspunkt

ein Level ist, konnte das intelligente System lernen

der Nachhaltigkeit in den Gestaltungsprozess inkor-

und unterstützt daher eher unerfahrene Designer:in-

porieren. Diese Systeme unterstützten Designer:in-

nen. Diese können sich dann ganz auf die Details des

nen, indem sie aufzeigen, welche Designentwürfe

Levels und die visuelle Ausstattung konzentrieren.

eine positivere Wirkung auf Nachhaltigkeit und Umweltschutz haben, etwa in der Architektur, 245 beim

Im Bereich Filmschnitt augmentiert ein System 243

Flugzeugbau 246 oder in der Gestaltung von Bohrtür-

die Fähigkeiten von Designer:innen, Filmtrailer zu

men. 247 Im vierten Kapitel wird ein solch intelligentes

editieren. Das System nutzt sowohl das Filmskript

System noch einmal anhand von Spacemaker in einer

als auch das Filmmaterial und wertet dann die Text-,

Case Study ausführlich dargestellt.

Sprach- und Bildebene aus, um die narrative Struktur des Films und die emotionale Verfasstheit der

Insgesamt erweitern alle optimierenden Systeme

Charaktere zu erkennen. Es hat sogar kausale Be-

die kognitiven Fähigkeiten der Designer:innen und

ziehungen von wichtigen Handlungen und Ereignis-

befähigen sie dadurch, Designentscheidungen noch

sen im Film gelernt. Mittels Unsupervised Learning

genauer an strategischen, designerischen, geschmack-

identifiziert das System wichtige emotionale und

lichen oder physikalischen Vorgaben und Prinzipien

plotbasierte Handlungspunkte und stellt diese als

auszurichten – sei es aus Gesichtspunkten der Wir-

grafische Landkarte dar. Die Punkte auf der Landkar-

kung des Designs auf Wahrnehmung und Geschmack

te repräsentieren dann die wichtigsten Plot-Points.

der Nutzer:innen oder auf die Umwelt, sei es aus Ge-

Das System schlägt dann den Trailer-Schnitt vor,

sichtspunkten der physikalischen Funktionalität des

indem es eine ausgewählte Linie zieht zwischen den

Designs oder aus wirtschaftlichen Erwägungen, sei es

Plot-Points.

für Spielspaß oder für Vorgaben einer wiedererkennbaren Marke. Das Wissen um Wettbewerber, Pro-

Ein weiteres System

244

dukteigenschaften, Designprinzipien und Nutzer:in-

hat verschiedene Stile des

Filmschnitts gelernt und assistiert nun während des

nenverhalten, das Designer:innen entweder nicht

Filmschnitts für dialoggetriebene Szenen. Das System

besitzen oder sich langwierig und mühsam erarbeiten

242 Gisslén, Linus/Eakins, Andy/Gordillo, Camilo: „Adversarial Reinforcement Learning for Procedural Content Generation“, https://arxiv.org/abs/2103.04847 (4.2.2022). 243 Papalampidi, Pinelopi/Keller, Frank/Lapata, Mirella: „Film Trailer Generation via Task Decomposition“, https://arxiv.org/ abs/2111.08774 (4.2.2022). 244 Leake, Mackenzie/Davis, Abe/Truong, Anh et al.: „Computational video editing for dialogue-driven scenes“, https://dl.acm.org/ doi/10.1145/3072959.3073653 (4.2.2022).

245 Digital Blue Foam: „Synthetic Machine Learning: Real-time Spatial Daylight Autonomy Prediction“, https://www.digitalbluefoam.com/whitepapers/ daylight-autonomy (4.2.2022). 246 Bertoni, Alessandro/Hallstedt, Sophie/Dasari, Siva et al.: „Integration of value and sustainability assessment in design space exploration by machine learning: an aerospace application“, https://doi.org/10.1017/dsj.2019.29 (4.2.2022). 247 Mattson, Christopher/Pack, Andrew/Lofthouse, Vicky et al.: „Using a Product’s Sustainability Space as a Design Exploration Tool“, https://doi.org/10.1017/ dsj.2018.6 (4.2.2022).

Kapitel 3: Gestaltung mit und für intelligente Systeme

80

müssen, bauen diese Systeme grundlegend in den Ge-

entfallen, weil Bildmaterial in eine gewünschte

staltungsprozess ein. Sie augmentieren gestalterische

Qualität für die finale Designumsetzung transferiert

Fähigkeiten und erweitern sie so um ein Wissen, das

werden kann.

die Gestaltung funktionaler, erfolgreicher und angenehmer, sprich optimaler macht. Damit ändert sich

Im dreidimensionalen virtuellen Raum überneh-

die Qualität von Gestaltung erheblich.

men intelligente Systeme auch das Texturing von Modellen. Zum einen übernehmen Systeme die automa-

Die zweite große Klasse von Systemen lässt High-

tische Berechnung von fotorealistisch aussehenden

Fidelity-Prototypen und fertige Produkte schneller

Oberflächen. Programme wie Adobe Substance 3D 251

entstehen. Sie besteht im Wesentlichen aus Systemen,

erlauben es mittels Fotogrammetrie, 2D-Fotos in

die Designentscheidungen automatisieren. Das sind

3D-Oberflächen zu überführen und auf 3D-Modelle

vor allem Prozessschritte, die Designer:innen nicht

anzuwenden oder auch eigene Materialien leicht auf

von Hand machen möchten, weil sie ermüdend,

3D-Oberflächen zu transferieren. Zum Teil sind die

zeitaufwendig und wenig kreativ oder einfach nicht

Ergebnisse so realistisch, dass man Fotoshootings für

händisch umsetzbar sind, wie beispielsweise Motion

Produkte nicht mehr benötigt. Der Design-Workflow

Capture, Rotoscoping, Image Inpainting, Image Crop-

wird hier erheblich automatisiert und erleichtert.

ping oder Texturing.

Auch besonders aufwendige und detaillierte Materialien werden mit den intelligenten Systemen leicht

Die erste Abteilung in dieser Klasse sind Syste-

einsetzbar. 252 Zudem simulieren Deep-Learning-

me, die automatisch Bilder bearbeiten. Hier sind

Systeme 253 immer besser und immer naturgetreuer

vor allem die Verfahren Image Inpainting 248, Image

komplexe physikalische Gesetze für Partikel und

Denoising 249 und Image Upscaling oder Image

damit für virtuelle Materialien wie Sand, Wasser oder

Uprezing

halbfeste Stoffe. Aufwendige Vor- und Nachbearbei-

250

zu nennen, die bereits ebenfalls als

neuronale Filter in Adobe Photoshop verfügbar sind.

tungen von 3D-Modellen entfallen hier durch die

Beim Image Inpainting werden Bildbereiche, die

immer komplexeren Simulationen.

nicht oder nicht mehr vorhanden sind, vom System ergänzt. So können ganze Bereiche aufgefüllt oder

Im 3D-Bereich ist neben den Physics Simulations

Gegenstände aus dem Bild retuschiert werden. Mit

vor allem das Motion-Capture-Verfahren ein großes

dem Image Denoising wird das Bildrauschen redu-

Anwendungsgebiet für automatisierende intelligente

ziert. Bilder werden so schärfer und gewinnen an

Systeme. Große Firmen wie Disney haben Systeme

Qualität. Image Upscaling bezieht sich auf die Bild-

wie Medusa oder Anyma 254 entwickelt, die Motion

auflösung, die mittels intelligenter Systeme erhöht

Capture für Gesichter im hochauflösenden Bereich

wird. Mit allen drei Verfahren steigt die Qualität

erlauben, ohne dass Schauspieler:innen mit Tracking-

vorhandener Bilder und aufwendige Recherchen

Dots aufwendig markiert werden müssten. Die 251 Adobe: „The 3D generation is here“, https://www.adobe.com/products/

248 Zeng, Yu/Lin, Zhe/Yang, Jimei et al.: „ProFill: High-Resolution Image Inpainting with Iterative Confidence Feedback and Guided Upsampling“, https://zengxianyu.github.io/iic (4.2.2022). 249 Laine, Samuli/Karras, Tero/Lehtinen, Jaakko et al.: „High-Quality Self-Supervised Deep Image Denoising“, https://arxiv.org/abs/ 1901.10277 (4.2.2022). 250 Salian, Isha: „What Is AI Upscaling?“, https://blogs.nvidia.com/blog/ 2020/02/03/what-is-ai-upscaling (4.2.2022).

substance3d/3d-augmented-reality.html (4.2.2022). 252 Kuznetsov, Alexandr/Mullia, Krishna/Xu, Zexiang: „NeuMIP: Multi-Resolution Neural Materials“, https://arxiv.org/abs/2104.02789 (4.2.2022). 253 Sanchez-Gonzalez, Alvaro/Godwin, Jonathan/Pfaff, Tobias: „Learning to Simulate Complex Physics with Graph Networks“, https://arxiv.org/abs/ 2002.09405 (4.2.2022). 254 Disney Research: „Anyma“, https://studios.disneyresearch.com/anyma (4.2.2022). Disney Research: „Medusa“, https://studios.disneyresearch.com/medusa (4.2.2022).

Kapitel 3: Gestaltung mit und für intelligente Systeme

81

Schauspieler:innen können sich zudem auch frei

entfallen mit einem System wie beispielsweise Jali 260

bewegen und ohne Einschränkung ihren Character

dann. Für das Game-Development bedeutet dies, dass

spielen. Andere Systeme wie Move.ai 255 erlauben

Sprachversionen für viele Märkte gleichzeitig aus-

Motion Capture ohne die rigiden Motion-Capture-

geliefert werden können.

Anzüge und erkennen menschliche Bewegung schon in einfachen Videobildern. Andere Systeme 256 wie-

Im Filmbereich automatisieren intelligente Syste-

derum haben gelernt, wie sich Menschen bewegen,

me aufwendige Prozesse wie Rotoscoping bzw. Chro-

und können typische Bewegungen, wie etwa das

ma Keying. Runway ML 261 beispielsweise bietet die

Hinsetzen, komplett simulieren. Dies eröffnet neue

Möglichkeit, unerwünschte Hintergründe in Videos

Freiheiten bei der Entwicklung von Game-Charak-

automatisch zu entfernen. Damit sparen Filmdesig-

teren. Systeme wie ZRT 257 erlauben es, 3D-Modelle

ner:innen erheblich Zeit im Designprozess.

automatisch zu riggen und zu animieren. Das System übernimmt die zeitintensive Arbeit, all die Bereiche

Im Bereich Modedesign überträgt ein intelligentes

zu definieren, die sich bei einem 3D-Modell bewegen

System 262 automatisch Schnittmuster auf unter-

lassen. In wenigen Stunden überträgt das System

schiedliche Körpergrößen, ohne dafür vordefinierte

alle wesentlichen Eigenschaften auf das Modell, die

Regeln zu benötigen. Das erlaubt, schneller Maß-

vorher aufwendig durch Rigging und Animation

konfektionen zu erstellen und großflächig in den

ausgearbeitet werden mussten. Mittlerweile können

Fast-Fashion-Markt zu bringen. Ein letztes System 263

Deep-Learning-Systeme auch im Bereich Game-

erlaubt das interaktive Editing für die Strickmuster-

Character-Steuerung flüssige und realistische

erstellung. Damit können Strickwaren noch schneller

Bewegungen sowohl für zweibeinige

entworfen, für die Maschine vorbereitet und fertig-

258

wie auch für

gestellt werden.

vierbeinige 259 Spielcharaktere lernen und so Rigging und Animieren der Charaktere automatisieren.

Insgesamt wird deutlich, dass diese Klasse der Ebenfalls für Character-Animation gibt es Syste-

intelligenten Systeme arbeitsintensive und repetitive

me, die sicherstellen, dass Charaktere lippensynchron

Arbeitsschritte im Designprozess automatisiert und

sprechen. Das System kann auf Basis einer Audio-

so erlaubt, schneller fertige Designprototypen herzu-

spur die Lippen der Charaktere mit der Audiodatei

stellen und Designlösungen zu finalisieren.

synchronisieren. Aufwendige Einzelbearbeitungen

255 Move.ai: „High fidelity Motion Capture from video“, https://www.move.ai (4.2.2022). 256 Chao, Yu-Wei/Yang, Jimei/Chen, Weifeng et al.: „Learning to Sit. Synthesizing Human-Chair Interactions via Hierarchical Control“, https://arxiv.org/abs/1908.07423 (4.2.2022). 257 Ziva Dynamics: „ZRT Face Trainer“, https://zivadynamics.com/ zrt-face-trainer (4.2.2022). 258 Holden, Daniel/Komura, Taku/Saito, Jun: „Phase-functioned neural

260 Jali Research: „Rule Based AI + Animation Principles + Human Insight“, http://jaliresearch.com (4.2.2022). 261 RunwayML: „Runway: The fastest way to edit video“, https://runwayml.com (4.2.2022). 262 Wang, Huamin: „Rule-free sewing pattern adjustment with precision and efficiency“, https://dl.acm.org/doi/10.1145/3197517.3201320 (4.2.2022). 263 Kaspar, Alexandre/Wu, Kui/Luo, Yiyue et al.: „Knit sketching: from

networks for character control“, https://dl.acm.org/

cut & sew patterns to machine-knit garments“, https://dl.acm.org/

doi/10.1145/3072959.3073663 (4.4.2022).

doi/10.1145/3450626.3459752 (4.2.2022).

259 Zhang, He/Starke, Sebastian/Komura, Taku et al.: „Mode-adaptive neural networks for quadruped motion control“, https://dl.acm.org/doi/10.1145/3197517.3201366 (4.2.2022).

Kapitel 3: Gestaltung mit und für intelligente Systeme

82

3.2.6 Resultate

In einem letzten Bereich können Designer:innen High-Fidelity-Prototypen mithilfe von intelligenten Systemen sogar testen. So prognostiziert ein Sys-

Sichtbar wird, dass in allen Phasen des Designpro-

tem

zesses intelligente Systeme sinnvoll assistieren,

264

die Reaktion der Nutzer:innen über verschie-

dene Interfaces hinweg und ermöglicht Tests ganz

optimieren und automatisieren. Lernende Systeme

ohne die User:innen. Ein zweites System 265 prüft

erleichtern und beschleunigen den Entwurfsprozess

gestaltete Interfaces und gleicht sie mit bestehenden

und schaffen dadurch neue Freiheitsgrade für Desig-

Designheuristiken ab. Basierend auf diesem Prüf-

ner:innen. Sie verbessern prozedurale Workflows

schritt empfiehlt das System Änderungen im Proto-

und ersetzen anstrengende, zeitaufwendige Design-

typ, der die Usability und damit die User Experience

aufgaben.

verbessert. Statt also selbst aufwendig nach Diskrepanzen in der Gestaltung zu suchen, übernimmt das

Sie ermöglichen aber auch neue Formen des Expe-

System diese Suche für Designer:innen. Das dritte

riments und erhöhen damit den Grad der Kreativität

System 266 erkennt die emotionalen Reaktionen von

der Gestalter:innen erheblich.

User:innen und erlaubt beispielsweise Testdurchläufe für Werbeclips. Auf diese Weise können Designer:in-

Prinzipiell können intelligente Systeme eine

nen erkennen, ob Zuschauende an den richtigen

große Bandbreite von Eingabedaten, wie Gesten,

Stellen emotional eingebunden sind.

Töne, Sprache, Bewegungen oder Bilder, mit unterschiedlichsten Ausgabedaten verknüpfen. So entstehen neue Formen der Interaktion von Gestalter:in und Maschine und neue gestische, sprachliche und mimische Interaktionsparadigmen. 267 In Zukunft werden Interaktion und Gestaltung mit intelligenten Systemen sicher zunehmend multimodaler und natürlicher. Es ist nicht unwahrscheinlich, dass Designer:innen immer mehr mit intelligenten Interfaces sprachlich interagieren und durch Gesten spezifizieren, auf welche Bereiche sich die sprachliche Eingabe bezieht. Im folgenden Kapitel soll die Funktion intelligenter Interfaces daher näher beleuchtet werden. Grundsätzlich wird mit den intelligenten Systemen der Möglichkeitsraum größer, den Designer:innen erkunden können und der ihnen als Inspiration dienen kann. Die Systeme erhöhen die gestalterische

264 Li, Yang/Bengio, Samy/Bailly, Gilles: „Predicting Human

Freiheit, da sie es erlauben, sich von Referenzen in

Performance in Vertical Menu Selection Using Deep Learning“, https://dl.acm.org/doi/10.1145/3173574.3173603 (21.4.2022). 265 Chen, Chun-Fu/Pistoia, Marco/Shi, Conglei et al.: „UI X-Ray: Interactive Mobile UI Testing Based on Computer Vision“, https://dl.acm.org/doi/10.1145/3025171.3025190 (21.4.2022). 266 Affectiva: „Affectiva Media Analytics for Ad Testing“, https://www.affectiva.com/product/affectiva-media-analyticsfor-ad-testing (21.4.2022).

267 Hebron, Patrick: Machine Learning for Designers, Boston: O’Reilly Media 2016, S. 24.

Kapitel 3: Gestaltung mit und für intelligente Systeme

83

der Wirklichkeit zu entkoppeln und Dinge zu visuali-

Gleichzeitig werden auch die Grenzen der ex-

sieren, die es so nicht gibt, und dies in einer Qualität,

plorativen, generativen und optimierenden Systeme

die weit über Low-Fidelity-Prototypen hinausgehen

sichtbar. Intelligente Systeme werden bisher auf Bild-

kann. Natürlich droht damit auch die Gefahr, dass

gegenstände trainiert, die ihren Ursprung in infor-

alle Entwürfe, die mit denselben Algorithmen ge-

matischen Forschungsprojekten haben und nicht in

fertigt wurden, gleich aussehen. Hier deutet sich an,

den Anwendungsgebieten des Designs. Mit anderen

dass Designer:innen die intelligenten Werkzeuge

Worten sind oft nur generative Systeme verfügbar,

teilweise selbst anpassen und gestalten müssen, um

die einige wenige Bildgegenstände wie beispielsweise

zu wirklich überzeugenden Ergebnissen zu kommen.

Gesichter, Katzen oder Autos generieren können. Für

Die Arbeiten Sophia Crespos, die im vierten Kapitel

alle anderen Gegenstände müssen Designer:innen

in einer Case Study vorgestellt werden, sind ein ge-

und Unternehmen ihre Werkzeuge selbst erstellen,

lungenes Beispiel dafür, dass Design, das mit GANs

wollen sie deren volles Potenzial ausschöpfen.

entstanden ist, nicht nach der typischen frühen GANÄsthetik aussehen muss. Es wird auch deutlich, dass Designer:innen nicht mehrheitlich ersetzt, sondern ihre Fähigkeiten erweitert werden. Es bedarf der menschlichen Intelligenz, um die Ergebnisse maschineller Systeme zu evaluieren, kritisch zu reflektieren und im Designprozess sinnvoll einzubinden. Es bedarf aber auch Designer:innen, die Schnittstellenwissen besitzen, wie man Daten strategisch einsetzt. Einen qualitativen Sprung schaffen zudem Systeme, die menschliche Kreativität und Wahrnehmung erweitern und so Informationen liefern, über die Designer:innen nicht ohne Weiteres verfügen. Solche Systeme führen Intelligence Augmentation in den Gestaltungsprozess ein. Damit ändert sich die Qualität von Gestaltung erheblich, denn nun sind die Ergebnisse von Gestaltung nicht mehr nur das Ergebnis einer Kreativität von Menschen, die digitale Tools einsetzen, sondern das Ergebnis eines Co-Designs von Mensch und Maschine.

Kapitel 3: Gestaltung mit und für intelligente Systeme

84

3.3 Gestaltung für intelligente Systeme:

Frage, wie gut eigentlich der Geschmack der Nutzerin

Intelligence Experience

vorhergesagt wird. Das berührt aber auch Fragen der Personalisierung von Kommunikationsmitteln, wie

Statistische Lernverfahren unterstützen nicht nur

etwa die Fotos und Texte, die die Filme und Serien

den Designprozess, sie beeinflussen auch das gestal-

im Netflix-Interface repräsentieren. Die Gestaltung

tete Produkterlebnis, die sogenannte User Experience.

eines solchen Fernseherlebnisses schließt Fragen des

Auch für den Bereich der intelligenten User Expe-

Aufbaus und der Funktionsweise dieses Interfaces

rience fehlt bisher ein umfassender theoretischer

und das Problem ein, wie viel Information Nutzer:in-

Überblick, der es Designer:innen, Designmana-

nen benötigen, um sich für Inhalte zu entscheiden.

ger:innen und Designtheoretiker:innen ermöglicht,

Es endet bei ethischen und rechtlichen Fragen, wie

sich das Feld systematisch zu erschließen. Dieses

legitim es ist, Nutzer:innen mit immer neuen Film-

Forschungsdesiderat zu beheben und ein kohärentes

vorschlägen zum sogenannten Binge-Watching, also

Ordnungsprinzip intelligenter Designerlebnisse zu

zu exzessivem Fernsehgenuss, zu überreden, genauso

skizzieren, wird im folgenden Kapitel erörtert.

wie Fragen des Datenschutzes für die Nutzer:innendaten.

Wenn zukünftige Handlungen, Wünsche, Erfahrungen und Ereignisse maschinell antizipiert werden

Wenn intelligente Systeme in digitale Produkte

können, dann kann man sie auch in digitalen Produk-

Einzug halten, werden sie also zum Designmaterial im

ten einsetzen und so das Produkterlebnis entschei-

Prozess der Gestaltung einer neuen User Experience.

dend bereichern. Das intelligente Fernseherlebnis

Im nun folgenden Kapitel sind daher Fragen zentral,

beispielsweise besteht dann nicht mehr darin, dass

die das Erleben digitaler Produkte betreffen, das sich

sich eine Nutzerin an ein feststehendes Fernsehpro-

durch die Prognosemöglichkeiten des statistischen

gramm anpasst. Es besteht auch nicht vordergründig

Lernens grundlegend verändert. Wie geht man als

darin, dass sie aus einer riesigen Menge digitaler

Designer:in mit den intelligenten Systemen als

Videos zeitlich und räumlich frei auswählen kann.

Designmaterial um und welche Gestaltungsprinzipi-

Stattdessen besteht es darin, dass ein intelligentes

en gelten für dieses Material? Welche Erwartungen

System, das den Geschmack der Nutzerin kennt,

haben Nutzer:innen an intelligente Systeme und wie

die Videos personalisiert vorschlägt. Firmen wie

kann man ihnen gerecht werden? Wie sieht eine ge-

Netflix, Disney oder Apple bieten dieses intelligente

lungene User Experience aus, die Nutzer:innen durch

Fernseherlebnis auf der Basis von Empfehlungs-

Prognosen unterstützt und neue, hilfreiche Formen

algorithmen seit einiger Zeit erfolgreich an. Damit

der Interaktion schafft? Welche Herausforderungen

haben es Designer:innen, die ein solch intelligentes

und Probleme entstehen durch diskriminierende

Produkterlebnis gestalten wollen, mit einer neuen

Systeme für Designer:in und Nutzer:in? Was passiert,

grundlegenden Frage zu tun: Auf welche Weise und

wenn intelligente Systeme nutzer:innenspezifische

mit welchen Daten können intelligente Systeme Nut-

Anpassungen der Interfaces vornehmen können?

zer:innenbedürfnisse befriedigen und ein hilfreiches

Dies sind nur einige der zentralen Fragen, die in die-

und angenehmes Nutzer:innenerlebnis schaffen? Das

sem Kapitel beantwortet werden sollen. Dabei wird

schließt am Beispiel von Netflix Fragen der Empfeh-

eine Unterteilung in vier Unterkapitel vorgenommen:

lungsalgorithmen und ihrer Genauigkeit ein, also die

Das erste beschäftigt sich mit zwei zentralen Eigen-

Kapitel 3: Gestaltung mit und für intelligente Systeme

85

schaften intelligenter Systeme, die für intelligentes

Umweltbewusstsein er hat. Wer die Körpergröße

Produkterleben relevant sind. Das ist zum einen die

eines Menschen kennt, kann seine Kleidergröße vor-

Vorhersage als Moment ganz neuer Produkterlebnis-

hersagen. Sind die Daten noch umfangreicher und

se, zum anderen ist es die Personalisierung der Pro-

geben Aufschluss über Produkte, die jemand in der

dukte. Im Zentrum steht die Frage, wie sich Gestal-

Vergangenheit gekauft oder genutzt hat, kann man

tung und Produkterlebnis verändern, wenn Produkte

mittels statistischer Lernverfahren auch vorhersagen,

Nutzer:innenpräferenzen bis auf eine individuelle

welche Inhalte und Produkte ihn oder sie zukünf-

Ebene vorhersagen können.

tig interessieren werden. Es lassen sich aber auch Wahrscheinlichkeiten berechnen, mit denen Mails als

Das zweite Unterkapitel beschäftigt sich mit Fra-

Spam erkannt werden oder Kontobuchungen mög-

gen, die aufgeworfen werden, wenn die Schnittstelle

liche Kreditkartenbetrüge sind. All diese Prognosen

zu den Nutzer:innen durch intelligente Systeme mehr

sollen das Leben der Nutzer:innen sicherer, leichter

und mehr Daten erkennen und sinnvoll verarbeiten

und zufriedener machen, ihre Bedürfnisse nach Si-

kann. Wenn also Interfaces gesprochene Sprache,

cherheit, Verbundenheit, Übersichtlichkeit, Spaß und

Gesten, Emotionen und Bilder aufnehmen und sogar

mehr befriedigen.

multimodal verwerten können. Wenn also User:innen immer natürlicher mit digitalen Produkten interagie-

Die Fähigkeit der Prognose wird in immer mehr

ren und sich diese Interfaces sogar dynamisch für das

sozialen, beruflichen und privaten Kontexten relevant

Verhalten der Nutzer:innen gestalten lassen.

und mittlerweile werden viele digitale Produkte bereits mit einer mehr oder weniger ausgereiften Form

In einem dritten Kapitel werden die Modi intel-

von intelligentem System ausgestattet. Einigen Pro-

ligenter Produkterlebnisse besprochen und es wird

dukterlebnissen liegen sogar ganz zentral intelligente

erklärt, welche Faktoren für User Experience, kurz

Systeme zugrunde. Die User Experience von intelli-

UX, einschlägig sind. Das letzte Unterkapitel leitet

genten Kartensystemen wie Google Maps beispiels-

Designprinzipien für intelligente User Experience

weise verfügt über viele Millionen Datenpunkte von

anhand einschlägiger Frameworks ab und erarbeitet

Nutzer:innen und kann so unter anderem Verkehrs-

zentrale Bereiche, die es als Designer:in zu beachten

staus vorhersagen. Das System prognostiziert, auf

gilt, will man gute User Experience gestalten.

welcher Straße sich gerade der Verkehr staut, indem es aus den Mobildaten relevante Daten entnimmt und

3.3.1 Vorhersage und Personalisierung als

auswertet. Halten sich viele Mobiltelefone gleich-

zentrale Eigenschaften von Intelligence

zeitig am selben Ort in einem bestimmten Abstand

Experience

über einen bestimmten Zeitraum hinaus auf, erkennt das System mit hoher Wahrscheinlichkeit einen Stau.

Deutlich wurde im Kapitel über statistische Lernver-

Zudem kann es mit einem Farbsystem indizieren,

fahren, dass sie prognostische Fähigkeiten besitzen.

wie gravierend der Verkehrsstau ist und um wie viele

Sie können aus historischen Daten statistisch wahr-

Minuten sich die Fahrt verzögert. Der Nutzen für

scheinliche zukünftige Ereignisse vorhersagen. Wer

User:innen liegt auf der Hand. Sie erkennen nicht

das Alter eines Menschen kennt, kann dann prog-

nur, wo sich der Verkehr ganz konkret staut, sondern

nostizieren, welches Gehalt er verdient oder welches

auch wie lange er dauert und ob sie rechtzeitig zu

Kapitel 3: Gestaltung mit und für intelligente Systeme

86

ihrem Termin kommen. Sie können somit präventiv

schaffen. Vielmehr ist es der Dreiklang aus aktuellem

entscheiden, ob sie mehr Zeit einplanen, ob sie eine

Bedürfnis der Nutzenden, dem Wissen der statisti-

alternative Route nehmen oder Meetings von zu

schen Lernverfahren und ihrer Integration in ein gut

Hause abhalten oder sogar verschieben. In jedem Fall

bedienbares User Interface. Alle drei Ebenen erschaf-

haben sie durch die Stauanzeige mehr Handlungs-

fen zusammen erst das intelligente Produkterlebnis,

optionen und damit mehr Kontrolle bekommen. Ihr

das darüber entscheidet, ob das Produkt als nützlich,

Erlebnis hat sich dadurch verbessert und sie können

unterhaltsam und schön empfunden wird oder als

dank des intelligenten Systems positiv gestimmt blei-

kompliziert, anstrengend und bedrohlich.

ben. Eine Erfahrung, die User:innen dann auch von allen anderen Karten-Apps erwarten.

Unter User Experience versteht man also ein ganzheitliches Produkterlebnis, das sich nicht nur auf

Das Nutzer:innenerlebnis setzt sich also zu-

die Interaktion von Mensch und Maschine mit dem

sammen aus drei Ebenen: erstens der Nützlichkeit

sogenannten User Interface beschränkt, die vor allem

einer solchen Stauwarnung für die Nutzer:innen, die

Regeln der Benutzerfreundlichkeit folgt. User Expe-

wiederum von deren Bedürfnissen abhängt. Zweitens

rience umfasst die psychologische, emotionale und

davon, dass das trainierte Machine-Learning-Modell

soziale Wirkung von Gestaltung über einen bestimm-

verlässlich funktioniert. Dazu muss das Modell ein

ten Zeitraum hinweg, die oft über die Interaktion mit

mehr oder weniger umfangreiches Wissen von der

dem User Interface hinausgeht. 268 Das Konzept der

Domäne haben, in der sich die Nutzer:innen bewe-

User Experience stellt dieses ganzheitliche Produkt-

gen. In diesem Fall ist es das Wissen über die Ver-

erlebnis in den Vordergrund und begreift Design als

kehrslage und darüber, welche Datenpunkte unter

die Herausforderung, ein solches Erlebnis, egal ob

welchen Bedingungen als Stau klassifiziert werden

für physische oder digitale Produkte, so zu gestalten,

können. Dieses Wissen ist oftmals kein starres

dass es die sachlichen, emotionalen, psychologischen

Wissen, sondern entwickelt sich mit und durch die

und sozialen Bedürfnisse der Nutzer:innen best-

Nutzung weiter. Die dritte Ebene betrifft die gestal-

möglich befriedigt. Mit anderen Worten möchte die

tete Schnittstelle, die das intelligente System sinn-

Gestaltung der User Experience sicherstellen, dass sie

voll mit den Nutzer:innen zusammenbringt und ein

sowohl die pragmatischen Ziele der Nutzer:innen –

nützliches oder schönes Erlebnis schafft. Hierzu zählt

wie etwa ein Informationsbedürfnis – als auch ihre

beispielsweise die Art und Weise, einen Stau in der

hedonistischen Ziele – wie etwa ein Kompetenz-

Karte farblich zu markieren und damit die Stauzeit

gefühl oder einen ästhetischen Genuss – erfüllt. 269

intuitiv zu vermitteln.

Gestaltete Erlebnisse, in denen statistische Lernverfahren zentral implementiert sind, sollen Intelligence

Oft wird das Vorhersagevermögen intelligenter

User Experience oder Intelligence Experience – kurz IX –

Systeme als Eigenschaft der Gestaltung selbst ausge-

genannt werden.

drückt; dann wird Design als Predictive Design oder Anticipatory Design bezeichnet. Das ist im Grunde

Ein weiteres Beispiel soll dies bebildern: So kann

nicht genau formuliert, denn es ist nicht die Eigen-

sich ein Nutzer den ganzen Tag gut informiert und

schaft des Designs allein, ein intelligentes Erlebnis zu

kompetent für Gespräche unter Kolleg:innen fühlen,

268 Moser, Christian: User Experience Design, Heidelberg: Springer Vieweg 2012, S. 13. 269 Hassenzahl, Marc: „User experience (UX): towards an experiential perspective on product quality“, https://dl.acm.org/doi/10.1145/1512714.1512717 (21.4.2022).

Kapitel 3: Gestaltung mit und für intelligente Systeme

87

wenn er morgens auf der News-App seiner Wahl die

Im oben zitierten Beispiel liefert der Empfehlungs-

für ihn relevantesten Artikel des Tages vorgeschlagen

algorithmus Inhalte nur für diesen einen Nutzer. Er

bekommt und liest. Entsprechend positiv bestärkt, je-

bekommt nur Nachrichten angezeigt, die mit hoher

den Morgen Zeit mit der App zu verbringen, baut der

Wahrscheinlichkeit auch seinem Informationsbedürf-

Nutzer eine tägliche Routine auf, die er als zeitliche

nis entsprechen. Die IX personalisiert also Erlebnisse,

Investition in die App empfindet und der App des-

die auf die individuellen Präferenzen, Erwartungen

halb immer verbundener wird, je länger er sie nutzt.

und Gewohnheiten des Nutzers abgestimmt sind.

Die IX speist sich also zunächst sowohl aus der direkten Interaktion mit der App und dem befriedigten

Intelligente Systeme können nun je nach Wissen

Informationsbedürfnis als auch aus dem anhaltenden

über Kontext und Nutzer:in verschiedene Bereiche

Gefühl, in sozialen Interaktionen immer kompetent

personalisieren. Soll erstens der Kontext der Nutzung

und informiert zu sein. Dabei hat die App in diesem

personalisiert werden, dann lernen intelligente Sys-

Beispiel nicht mehr nur ein Wissen über die Welt der

teme den Zusammenhang von Nutzer:in und Umwelt

Nachrichten, sondern zugleich auch ein Wissen über

und leiten daraus Nutzungsszenarien ab. Beispiels-

ihren Nutzer und dessen Informationsbedürfnis und

weise kann eine Nutzerin sich den Kalorienverbrauch

kann somit Inhalte zielgenau anpassen. Langweilt

für verschiedene Strecken durch eine Lauf-App vor-

sich der Nutzer nach einem längeren Nutzungszeit-

hersagen lassen. Anhand bestimmter Datenpunkte

raum, kann das System andere Arten von Inhalten

der Strecken, wie Höhenverlauf oder Terrain, sowie

vorschlagen, die der neuen Vorliebe des Nutzers nach

Körpergröße und -gewicht der Läuferin bestimmt das

überraschenden Inhalten stärker entspricht.

intelligente Systeme dann den individuellen Verbrauch. Nutzer:innen kann das wiederum motivieren,

Eine gute IX steht in diesem Fall vor der Heraus-

mehr Kalorien zu verbrauchen und längere Strecken

forderung, die richtige Balance zwischen gewollter

zu laufen, also insgesamt die App länger zu nutzen.

Routine und Überraschung zu liefern. Deutlich wird, dass die Intelligence Experience situativ und subjek-

Sollen zweitens Vorlieben der Nutzer:innen perso-

tiv ist und von den Erwartungen und Erfahrungen

nalisiert werden, lernt das intelligente System den

der Nutzer:innen genauso abhängt wie von ihren

Zusammenhang zwischen den Präferenzen der Nut-

aktuellen Bedürfnissen und der eigentlichen Gestal-

zer:innen und den Inhalten. Das intelligente Fern-

tung des Produkts.

seherlebnis ist ein Beispiel hierfür, denn intelligente Systeme lernen den Zusammenhang von geschauten

In einer wesentlichen Hinsicht verändern die pro-

und bewerteten Filmen sowie dem Geschmack

gnostischen Eigenschaften der statistischen Lernver-

der Nutzer:innen, um dann angemessene Filme zu

fahren das Produkterlebnis also entscheidend. Statt

empfehlen. Der Kontext der Nutzung spielt für die

einfach nur einen zufälligen oder vorher festgelegten

Filmempfehlungen nur eine marginale Rolle und das

Inhalt angezeigt zu bekommen, der für alle Nutzer:in-

System hat keine Kenntnis darüber, in welcher Situa-

nen gleich ist, erlauben es diese Verfahren, jede Art

tion die Zuschauenden ihre Filme schauen.

von Inhalt mehr oder weniger genau auf die Vorlieben und Interessen der Nutzer:innen abzustimmen.

Kapitel 3: Gestaltung mit und für intelligente Systeme

88

Ein dritte Klasse von Systemen für Personalisierung diese Daten dann genutzt werden können, um komkombiniert Wissen über den Kontext und die Nutzer:in-

plexes Verhalten zu erkennen, dann werden Nutzer:

nen. Beispielsweise besitzt ein intelligentes System,

innenschnittstellen zu sogenannten Intelligent User

das Nutzer:innen individuell in ihrem Style beraten

Interfaces.

kann, sowohl Wissen über Modestile als auch Kontextwissen über Modesaison und Anlässe. Zugleich

Im Unterschied zu traditionellen User Interfaces

verknüpft das System Wissen über die Nutzer:innen

sind intelligente User Interfaces in der Lage, über

und ihre stilistischen Vorlieben mit dem Kontextwis-

ihre Nutzer:innen sowie deren Aufgaben und die

sen. Zwischen diesen drei Bereichen lernt das System

Nutzungssituationen, aber auch über die Medien, die

dann relevante Zusammenhänge und kann je nach

sie nutzen, sinnvoll zu schlussfolgern. Damit ist die

Nutzer:in, Stil und Anlass individuelle Modetipps

Aufgabe dieser intelligenten Interfaces auch schon

geben.

deutlich; sie besteht darin, die Interaktion mit Nutzer:innen effektiver, effizienter und natürlicher zu

Insgesamt reduziert IX durch Personalisierung den

machen. 271 Das schaffen intelligente Interfaces, indem

kognitiven Aufwand und wirkt damit Entscheidungs-

sie Modelle erstellen, auswerten und nach ihnen han-

müdigkeit entgegen. Es erweitert aber auch kognitive

deln, die Wissen über Ziel und Kontext einer Aufgabe

Fähigkeiten, die die Nutzer:innen vorher nicht beses-

haben, die mit und durch die Interaktion bewältigt

sen haben oder nur mühsam selbst für sich und ihre

werden soll. Intelligente Interfaces verfügen darüber

Interessen ermitteln müssten. Dass Personalisierung

hinaus auch über ein Verständnis der Aufgabe, die

in digitalen Produkten immer zentraler wird, zeigt

Nutzer:innen erledigen möchten, sowie über die Situ-

beispielsweise der Autohersteller Audi, der Personali-

ation, in der sie sich befinden. Intelligente Interfaces

sierung bereits als leitendes Designprinzip verankert

verstehen nicht nur, wie sich Nutzer:innen verhalten,

hat.

sondern auch wieso sich tatsächliches Verhalten von

270

erwartetem Verhalten unterscheidet. 3.3.2 Intelligente User Interfaces Diese Art von intelligenten Schnittstellen sind in Mit intelligenten Systemen ist es nicht nur möglich,

der Lage, viele unterschiedliche Datenquellen gleich-

Interaktionen und Inhalte zu antizipieren und zu per-

zeitig zu verarbeiten und sinnvoll aufeinander zu

sonalisieren. Intelligente Systeme modifizieren auch

beziehen. So können Menschen mit dem Finger auf

die digitalen Schnittstellen, also die User Interfaces,

einen Gegenstand zeigen und gleichzeitig darüber

durch die User:innen mit digitalen Systemen inter-

sprechen. Diese Art der kontextabhängigen Interak-

agieren. Je umfangreicher Art und Menge der Daten

tion erscheint für Menschen intuitiv und simpel, war

werden, die Interfaces erkennen und sinnvoll ver-

allerdings für Maschinen bisher äußerst schwierig

arbeiten können, umso stärker ändert sich auch

zu bewältigen, in manchen Fällen sogar unmöglich.

die Interaktion mit den Nutzer:innen und damit die

Immer effektivere intelligente Systeme können nun

IX. Wenn natürliche Sprache, Gesten, Bilder und

nicht nur menschliche Gesten und die gesprochene

Videos, Klang und Töne oder sogar Emotionen durch

Sprache erkennen, sondern beides sinnvoll aufein-

Interfaces aufgenommen werden können, wenn

ander beziehen. Die Systeme wissen dann, dass sich

270 Audi: „UX Paradigms“, https://www.audi.com/ci/en/guides/ user-interface/ux-paradigms.html (21.4.2022).

271 Maybury, Mark: „Intelligent user interfaces: an introduction“, https://dl.acm.org/doi/abs/10.1145/291080.291081 (21.4.2022).

Kapitel 3: Gestaltung mit und für intelligente Systeme

89

die gesprochenen Worte auf den gezeigten Gegen-

In Zukunft wird multimodale Interaktion durch

stand beziehen. Ein solches Paradigma der Inter-

eine stärker entwickelte Augmented und Virtual

aktion nennt man multimodal. Die Interaktion mit

Reality sicher immer relevanter und vielleicht sogar

Nutzer:innen findet also in mehr als einem Modus

zum dominierenden Interaktionsparadigma aufstei-

der Interaktion statt, kann also sprachlich, gestisch

gen. Die Vision des Unternehmens Meta, vormals

oder durch Eingabegeräte wie eine Maus stattfinden.

Facebook, für die Interaktion im Metaverse sieht

Je näher die Modi der Interaktion mit intelligenten

vor, dass Nutzer:innen selbst ihre Meta-Universen

Systemen an zwischenmenschliche Interaktionen

gestalten können; und zwar genau auf die multimo-

heranrücken, umso natürlicher wird sie von den

dale Art und Weise, wie es auch mit dem digitalen

Nutzer:innen empfunden.

Ouija-Board erprobt wurde. Nutzer:innen interagieren sprachlich und gestisch mit dem intelligenten

Ein Beispiel für ein solch multimodales intelli-

Interface, in diesem Fall einer VR-Brille. Sie nennen

gentes Interface ist das Projekt „Digital Ouija Board

den Gegenstand, den sie in ihrer VR-Welt erzeugen

for Aircraft Carrier Operations“ 272 des Massachu-

wollen, und zeigen bzw. schauen gleichzeitig auf den

setts Institute of Technology Computer Science &

Bereich, wo sie ihn platzieren wollen. Auf diese Wei-

Artificial Intelligence Laboratory, kurz MIT CSAIL.

se gestalten Nutzer:innen interaktiv und multimodal

Forscher:innen des CSAIL haben ein Interface für

ihre individuellen Welten. 273 An beiden Beispielen,

die militärische Anwendung entwickelt, was sicher

dem Ouija-Board und dem VR-Interface, wird klar,

kritisch gesehen werden muss, sich aber leicht für

dass intelligente Interfaces auch als intelligente

designerische Zwecke imaginieren lässt. Nutzer:innen

Gestaltungswerkzeuge bedeutsam sind, denn sie

können darin bestimmte Gegenstände auf einer Can-

erlauben multimodale Interaktion für Gestaltungs-

vas bewegen, indem sie auf die Gegenstände zeigen

aufgaben.

und dabei sprachliche Befehle geben, wie beispielsweise: „Bewege Gegenstand X auf diese und jene

Eine besondere Herausforderung für intelligente

Fläche!“ Das System antwortet ebenfalls in gespro-

Interfaces sind derzeit Eingabedaten, die die emo-

chener Sprache und bestätigt die Aktion entweder

tionalen Zustände von Nutzer:innen betreffen. Im

oder gibt zurück, dass die Aktion nicht ohne Weiteres

Bereich des sogenannten Affective Computing, der

ausgeführt werden kann. Es schlägt Schritte vor,

auch unter dem Namen Emotional AI bekannt ist,

wie die Aktion ausgeführt werden kann, beispiels-

erkennen und verarbeiten intelligente Interfaces

weise, wenn andere Gegenstände vorher verschoben

Basisemotionen, um dann entsprechend persona-

werden. Dazu zeigt es ebenfalls auf die betreffenden

lisierte Reaktionen des Systems zu erlauben. Zwei

Gegenstände. Das System kennt also sowohl die

fundamentale Probleme stellen sich hier aus Sicht

Aufgaben und Intentionen der Nutzer:innen als auch

der IX; das erste ist ein technisches Problem, das

den Kontext, in dem diese Aufgaben erfüllt werden

zweite ein gestalterisches. Erstens können intelli-

können, also die Anordnungsregeln der Canvas. Es

gente bildbasierte Systeme bisher die vielfältigen

gestattet natürliche Sprache und Gesten und inter-

Arten, Emotionen zu empfinden und auszudrücken,

agiert multimodal mit den Nutzer:innen.

nicht sicher genug erkennen, da die Grundlage für ihre Auswertung in vielerlei Hinsicht unzureichend

272 MIT CSAIL: „Digital Ouija Board for Aircraft Carrier Operations“, http://groups.csail.mit.edu/mug/projects/ouijaboard (21.4.2022).

273 Facebook AI: „Inside the Lab: Building for the metaverse with AI“, https://fb.watch/bmXJ194H08 (21.4.2022).

Kapitel 3: Gestaltung mit und für intelligente Systeme

90

ist. Denn erst wenn man unterstellt, dass Emotionen

schen Gesichtsausdrücken und Emotionen. Es gibt

universell, automatisch und immer gleich ausge-

mittlerweile Bestrebungen, Emotionen differenzierter

drückt werden, könnten intelligente Systeme diese

zu klassifizieren und nicht nur die Grundemotionen

auch korrekt klassifizieren. Diese Vorstellung ist in

zu erkennen. 276 Allerdings lösen auch sie individuelle,

den letzten Jahren in der akademischen Debatte im-

kontextuelle, soziale und kulturelle Komplexität zu-

mer stärker in Zweifel gezogen worden. 274 Emotionen

gunsten einfacher Erkennbarkeit auf. Man ist daher

werden zwar geteilt und sind von Menschen entzif-

längst dazu übergegangen, zusätzliche Daten zu erhe-

ferbar, aber äußerst komplex, kontextuell und sogar

ben, wie etwa durch Biosensoren oder Sentimentana-

individuell. Menschen müssen sich oft noch bei der

lyse der Stimme. 277 Mit den Augmented-Reality- und

Person verbal rückversichern oder benötigen Kon-

Virtual-Reality-Brillen werden diese Biosensoren und

textinformationen, um Gefühle genau bestimmen zu

die Sentimentanalyse zukünftig wahrscheinlich in

können. Aus dem Gesicht allein ist das für Menschen

einem einzigen Interface implementiert sein. Damit

oft nicht zweifelsfrei erkennbar.

wird deutlich, dass Emotionserkennung ein sehr invasives Vorhaben ist und sofort ethische Fragen nach

Zudem müssen Systeme annehmen, dass Gesichts-

den Grenzen der Privatsphäre aufwirft.

ausdrücke immer eindeutig auf eine Grundemotion verweisen. Mit anderen Worten: Wer lacht, der muss

Zweitens besteht – selbst wenn man Emotionen

glücklich sein; wer böse schaut, muss verärgert sein.

korrekt bestimmen könnte und wollte – eine große

Visuelle Erkennungssysteme unterstellen außerdem,

Lücke zwischen korrekt klassifizierter Emotion und

dass man alle emotionalen Zustände mit den Grund-

der gestalterischen Lösung für diese Emotion. Wie

emotionen glücklich, ärgerlich, verängstigt, angeekelt

sollen digitale Produkte reagieren, wenn Nutzer:in-

und traurig erklären kann. Auch diese Vorstellungen

nen desorientiert, gestresst oder verärgert sind? Wel-

sind angesichts komplexer emotionaler Verschrän-

che Informationen benötigen sie dann und in welcher

kungen kritisiert und zurückgewiesen worden. Au-

Form? Welche gestalterischen Bereiche sollen an die

ßerdem können Systeme, die Emotionen erkennen,

Emotionen angepasst werden und auf welche Weise?

oft keine sozialen und kulturellen Kontexte berück-

Wie viel Kontext muss das intelligente Interface

sichtigen, die für die zwischenmenschliche Kommu-

berücksichtigen, wenn Gestaltung auf Emotionen

nikation entscheidend sind, will man das Gegenüber

angepasst wird? All diese Fragen sind derzeit zwar

emotional verstehen.

aufgeworfen, aber noch keineswegs beantwortet. 278

275

Insgesamt sind also Emotio-

nen zu komplex und individuell, als dass sie derzeit

In naher Zukunft werden diese Bereiche sicherlich

für intelligente Systeme wissenschaftlich haltbar

enorm an Interesse gewinnen, versprechen sie doch

klassifizierbar wären. Manche Start-ups versprechen

kundenzentrierten Industrien weitere große Schritte

zwar, dass ihre Algorithmen Emotionen klassifizie-

in Richtung Personalisierung und Zufriedenheit der

ren können. In Wirklichkeit erkennen diese Systeme

Kundschaft.

einen fragwürdigen stereotypen Zusammenhang zwi274 Feldman Barrett, Lisa/Adolphs, Ralph/Marsella, Stacy et al.: „Emotional expressions reconsidered: Challenges to inferring emotion from human facial movements“, https://journals.sagepub.com/doi/full/10.1177/1529100619832930 (21.4.2022). 275 Crawford, Kate: Atlas of AI, New Haven: Yale University Press 2021, S. 158.

276 Vemulapalli, Raviteja/Agarwala, Aseem: „A Compact Embedding for Facial Expression Similarity“, https://arxiv.org/abs/1811.11283 (21.4.2022). 277 Misselhorn, Catrin: Künstliche Intelligenz und Empathie. Vom Leben mit Emotionserkennung, Sexrobotern & Co, Ditzingen: Reclam 2021, S. 30. 278 Loewe, Sebastian: „Making Visual Design Adapt to Emotions and Affect: Thoughts and Research Questions on Emotionally Responsive Visual Design“, in: Engenhart, Marc/Loewe, Sebastian (Hrsg.): Proceedings of the First Conference on Designing with Artificial Intelligence, München: appliedAI 2021, S. 128–140.

Kapitel 3: Gestaltung mit und für intelligente Systeme

91

Mit den intelligenten Interfaces tritt ein weiteres

zerin eine Bewegung vorführt, die ein System dann

Paradigma der Interaktion auf die Tagesordnung,

lernt. Die dritte Methode ermöglicht, konkrete An-

das die IX intelligenter Systeme weiter modifiziert.

weisungen zu geben, die die Maschine dann befolgt.

Nutzer:innen können nicht nur erleben, wie Produk-

Etwa, indem ein Nutzer sagt: „Gehe nach links“ oder

te auf ihre individuellen Bedürfnisse zugeschnitten

„Folge der Straße“. 281 Auf diese Weise lernt das Sys-

sind. Sie können auch das intelligente System ihren

tem komplexe situationsabhängige Verhaltensweisen.

Bedürfnissen gemäß anpassen und somit die Per-

Mit der Interface-Gestaltung für IML steht und fällt

sonalisierung personalisieren. Es ist das Paradigma

auch die erfolgreiche IX solcher interaktiver Systeme.

des sogenannten Interactive Machine Learning, kurz

Immerhin soll ein intuitiver und produktiver Dialog

IML. Der Terminus beschreibt eine Form von Inter-

zwischen Nutzer:in und intelligentem Interface er-

aktion, in der die Nutzer:innen selbst iterativ das Mo-

möglicht werden. Besondere Schwierigkeiten bereitet

dell trainieren und verbessern können, das sie dann

der Umstand, dass Nutzer:innen nicht immer präzise

gleichzeitig nutzen.

und konsistent sind, wenn sie das System instruieren.

279

Interactive Machine Learning

versteht die Nutzer:innen nicht nur als Personen, die

Außerdem besteht eine gewisse Grauzone zwischen

Trainingsdaten richtig labeln. Stattdessen werden die

dem Input der Nutzenden und ihrer Absicht. Hinzu

Nutzer:innen mit IML zu Lehrer:innen der Systeme.

kommt, dass die Interaktion mit einem intelligenten

Durch die Interaktion wird Wissen extrahiert, mit

Interface nicht einer herkömmlichen Interaktion

dem intelligente Systeme verbessert und angepasst

mit starren Informationsstrukturen entspricht. Das

werden können, ohne dass die Nutzer:innen techni-

intelligente System entwickelt sich mit dem Feedback

sches Wissen darüber besitzen müssen.

der Nutzer:innen weiter, allerdings nicht notwendi-

280

gerweise in die Richtung, die diese möchten. 282 Hier In diesem Paradigma der Interaktion gibt es derzeit

müssen Gestalter:innen abwägen, ob IML Sinn ergibt

drei zentrale Verfahren der Interaktion für das inter-

und wie die Interaktion trotz IML einfach und effek-

aktive Training der intelligenten Systeme: die Kritik,

tiv gestaltet werden kann.

die Demonstration und den sogenannten Action Advice, also die Aufforderung, eine Aktion auszu-

Es ist noch einmal festzuhalten, dass mit dem

führen. Kritik bezieht sich auf die direkte Korrektur

intelligenten Interface Interaktionen effektiver,

des Systems durch positives und negatives Feedback.

intuitiver und natürlicher werden und lernende

Nutzer:innen trainieren dann Verhalten, indem sie

Systeme selbst interaktiv an die eigenen Bedarfe

„Gut gemacht“ oder „Das nicht machen“ sagen. Hier

angepasst werden können. Intelligente Interfaces

kann auch eine Sentimentanalyse der Stimme unter-

bieten Gestalter:innen darüber hinaus noch einen

stützen, um positives und negatives Feedback der

weiteren großen gestalterischen Möglichkeitsraum,

Nutzer:innen genauer zu unterscheiden. Die zweite

indem sie erlauben, das Interface-Design selbst zu

Methode ermöglicht es Nutzer:innen, gewünschtes

personalisieren. Je nach Datenlage und Datenquali-

Verhalten zu demonstrieren, etwa wenn eine Nut-

tät, je nach Fähigkeit des Systems, Nutzer:innen,

279 Gillies, Marco/Fiebrink, Rebecca/Tanaka, Atau et al.: „Human-Centred Machine Learning“, https://dl.acm.org/ doi/10.1145/2851581.2856492 (21.4.2022). 280 Ramos, Gonzalo/Suh, Jina/Amershi, Saleema et al.: „Emerging

281 Krening, Samantha/Feigh, Karen: „Interaction Algorithm Effect on Human Experience with Reinforcement Learning“, https://dl.acm.org/doi/10.1145/3277904 (21.4.2022). 282 Dudley, John/Kristensson, Per Ola: „A Review of User Interface Design for

Perspectives in Human-Centered Machine Learning“,

Interactive Machine Learning“, https://dl.acm.org/doi/10.1145/3185517

https://dl.acm.org/doi/10.1145/3290607.3299014 (21.4.2022).

(21.4.2022).

Kapitel 3: Gestaltung mit und für intelligente Systeme

92

Absichten oder Kontexte zu erkennen, kann sich

anders darstellt und die Art und Weise, auf sie zu-

auch das Design des Interfaces sinnvoll verändern.

zugreifen, anpasst. Adaptive Interfaces können also

Intelligente User Interfaces werden so zu Adaptive

alle Elemente der Gestaltung, können Navigation,

User Interfaces oder Flexible User Interfaces, also zu sich

Informationsfluss, Inhalte und Formate dynamisch

dynamisch anpassenden Benutzerschnittstellen. So

und individualisiert anpassen.

kann beispielsweise das Layout einer Webseite an den Geschmack bestimmter Nutzer:innentypen angepasst

Die Idee der flexiblen Gestaltung ist nicht neu. Der

werden. Diese Typen von User:innen oder Personas

schweizerische Designer Karl Gerstner hat diese Idee

können beispielsweise in zwei Kategorien eingeteilt

bereits in den 1960er-Jahren für das Grafikdesign

sein. Erstens in die Gruppe der Zeitungsleser:innen

vorstellig gemacht und in seinem Buch „Programme

und zweitens in die Gruppe der Magazinleser:innen.

entwerfen“ 283 dargelegt, wie flexible Gestaltungssys-

Beide Kategorien ergeben sich aus den Vorlieben der

teme theoretisch gedacht werden müssen. Allerdings

Nutzer:innen. Die Zeitungsleserin bevorzugt Web-

fristete diese Art des Gestaltungsdenkens lange Zeit

seiten, die wie eine Zeitungsseite aufbereitet sind; sie

ein Nischendasein. Im Zeitalter digitaler Gestaltung

möchte Inhalte schnell sichten können und sich dann

nun wird Design parametrisch, das heißt in einzelne

entscheiden, was sie liest. Nutzer:innen aus dieser

Gestaltungsparameter zerleg- und automatisierbar

Kategorie bekommen mit dem Adaptive Interface ein

und damit wirklich flexibel. So wird es möglich, Re-

Website-Layout angezeigt, das Inhalte entsprechend

geln für Design zu definieren, die nicht mehr genau

aufbereitet, also viel Text, relativ kleine Überschriften

das Endergebnis von Gestaltung vorgeben, sondern

und wenig Bilder bietet. Der Nutzer aus der Kategorie

nur die Rahmenbedingungen. Die Entscheidung, wel-

Magazinleser:in bevorzugt den Website-Aufbau ähn-

che Größe beispielsweise eine Überschrift besitzen

lich einer Magazinseite. Er möchte sich inspirieren

und wo sie auf der Canvas angeordnet werden soll,

lassen und wünscht sich häufig wechselnde Inspirati-

wird Algorithmen mit den Gestaltungsparametern

onen. Er bekommt ein Layout angezeigt, das weniger

übergeben. Erst wirklich an Bedeutung gewonnen

Text, große Überschriften und viele Bilder bietet.

hat die Idee der flexiblen Gestaltung, als stationäre

Gestaltung wird mit dem Adaptive-Interface-Design

Rechner als Mainstream-Interfaces abgelöst und End-

nicht lediglich auf das Medienformat angepasst, wie

geräte mobil geworden sind. Jetzt müssen Design-

es noch im Responsive Design der Fall war, sondern

lösungen gleichzeitig auf Mobiltelefonen, Smart-

selbst in Form und Inhalt personalisiert. Responsiv

watches oder Tablets, aber genauso auf digitalen

sind Webseiten, wenn sie Gestaltung auf veränderte

In-Store-Displays, Virtual-Reality-Brillen und hoch-

Seitenverhältnisse dynamisch anpassen, etwa wenn

auflösenden Laptops funktionieren. Aus Sicht der

Endgeräte von einem Hoch- auf ein Querformat

Marke wird es sogar noch komplizierter, denn alle di-

wechseln und sich alle Inhalte als feste formale

gitalen und analogen Nutzer:innenschnittstellen, alle

Elemente neu auf dem Bildschirm ausrichten, jedoch

sogenannten Touchpoints, müssen ein einheitliches

inhaltlich und gestalterisch gleich bleiben. Adaptiv

Markenerlebnis schaffen, das sich zudem noch von

sind Webseiten, wenn die Website mit jeder neuen

anderen Erlebnissen abhebt. Deshalb funktioniert

Nutzerin, jedem neuen Nutzer nicht nur neue Inhalte

ein klassisches Markendesign in einer Welt, in der

personalisiert ausspielt, sondern selbige auch grafisch

ständig neue Touchpoints und Endgeräte entstehen,

283 Gerstner, Karl: Programme entwerfen, Teufen: Niggli 1963.

Kapitel 3: Gestaltung mit und für intelligente Systeme

93

aber auch die Interaktion mit Nutzer:innen durch

Nutzung an. 286 Um Nutzer:innen zu ermöglichen, be-

Sprache und Gesten immer natürlicher wird, nicht

stimmte Informationen schneller zu finden, werden

mehr ohne ein hohes Maß an visueller Flexibilität. 284

häufig genutzte Menüpunkte größer dargestellt und

Um diesem Umstand gerecht zu werden, wurden die

verdrängen weniger genutzte. Ein anderes Projekt

alten Styleguides und Designmanuals zuerst digitali-

passt die Interfaces von Mobiltelefonen in Gefah-

siert und später in Pattern Libraries überführt, also in

rensituationen wie beispielsweise der Autofahrt an.

individuell nutzbare Designbausteine, die ihre Nut-

Durch das adaptive Interface, das Umweltfaktoren,

zungsbedingungen gleich mitlieferten. Als die Idee

Fahrstil und Gerätenutzung erkennt, können Auto-

des Atomic Designs 285 eingeführt wurde, brach man

fahrer:innen während der Fahrt geschützt werden,

auch die Pattern Libraries in immer kleinere Bestand-

obwohl sie ihr Telefon benutzen. 287 Das Interface

teile auseinander und reicherte sie mit Informationen

wechselt dann automatisch in den Fahrtmodus, in-

zu Farben, Icons oder Grids an. Damit schuf man

dem es bestimmten Aktionen Prioritäten zuweist

ein umfangreiches digitales Designsystem, das über

und diese dann visuell hervorhebt, etwa durch höhe-

alle Medien und Touchpoints hinweg einheitliche

re Kontraste oder größere Schrift.

Gestaltungsmöglichkeiten bereitstellte, einheitliche Gestaltungsprinzipien formulierte und gleichzeitig

Interfaces, die sich dynamisch anpassen, schaffen

flexibel an die jeweiligen Interfaces angepasst werden

allerdings auch Probleme. Nutzer:innen können sich

konnte.

nicht darauf verlassen, dass bestimmte Elemente dort sind, wo sie beim letzten Besuch der App noch

Bisher allerdings waren Versuche, Gestaltung

waren, was frustrieren kann. Außerdem ist der

flexibel anzupassen, der Erfahrung, Intuition, tech-

Umfang dessen, was in den Interfaces dynamisch

nischen Expertise und gestalterischen Fantasie der

angepasst werden kann, je nach System sehr unter-

Designer:innen überlassen. Mit den Möglichkeiten

schiedlich und kann deshalb am tatsächlichen Bedarf

intelligenter Systeme können die flexiblen Gestal-

der Nutzer:innen leicht vorbeigehen; vor allem, wenn

tungslösungen nun an einen tatsächlichen Bedarf der

sich diese Bedarfe über einen bestimmten Zeit-

Nutzer:innen angebunden werden. Intelligente Syste-

raum verändern. Um dieses Problem zu beheben,

me verfügen durch ihren Aufbau über ein mehr oder

werden derzeit adaptive Systeme entwickelt, die

weniger detailliertes Verständnis der Nutzenden, das

Reinforcement-Learning einsetzen. Durch diese Art

nun die Grundlage bildet, um Interfaces sinnvoll zu

des Trainings, das Wohlverhalten belohnt und Fehl-

personalisieren. So können sich verschiedene Be-

verhalten bestraft, lernen Systeme, welche Formen

reiche und Elemente des Interfaces anpassen, je nach

der Adaption zu welchem Zeitpunkt gewünscht und

Situation, Nutzungskontext und Nutzer:in. Beispiels-

welche unerwünscht sind. Auf diese Weise verstehen

weise passt sich in den sogenannten Split Adaptive

und beherrschen sie die komplexen Möglichkeiten

Interfaces der Aufbau des Menüs einer Website der

adaptiver Interfaces besser. 288

284 Rädeker, Jochen: „Markengestaltung im Wandel. The Interface

286 Vanderdonckt, Jean/Bouzit, Sara/Calvary, Gaëlle et al.: „Cloud Menus:

Becomes the Brand“, in: Baetzgen, Andreas (Hrsg.): Brand Design.

a Circular Adaptive Menu for Small Screens“, https://dl.acm.org/doi/

Strategien für die digitale Welt. Stuttgart: Schäffer-Poeschel Verlag

abs/10.1145/3172944.3172975 (21.4.2022).

2017, S. 213. 285 Frost, Brad: Atomic Design, Pittsburgh: Brad Frost Web 2016.

287 Khan, Inayat/Khusro, Shah: „Towards the Design of Context-Aware Adaptive User Interfaces to Minimize Drivers’ Distractions“, https://doi.org/10.1155/ 2020/8858886 (21.4.2022). 288 Todi, Kashyap/Bailly, Gilles/Leiva, Luis et al.: „Adapting User Interfaces with Model-based Reinforcement Learning“, https://arxiv.org/abs/2103.06807 (21.4.2022).

Kapitel 3: Gestaltung mit und für intelligente Systeme

94

3.3.3 Faktoren und Modi der Intelligence

Fahrt zu interagieren. Häufige Interaktionen machen

Experience

Sinn, wenn sich die Informationen, über die das System verfügt, häufig signifikant ändern und wenn die

Intelligente Systeme können auf viele verschiedene

Nutzer:innen auch tatsächlich auf diese Änderungen

Arten mit Nutzer:innen interagieren. Dies ist ganz

reagieren. 291

unabhängig davon, welche personalisierten Daten diese Systeme ihnen anbieten. Intelligente Systeme

Der dritte IX-Faktor, der empfundene Wert der

können aufdringlich oder passiv sein und häufig oder

Interaktion, betrifft die Hemmschwelle, die Nutzer:in-

selten interagieren. Sie können für Nutzer:innen

nen empfinden, um überhaupt mit einem intelligen-

mehr oder weniger wertvoll sein und sie können

ten System zu interagieren. Wenn der Nutzungsauf-

mehr oder weniger hohe Kosten für die Nutzer:innen

wand höher liegt als der empfundene Nutzen, wird

verursachen, wenn sie prognostizieren. Alle genann-

es nicht gelingen, Nutzer:innen zu überzeugen, das

ten Faktoren bestimmen die Qualität der IX.

System zu nutzen. Dazu gehört, dass Nutzer:innen

289

nicht nur mitbekommen sollten, dass das intelligen Der erste Faktor ist die Stärke und Eindringlichkeit

te System etwas getan hat, sondern auch, wie das

der Interaktion. Energische Formen der Interaktion

Ergebnis der Interaktion und das gelöste Problem

können Nutzer:innen schlecht ignorieren, passive

positiv zusammenhängen. Nutzer:innen müssen dem

Formen entgehen ihrer Aufmerksamkeit dagegen öf-

System zudem vertrauen und nicht das Gefühl haben,

ter. Die intelligente Staumeldung kann beispielsweise

dass andere Interessen als ihre eigenen im Vorder-

darauf bestehen, dass Nutzer:innen sie zur Kenntnis

grund stehen. 292

nehmen, bevor sie losfahren, indem die App nicht mehr bedienbar ist, bevor die Nachricht nicht be-

Faktor Nummer vier bezieht sich auf die Kosten

stätigt wird. Solch eindringliche Interaktionsformen

der Fehler, die ein intelligentes System zwangsweise

sind sinnvoll, wenn der Nutzen höher liegt als die

macht. Schon kleine Fehlertoleranzen können, wenn

Gefahr, dass das System als zu aufdringlich erscheint

sie massenhaft und wiederholt auftreten, Nutzer:in-

und wenn es mit hoher Wahrscheinlichkeit richtig

nen verwirren und verärgern. Eine gute IX entsteht

vorhersagt. Passive Interaktionsformen sind dann

dann, wenn die Interaktion mit dem System keine zu

effektiv, wenn die Kosten für Fehler hoch sind und

hohen Kosten aus Sicht der Nutzenden verursacht,

die Prognose nicht besonders gut ist.

wenn also der einzelne Fehler nicht schwerer wiegt

290

als der Gesamtnutzen in einem gewissen Zeitraum. Der zweite bestimmende Faktor für die IX ist

Das System kann zwei grundlegende Arten von

die Häufigkeit der Interaktion. Die intelligente App

Fehlern machen, die unterschiedlich wahrgenommen

für Staumeldungen kann entweder an jeder Ampel

werden. Es kann Dinge als wahr prognostizieren, die

Empfehlungen machen, wie beispielsweise: „Wenn

nicht zutreffen, das nennt man False Positives. Es

du jetzt etwas schneller fährst und die Grünphase

kann aber auch Dinge als nicht wahr prognostizieren,

der Ampel schaffst, sparst du drei Minuten Fahrtzeit.“

die jedoch wahr sind, die sogenannten False Negati-

Oder die App ist begrenzt darauf, nur einmal pro

ves. Im Falle der Stau-App kann das bedeuten, dass

289 Hulten, Geoff: Building Intelligent Systems. A Guide to Machine Learning Engineering, New York City: Apress 2018, S. 76. 290 Hulten: Building Intelligent Systems, S. 77.

291 Hulten: Building Intelligent Systems, S. 78 f. 292 Hulten: Building Intelligent Systems, S. 80.

Kapitel 3: Gestaltung mit und für intelligente Systeme

95

Staus aufgelöst sind, obwohl die App den Stau meldet –

Der erste IX-Modus umfasst automatisierte Ak-

False Positive – oder dass es Stau gibt, das System

tionen, die Nutzer:innen nicht kontrollieren oder

aber keinen vorhergesagt hat – False Negative. 293 Die

stoppen können, denn sie laufen einfach automatisch

Wirkung auf das Erleben des intelligenten Systems in

ab. Etwa wenn eine Nutzerin früh ins Auto steigt und

der Gesamtsituation ist daher nicht nur abhängig von

ihre Route automatisch anhand aktueller Stau- und

der Art der Fehler, sondern auch davon, in welchem

Wetterdaten berechnet wird. Dieser Modus der Inter-

Anwendungsbereich sie auftreten. Mag die falsche

aktion ist äußerst energisch, nicht immer offensicht-

Stauprognose zwar unschön sein, ist sie doch ver-

lich für die Nutzer:innen und bedarf einer sehr guten

gleichsweise harmlos im Vergleich zu medizinischen

Qualität der Vorhersage. Außerdem ist es schwierig,

Diagnosen. Je nach Fehler und Situation können

für diesen Modus Trainingsdaten zu bekommen,

Nutzer:innen von verwirrt oder misstrauisch bis hin

da Nutzer:innen nur Feedback geben, wenn Aktionen

zu ablehnend und schaudernd reagieren.

In jedem

schieflaufen. Dinge, die gut laufen, werden nicht

Fall sollten intelligente Systeme ihren Nutzer:innen

von den Nutzer:innen kommentiert und können

zu verstehen geben, wann welche Art von Fehler

daher auch nicht gut als Trainingsdaten verwendet

auftritt, und es erlauben, sich möglichst schnell von

werden. 297

294

diesen Fehlern zu erholen. 295 Der zweite IX-Modus ist der Anstoß oder die Auf Der fünfte und letzte Faktor für IX besteht in der

forderung. Meist initiiert das intelligente System dazu

Qualität intelligenter Systeme. Je besser das System

die Interaktion mit den Nutzer:innen, etwa wenn

vorhersagt, umso eindringlicher kann die Interaktion

die intelligente Verkehrs-App Vorschläge macht, wie

sein. Je schlechter die Qualität, umso zurückhalten-

Nutzer:innen die Zeit während des Staus sinnvoll

der sollten Interaktionen gestaltet werden. Da die

nutzen können. Dieser Modus der Interaktion bedarf

Qualität intelligenter Systeme auf den Daten und

ganz klar der Aufmerksamkeit der Nutzer:innen,

dem trainierten Modell beruht, ist klar, dass mit mehr

ist also sichtbar und nur mäßig eindringlich. In der

und besseren Daten sowie einem besser trainierten

Regel lassen sich Trainingsdaten für diesen Modus

Modell auch die Qualität der Systeme steigt. Vor al-

auch gut akquirieren, da Nutzer:innen oft Feedback

lem wenn intelligente Systeme das erste Mal genutzt

geben, wenn das System anfragt. Das System ver-

werden und oftmals noch nicht voll entwickelt sind,

steht sowohl den Kontext der Interaktion als auch die

ist Vorsicht aus Sicht der IX geboten.

Reaktion der Nutzer:innen und kann lernen, welche

296

Anfragen gewünscht werden. 298 Neben den Faktoren, die die IX beeinflussen, kann man auch die Modi der Interaktion unterscheiden,

Im IX-Modus Nummer drei kann das intelli-

in denen IX stattfindet. Zu ihnen zählen die Auto-

gente System entscheiden, welche Informationen

matisierung von Aktionen, die Aufforderung der

den User:innen präsentiert werden und in welcher

User:innen, die Organisation von Informationen, die

Reihenfolge. Suchen die Nutzer:innen aufgrund

Anmerkung von Elementen mit intelligenten Infor-

von Stauprognosen eine alternative Route, kann die

mationen sowie hybride Formen der vier Modi.

intelligente Verkehrs-App Wegstrecken filtern und als

293 Hulten: Building Intelligent Systems, S. 67.

297 Hulten: Building Intelligent Systems, S. 87 f.

294 Hulten: Building Intelligent Systems, S. 71.

298 Hulten: Building Intelligent Systems, S. 89.

295 Hulten: Building Intelligent Systems, S. 82. 296 Hulten: Building Intelligent Systems, S. 83.

Kapitel 3: Gestaltung mit und für intelligente Systeme

96

Liste mehr oder weniger guter Alternativen präsen-

Im hybriden Modus der Interaktion mit intelligen-

tieren. Bekommt die intelligente Verkehrs-App mit,

ten Systemen können die unterschiedlichen Modi

dass die Nutzer:innen gestresst sind während einer

kombiniert und je nach Situation ausgeführt werden.

Stop-and-go-Phase, kann sie entspannende Musik

Basierend auf der Vorhersagegenauigkeit kann dann

oder Atemübungen vorschlagen. Im Modus der Or-

die Verkehrs-App beispielsweise automatisch eine

ganisation werden also Auswahlmöglichkeiten durch

neue Route wählen, wenn sie sehr sicher ist in ihrer

das System vorgefiltert und angeboten. Dieser Modus

Prognose. Sie kann die Nutzer:innen auch aktiv fra-

ist nicht sehr eindringlich und für die Nutzer:innen

gen, wenn sie nur mäßig sicher ist. Oder die aktuelle

mehr oder weniger gut einsehbar. Trainingsdaten

Route vorhalten, wenn sie nicht wirklich sicher ist,

sind gut zu erhalten, weil das System lernen kann,

ob ein Stau tatsächlich existiert.

mit welchen Vorschlägen die Nutzenden interagie3.3.4 Designprinzipien für Intelligence

ren.299

Experience Der vierte und letzte Modus hilft Nutzer:innen, bessere Entscheidungen zu treffen, indem das intel-

Bisher wurde erläutert, welche zentralen Eigenschaf-

ligente System Teile digitaler Erlebnisse mit Infor-

ten, Faktoren und Modi eine IX im Gegensatz zu

mationen anreichert und so intelligente Interaktionen

anderen digitalen Erlebnissen hat und welche Mög-

ermöglicht. Am Beispiel der intelligenten Verkehrs-

lichkeiten der IX intelligente Interfaces bieten.

App kann das System messen, wie lange ein Nutzer

Allerdings ist damit noch nicht beantwortet, wie

bereits am Steuer sitzt. Auf Basis dieser Information

diese Eigenschaften und Modi nun zielführend ein-

kann die App intelligent intervenieren und subtil

gesetzt werden können und welche Gestaltungsprin-

anzeigen, dass eine Pause nötig ist. Dieser Modus ist

zipien dabei zu beachten sind. Mit anderen Worten:

in der Regel passiv, da die Nutzer:innen nicht aktiv

Wie gestaltet man nun intelligente Erlebnisse für

reagieren müssen. Der Modus ist für die Nutzer:in-

Nutzer:innen?

nen weniger offensichtlich und relativ schwierig zu trainieren. Das System weiß oftmals nicht, ob Nut-

Viele große Techfirmen wie Google,301 Microsoft,302

zer:innen die Anmerkung gesehen, positiv aufgenom-

Meta,303 IBM 304 oder Apple 305, aber auch kleinere

men und ihr Verhalten daraufhin angepasst haben.

Firmen und Institutionen wie Polytopal 306 oder die

300

Interaction Design Foundation 307 haben Ratgeber und Leitfäden erstellt, um Designer:innen dabei zu unterstützen, gute IX zu kreieren. Die wichtigsten 301 Google: „People + AI Guidebook“, https://pair.withgoogle.com/guidebook (21.4.2022). 302 Microsoft: „Guidelines for Human-AI Interaction“, https://www.microsoft.com/en-us/ research/project/guidelines-for-human-ai-interaction (21.4.2022). 303 Meta: „Introducing the Facebook Field Guide to Machine Learning video series“, https://research.facebook.com/blog/2018/05/the-facebook-field-guide-tomachine-learning-video-series (21.4.2022). 304 IBM: „Design for AI“, https://www.ibm.com/design/ai (21.4.2022). 305 Apple Developer: „Human Interface Guidelines. Machine Learning“, https://developer.apple.com/design/human-interface-guidelines/machine-learning/ overview/introduction (21.4.2022). 299 Hulten: Building Intelligent Systems, S. 90 f. 300 Hulten: Building Intelligent Systems, S. 92.

306 Polytopal: „Lingua Franca. A Design Language for Human-Centered AI“, https://linguafranca.polytopal.ai (21.4.2022). 307 Mortensen, Ditte Hvas: „How to manage the users’ expectations when designing smart products“, https://www.interaction-design.org/literature/article/how-tomanage-the-users-expectations-when-designing-smart-products (21.4.2022).

Kapitel 3: Gestaltung mit und für intelligente Systeme

97

Guides wurden für dieses Kapitel ausgewertet und

Ziele der einzelnen Nutzer:innen und ihres jeweiligen

ihre gemeinsamen Prinzipien herausgearbeitet. Dabei

Trainingsstands als auch des Zusammenhangs von

wurde darauf geachtet, nicht zu komplex zu werden,

gelaufener Strecke und Kalorienverbrauch. Zudem ist

sondern niedrigschwellig in die Thematik einzufüh-

es sinnvoll, dass das System auch Informationen über

ren, ohne den Gegenstand zu simplifizieren. Einige

Qualität und Schwierigkeitsgrade der Strecken hat.

der Guides sind sehr umfangreich und es lohnt sich

Sind diese Fragen geklärt, wird auch deutlich, welche

für Designer:innen sicher, diese Quellen im Rahmen

Systeme genutzt werden und welche Daten dafür

der eigenen praktischen Designprojekte heranzu-

gesammelt und erhoben werden müssen. Für die

ziehen und an eigene Ziele anzupassen. Ein sofort

Lauf-App wird also sowohl lineare Regression für die

nutzbares visuelles interaktives Framework für die

Prognose des Kalorienverbrauchs als auch ein Clus-

interdisziplinäre Entwicklung intelligenter Produkte

tering-Algorithmus für die Empfehlungen genutzt.

namens Floom wird in Kapitel 5 vorgestellt. Alle hier

Entsprechend umfangreich müssen Daten erhoben

erarbeiteten Designprinzipien sind dort verständlich

werden. Zudem muss darauf geachtet werden, wer die

und leicht zugänglich in einen umfassenden Innova-

Daten geliefert und gelabelt hat. Wenn beispielsweise

tionsprozess eingearbeitet.

nur erfahrene Läufer:innen den Schwierigkeitsgrad der Laufstrecken bewertet haben, werden Anfän-

Alle oben angesprochenen Ratgeber beginnen mit

ger:innen von den Empfehlungen schnell frustriert

den Nutzer:innen, sind also nutzer:innenzentriert.

sein.

308

Jede gute IX steht und fällt mit einem Nutzer:innenbedürfnis und einem Problem, das zwischen diesem

In einem nächsten Schritt muss entschieden

Bedürfnis und seiner Befriedigung steht. So können

werden, welche Art des Erlebnisses mit den Daten

beispielsweise Nutzer:innen das Bedürfnis besitzen,

gestaltet werden soll. Das System wird hier prinzi-

fit und gesund zu bleiben, und gleichzeitig das Pro-

piell als Entscheidungsfindungssystem begriffen, das

blem haben, dass sie das nicht aus eigenem Antrieb

nicht alle Wünsche gleichzeitig erfüllen kann und

schaffen. Hierfür könnte eine App entwickelt werden,

sogenannte Trade-offs hat, also sich ausschließende

die dieses Problem behebt, indem sie Nutzer:innen

Vor- und Nachteile, die abgewogen werden müssen.

zum Joggen inspiriert und durch Gamification-Aspek-

Hier stellen sich beispielsweise Fragen nach dem

te motiviert dranzubleiben. Zunächst wird geprüft,

Modus der Interaktion, etwa ob Prozesse automatisch

ob überhaupt ein intelligentes Produkt benötigt wird,

ablaufen sollen und Fehler möglicherweise schwere

um Probleme der Nutzer:innen zu lösen. In einem

Folgen haben können, dies den Nutzer:innen jedoch

zweiten Schritt wird überlegt, wie das intelligente

mühselige Entscheidungen abnimmt. Oder es soll

Produkt diese Probleme lösen könnte und welches

eine Interaktion ermöglicht werden, die viel Abstim-

Wissen es von den Nutzer:innen, dem Nutzungskon-

mung mit den Nutzer:innen erfordert und vielleicht

text und der Umwelt im Allgemeinen benötigt. Die

schnell nervt, dafür jedoch gut assistiert. Am Beispiel

Bedürfnisse und Probleme der Nutzer:innen können

der Lauf-App könnte man sich dafür entscheiden,

sich je nach deren Typus, spezifischen Gewohnheiten

dass Nutzer:innen in Bezug auf bestimmte Funktio-

und Handlungen mehr oder weniger stark unter-

nen des intelligenten Systems wenig Mitspracherecht

scheiden. Die App benötigt also ein Verständnis der

bekommen, sobald sie sich entschieden haben, eine

308 In der Designsprache werden dafür auch die Begriffe „User-centered“ oder „Human-centered“ synonym verwendet.

Kapitel 3: Gestaltung mit und für intelligente Systeme

98

intelligente Funktion zu aktivieren. So wird zu jeder

In einem nächsten Schritt wird geschaut, ob die

gelaufenen Strecke automatisch der Kalorienver-

Nutzer:innen bereits vertraut sind mit der Funktions-

brauch angezeigt. Außerdem ist der Gamification-

weise des intelligenten Systems. Am Beispiel der

Aspekt automatisiert. Nutzer:innen bekommen dann

Lauf-App kann das bedeuten, dass sie durch viele

kleine visuelle Belohnungen, wenn sie in einem

ähnliche intelligente Produkte und Empfehlungs-

bestimmten Zeitraum ihren Kalorienverbrauch ge-

systeme bereits an personalisierte Empfehlungen

steigert haben. Die Strecken, die die App vorschlägt,

gewöhnt sind und erwarten, dass diese nach wenigen

basieren auf gelernten Präferenzen, die durch ex-

Versuchen auch wirklich individuell relevante Ergeb-

plizites Feedback angepasst werden. Hier erlaubt das

nisse liefern. In ersten User Testings wird geprüft, ob

Produkt mehr aktive Eingriffsmöglichkeiten, etwa

die Einstellungen und Erwartungen der Nutzer:innen

durch ein Sterne-Ranking-System der gelaufenen

gegenüber dem intelligenten Produkt dem entspre-

Strecken. Implizites Feedback bekommt das System

chen, was es zu leisten vermag. Das mentale Modell,

durch Nutzungsdauer und -häufigkeit der Strecken.

das Nutzer:innen von einem intelligenten Produkt

Zudem sollten die Menge und Qualität der Ergebnisse

wie der Lauf-App haben, also ihr Bewusstsein davon,

gegeneinander abgewogen werden. Sollen Systeme

wie das intelligente Produkt funktioniert, ist relativ

prinzipiell mehr Ergebnisse liefern, dann steigt auch

akkurat. Sie wissen: Je mehr Feedback sie geben,

die Gefahr, mehr Fehler zu produzieren. Sollen nur

desto besser wird die Qualität der Vorschläge. Außer-

die wirklich guten Ergebnisse geliefert werden, dann

dem wissen die Nutzer:innen, wie die User Testings

sinkt auch das Angebot für die Nutzer:innen. Die

herausgefunden haben, dass der Kalorienverbrauch

Lauf-App bietet zunächst viele Strecken an, auch

eine Prognose ist und nicht immer haargenau zu-

auf die Gefahr hin, dass uninteressante Strecken

trifft. Sie haben zu Beginn zwar noch Geduld mit der

dabei sind, denn die Kosten für Streckenvorschläge,

App, wollen aber auch schnell bei ihrem Bedürfnis

die nicht unbedingt der Präferenz der Nutzer:innen

unterstützt werden. Zudem muss geschaut werden,

entsprechen, sind eher gering. Oft werden Nutzer:in-

ob die Ergebnisse und Entscheidungen des Produkts

nen auch von neuen Strecken positiv überrascht. Es

für die Nutzer:innen nachvollziehbar sind oder ver-

muss zudem entschieden werden, ob das intelligente

wirren und misstrauisch machen. Die App vermittelt

System Feedback sammelt und sich stetig verbessert,

Prognosegenauigkeit spielerisch und sie werden

aber dadurch womöglich auch unvorhersehbare Ent-

daher nicht misstrauisch, wenn das System für die-

scheidungen trifft. Oder ob es von vornherein ausrei-

selbe Strecke nicht immer denselben Wert liefert. Sie

chend trainiert und damit vorhersehbar ist, aber sich

wissen, dass sie abhängig von ihrer Tagesform mal

auf wechselnde Nutzer:innenpräferenzen nicht an-

mehr und mal weniger Kalorien verbrauchen, und

passen kann. Im Fall der Lauf-App soll sich die App

tolerieren einen gewissen Spielraum. Da das menta-

nicht weiterentwickeln, da die Empfehlungsalgorith-

le Modell der Nutzer:innen über die Lauf-App also

men auch sich änderndes Nutzer:innenverhalten gut

relativ einfach ist und keine großen Änderungen vor-

nachvollziehen und immer passende Empfehlungen

sieht, verändert sich auch die User Journey nicht. Im

geben können.

besten Fall laufen die Nutzer:innen mit der App und lassen dies zu einer festen Routine werden. Studien haben herausgefunden, dass viele Nutzer:innen an

Kapitel 3: Gestaltung mit und für intelligente Systeme

99

einem bestimmten Punkt versuchen werden, das

das System dies nicht erkennt, kann die Gamification

Produkt als intelligent zu begreifen, und dessen Han-

leicht in nerviges Nörgeln umschlagen. Ein Kontext-

deln als irgendwie intentional nachvollziehen wollen.

fehler, der sich aus einem kulturellen Muster ergibt,

Diese Vorstellungen werden von der App schon früh

könnte auftreten, wenn Personen aus religiösen

zurückgewiesen, indem die App nicht als personifi-

Gründen für eine bestimmte Zeit keinen Sport trei-

zierte künstliche Intelligenz mit beispielsweise einem

ben können. Kontext kann sich also sowohl auf indi-

Vornamen auftritt, sondern sachlich und knapp die

viduelle Präferenzen beziehen als auch auf kulturelle

eigene Funktionsweise kommentiert. Außerdem

Werte. Um die Erwartungen der Nutzer:innen mit

weist die App darauf hin, wenn ihr wichtige Daten

dem Kontextwissen des Systems in Übereinstimmung

nicht zur Verfügung stehen, etwa ob Strecken abends

zu bringen, sollte das intelligente System daraufhin

beleuchtet sind. So werden Erwartungen in die App

geprüft werden, welche Daten es verarbeitet, wenn

bereits früh realistisch gesetzt und späteren Enttäu-

es Annahmen über die Nutzer:innen macht. Es ist

schungen und Misstrauen der Intelligenz gegenüber

zudem hilfreich, Feedback zu ermöglichen, wenn

wird vorgebeugt.

Fehler auftreten. Lehnt eine Nutzerin beispielsweise alle empfohlenen Strecken ab, könnte die Lauf-App

In einem vorletzten Schritt wird entschieden,

Feedback einholen. Die Nutzerin kann dann erklären,

wie das intelligente Produkt mit Fehlern umgehen

dass sie beispielsweise nicht so fit ist und auch die

soll. Zunächst werden die wichtigsten Fehlerquellen

Anfänger:innenstrecken nicht für sie geeignet sind.

identifiziert; das sind Nutzer:innen-, System- und Kontextfehler. Nutzer:innenfehler werden klassi-

In einem letzten Schritt wird geschaut, welche

scherweise aus der Perspektive der Designer:innen

ethischen Grenzen das Produkt haben soll und welche

formuliert, dann nämlich, wenn Nutzer:innen das

rechtlichen Konsequenzen die Nutzung haben könn-

Produkt falsch nutzen, indem sie etwa unerwartete

te. Im Kern steht die Frage, wie das Produkt seine

Eingaben machen. Weil Nutzer:innen immer wieder

Nutzer:innen schützen kann. Ethische Überlegungen

Produkte unvorhergesehen nutzen, sollten alle Fehler,

beziehen sich vor allem darauf, deren Schwächen

die sie dennoch machen, möglichst schadlos rückgän-

nicht auszunutzen, ihnen oder Dritten keinen Scha-

gig zu machen sein. Aus ihrer Sicht sind Fehler des

den zuzufügen, nicht zu diskriminieren, vertrauens-

Produkts Systemfehler und das intelligente Produkt

würdig zu sein sowie Nutzer:innen durch sogenannte

ist dann nicht flexibel und intelligent genug. Beide

Dark Patterns nicht zu etwas zu überreden, was sie

Arten von Fehlern sollten im User Testing geprüft

ursprünglich nicht vorhatten. Die Europäische Union

und behoben werden. Die dritte Kategorie der Fehler

hat viele dieser ethischen Bedenken bereits in ein

ist aus Sicht der IX neu, denn hier handelt es sich

rechtliches Gerüst überführt, das sie in naher Zu-

um Fehler, die entstehen, wenn das Produkt zwar

kunft verabschiedet. 309 Außerdem sollte man sich im

korrekt prognostiziert, aber der Kontext der Prognose

Klaren darüber sein, welche Daten von Nutzer:innen

nicht genau genug bekannt und die Prognose deshalb

erhoben werden und welche Datenschutzbestim-

falsch ist. Am Beispiel der App können Kontext-

mungen hierfür jeweils gelten. Das Produkt sollte

fehler entstehen, wenn Nutzer:innen beispielsweise

letztlich auch Emergenzszenarien unterbinden, also

erkrankt sind und nicht laufen gehen können. Wenn

keine sensiblen Informationen an Dritte preisgeben, 309 European Commission: „Regulatory framework proposal on artificial intelligence“, https://digital-strategy.ec.europa.eu/en/policies/ regulatory-framework-ai (17.6.2022).

Kapitel 3: Gestaltung mit und für intelligente Systeme

Nutzer:in

die erst durch häufige Nutzung entstehen und damit Nachteile und Gefahrenpotenziale bergen. Im Falle der Lauf-App kann dies bedeuten, dass Nutzer:innen mit Übergewicht nicht dadurch diskriminiert werden, dass alle Strecken nur für fitte und schlanke Menschen geeignet sind. Negatives Feedback, das vor allem Nutzer:innen schaden kann, die ein geringes Selbstbewusstsein und schlechtes Selbstbild haben, unterlässt das Produkt. Emergenzszenarien werden vorgebeugt, indem beispielsweise verhindert wird, dass der Wohnort der Nutzer:innen ermittelt werden kann, weil Start- und Endpunkt ihrer Laufstrecken einsehbar sind. Alle besprochenen Punkte, die es bei einer guten IX zu beachten gilt, werden nun noch einmal als IX-Checkliste präsentiert. Diese Checkliste dient als Handreichung im Produktentwicklungs- und Designprozess, um systematisch genau solche Fragen zu stellen und zu beantworten, die eine ausgewogene, nutzer:innenzentrierte Intelligence Experience ermöglichen. Viele der Fragen in der Checkliste sind Designheuristiken, also Prinzipien, die vor der tatsächlichen Umsetzung des Produkts beantwortet und geprüft werden müssen. Wenige Fragen in der Checkliste sind erst durch User Testing wirklich erschöpfend zu beantworten. Die Checkliste ist unterteilt in die zwei Hauptbereiche Nutzer:in und Marke, die dann noch einmal in thematische Unterbereiche analog zum hier besprochenen Kapitel gegliedert sind.

101

N:

Bedürfnisse und Gains Worin besteht der konkrete Mehrwert des intelligenten Produkts für die

1

Stakeholder? Ganz allgemein besteht der Mehrwert für die Endanwender:innen darin, dass ihr privates, soziales oder berufliches Problem gelöst wird. Für Unternehmen besteht er darin, ihrer Kundschaft ein sinnvolles Produkt zu bieten, das einen unternehmerischen Mehrwert generiert. Welches Nutzer:innenproblem löst das intelligente Produkt?

2

Das Nutzer:innenproblem sollte tatsächlich vorhanden und durch ein intelligentes Produkt lösbar sein. Außerdem sollte es businessrelevant sein, das heißt auch zur unternehmerischen Wertschöpfung beitragen. Es gilt zu beachten, dass das intelligente Produkt ein möglichst klar eingegrenztes, domainspezifisches Problem lösen sollte. Je umfangreicher der Kontext und das Wissen über die Aufgabe, umso höher die Chance, dass das intelligente System nicht zufriedenstellend arbeitet. Für welche User-Personas ist das intelligente Produkt relevant?

3

Die Personas sollten sich sinnvoll und klar unterscheiden und müssen zu Beginn des Projekts noch nicht genau feststehen. Sie werden fortlaufend verfeinert. Wie ist das intelligente Produkt in die User Journey eingebunden?

4

Das Produkt muss klar in die bestehende User Journey passen und eine bestehende Unzufriedenheit, einen Bruch in der Journey beheben. Auf welche Weise löst das intelligente Produkt das Nutzer:innenproblem?

5

Das Produkt und die Assistenz sollten das Nutzer:innenproblem auf die einfachste und schnellste Weise lösen. 5

a

Nimmt das intelligente Produkt Aufgaben vollständig durch Automatisierung ab? Wenn ja, wie? Löst das intelligente Produkt das Nutzer:innenproblem durch automatische Prozesse, sollte das intelligente System besonders hohe Prognosequalität besitzen. Außerdem sollte der Nutzen für die User:innen höher sein als die Nachteile bei einem etwaigen Scheitern des Produkts.

5 b

Erweitert das intelligente Produkt die Fähigkeiten der Nutzer:innen durch Augmentierung? Wenn ja, wie? Löst das intelligente Produkt das Nutzer:innenproblem als Assistenzsystem, sollten die Einbindung und der Gestaltungsspielraum der Nutzer:innen und deren Interaktionsprinzipien definiert werden. Das intelligente System muss keine besonders hohe Prognosequalität besitzen, sollte aber Möglichkeiten bieten, sinnvoll mit ihm zu interagieren.

102

6

Wie wird Erfolg bei den Nutzer:innen definiert? Der Erfolg des intelligenten Produkts sollte möglichst klar und relevant aus Sicht der Nutzer:innen formuliert sein. Das intelligente Produkt sollte diesen Nutzen auch tatsächlich liefern können.

N:

Interaktion 7

Welcher Modus der Interaktion bietet sich an? Das Produkt kann energisch mit den Nutzer:innen interagieren oder zurückhaltend. Je nach Genauigkeit der Prognose sollten die Modi der Interaktion gewählt werden.

8

Ist eine direkte, zielgerichtete und interessenbasierte Interaktion möglich? Das Produkt sollte es leicht machen, seine Dienste schnell und unkompliziert abzurufen. Außerdem sollte es das Produkt ermöglichen, seine Dienste leicht und ohne Nachteile zu ignorieren oder abzulehnen. Für automatische Interaktionen sollte das System äußerst gute Prognosen liefern.

9

Wann sehen und verstehen Nutzer:innen die Ergebnisse des intelligenten Produkts? Die Assistenz sollte deutlich machen, was das System zu leisten vermag und wie gut es das kann. Das System sollte zudem deutlich machen, wie das Verhalten der Nutzer:innen die eigenen Ergebnisse und die Wirkungsweise des Systems unmittelbar und in Zukunft beeinflusst.

10

Ist die Interaktion zeit- und kontextspezifisch? Das intelligente Produkt sollte kontextspezifisch sein und nur Informationen zeigen, die spezifisch für den Nutzungskontext sind. Außerdem sollte es Situationen und Zeiten identifizieren, die nicht angemessen für eine Interaktion sind.

11

Besitzt das intelligente Produkt ein Kurzzeitgedächtnis? Das intelligente Produkt sollte es den Nutzer:innen ermöglichen, auf kürzlich gemachte Interaktionen zu verweisen. Das heißt, es sollte erlauben, dem System positive Beispiele für Nutzer:innenerlebnisse zu geben.

12

Welches mentale Modell haben Nutzer:innen von der Interaktion mit dem intelligenten Produkt? Das mentale Modell sollte zeigen, welche Vorstellungen und Erwartungen die Nutzer:innen in Bezug auf das Produkt haben, auf welche Art und Weise das intelligente Produkt funktioniert oder funktionieren sollte und wie das Nutzer:innenverhalten die Ergebnisse des Produkts beeinflusst. Soziale Normen und Konventionen sollten im mentalen Modell berücksichtigt werden. Das intelligente Produkt sollte Erwartungen richtig setzen, wenn es gängigen mentalen Modellen entgegenläuft. Das mentale Modell sollte beim ersten User Testing ermittelt oder über Designheuristiken anderer am Markt durchgesetzter Produkte abgeleitet werden.

103

13

Ist die Interaktion zwischen Nutzer:in und dem intelligenten Produkt antizipierbar und transparent? Nutzer:innen sollten im Vorhinein und mit Sicherheit sagen können, was das intelligente Produkt tun wird und wieso. Erwartungen in die Fähigkeiten intelligenter Systeme sollten immer zurückhaltend gesetzt werden. Zudem erwarten Nutzer:innen, dass intelligente Produkte ein rudimentäres Verständnis von Umgangsregeln haben und diese einhalten.

14

Ist die Interaktion zwischen Nutzer:in und intelligentem Produkt leicht, effizient und vergnüglich? Die Interaktion mit dem intelligenten Produkt sollte dem mentalen Modell der Nutzer:innen nicht widersprechen sowie für Erstnutzer:innen leicht zu verstehen und zu lernen sein. Das Produkt sollte den Nutzen auf einfachste Weise sicherstellen und dabei Freude bereiten.

15

Ist die Interaktion zwischen Nutzer:in und intelligentem Produkt barrierefrei? Die Funktionen des intelligenten Produkts sollten möglichst inklusiv sein und Menschen mit unterschiedlichen Einschränkungen die Nutzung erlauben.

16

Gibt es Best-in-Class Experiences aus anderen Branchen, die vorbildhaft sind? Optional können gute Lösungen auch aus anderen Branchen Inspiration für eine intelligente Produktentwicklung bieten.

N:

Fehler 17

Ist die Interaktion zwischen Nutzer:in und intelligentem Produkt fehlertolerant? Die Interaktion sollte es erlauben, Fehler der Nutzer:innen, Fehler des Systems und Fehler, die sich aus dem Kontext ergeben, anstandslos und effektiv zu beheben. Für Fehler, die nicht behoben werden können, sollte ermittelt werden, wie die Toleranz ihnen gegenüber bei den Nutzer:innen erhöht werden kann.

18

Wie werden Fehler der Nutzenden definiert und gehandhabt? Nutzer:innenfehler sollten vorher genau von System- und Kontextfehlern unterschieden werden. Sie können durch falsche Eingabe oder falschen Gebrauch entstehen. Mögliche Nutzer:innenfehler sollten gut getestet oder durch Designheuristiken abgeleitet sein. Sie sollten immer auch durch die jeweiligen Nutzer:innen rückgängig gemacht werden können.

19

Welche Möglichkeiten bietet das Produkt, wenn es Systemfehler liefert? Intelligente Systeme machen immer Fehler. Es gilt, diese entsprechend zu kommunizieren, sodass die Nutzer:innen nicht verwirrt oder misstrauisch werden. Das intelligente Produkt sollte erlauben, wichtige Fehler zu erkennen und den Nutzer:innen mitzuteilen, dass und mit welcher Wahrscheinlichkeit ein Fehler gemacht wurde. Ist sich das System über die Ziele der Nutzenden nicht sicher, sollte es sich zurückziehen oder seine Funktion je nach Kontext einstellen. Es sollte zudem bei der Funktionsweise und Genauigkeit der Systeme genau

104

abgewogen werden, ob die Systeme viele Ergebnisse liefern mit entsprechend mehr falschen Treffern oder weniger Ergebnisse mit entsprechend weniger Fehlern. 20

Welche Möglichkeiten bietet das Produkt den Nutzer:innen, wenn es Kontextfehler liefert? Für Fehler, die sich aus der Fehlinterpretation von Nutzungskontexten ergeben, sollte das intelligente Produkt erlauben, Feedback für ein Re-Training des Modells zu geben und mögliche Ergebnisse rückgängig zu machen.

21

Wie wirken sich Fehler auf das Vertrauen in das Produkt aus? Kein intelligentes Produkt läuft völlig fehlerfrei. Wenn definiert ist, wie Fehler gehandhabt werden, sollte getestet werden, ob bestimmte Fehler das Vertrauen besonders erschüttern und wie man es gegebenenfalls wieder erhöhen kann.

N:

Transparenz und Vertrauen 22

Welches Vertrauen bringen Nutzer:innengruppen intelligenten Produkten generell entgegen? Hier sollten alle Personas nach dem Grad ihres Vertrauens in intelligente Produkte berücksichtigt werden. Richtgröße für die IX mit intelligenten Produkten sind die skeptischen Nutzer:innen. Wenn sie zufrieden sind, haben auch die Nutzer:innen mit mehr Vertrauen oftmals keine Einwände.

23

Wie gut verstehen Nutzer:innen den Entscheidungsprozess des intelligenten Produkts und wie gut müssen sie ihn verstehen? Das intelligente Produkt sollte auf Anfrage der Nutzer:innen deutlich machen können, wie es zu entsprechenden Ergebnissen gekommen ist oder warum es entsprechend gehandelt hat. In den User Testings sollte herausgefunden werden, wie viel Wissen die Nutzer:innen von der Funktionsweise des Systems tatsächlich verlangen, um Vertrauen zu entwickeln.

24

Welche Gefahren des übermäßigen Vertrauens in Intelligenz gibt es für das Produkt? Das Produkt sollte die Nutzer:innen nicht aktiv oder passiv täuschen in Bezug auf die Sicherheit und Genauigkeit seiner Ergebnisse. Oft sind mentale Modelle und vorgefertigte Einstellungen zu berücksichtigen, wenn es um die Frage übermäßigen Vertrauens geht.

N:

Fairness, Ethik und Rechtliches 25

Welche fairen Regeln der Nutzung sollen definiert werden? Das Produkt sollte fair und ethisch sein und möglichst sehr geringe diskriminatorische Resultate liefern.

105

25

a

Welche möglichen Nachteile und Diskriminierungsszenarien ergeben sich durch das intelligente Produkt? Das Produkt sollte Menschen mit unterschiedlichen Befähigungen, Identitäten, Aussehen und Handlungsweisen einschließen. Es sollte darüber hinaus die Biases in dem verwendeten intelligenten System selbst so weit wie möglich reduzieren oder aktiv bekämpfen.

25

b

Wie wird garantiert, dass das intelligente Produkt sicher ist? Das Produkt sollte kein Risiko für die Gesundheit und die Datensicherheit der Nutzer:innen darstellen.

25

c

Welche Kontrolle über private Daten sollen ermöglicht werden? Das Produkt sollte datenschutzrechtlich konform sein und darüber hinaus die Kontrolle über private Daten in einem vertretbaren Umfang ermöglichen.

25

d

Welche Kontrolle über Funktionen sollen ermöglicht werden? Das Produkt sollte es den Nutzer:innen in gewissem Umfang erlauben, zu bestimmen, was es überwacht und wie es sich verhält.

25

e

Welche Nutzungsszenarien können implizit ungewollte Auskunft über private Daten ermöglichen? Das Produkt sollte Emergenzszenarien unterbinden, also keine sensiblen Informationen an Dritte preisgeben, die erst durch häufige Nutzung entstehen und damit Nachteile und Gefahrenpotenziale bergen; etwa die Bestimmung des Wohnorts durch Einsicht des Starts und Endes von Joggingrouten.

26

Welche DSGVO-Regeln müssen auf jeden Fall vom Produkt beachtet werden? Die intelligente Assistenz sollte DSGVO-konform sein und den Nutzer:innen erlauben, in einem bestimmten Umfang über ihre Daten selbst zu bestimmen. Folgende Fragen sind dabei relevant:

26

26

a

Welche Daten werden von den Nutzer:innen erhoben?

b

Welche Daten werden für das Training des Modells von den Nutzer:innen erhoben?

26

c

Welche Daten gilt es zu schützen und nicht öffentlich zu machen?

26

d

Können User:innen ihre Daten einsehen, löschen oder kontrollieren? Wenn ja, wie?

27

Welche Praktiken aus der EU-Blacklist für schädigende KI-Systeme werden unterstützt? Das intelligente Produkt sollte keinen der aufgeführten Bereiche unterstützen (a bis c) oder entsprechende strenge Auflagen der EU erfüllen (d,e).

106

27

a

Das System begünstigt Verhalten, das körperlichen oder psychischen Schaden zufügt.

27 27

27

b

Das System nutzt Schwächen aufgrund von Alter oder Behinderung aus.

c

Das System erlaubt Social Scoring und Ächtung von Fehlverhalten.

d

Das System erlaubt biometrische Identifizierung in öffentlich zugänglichen Räumen.

e

Das System ist ein Hochrisikosystem, das heißt, es wird beispielsweise eingesetzt bei kritischer Infrastruktur, bei der Bewertung von Bewerber:innen, bei der Bestimmung der Kreditwürdigkeit oder bei Rettungsdiensten und Strafverfolgung.

N:

Feedback und Training 28

Welches implizite oder explizite Feedback erlaubt das intelligente Produkt? Das Produkt sollte die Nutzer:innen ermutigen, detailliertes implizites und/oder explizites Feedback zu geben. Dies ist wichtig, damit das intelligente Produkt korrekt funktioniert und sein System gegebenenfalls später weiter trainiert werden kann. Darüber hinaus sollte es für die Nutzer:innen deutlich, einfach und wohltuend sein, implizites und explizites Feedback zu geben. Deren Bereitschaft, Feedback zu geben, kann durch User Testings ermittelt und verbessert werden.

29

Soll das intelligente Produkt kontinuierlich verbessert werden? Das Produkt sollte in relevanten Zeiträumen trainiert werden, um eine verbesserte oder personalisierte IX zu ermöglichen, die zudem auf tatsächlichem und aktuellem Verhalten basiert. Diese Updates sollten vorsichtig vorgenommen werden und Nutzer:innen nicht durcheinanderbringen. Updates und Änderungen in der Funktionsweise der Produkte sollten deutlich und transparent kommuniziert werden.

107

M:

Marke

1

Welche Markenidentität gilt es zu beachten? Das intelligente Produkt sollte mit der Markenidentität in einem sinnvollen Zusammenhang stehen und positiv auf die Identität einwirken. Beide sollten idealerweise eng miteinander verbunden sein. Besitzt das intelligente Produkt eine dynamische visuelle Gestaltung, sollte geklärt sein, wie durch die Flexibilität hindurch die Markenidentität bewahrt werden kann. Gegebenenfalls müssen Corporate Identity bzw. Corporate Design vorher flexibel gemacht werden und ein Markenkern sowie eine Markenstory für flexible Markenauftritte erarbeitet werden.

2

Welches Markenerlebnis soll entstehen? Die IX sollte mit dem Markenerlebnis in einem sinnvollen Zusammenhang stehen und positiv auf das Markenerlebnis einzahlen. Bei flexibler Gestaltung der visuellen Markenidentität sollte darauf geachtet werden, dass die IX auch als Erlebnis der Marke verstanden wird.

3

Gibt es eine Pattern Library oder ein Designsystem? Das Produkt sollte Designsysteme einbinden, um eine personalisierte Gestaltung zu ermöglichen.

Kapitel 3: Gestaltung mit und für intelligente Systeme

108

3.3.5 Resultate

Die intelligenten Produkte vereinfachen das Leben der Nutzer:innen und nehmen ihnen kognitive

Nützliche und schöne Erlebnisse für intelligente

Last ab. Genauso wird aber auch deutlich, dass die

Systeme zu gestalten, ist keine triviale Aufgabe, denn

Domain, in der intelligente Produkte wirken und Er-

die Möglichkeiten intelligenter Systeme erlauben eine

gebnisse liefern, ein noch sehr eingeschränkter Raum

Vielzahl neuer Erlebnisformen und -modi. Das Ver-

ist und die Nutzer:innen weiterhin entscheiden

sprechen der IX ist es, je nach Situation, je nach Ver-

müssen, ob das intelligente Produkt tatsächlich hilf-

fasstheit und je nach aktuellem Verhalten die Ergeb-

reich ist. Letztlich besteht auch die Gefahr, mit den

nisse der Prognose, aber auch die Gestaltung selbst

intelligenten Produkten von einer Experience Bubble,

an diese Verhaltensweisen und die dahinterliegenden

einer Blase der immer gleichbleibenden Erlebnisse,

Bedürfnisse anzupassen. Damit sind die intelligenten

umschlossen zu werden.311

Systeme aus Sicht der User Experience herkömmlichen Produkten potenziell überlegen. Wenn solche intelligenten Systeme Rückschlüsse auf Aktionen, Ereignisse, Handlungen, Geschmäcker und Emotionen ziehen können, dann ändert sich das Erleben dieser Systeme mit jedem neuen Datum, das sie verarbeiten. Dann ist IX nicht mehr nur eine Frage des einmalig gestalteten Produkts, sondern kann sich permanent an die Nutzer:innen und ihre Präferenzen anpassen. Auf der Ebene der User Experience schaffen intelligente Produkte also ein radikal individuelles Nutzer:innenerlebnis und lösen die Grenze zwischen Nutzung und Gestaltung auf. Im Moment der Nutzung entsteht eigentlich erst das fertige Produkt, die fertige Gestaltung und letztlich das Erlebnis. Diese gesteigerte Expressivität,310 die durch die Potenz intelligenter Systeme entsteht, Nutzer:in, Kontext und Umwelt zu verarbeiten, lässt neue Nutzungsformen und Erlebnisse entstehen. Designer:innen können die Interaktion mit intelligenten Systemen intuitiver und natürlicher machen, müssen aber immer auch damit leben, dass die Prognosen potenziell falsch sind.

310 Hebron: Machine Learning for Designers, S. 26.

311 Bodegraven, Joël van: „How Anticipatory Design Will Challenge Our Relationship with Technology“, https://www.aaai.org/ocs/index.php/ SSS/SSS17/paper/viewFile/15352/14582 (21.4.2022).

Kapitel 3: Gestaltung mit und für intelligente Systeme

109

3.4 Auswirkungen auf Gestaltung und

nen letztlich der Schöpfungskraft berauben 313 oder sie

Gestalter:innen

gleich ganz ersetzen.

Mit den hier diskutierten Möglichkeiten der intelli-

Deutlich wird, dass schon in und mit der Natur

genten Systeme, Gestaltungsprozesse zu automati-

der Ausgangsfragen eine theoretische Perspektive

sieren und zu augmentieren, aber auch die User

vorgegeben ist, die nicht unproblematisch ist, denn

Experience in eine Intelligence Experience zu ver-

die Frage nach der künstlerischen Maschine geht

wandeln, stellen sich neue Herausforderungen und

grundlegend von einem Vergleich mit dem Menschen

Aufgaben für Design und Designer:innen. Zunächst

aus, ohne dass die Vergleichbarkeit nachgewiesen

ergeben sich aus designtheoretischer Sicht neue Ver-

werden müsste. Die Frage impliziert darüber hinaus,

ständnisse von Kreativität, Autorschaft und Design.

dass es sich um einen Wettbewerb der Maschine mit

Es ergeben sich aber auch neue Berufsbilder für

dem Menschen handeln muss, dessen Ausgang dann

Designer:innen. Damit sind nicht nur neue Skills

kritisch reflektiert wird. Ob ihn der Mensch gewinnt

gefragt, sondern auch neue Ausbildungskonzepte.

oder verliert, wird dann subjektiv entschieden. Der

Letztlich wirken die intelligenten Systeme auch auf

vergleichende Wettbewerb, der intelligente Systeme

designerische Wertschöpfungsprozesse und werfen

treiben soll, bleibt weiter unhinterfragt und die be-

neue ethische und rechtliche Fragen auf.

stimmende Signatur der Debatte. Damit verwischt sie jedoch die zentralen Aspekte, wie intelligente

3.4.1 Ein neues Verständnis von Kreativität,

Maschinen mit menschlicher Kreativität verbunden

Autorschaft und Design in Zeiten intelligenter

sind.

Gestaltung? Erstens ist Kreativität gar kein widerspruchsfreiDer Umfang der Aufgaben, den intelligente Systeme

er Gegenstand, der dem Menschen einfach zufällt.

bewältigen, aber auch die Breite des inferierten Wis-

Jeder Mensch soll zwar von Natur aus kreativ sein,

sens haben kritische Kommentator:innen veranlasst

allerdings muss das durch methodische Tricks und

zu fragen, ob künstliche Intelligenz überhaupt kreativ

Kniffe erst hergestellt werden. Kreativität muss

sein und Neues erschaffen kann. Man fragte darüber

immer in „systematisch angeleitete, häufig profes-

hinaus, ob solche lernenden Systeme als Designer

sionell betriebene und institutionell abgestützte

und Künstler bezeichnet werden können und ob

Strategien“ 314 überführt werden, damit sie dauerhaft

sie echte Werke erschaffen. Die Debatten, in denen

hervorgebracht werden kann. Dort, wo solche Trai-

diese Fragen beantwortet wurden, verliefen oft sehr

ningsmethoden für neue Einfälle wie beispielsweise

einseitig. Entweder sind die intelligenten Systeme

Brainstorming angewendet werden, kann natürlich

wahlweise als nicht wirklich kreativ zurückgewiesen

auch eine Maschine tätig werden, indem sie genauso

worden, weil sie grundlegende Regeln des Designs

methodisch vorgeht. Denn versteht man Kreativität

nicht beherrschen, 312 oder sie sind als Bedrohung ge-

als methodisches Vorgehen und nicht als zufällige

fasst worden, da sie Designer:innen und Künstler:in-

Inspiration, dann können auch intelligente Systeme

312 Meier, Anika/Rossner, Manuel: „‚I Don’t Experience the Meaning of Creativity in the Same Way Humans Do‘: Künstliche Intelligenz und Kreativität“, in: Engenhart, Marc/Loewe, Sebastian (Hrsg.): Proceedings of the First Conference on Designing with Artificial Intelligence, München: appliedAI 2021, S. 90

313 Volland, Holger: Die kreative Macht der Maschinen. Warum Künstliche Intelligenzen bestimmen, was wir morgen fühlen und denken, Weinheim: Beltz 2018, S. 85. 314 Bröckling, Ulrich: „Über Kreativität. Ein Brainstorming“, in: Menke, Christoph/Juliane Rebentisch (Hrsg.): Kreation und Depression. Freiheit im gegenwärtigen Kapitalismus, Berlin: Kadmos 2010, S. 93.

Kapitel 3: Gestaltung mit und für intelligente Systeme

110

kreativ sein, das heißt Neues, Unerwartetes und

siert und verbraucht. Im Markt ist sie ständig gefragt,

Wertvolles erschaffen.

da der Vorsprung durch innovative Ideen durch die

315

Dieser Vorstellung folgend

kann in Bezug auf intelligente Systeme zwischen

Konkurrenz dauerhaft infrage gestellt ist. Kreativi-

drei unterschiedlichen Arten von Kreativität unter-

tät wird so zum Imperativ und muss einen radikalen

schieden werden. Das ist neben der kombinatori-

Vergleich bestehen, sie muss mehr vorhanden sein als

schen Kreativität, die Altes zu Neuem kombiniert,

beim Konkurrenten, sie muss bessere und verwert-

die exploratorische Kreativität, die mit bestehenden

barere Ideen produzieren.318 Längst reicht die kreative

Gestaltungsregeln neue Ausdrucksformen findet. Das

Potenz eines einzelnen Menschen für dieses ökono-

ist aber auch die transformationale Kreativität, die

mische Kampfprogramm nicht mehr aus. Keine archi-

Gestaltungsregeln bricht und zu ganz unerwarteten

tektonische, soziale oder technologische Intervention

Lösungen kommt. 316 Fasst man Kreativität also in

in Arbeitsabläufe ist klein genug, um nicht der kriti-

dieser funktionalistischen Perspektive, wird sie als

schen Frage ausgesetzt zu sein, ob sie die Kreativität

exklusive menschliche Eigenschaft, die der Maschine

fördert. Kreativität muss mit elaborierten Methoden

diametral gegenübersteht, fragwürdig.

hervorgerufen und in Teams praktiziert werden, die sich ständig in Innovation Labs austauschen. Das

Zweitens sind selbst die ausgeklügeltsten Maschi-

Innovation Lab ist darüber sogar zum unternehmeri-

nen, die Kunst oder Design erzeugen, immer noch

schen Mainstream und kulturellen Topos geworden.

menschengemacht. Menschen haben sich vorge-

Auch hier ist Kreativität keine abgeschottete mensch-

nommen, eine solche Maschine zu erzeugen und sie

liche Fähigkeit, sondern ökonomisch hergerichtete

kreative Aufgaben erfüllen zu lassen. Es ist eine Ver-

Ressource.

wechslung, intelligente Systeme, nur weil sie kreative Aufgaben automatisieren, auch als eigenständige

Statt den illegitimen Vergleich der Maschine mit

kreative Entitäten zu begreifen, die mit einem krea-

dem Menschen zu führen und in Zerrbilder abzu-

tiven Willen begabt sind. Die Maschine bleibt bloße

gleiten, liegt es doch nahe, über intelligente Systeme

ausführende Kraft eines menschlichen schöpferi-

als besondere Werkzeuge nachzudenken und zu

schen Willens, sie ist nicht Ursprung desselben.

überlegen, wie sie Menschen als solche unterstützen

317

Die Vorstellung der Kreativität als das überlegene

können. Daher liegt die Frage nahe: Wieso versteht

Schöpfungspotenzial einer Maschine ist also eben-

man intelligente Systeme nicht als kognitive oder

falls ein Zerrbild.

kreative Orthesen des Menschen? 319 Die Orthese ist im Gegensatz zur Prothese nicht Ersatz für abhandenge-

Drittens ist Kreativität gar keine unschuldige Sache

kommene Gliedmaßen oder – im Fall der Kreativität –

im Sinne eines einfachen privaten Vergnügens und

verloren gegangene Fähigkeiten, sondern ein Zusatz,

die Vorstellung der Kreativität als unterhaltsames

eine Vorrichtung, die strukturelle und funktionelle

menschliches Tun erscheint merkwürdig romantisch.

Eigenschaften erweitert und ganz neue Fähigkeiten

Kreativität ist in der Konkurrenzgesellschaft vielmehr

erlaubt. In dieser Perspektive werden Designer:innen

längst flächendeckend zur ökonomischen Ressource

durch das intelligente Werkzeug befähigt, kognitiv

geworden und als diese wird sie permanent mobili-

komplexe Sachverhalte in einer einzigen Gestaltungs-

315 Boden, Margaret: AI. Its Nature and Future, Oxford: Oxford University Press 2016, S. 68 f.

318 Bröckling: Über Kreativität, S. 94. 319 Ford, Kenneth/Hayes, Patrick/Glymour, Clark: „Cognitive Orthoses:

316 Boden: AI, S. 68 f.

Toward Human-Centered AI“, https://ojs.aaai.org/index.php/aimagazine/

317 Hertzmann, Aaron: „Computers Do Not Make Art, People Do“,

article/view/2629 (21.4.2022).

Communications of the ACM 63 (2020), S. 47.

Kapitel 3: Gestaltung mit und für intelligente Systeme

111

entscheidung zusammenzuführen. In dieser Pers-

Zunächst kommt Rittel auf die Leistungen des

pektive ist die alte dramatische Gegenüberstellung

Computers für die Architektur und damit im weites-

von Mensch und Maschine zugunsten einer neuen

ten Sinn für die Gestaltung selbst zu sprechen. Aus

orthetischen Form von Zusammenarbeit aufgelöst.

seiner Sicht hängt das, was Computer für Desig-

Auch die Vorstellung von autonomen Schöpfer:innen,

ner:innen zu leisten vermögen, vom „Verständnis

die mit den intelligenten Werkzeugen verbunden

ihrer Probleme und der Algorithmisierbarkeit dieses

werden, ist in dieser Perspektive zugunsten einer Ko-

Verständnisses ab.“ 320 Der Computer hat nach Rittel

Autorschaft revidiert, die den Blick auf neue Formen

die Notwendigkeit der Algorithmisierbarkeit in die

der kreativen Interaktion freigibt.

Gestaltung gebracht. Gestalterische Probleme müssen in diskrete, zeitlich begrenzte Handlungsfolgen

Was bedeuten die Veränderungen, die durch die

übertragen werden, die von einer binär arbeitenden

intelligenten Systeme ins Reich der Gestaltung ein-

Rechenmaschine ausgeführt werden können. In

ziehen, nun für das theoretische Verständnis von

dieser Hinsicht hat sich auch mit der Einführung

Design? Nicht erst seit es wirkungsvolle und mas-

intelligenter Systeme nichts Wesentliches verändert.

senhaft einsetzbare künstlich-intelligente Systeme

Allerdings – und das ist nichts Geringes – hat sich

gibt, wurde Gestaltung durch Technologie überformt

der Umfang der Probleme, die algorithmisierbar sind,

und verändert. Schon einmal gab es ein – zumindest

enorm erweitert. Mit der intelligenten Bild-, Sprach-

aus Sicht der Designer:innen – ähnlich gravierendes

und Emotionserkennung kann der Computer reich-

Ereignis. Es war die Einführung des Heimcompu-

haltige neue Datenquellen sinnvoll verarbeiten. Mit

ters, der in den 1980er-Jahren zum Massenprodukt

immer elaborierteren Verfahren der Datenanalyse

und damit auch zum verfügbaren Designwerkzeug

kann der Computer zudem aus immer mehr Daten

wurde. Der Designtheoretiker Horst Rittel setzt sich

immer schneller sinnvolle Schlüsse ziehen.

in seinem wegweisenden Artikel „Architekten und Computer“ von 1984 nicht nur mit angemessenen

Entsprechend sehen die vier Anwendungsgebie-

und unangemessenen Vorstellungen des computer-

te aus, die Rittel für computergestützte Gestaltung

basierten Designs auseinander und zieht dadurch

identifiziert. Die ersten drei Anwendungsgebiete

aufschlussreiche Parallelen zur Diskussion um

lesen sich so, als seien sie direkt der Debatte um KI-

künstliche Intelligenz in der Gestaltung. Er macht die

gestützte Arbeitsprozesse entnommen. Der Architekt

intelligente Gestaltung oder Architekturmaschine,

möchte „schneller, verläßlicher, billiger erledigen

wie sie damals genannt wurde, in seinem Aufsatz

lassen, was er ohnehin tut“, er möchte „Tätigkeiten

explizit zum Thema seiner gestaltungstheoretischen

übertragen, die er nur ungern und mühsam ausführt“,

Betrachtungen. Damit bietet der Aufsatz eine be-

und er möchte „Dinge tun lassen, die er eigentlich tun

sonders fruchtbare designtheoretische Folie, vor der

möchte, aber gewöhnlich nicht ausführt, weil sie zu

intelligente Gestaltung im Folgenden nun theoretisch

aufwendig, zeitraubend wären, oder weil er vergessen

reflektiert werden soll.

hat oder nicht weiß, wie man sie ausführt.“ 321 Diese Anwendungsgebiete berühren im Kern die Automa-

320 Rittel, Horst: „Architekten und Computer“, in: Reuter, Wolf/Jonas, Wolfgang (Hrsg.): Thinking Design. Transdisziplinäre Konzepte für Planer und Entwerfer, Basel: Birkhäuser 2013, S. 187. 321 Rittel: Architekten und Computer, S. 187.

Kapitel 3: Gestaltung mit und für intelligente Systeme

112

tisierung von Gestaltung und sie sind für die Ge-

zweiten grundlegenden Artikel zur Entwicklung des

staltung mit und für intelligente Systemen ebenfalls

Planungsprozesses wie folgt aus:

gültig. „Varietät zu erzeugen, Ideen zu haben, ist die In einem vierten Anwendungsbereich, der heu-

leichteste Sache der Welt; sogar ein Computer

te mit Augmentierung gestalterischer Fähigkeiten

wäre in der Lage, dabei zu helfen. Jedoch kann er

verbunden ist, kann der Designer laut Rittel „neue

im zweiten Teil, bei der Reduktion von Varietät,

Aspekte in seine Arbeit einbringen, die erst durch

überhaupt nichts beitragen, da dies im wesentli-

diese Technik praktisch ermöglicht werden“. 322 Rittel

chen ein Bewertungsvorgang ist.“ 324

sieht sogar in Form des Ideals der Augmentierung den Einsatz von intelligenten Systemen voraus,

Genau bei diesen divergierenden Bewertungsvor-

wenn er formuliert:

gängen im Designprozess können nun intelligente Systeme assistieren. Der Designprozess wird hier zu

„Entwerfen am Bildschirm, vom schematischen

einem maschinell augmentierten Prozess erweitert.

Konzept bis zur Werkzeichnung, mit der Möglich-

Auch Rittel wehrt sich dann gegen die Vorstellung

keit zur sofortigen Kontrolle durch perspektivi-

einer menschenähnlichen Intelligenz, die den Gestal-

sche Darstellungen, wobei ständig die Konsistenz

tenden gefährlich wird:

der Entscheidungen überwacht wird, die Konsequenzen von Änderungen automatisch durch

„Dieses Golem-Ideal von der künstlichen Intelligenz

alle Teile und womöglich noch im Hintergrund

ist populär, stößt aber – zum Glück – auf grund-

alle möglichen Programme mitlaufen, die Statik,

sätzliche theoretische Hemmnisse. Die andere,

Bauvorschriften, Kosten, u. dgl. überprüfen – das

bescheidenere Strategie zielt auf die Entwick-

wäre das Ideal.“

lung ‚intellektueller Prothesen‘, von Denkzeugen,

323

Dieses Ideal autonomer Gestaltung wird nun sukzes-

welche die natürliche Intelligenz ver[s]täten und unterstützen.“ 325 [ Herv. i.O.]

sive durch intelligente Designwerkzeuge eingelöst. Im Entwurfsprozess selber werden verschiedene Da-

Mit dem Golem-Ideal meint Rittel die Vorstellung

ten genutzt, um für Designer:innen eine intuitive und

von künstlicher Intelligenz als Dienerin ohne Geist

visuelle Entscheidungsgrundlage zu ermöglichen,

oder als Schöpferin ohne Bewusstsein. Diesem Bild

ohne dass physikalische Gesetze oder Vorschriften

der Designautomatisierung als großer Verdrängerin

ausgeblendet und missachtet werden müssten. Damit

menschlicher Kreativität tritt er entgegen. Rittel

entsteht durch intelligente Systeme im Innovations-,

schlägt vor, intelligente Systeme als kreative Orthe-

Planungs- und Designprozess etwas grundlegend

sen zu verstehen, als Denkwerkzeuge oder wie er

Neues. Die intelligenten Werkzeuge können nun bei

sich ausdrückt, als Denkzeuge. Gemeint ist hier er-

Entscheidungen helfen, die vorher Algorithmen und

neut, dass intelligente Systeme, indem sie mensch-

Designer:innen nicht oder nur sehr schwer fällen

liche Fähigkeiten erweitern, Designer:innen zu neuen

konnten. Rittel drückt diesen Umstand in einem

Formen der Gestaltung verhelfen.

322 Rittel: Architekten und Computer, S. 187. 323 Rittel: Architekten und Computer, S. 189.

324 Rittel, Horst: „Zur Planungskrise: Systemanalyse der ersten und zweiten Generation“, in: Reuter, Wolf (Hrsg.): Planen, Entwerfen, Design, Ausgewählte Schriften zur Theorie und Methodik, Stuttgart: Kohlhammer 1992, S. 55. 325 Rittel: Architekten und Computer, S. 195.

Kapitel 3: Gestaltung mit und für intelligente Systeme

113

Auf der anderen Seite – der Seite der Intelligence

es Bernhard Bürdek noch vor Kurzem ausdrückte. 328

Experience – erlauben intelligente Systeme, „komple-

Allerdings nicht weil die mathematischen Bestim-

xere situative Handlungstypologien und -modelle“

mungen, die die Informationsästhetik verlangte, heute

zu erstellen, die sich zu „realweltlichen Interak-

formulier- und kalkulierbar geworden sind. Vielmehr

tionskontexten“ ausweiten.

erreichen die intelligenten Systeme das informations-

326

Mit anderen Worten:

Intelligente Systeme bilden immer mehr die vielen

ästhetische Ideal auf anderem Wege. Sie erlauben es,

Facetten der Nutzer:innen, ihrer Vorstellungswelten

den statistisch relevanten Zusammenhang zwischen

und Handlungsweisen ab, indem sie mit und durch

ästhetischer Form und sowohl massenhaft auftre-

die Daten, die die realweltlichen Interaktionskontexte

tendem als auch individuellem Geschmacksurteil

liefern, immer genauere Modelle dieser Nutzungswei-

zu lernen. Die Informationsästhetik wird insofern

sen bekommen. Das Ideal partizipatorischer Gestaltung,

revidiert, als dass die künstliche Intelligenz das Äs-

die Nutzer:innen in ihren individuellen Handlungs-

thetische nicht mehr als objektive Eigenschaft in den

mustern und Nutzungserfahrungen zu identifizieren

ästhetischen Gegenständen selbst findet, aber doch

und einzubeziehen, wird vom intelligenten System

sehr wohl einen objektiven Zusammenhang zwischen

zumindest theoretisch und wohl bald auch praktisch

ästhetischem Genuss und gestaltetem Gegenstand

eingelöst.

durch mathematische Methoden ermitteln kann.

Ein weiteres längst aufgegebenes Ideal rationaler

3.4.2 Neue Herausforderungen und Fähigkeiten

Gestaltung bekommt mit der Potenz intelligenter

für Designer:innen

Systeme neue Bedeutung. Informationästhetische Ansätze im Design, die vor allem mit dem Namen

Designer:innen müssen schon heute eine breite Palet-

Max Bense verbunden sind und an der HFG Ulm ge-

te von Kompetenzen besitzen, um in ihrem Job erfolg-

lehrt wurden, kommen nun in neuer Weise zu ihrem

reich arbeiten zu können. Sie müssen analytische

Recht. Diese informationästhetischen Ansätze haben

genauso wie kreative Fähigkeiten besitzen, sie müs-

versucht, „das Ästhetische messbar zu machen“.327

sen geschult sein im Umgang mit neuen Technologien

Das gestaltete Objekt selbst sollte durch mathema-

und sie müssen ein tiefes empathisches Wissen ihrer

tisch genau abgeleitete ästhetische Gesetze bestimmt

Zielgruppen haben.329 Mit den intelligenten Systemen

und der Grad seiner ästhetischen Qualität rational

werden einige dieser Kompetenzen wichtiger und es

bestimmbar werden. Gesucht wurde eine exakte

kommen neue hinzu. Es werden allerdings auch alte

Methode der objektiven Beschreibung ästhetischer

Kompetenzen entwertet und bisher als zentral wahr-

Objekte. Dieses Unterfangen musste aufgegeben

genommene Gestaltungsbereiche werden sukzessive

werden, weil es nicht gelang, ästhetische Wirkung in

an intelligente Systeme abgegeben. Auch das war

mathematische Gesetze zu überführen. Im Lichte in-

schon in den 1980er-Jahren so, als der Computer ein-

telligenter Systeme erscheint das Ideal rationaler Ge-

geführt wurde, und es ist sicher nicht das letzte Mal,

staltung heute jedoch nicht mehr so „exotisch“, wie

dass sich das, was wir unter Design verstehen, durch

326 Mareis, Claudia: „Wer gestaltet die Gestaltung? Zur ambivalenten Verfassung von partizipatorischem Design“, in: Mareis, Claudia/

328 Bürdek: Design, S. 129. 329 Godau, Marion: „Design-Kompetenz“, in: Erlhoff, Michael/Marshall,

Held, Matthias/Joost, Gesche (Hrsg.): Wer gestaltet die Gestaltung?

Tim (Hrsg.): Wörterbuch Design. Begriffliche Perspektiven des Design,

Praxis, Theorie und Geschichte des partizipatorischen Designs,

Basel: Birkhäuser Verlag 2008, S. 94.

Bielefeld: transcript Verlag 2013, S. 15. 327 Bürdek, Bernhard: Design. Geschichte, Theorie und Praxis der Gestaltung, Basel: Birkhäuser 2015, S. 129.

Kapitel 3: Gestaltung mit und für intelligente Systeme

114

technologische Entwicklungen anpasst und verän-

Zudem werden sie sich Skills aneignen müssen, die

dert. In seinem Artikel „Architekten und Computer“

sicherstellen, dass die Nutzer:innenbedürfnisse auch

zitiert Horst Rittel 1984 einen US-Kongressabge-

in den intelligenten Systemen berücksichtigt werden.

ordneten, der prognostiziert, dass 80 Prozent der

Dazu müssen sie grundsätzlich verstehen, wie sich

Architekt:innen im Jahre 2000 ihren Job verlieren

die Nutzer:innenbedürfnisse in die Datenbedürfnisse

werden.330 Ähnlich dramatisch wird die Lage für das

der intelligenten Systeme übersetzen lassen und dann

Design heute wahrgenommen. Ein unvoreingenom-

vom intelligenten Produkt bedient werden. Hier soll-

mener Blick auf die historische Entwicklung verrät,

ten Designer:innen statistische Lernverfahren und

dass der Computer den Berufsstand jedoch nicht

deren Trainingsgrundlagen grundlegend verstehen,

so umfassend wie angenommen entwertet hat. Das

wollen sie wirklich hilfreiche nutzer:innenzentrierte

Werkzeug hat Designer:innen schlicht produktiver

Produkte und Tools entwickeln. Es sind aber auch

und kreativer gemacht und ihre Aufgabenbereiche

Prototyping-Skills von Nutzen, mit denen erforscht

enorm erweitert.

wird, wie Nutzer:innen mit intelligenten Produkten interagieren.332 Drittens werden Designer:innen Skills

Wenn intelligente Werkzeuge immer mehr Aufga-

entwickeln müssen, mit denen verstanden werden

ben automatisiert übernehmen können, die vormals

kann, wie Nutzer:innen intelligente Systeme generell

Designer:innen womöglich in repetitiver Art und

wahrnehmen. Sie müssen in der Lage sein, gestalte-

Weise ausgeführt haben, dann werden solche Skills

rische Lösungen an der Schnittstelle zur Psychologie

wichtiger, mit denen Designprobleme ergründet

zu entwickeln, und damit Nutzer:innen erlauben zu

werden. Horst Rittel spricht in diesem Zusammen-

verstehen, wie diese Lösungen produktiv und hilf-

hang von der gestaltenden Person als „Hebamme für

reich für sie sind. 333 Das schließt ein, mögliche Wi-

Probleme“.331 Das heißt also, dass Designer:innen in

derstände der Nutzer:innen zu erkennen und ihnen

einer sich immer schneller verändernden Welt damit

frühzeitig zu begegnen.334

beauftragt sind, Nutzer:innen noch besser zu verstehen, um noch schneller und gründlicher ihre Proble-

Um dies leisten zu können, müssen Designer:innen

me und die dahinterliegenden Bedürfnisse zu identi-

den Designprozess als sogenannten Triple-Loop für

fizieren. Dazu müssen Gestalter:innen immer stärker

nutzer:innenzentriertes statistisches Lernen reflek-

ethnografische Fähigkeiten ausbilden. Sie werden

tieren lernen.335 Beim Triple-Loop handelt es sich um

also noch stärker als bisher zu Fürsprecher:innen

ein theoretisches Modell, das die Wahrnehmung der

von Nutzer:innenbedürfnissen in interdisziplinären

Designer:innen im Designprozess als kognitive Feed-

Teams.

backschleifen beschreibt, durch die der Designentwurf und seine Qualität reflektiert werden können.

332 Dory, Mike/DelliCarpini, Mindy: „Simulating Intelligence. Techniques for prototyping machine learning systems across products and features“, https://design.google/library/simulating-intelligence (21.4.2022). 330 Rittel: Architekten und Computer, S. 190. 331 Rittel: Zur Planungskrise, S. 52.

333 Qian Yang: „Unremarkable AI: Towards AI That Co-lives and Co-evolves with Users“, in: Engenhart, Marc/Loewe, Sebastian (Hrsg.): Proceedings of the First Conference on Designing with Artificial Intelligence, München: appliedAI 2021, S. 75. 334 Daugherty, Paul/Wilson, James: Human + Machine. Reimagining Work in the Age of AI, Boston: Harvard Business Review Press 2018, S. 191. 335 Seidel, Stefan/Berente, Nicholas/Lindberg, Aron et al.: „Autonomous Tools and Design. A Triple-Loop Approach to Human-Machine Learning“, https://dl.acm.org/doi/10.1145/3210753 (21.4.2022).

Kapitel 3: Gestaltung mit und für intelligente Systeme

115

Designer:innen beherrschen bisher zwei der drei

prüfen, ob die individuell eingestellten Parameter für

Feedbackschleifen, die im Designprozess angewendet

Bildgenerierung mittels GAN zu dem gewünschten

werden sollten. Die erste Feedbackschleife betrifft

Ergebnis führen. Mit der Evaluierung, der zweiten Fä-

das Designartefakt selbst; Designer:innen reflektieren

higkeit, überprüfen Designer:innen das gestalterische

anhand des Entwurfs, wie er geändert und angepasst

Gesamtergebnis. Sie überprüfen hier nicht mehr nur

werden muss. Diese Art der Reflexion wird schon in

einzelne Gestaltungsparameter, sondern Hypothesen

der Designausbildung trainiert. Die zweite kognitive

zum Designprozess mit intelligenten Werkzeugen

Feedbackschleife betrifft die vielen möglichen Arten

insgesamt, etwa wenn sie prüfen, ob ein bestimmtes

des Vorgehens im Designprozess. Designer:innen

GAN-Modell überhaupt das richtige Werkzeug ist für

reflektieren in einer Art Metaebene der Gestaltung,

das gewünschte Ergebnis. Mit dem dritten Skill, dem

ob ihr Designprozess, ihre Zielvorstellungen und

sogenannten „Adjustment“, vermitteln Designer:in-

Denkmuster zum Designproblem passen oder ver-

nen ihr mentales Modell, also ihre Vorstellung davon,

ändert und angepasst werden müssen. In der dritten

wie ein bestimmtes intelligentes Werkzeug funk-

Feedbackschleife, die neu ist und mit dem statisti-

tioniert, mit dem mentalen Modell des intelligenten

schen Lernen hinzukommt, müssen Designer:innen

Werkzeugs, also der tatsächlichen Wirkungsweise des

reflektieren, wie ihre eigenen Vorstellungen und

Werkzeugs. Sie können also vom Ergebnis rückschlie-

mentalen Modelle vom Designprozess mit dem

ßen auf ihr mentales Modell und überlegen, ob es

mentalen Modell des intelligenten Werkzeugs kor-

weiter angepasst werden muss. Sie können aber auch

respondieren. Mit anderen Worten: Designer:innen

auf das mentale Modell des Werkzeugs rückschließen

müssen verstehen, was mit den intelligenten Werk-

und überlegen, ob dieses angepasst werden muss.337

zeugen tatsächlich möglich ist, aber auch reflektieren können, welche richtigen oder falschen Vorstellungen

Genau zu verstehen, wie intelligente Systeme

sie haben, wie die intelligenten Werkzeuge funktio-

funktionieren, welche Fähigkeiten und Grenzen sie

nieren. Sie müssen alle drei Vorstellungsebenen als

haben, wird durch die intelligente Befragung ermög-

Elemente eines interaktiven Systems richtig zusam-

licht.338 Mit diesem sogenannten Fusion-Skill können

menbringen, um letztlich das zu erreichen, was sie

Designer:innen lernen, intelligente Systeme besser zu

gestalten möchten.336

verstehen und zu nutzen, indem sie gezielte Fragen nach Aufbau, Wirkungsweise und Anwendungsfällen

In diesem Zusammenspiel von Designer:in und

der Systeme stellen. Intelligente Befragung umfasst

intelligentem Werkzeug werden drei dezidiert neue

aber auch zu wissen, wann Ergebnisse der Systeme

Fähigkeiten verlangt. Die erste, „Framing“ genannt,

Sinn machen und wann nicht. Dies setzt ein entspre-

bezeichnet das Vermögen von Designer:innen, auf

chend gutes Verständnis der jeweiligen Lernverfahren

Basis eines grundlegenden Verständnisses des intelli-

und Daten voraus.

genten Tools Hypothesen aufzustellen, wie Input und Output des Werkzeugs zusammenhängen. Mit dem

Letztlich ist ein System immer nur so intelligent,

Framing wird also eine Erwartung an das intelligente

wie das Modell und die Daten, die es verarbeitet.

Werkzeug auf der Ebene einzelner Designschritte

Designer:innen müssen nicht immer mit komplexen

formuliert und überprüft, etwa wenn Designer:innen

intelligenten Werkzeugen arbeiten, sondern können

336 Seidel/Berente/Lindberg et al.: Autonomous Tools and Design, S. 52.

337 Seidel/Berente/Lindberg et al.: Autonomous Tools and Design, S. 56. 338 Daugherty/Wilson: Human + Machine, S. 193.

Kapitel 3: Gestaltung mit und für intelligente Systeme

116

auch zuständig sein, intelligente Systeme in Produkte

machen, und verhindern, dass diese als dumme Feh-

zu integrieren, die nur einen sehr begrenzten Hori-

ler wahrgenommen werden.

zont haben. An einem Beispiel soll dies verdeutlicht werden. So prognostiziert beispielsweise die bereits

Auf der Ebene der Datenbedürfnisse intelligenter

erwähnte Pricing-Plattform von Airbnb mittels ein-

Systeme sollten Designer:innen nicht nur wissen,

facher linearer Regression einen idealen Preis für jede

welche Daten zu welcher IX führen, sondern auch

spezifische Location und jeden individuellen Tag im

bestimmen können, welche zukünftige IX überhaupt

Jahr. Für sich genommen ist diese Preisvorhersage

in den Daten versteckt liegt, um die Potenziale für

kein allzu komplexes Rätsel. Massenweise genutzt al-

Nutzer:innenbedürfnisse noch besser auszuschöpfen.

lerdings entsteht sowohl für die Airbnb-Vermieter:in-

Mit anderen Worten: Designer:innen sollten in der

nen als auch die Nutzer:innen ein enorm hilfreiches

Lage sein, die wesentlichen Leistungen der Daten für

Erlebnis, denn die Airbnb-Wohnungen sind aus Sicht

die Nutzer:innen aus den Daten selbst herauslesen zu

der Nutzer:innen jederzeit erschwinglich und aus

können. Designer:innen benötigen dafür die soge-

Sicht der Vermieter:innen dauerhaft nachgefragt. Da-

nannte Data Literacy, die Schriftkundigkeit in Bezug

mit entsteht durch ein einfaches Lernverfahren wie

auf Daten, und damit die Fähigkeit, Data Stories zu

die lineare Regression eine komplexe IX, die in der

erzählen. Data Storytelling bezeichnet im Kern das

Gesamtwirkung mehr ist als die Summe der einzel-

Vermögen, Daten als ein zusammenhängendes Narra-

nen Prognosen. Es sind ineinandergreifende, sich

tiv mit Anfang, Mitte und Ende zu begreifen.341 In der

bedingende positive Erfahrungen. Hier ist eine we-

Regel wird Data Storytelling als Instrument genutzt,

sentliche Fähigkeit von Designer:innen, die Vorstel-

um strategisch-ökonomische Entscheidungen zu

lungskraft zu entwickeln, wie sogar sehr beschränkte

treffen. Als Designer:innen-Skill ist Data Storytel-

intelligente Systeme, die vielleicht nicht viel mehr

ling die Grundlage, um User Stories in den Daten zu

machen, als ein einziges Datum zu prognostizieren,

entdecken und damit neue Einsichten in die Welt der

sinnvoll eingesetzt werden können, um ein komple-

Nutzenden zu generieren.

xes Nutzer:innenerlebnis zu erschaffen. Mit anderen Worten müssen Designer:innen wissen, was auch

Beispielsweise kann man innerhalb einer Be-

ein „dummes“ System leisten kann, wenn man es

ratungsfirma beobachten, dass viele Angestellte das

skaliert.

Firmenauto nutzen, obwohl sie sagen, dass sie aus

339

Umweltgründen lieber mit der Bahn fahren wür Wollen Designer:innen eine gelungene IX erzeu-

den. Schaut man sich an, wo die Kund:innen der

gen, müssen sie einen weiteren Fusion-Skill besitzen,

Beratungsfirma sitzen und zu welchen Zeiten die

die sogenannte Judgment Integration.

Berater:innen reisen, stellt man schnell fest, dass die

340

Damit ist die

Fähigkeit gemeint zu wissen, wann intelligente Sys-

öffentlichen Verkehrsmittel nicht ausreichen, um

teme menschliches Urteilsvermögen benötigen, etwa

schnell und sicher am selben Tag anzukommen. Die

wenn Klassifizierungsalgorithmen Menschen als Tie-

Berater:innen müssen mindestens noch ein Auto

re erkennen. Designer:innen können mit diesem Skill

mieten, um ihre Kund:innen zu erreichen. Der eigene

frühzeitig sehen, wann intelligente Produkte Fehler

Wunsch, umweltfreundlich zu reisen, kollidiert hier

339 Verganti/Vendraminelli/Iansiti: Innovation and Design, S. 221. 340 Daugherty/Wilson: Human + Machine, S. 191.

341 Stackpole, Beth: „The next chapter in analytics: data storytelling“, https://mitsloan.mit.edu/ideas-made-to-matter/next-chapter-analyticsdata-storytelling (21.4.2022).

Kapitel 3: Gestaltung mit und für intelligente Systeme

117

deutlich mit dem Bedürfnis, sicher und bequem bei

eröffnen und so erproben, welche möglicherweise ne-

den Kund:innen anzukommen und abzureisen. Die

gativen Folgen intelligente Systeme für Mensch und

Daten zeigen diesen Bruch und damit den Konflikt

Natur haben.344 Beispielsweise hat die Designerin und

der Protagonist:innen. Eine Lösung könnte dann bei-

Developerin Nicole He mit dem „True Love Tinder

spielsweise sein, Fahrgemeinschaften innerhalb der

Robot“ ein Szenario entworfen, in dem Entscheidun-

Firma zu bilden.

gen darüber, mit welcher Person man sich romantisch verbindet, einem intelligenten System überlassen

Data Storytelling sollte nicht mit Datenvisuali-

werden. Die Rede ist nicht von den Partner:inne-

sierung verwechselt werden. Natürlich können und

nempfehlungen, die auf Tinder ohnehin schon durch

sollten die Geschichten in den Daten auch so visu-

intelligente Systeme erstellt werden, sondern von der

alisiert werden, dass sie schnell sichtbar und damit

individuellen Entscheidung für oder gegen einzelne

einfach zugänglich werden. Hierfür sind Designer:in-

Kandidat:innen. Der Tinder-Bot liest über Sensoren

nen durch Information Design, das mit Namen wie

die biologischen Zustände seiner Nutzer:innen, wäh-

Edward Tufte oder experimentellen Forschungspro-

rend diese ihre zukünftigen Partner:innen anschauen,

jekten wie „Dear Data“

und entscheidet dann selbstständig, wer zusammen-

342

von Stefanie Posavec und

Giorgia Lupi verbunden ist, schon gut aufgestellt.

passt. Der Tinder-Bot wischt also stellvertretend für

Data Storytelling kommt allerdings vor der Visuali-

die Nutzer:innen nach links oder rechts. So kreiert

sierung der Geschichte und das Zweite setzt das Erste

Nicole He ein Szenario, in dem intelligente Systeme

voraus.

jeden subjektiven Impuls bei der Partner:innenwahl ersetzen und auf Basis vermeintlich objektiver Daten

Ein weiterer, wenn auch eher seltener Skill im

sehr private Entscheidungen fällen. Das kritische

Bereich Datenschriftkundigkeit bezieht sich auf

Design wirft hier Fragen auf, die das Mitspracherecht

den Umstand, dass Designer:innen Trainer:innen

der Nutzer:innen bei wichtigen Entscheidungen be-

intelligenter Systeme werden. Hier ist die Fähigkeit

treffen, aber auch, ob es nicht durchaus konsequent

zentral, gute Trainingsdaten zu akquirieren. Daten

ist, auch diese Entscheidungen zu automatisieren. Ein

sollten vollständig, akkurat, konsistent und zeitge-

zweiter Bereich des Critical Designs formuliert nicht

mäß sein.343 Designer:innen sollten zudem verstehen,

nur hypothetische Szenarien, sondern interveniert

welche Bias möglicherweise in den Daten stecken,

direkt und ganz praktisch in bestehende Konflikte, die

obwohl sie als gute Trainingsdaten gelten.

intelligente Systeme verursachen. So haben Designer:innen und Data Scientists beispielsweise grafische

Der letzte Skill für Designer:innen besteht in der

Darstellungen entwickelt, sogenannte Adversarial

Fähigkeit, kritisch den gesellschaftlichen, ethischen,

Patches, die es schaffen, intelligente Bilderkennun-

politischen und ökonomischen Impact intelligenter

gen auszutricksen. Die Forscher:innen haben diese

Systeme mit den Mitteln des Speculative oder Critical

Patches auf T-Shirts gedruckt und Menschen, die

Designs zu reflektieren. In Zukunftsszenarien können

diese T-Shirts tragen, werden von Überwachungs-

Designer:innen einen Möglichkeitsraum für zu-

systemen nicht mehr als Menschen erkannt; aber nur

künftige Entwicklungen und Anwendungskontexte

so lange, bis das Überwachungssystem überarbeitet

342 Posavec, Stefanie/Lupi, Giorgia: „Dear Data“, http://www.dear-data.com/theproject (21.4.2022). 343 Hebron: Machine Learning for Designers, S. 47.

344 Churchill, Elizabeth/van Allen, Philip/Kuniavsky, Mike: „Special Topic: Designing AI. Introduction“, https://interactions.acm.org/archive/view/ november-december-2018/introduction19 (21.4.2022).

Kapitel 3: Gestaltung mit und für intelligente Systeme

118

und verbessert wird.345 Dann beginnt der Wettlauf

aber auch praktische Projektstudien, in denen dieses

von Neuem. Die Implikationen sind deutlich, wenn

Wissen erprobt und experimentell erweitert werden

man bedenkt, dass der Großteil der Überwachungs-

kann. Letztlich entscheidet sich am pädagogischen

technologie im öffentlichen und halböffentlichen

Konzept und Selbstverständnis der Hochschulen, ob

Raum ohne Wissen und Zustimmung der Menschen

und wie intelligente Systeme in das Curriculum ein-

geschieht, die sich in diesen Räumen aufhalten.

fließen; ob als Schwerpunkt für höhere Semester oder als allgemeine Kompetenz für alle Studierenden.

3.4.3 Neue Bereiche in der Designausbildung Sicher ist, dass man schon in wenigen Jahren, wie Die Frage, wie man Gestaltung mit und für intelli-

das Horst Rittel seinerzeit für den Computer voraus-

gente Systeme unterrichtet, hängt eng mit der Ge-

gesagt hat, die erforderlichen Kenntnisse für Gestal-

staltung der Ausbildung selbst zusammen. Allein in

tung mit und für intelligente Systeme voraussetzen

Deutschland sind die Hochschulen in Bezug auf ihre

kann, wie jetzt den Umgang mit dem Computer. Für

Designausbildung oft recht unterschiedlich ausge-

Designer:innen wird schon in naher Zukunft eine

richtet. Bieten manche Design- und Fachhochschulen

Reihe proprietärer intelligenter Werkzeuge ganz

eine Spezialisierung auf bestimmte Bereiche und

selbstverständlich sein, die sie in ihrer Ausbildung

Themen, etwa Entwurf oder Technologie, an, wollen

und Praxis kennen und beherrschen lernen. Ein

andere ein integriertes Studium des Designs und

kleinerer Teil der Designer:innen wird sicherlich

sofort einsetzbare Allround-Designer:innen ausbil-

auch geschult werden, selbst intelligente Werkzeuge

den.

für ihre Zwecke zu erstellen. Die Infrastruktur und

346

Genauso unterschiedlich ist das methodische

Verständnis der Ausbildung. Manche Hochschulen

den offenen Zugang zu Daten und Algorithmen gibt

schaffen offene, interdisziplinäre und projektbasierte

es bereits. Sie werden zukünftig sicher noch einmal

Strukturen, andere pflegen die Disziplinengrenzen

stark ausgeweitet werden und ein spannendes Feld

und fördern Spezialist:innen.

für Gestalter:innen werden, die selbst oder im Team

347

intelligente Werkzeuge entwickeln. Klar ist, dass an beiden Polen „konzeptuelle, strategische, theoretische, fähigkeitsbezogene oder ma-

Gerade deshalb ist derzeit die Frage interessant,

nagementbezogene Bestandteile“

wie genau man in der Designausbildung theoretisch

348

gelehrt werden;

dazu gehört natürlich auch Technologiekompetenz.

und praktisch an statistisches Lernen und intelligente

Mit der Umwälzung der Gestaltung durch statistische

Systeme heranführt. Im Rahmen der Bund-Länder-

Lernverfahren werden die technologiebezogenen

Förderinitiative „Künstliche Intelligenz in der Hoch-

Bestandteile wichtiger. Dies setzt ein grundlegendes

schulbildung“ wird speziell für das Design das Ver-

Verständnis der Wirkungsweise, Reichweite und

bundvorhaben „KITeGG – KI greifbar machen und

Anwendungsgebiete solcher Lernverfahren voraus,

begreifen: Technologie und Gesellschaft verbinden

345 Xu, Kaidi/Zhang, Gaoyuan/Liu, Sijia: „Adversarial T-shirt! Evading Person Detectors in A Physical World“, https://arxiv.org/abs/1910.11099 (21.4.2022). 346 Erlhoff, Michael/Marshall, Tim: „Design-Kompetenz“, in: Erlhoff, Michael/ Marshall, Tim (Hrsg.): Wörterbuch Design. Begriffliche Perspektiven des Design, Basel: Birkhäuser Verlag 2008, S. 32. 347 Erlhoff/Marshall: Design-Kompetenz, S. 33. 348 Erlhoff/Marshall: Design-Kompetenz, S. 28.

Kapitel 3: Gestaltung mit und für intelligente Systeme

119

durch Gestaltung“ 349 gefördert, welches sich dezi-

dass sie internationale Menschenrechte achten und

diert mit Fragen der Designausbildung für und mit

fördern. Zweitens sollte das wichtigste Kriterium für

intelligenten Systemen auseinandersetzt. Erforscht

die Gestaltung intelligenter Produkte das Wohlbefin-

und erprobt werden soll in den kommenden Jahren,

den der Nutzer:innen sein. Drittens sollten Produkte

wie man Studierenden vermittelt, diese Systeme ziel-

so gestaltet sein, dass Nutzer:innen ihre Daten leicht

gerichtet und „reflektiert als Material und Werkzeuge

einsehen und teilen können sowie die volle Kontrolle

der Gestaltung“

über ihre Identität haben. Viertens sollten intelligente

350

einzusetzen.

Produkte praktisch überprüft werden, ob sie tatsäch3.4.4 Neue rechtliche und ethische Fragen

lich gut funktionieren und keinen Schaden anrichten. Fünftens sollte die Grundlage für Entscheidungen,

Mit neuen Überwachungs- und Auswertungsmög-

die intelligente Systeme fällen, transparent sein.

lichkeiten durch intelligente Systeme, mit Echokam-

Sechstens sollte das algorithmische Grundprinzip für

mern in digitalen Erlebnisräumen, den sogenannten

die Systeme so aufgebaut sein, dass Entscheidungen

Experience-Bubbles und Nudging, den subtilen Me-

unzweideutig nachvollzogen werden können. Sieben-

thoden der Verhaltensbeeinflussung, aber auch mit

tens sollten intelligente Produkte so gestaltet werden,

automatisierten Gestaltungswerkzeugen und Bildge-

dass Missbrauch und Risiken möglichst verhindert

nerierung auf Knopfdruck stellen sich neue ethische

werden. Abschließend sollten, achtens, zukünftige

und rechtliche Fragen für Designer:innen.

Nutzer:innen informiert werden, wie sie das Produkt so nutzen, dass es sicher und effektiv funktioniert.

Im Bereich der Ethik stehen Designer:innen vor

Gerade wegen der Natur dieser Prinzipien als mora-

der Aufgabe, sich gegenüber vulnerablen Nutzer:in-

lische Imperative, die zwar von sich aus unbegrenzt

nengruppen zu sensibilisieren, mögliche Bias der

gelten sollen, denen aber gleichzeitig immer erst mit

Algorithmen zu erkennen und zu minimieren sowie

solchen Geboten zur Geltung verholfen werden muss,

möglicherweise diskriminierende Szenarien zu

besteht unter Expert:innen der Zweifel, ob eine solche

antizipieren. Designer:innen sollten dafür Aspekte

ethische KI in den kommenden Jahren überhaupt eine

der Sicherheit, Fairness, Inklusion, Gesundheit und

zentrale Rolle spielen wird.353

Privatsphäre der Nutzer:innen beachten, wenn sie intelligente Produkte entwickeln.351 Aus Sicht einer

Der Bereich der rechtlichen Fragen ist etwas kom-

verantwortungsvollen und fairen Produktentwick-

plizierter und für Designer:innen in der Regel weni-

lung ergeben sich folgende acht Handlungsprinzipien

ger vertraut. Hier haben es Designer:innen sowohl

für ethische KI, die die Global Initiative on Ethics

mit Schutzrechten von Urheber:innen zu tun als auch

of Autonomous and Intelligent Systems des Berufs-

mit rechtlichen Vorgaben der Europäischen Union in

verbandes der Ingenieure, IEEE,352 erarbeitet hat und

Bezug auf bestimmte gefährliche Anwendungsszena-

die auf die Arbeit von Designer:innen übertragbar ist.

rien intelligenter Systeme.

Erstens sollten intelligente Produkte so gestaltet sein, 349 Hochschule Mainz: „KI-Verbundvorhaben“, https://www.hs-mainz.de/news/ki-verbundvorhaben (21.4.2022). 350 KISD: „KI greifbar machen und begreifen“, https://kisd.de/

353 Rainie, Lee/Anderson, Janna/Vogels, Emily: „Experts Doubt Ethical AI Design Will Be Broadly Adopted as the Norm Within the Next Decade“, https://www.pewresearch.org/internet/2021/06/16/experts-doubt-

projects/ki-greifbar-machen-und-begreifen-technologie-und-

ethical-ai-design-will-be-broadly-adopted-as-the-norm-within-the-

gesellschaft-verbinden-durch-gestaltung-kitegg (21.4.2022).

next-decade (21.4.2022).

351 Ethics For Designers: „Design needs ethics“, https://www.ethicsfordesigners.com (21.4.2022). 352 IEEE: „Ethically Aligned Design“, https://ethicsinaction.ieee.org (21.4.2022).

Kapitel 3: Gestaltung mit und für intelligente Systeme

120

Die zentrale rechtliche Frage, vor die Designer:in-

scher Leistung bezeichnet, der in einem Werk steckt.

nen gestellt sind, lautet: „Wem gehört das Werk?“

Bei einer Fotografie spricht man aus rechtlicher Sicht

Denn von dieser Frage hängt ab, ob Designer:innen

von einer geringen Schöpfungshöhe, weil „nur“ der

mit Werken, die sie mit intelligenten Werkzeugen

Auslöser gedrückt werden musste, trotzdem jedoch

erstellt haben, Geld verdienen und davon als profes-

Kameraeinstellungen oder Bildausschnitt gezielt ge-

sionelle Designer:innen leben können. Dabei macht

wählt wurden. Fotografien sind also urheberrechtlich

das Recht einen wesentlichen Unterschied zwischen

geschützt. Anders sieht es bei den Werken aus, die

den Werkzeugen, deren Schöpfer:innen zunächst ein-

automatisch von einem GAN per Knopfdruck erstellt

mal selbst Schutzrechte genießen, und den Werken

werden, wie etwa auf der Website „This Person Does

selbst, die mit den Werkzeugen gestaltet werden. In

Not Exist“.355 In diesem Fall ist der Beitrag der De-

der Regel sind Softwareprodukte entweder durch

signer:innen an dem Werk so gering, dass man nicht

Lizenzen geschützt oder können nicht ohne vertrag-

von einer Schöpfungshöhe ausgehen kann und damit

liche Zustimmung genutzt werden. In beiden Fällen

das Werk und die Designer:innen keine Schutzrechte

sollten sich Designer:innen darüber informieren,

genießen. Bei Werken, die ein GAN erstellt, die aber

welche Nutzungsbedingungen in diesen Lizenzen

mehr Eingabemöglichkeiten und schöpferische Mit-

und Verträgen formuliert wurden. Viele Bauteile für

wirkung verlangen, kann auch schon eine Schöp-

intelligente Systeme, ihre Trainingsdaten oder Algo-

fungshöhe erreicht sein, die dem Werk Schutzrechte

rithmen sind oftmals Open Source über Plattformen

garantiert. In jedem Fall sollten sich Designer:innen

wie Github oder „Papers With Code“ verfügbar. Nicht

absichern, indem sie klären, welche Rechtslage gilt,

immer ist dort auch klar ersichtlich, welche Lizenzen

wenn sie solche Werke kommerziell nutzen.

gelten und welche Vorgaben daraus folgen, wollen Designer:innen diese offenen Ressourcen nutzen.

Abschließend wird es wohl schon in naher Zu-

Einen kurze Übersicht, welche Open-Source-Lizen-

kunft einen verbindlichen rechtlichen Rahmen für

zen es gibt und welche Dinge es dort zu beachten

KI-Anwendungen geben, der derzeit von der Euro-

gibt, finden Designer:innen beispielsweise auf der

päischen Kommission ausgearbeitet wird.356 Ähnlich

Website „The Legal Side of Open Source“.354

wie bei den DSGVO-Regeln werden in der KI-Verordnung rechtliche Vorgaben für intelligente Syste-

Auf der Seite der Werke sollten Designer:innen

me gemacht, die ein besonderes Risiko für Mensch,

wissen, dass auch die Erzeugnisse, die sie nutzen und

Umwelt und Gesellschaft managen oder darstellen.

weiterverarbeiten, Schutzrechte genießen. Dabei ist

Designer:innen sollten diese Regeln zumindest im

der Maßstab, ob etwas urheberrechtlich geschützt ist

Ausgangspunkt ihrer Schutzfunktion verstehen und

oder nicht, die sogenannte Schöpfungshöhe der Wer-

auf intelligente Produkte anwenden können.357

ke. Damit wird so etwas wie der Grad an schöpferi-

354 Open Source Guides: „The Legal Side of Open Source“, https://opensource.guide/legal (21.4.2022).

355 This Person Does Not Exist. 356 Europäische Kommission: „Neue Vorschriften für künstliche Intelligenz – Fragen und Antworten“, https://ec.europa.eu/commission/presscorner/ detail/de/QANDA_21_1683 (21.4.2022). 357 Die wichtigsten Punkte der bevorstehenden Regelung wurden bereits in die Designprinzipien im Kapitel 3.3.4 und in das Innovation Framework Floom in Kapitel 5 aufgenommen.

Kapitel 3: Gestaltung mit und für intelligente Systeme

121

3.4.5 Neue Wertschöpfung mit und Strategien

getestet. Diese Gitterstruktur war mit herkömmli-

für intelligente Produkte

chen Verfahren nicht herstellbar, konnte aber mittels 3D-Druck gefertigt werden. Aus designstrategischer

Mit intelligenten Werkzeugen und intelligenten Pro-

Sicht vorteilhaft, konnten unterschiedliche Varianten

dukten wird die Wertschöpfung, die mit und durch

in geringen Stückzahlen und kürzerer Zeit gefertigt

Design erzielt werden kann, erheblich verändert. Auf

werden. Dies alles erlaubte auf der Nutzer:innenseite

der Ebene der Designprozesse tragen intelligente

ein völlig neues Sporterlebnis. Es veränderte aber

Werkzeuge zur Produkt- und Prozessoptimierung

auch auf der Unternehmensseite interne Abläufe im

bei, die vorher nicht ohne Weiteres möglich war.

Product-Lifecycle-Management, indem bestimmte

Designer:innen können durch intelligente Werkzeuge

Schritte im Designprozess durch die Software weg-

technische Expertise gewinnen, die sie vorher nicht

fielen oder ergänzt wurden.

hatten. Außerdem bekommen sie auf Knopfdruck eine Vielzahl ausgeklügelter Varianten geliefert und

Nicht nur auf der Ebene der Werkzeuge, auch auf

zeitaufwendige einfache Arbeitsschritte werden auto-

der Ebene der intelligenten Produkte werden tradierte

matisiert. Damit gewinnt nicht nur das Designpro-

Geschäftsmodelle modifiziert oder ganz infrage ge-

dukt an Qualität, es werden sogar Produkte möglich,

stellt. Daten und ihre intelligente Verarbeitung sind

die vorher gar nicht denkbar waren. Der Designpro-

hier die wesentliche Grundlage für Intelligence Expe-

zess selbst wird durch intelligente Werkzeuge also

rience und damit oft für ganz neue Geschäftsmodelle,

verkürzt und effektiviert. Verbindet man intelligente

egal ob im Bereich der privaten Nutzer:innen oder

generative Werkzeuge mit einem additiven Verfah-

im Geschäftskundenbereich, dem sogenannten B2B.

ren wie dem 3D-Druck, können Produkte entstehen,

Ein Beispiel aus dem B2B-Bereich soll dies erhellen:

die mit herkömmlichen Herstellungsverfahren nicht

So sind Maschinenhersteller, die bislang ihre teuren

möglich waren und die gleichzeitig auch an den

Maschinen an Unternehmen verkauft und für jede

Geschmack und die Bedürfnisse von Nutzer:innen-

Reparatur Rechnungen gestellt haben, durch Predictive

gruppen individuell angepasst werden können. Damit

Maintenance, das intelligente Wartungsverfahren, vor

werden traditionelle Wertschöpfungsketten ein

große Veränderungen gestellt. Maschinenbauer sind

ganzes Stück weit umgeformt und durcheinanderge-

durch intelligente Schadensprognosen in der Lage

bracht.

vorherzusehen, wann eine Maschine kaputtgeht

358

Beispielsweise hat die Firma Under Armour

einen Schuh entworfen, der durch seine Gitterstruk-

und an welcher Stelle – das ist der Teil „Predictive“

tur in der Sohle erstmals für viele unterschiedliche

in „Predictive Maintenance“. Damit können die Her-

Sportarten nutzbar ist.

steller nun einen Service für ihre Kunden offerieren,

359

Die Gitterstruktur wurde

mit intelligenter Software der Firma Autodesk er-

der die bald schadhaften Teile der Maschine austau-

rechnet und dann durch verschiedene Sportler:innen

scht, noch bevor sie kaputtgehen – das ist der Teil

358 Wunner, Felix/Krüger, Tino/Gierse, Bernd: „How AI-driven generative design disrupts traditional value chains“, https://www.accenture.com/ us-en/blogs/industry-digitization/how-ai-driven-generative-designdisrupts-traditional-value-chains (21.4.2022). 359 Autodesk: „Under Armour. Changing the game with generative design and additive manufacturing“, https://fom.autodesk.com/customerinnovation-spotlight/p/8 (21.4.2022).

Kapitel 3: Gestaltung mit und für intelligente Systeme

122

„Maintenance“ in „Predictive Maintenance“. Somit

lich wettbewerbsfähig sein möchte. Dann bietet sich

bekommen die Industriekunden der Maschinen-

intelligente Prozessoptimierung an.360 Hier können

bauer ein völlig neues Kund:innenerlebnis, denn

dann im Bereich der Gestaltung intelligente Gestal-

die Maschine geht nicht mehr kaputt und läuft

tungswerkzeuge Designprozesse automatisieren und

ununterbrochen weiter. Sie trägt also effektiver zur

so durch Effektivierung zur Wertschöpfung beitragen,

Wertschöpfung der Kund:innen bei, denn die stellen

etwa durch intelligente Werkzeuge wie Autodesks

selbst Produkte mit diesen Maschinen her. Wird die

Fusion 360 oder generative Systeme wie Spacema-

Reparatur vorhersagbar, dann fällt auch ihr Preis.

ker.361 Fokussiert man als Unternehmen stattdessen

Ingenieur:innen müssen nicht mehr sofort einsatz-

auf Innovation als treibende Kraft im Wettbewerb,

bereit gehalten werden im Falle einer ausgefallenen

dann bietet es sich an, intelligente Produkte zu ent-

Maschine. Gehen Maschinen nicht mehr unvorher-

wickeln. In diesem Fall muss die KI-Strategie sicher-

gesehen kaputt, wird also die Wartung der Maschi-

stellen, dass hochwertige Daten am besten exklusiv

nen preiswerter und es lohnt sich nicht mehr, teure

zur Verfügung stehen, und abgleichen, welcher Wett-

Reparaturservices anzubieten. Durch Predictive

bewerber möglicherweise mit disruptiven intelligen-

Maintenance verändert sich also letztlich auch das

ten Produkten in die eigene Branche einfällt. Zum

ganze Geschäftsmodell, denn nun ist es lukrativer

anderen sollte die KI-Strategie in Abstimmung mit

für die Maschinenbauer, ihre Maschinen zu vermie-

der übergeordneten Unternehmensstrategie klären,

ten und Predictive Maintenance als Service in das

welches datengetriebene Geschäftsmodell angestrebt

Abonnement einzupreisen. Im Nebeneffekt bleiben

wird.362 In der Designstrategie sollte vor allem die

wartungsbezogene vermietete Produkte länger in Ge-

Nutzer:innenseite und das ganzheitliche Erlebnis mit

brauch, was wiederum dem Umweltschutz dient.

der KI-Strategie zusammengehen. Ohne eine entsprechende Grundlage und ein Wissen darum, welche

Es wird deutlich, dass die Wirkungen, die in-

Bedürfnisse und Probleme potenzielle Nutzer:innen

telligente Werkzeuge und Produkte auf Nutzer:in-

haben und wie diese Bedürfnisse mit entsprechenden

nenerlebnisse und Geschäftsmodelle haben, auch

datengetriebenen Anwendungen befriedigt werden

unternehmens- und designstrategische Modifika-

können, ohne ein Wissen darum, welche Werte die

tionen nach sich ziehen müssen. Die übergeordnete

Marke oder das Unternehmen einheitlich kommuni-

Unternehmensstrategie muss sich mit einer neu zu

zieren wollen, ohne ein Verständnis darüber, welche

schaffenden KI-Strategie und einer überarbeiteten

Erlebnisse über welche Touchpoints hinweg durch

Designstrategie an einem gemeinsamen strategischen

intelligente Produkte auf welche Weise erzeugt

Horizont ausrichten. Das schließt sowohl die Wett-

werden sollen, ohne diese designstrategischen Über-

bewerber- als auch die Daten- und Nutzer:innenseite

legungen sollten keine Innovations- und Entwick-

ein. Aus unternehmensstrategischer Sicht ist es

lungsprozesse für intelligente Produkte angestoßen

wichtig zu entscheiden, ob man als Wettbewerber in

oder umgesetzt werden.363

einem Markt operiert, auf dem man vor allem preis360 Hartmann, Philipp/Liebl, Andreas/Waldmann, Alexander et al.: „Applying AI. The elements of a comprehensive AI strategy“, https://www.appliedai.de/hub/ elements-of-a-comprehensive-ai-strategy (21.4.2022). 361 Beide Beispiele werden in Kapitel 4 bzw. 5 vorgestellt. 362 Hartmann/Liebl/Waldmann et al.: Applying AI. 363 Auch hier bietet das interaktive Innovation Framework Floom im Kapitel 5 eine gute Grundlage, denn es bindet diese designstrategischen Überlegungen bereits von Grund auf in den Innovationsprozess ein.

Kapitel 3: Gestaltung mit und für intelligente Systeme

Letztlich ermöglichen intelligente digitale Produkte Personalisierung in einer noch nie dagewesenen Dimension. Diese Anpassung an Vorlieben und Wünsche der Nutzer:innen kann bei einem digitalen Geschäftsmodell einen hohen Grad an Differenzierung herstellen, bei sehr geringen Grenzkosten für einzelne neue Nutzer:innen. Allerdings müssen Unternehmen genau überlegen, wie das Nutzer:innenerlebnis auf ihr Markenkonto einzahlt. Das Risiko, dass über die neuen Möglichkeiten der IX die Differenzierungsvorsprünge der Marke hinterrücks wieder nivelliert werden, ist groß. Für eine gut ausbalancierte, strategisch sinnvolle IX werden deshalb zukünftig ausgereifte IX-Prozesse, -Methoden und -Expert:innen benötigt.

123

4. Anwendungsfälle intelligenter Systeme im Designprozess

Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess

4.1 Einleitung Als Zwischenschritt in die Praxis wird das folgende Kapitel anhand exemplarischer Fallstudien, sogenannter Case Studies, beleuchten, wie intelligente Systeme in angewandte Designlösungen integriert werden können. Die insgesamt sechs Case Studies aus den Bereichen Kommunikationsdesign, Modedesign, Interface-Design, Medienkunst, Architektur und Interaktionsdesign sollen vermitteln, wie intelligente Systeme konzeptionell gedacht und praktisch umgesetzt werden können. Die Cases wurden aufgrund ihrer hohen konzeptionellen, technologischen und designerischen Qualität ausgewählt. Sie zeigen, wie Designer:innen, Designmanager:innen und Informatiker:innen vorgegangen sind, um zu hochwertigen Ergebnissen zu kommen, was sie inspiriert hat und wie sie die intelligenten Systeme verwendet haben. Sie zeigen aber auch, wie Designer:innen im Team mit Informatiker:innen gearbeitet und welche Herausforderungen sich dabei gestellt haben. Die Cases reflektieren zudem Probleme und experimentelle Ideen, die zur Realisation der Cases beigetragen und teilweise auch zu unvorhergesehenen Ergebnissen geführt haben. Zur Sprache kommen aber auch gestalterische Werte und ethische Betrachtungen, die im Design mit künstlicher Intelligenz notwendig sind. In den Case Studies soll letztlich auch deutlich werden, warum Daten und deren Qualität wichtig sind und wie sie die intelligenten Systeme und ihre Formgebung beeinflussen. Um die Projekte detailliert aus der Designperspektive zu untersuchen, wurden mit allen Projektbeteiligten mündliche Gespräche geführt, in denen sie ihre Ideen, Konzepte und Designaufgaben darlegten. Diese Interviews flossen hauptsächlich in die Case Studies ein, die so einen tieferen Einblick in die Projekte ermöglichen sollen. Letztlich können sie so auch Leser:innen inspirieren, selbst mit intelligenten Systemen zu gestalten.

125

Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess

Abb. 4.1: Digitale Medien der DHL Group

Abb. 4.2: DHL Layout Creator

126

Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess

127

4.2 Kommunikationsdesign:

ziiert zu werden. Ein solches Design stört daher die

DHL Layout Creator von Strichpunkt

klare Unternehmenskommunikation eher, als dass es sie unterstützt.

Täglich entstehen bei Unternehmen wie DHL neben Designlösungen, die von professionellen Designer:in-

Die Stuttgarter Designagentur Strichpunkt er-

nen gestaltet werden, auch solche, die von ungeschul-

kannte für ihren Kunden DHL dieses Problem und

ten Mitarbeiter:innen angefertigt werden. Letztere

überlegte, wie ungeschulte Mitarbeiter:innen ge-

gestalten beispielsweise digitale Mitteilungen oder

stalten können, ohne dass sie ein umfangreiches

Plakate für interne Veranstaltungen. Über eine halbe

Regelwerk beherrschen. Mitarbeiter:innen sollten im

Million Mitarbeitende beschäftigt die DPDHL Group

Gestaltungsprozess unterstützt werden, ohne um-

und die wenigsten von ihnen sind professionelle

fassend und zeitaufwendig geschult zu werden. Im

Gestalter:innen. Von Designprofis gestaltete Design-

Falle seines Auftrags für die DHL Group sollte Strich-

arbeiten konkurrieren daher im Unternehmen mit

punkt ein umfassendes Corporate Design entwickeln,

solchen ungeschulter Mitarbeiter:innen und vermi-

welches weltweit einsetzbar ist und die visuelle

schen sich so zu einem Gesamtbild mit höchst unter-

Erscheinung des Unternehmens grundlegend verbes-

schiedlicher Qualität. Problematisch wird es, wenn

sert. Da DHL überdurchschnittlich groß ist, versuchte

die ungeschulten Mitarbeiter:innen nicht wissen,

Strichpunkt, neben dem klassischen Erscheinungsbild

dass es Regeln für die Unternehmensgestaltung gibt,

auch maschinell intelligente Methoden und Lösungen

oder nicht wissen, wie sie diese anwenden können.

zu finden, die den Mitarbeiter:innen in Designfragen assistieren können.

Um das Erscheinungsbild eines Unternehmens klar erkennbar zu halten, benötigen Unternehmen

Das Strichpunkt-Projektteam bekam den Titel Sim-

ein Regelwerk, das sogenannte Corporate Manual.

plification Team und bestand sowohl aus Kommuni-

Durch Designprofis wird in diesen Manuals präzise

kationsdesigner:innen als auch aus dem Informatiker

erklärt und visualisiert, welche Schrift beispielsweise

Andreas Stiegler. Er wurde beauftragt, die Kompe-

zu verwenden ist, welche Farben dem Unternehmen

tenzen der Designer:innen durch technologisches

zugeordnet sind oder wie eine Präsentation gestaltet

und konzeptionelles Fachwissen zu unterstützen. Das

wird, denn konsequente Gestaltung ist für Unterneh-

Simplification Team stellte nicht nur Gestaltungsre-

men, die im Markt erkennbar bleiben wollen, oberste

geln auf, wie sie in einem klassischen Corporate De-

Priorität. Was aber, wenn ein klassisches Corporate-

sign Manual dargelegt werden. Es überlegte auch, wie

Design-Handbuch vielen Mitarbeiter:innen nicht

intelligente Systeme bei den passenden Bild-, Farb-

bekannt ist? Was, wenn es zur Verfügung steht, aber

und Formkompositionen unterstützen und vermitteln

als Nachschlagewerk im Alltag zu kompliziert er-

können. Es sollte also die Frage beantwortet werden,

scheint? Was, wenn sich die Mitarbeiter:innen bisher

wie diese Regeln gegebenenfalls in einer anderen

mit Design nicht auseinandergesetzt haben? Oft

Form als in einem klassischen Manual vermittelt

führen diese Probleme dazu, dass Mitarbeiter:innen

und durch softwarebasierte Werkzeuge interpretiert

ohne ein Manual und damit ohne Regeln gestalten.

werden können. Die Antwort darauf war die hilfrei-

Das durch sie gefertigte Design droht damit, weder

che digitale Designassistenz, die man den DHL Layout

stringent zu sein noch mit dem Unternehmen asso-

Creator taufte.

Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess

128

Dieser Service ist als ein digitaler, browserbasierter Assistent weltweit online verfügbar. Er kann verschiedene Entwurfsschritte in einem Layout für unterschiedliche Medien der Unternehmenskommunikation automatisieren. In wenigen Entwurfsschritten können Texte und Bilder ausgewählt werden, die der Creator je nach individuellen Vorgaben zu Kompositionsvariationen verarbeitet. Diese werden dann in einem zweiten Schritt durch die DHL-Mitarbeiter:innen ausgewählt und durch das Tool zu einer hochwertigen Designlösung weiterverarbeitet. Diese finalen Entwürfe können dann geteilt, ausgedruckt

Abb. 4.3: DHL Layout Creator, Auswahl einer Medienart

oder für spätere Anpassungen archiviert werden. Die DHL-Mitarbeiter:innen können jederzeit in den Gestaltungsprozess eingreifen und Texte, Bilder und Kompositionen auf Basis der gelungensten Varianten anpassen. Bringen die DHL-Mitarbeiter:innen bereits Designkompetenzen mit, verbessern sie den Entwurf direkt aus ihrer Kompetenz, haben sie diese Kompetenz nicht, übernimmt der Layout Creator Entscheidungen nach seinem Regelwerk. Am Ende des assistierten Gestaltungsprozesses übernehmen die Mitarbeitenden die Rolle von Kurator:innen und wählen die finalen Ergebnisse aus. Für unerfahrene Mitarbeiter:innen, die mit Design bisher keine Erfahrung gemacht haben, entsteht so ein wertvoller

Abb. 4.4: DHL Layout Creator, Formatwahl der Werbeanzeige

Lernprozess für Designkompetenz. Um eine gute Interaktion zwischen DHL-Mitarbeiter:in und System zu ermöglichen, musste der Layout Creator so gestaltet werden, dass er leicht und intuitiv zu bedienen ist und den Designprozess in nachvollziehbaren Schritten begleitet. Zusätzlich musste das System jederzeit und in mehreren Sprachen verfügbar sein und den Mitarbeiter:innen Spaß machen. Letztlich sollte der DHL Layout Creator eine weltweit gleichbleibende, auf Corporate-Design-Regeln basierende Unternehmenskommunikation durch das gesamte Unternehmen hinweg ermöglichen und ge-

Abb. 4.5: DHL Layout Creator, Einfügen von Inhalt

Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess

129

währleisten. Er sollte damit täglich erstelltes Kommu-

daher geklärt werden, wie ein neuronales Netz-

nikationsdesign auf ein neues Qualitätslevel heben,

werk eine solche gestalterische Vorgabe bewertet

das positiv und professionell als Corporate Commu-

und lernt. Während der Entwicklung des Systems

nication wirkt.

wurden die Antworten so lange neu überprüft, bis ein Qualitätsstandard erreicht wurde, mit dem das

Um überhaupt Design automatisiert erstellen zu

Tool zum Beispiel eine Komposition aus Überschrift,

können, musste das Team um Stiegler die Corporate-

Bild und Text überzeugend darstellen konnte. Teil-

Design-Regeln für das intelligente System begreifbar

weise wurde dem Team auch klar, dass beispielsweise

machen. Dazu musste das gesamte Team eine neue

grundsätzliche Unterscheidungen in Formate wie

Perspektive einnehmen, denn normalerweise haben

etwa Jobanzeige oder Kampagne vom intelligenten

Designer:innen Gestaltungsregeln durch ihre Berufs-

System nicht berücksichtigt werden können. Diese

ausbildung und -erfahrung verinnerlicht und folgen

Entscheidungen wie auch die finale Bewertung des

diesen intuitiv. Die Gestaltungsregeln liegen also

Entwurfs blieben klar bei den DHL-Mitarbeiter:in-

weder explizit formuliert vor, noch können sie von

nen. Das Team legte so fest, in welchen Anteilen das

einem intelligenten System dann auch so verstanden

intelligente System hilfreich assistieren kann und in

und verwendet werden. Deshalb mussten die Desig-

welchen Anteilen die Mitarbeiter:innen mitwirken

ner:innen im Team Regeln für gute Gestaltung erar-

müssen. Insgesamt stellte das Team sicher, dass das

beiten. Stiegler half ihnen, diese Regeln klar, logisch,

intelligente System die gewünschte Designqualität

reduziert und präzise zu beschreiben. Dazu mussten

auch erzielen kann. Als alle relevanten Designre-

die Designer:innen Gestaltungsregeln und -metho-

geln übersetzt in klare Handlungsanweisungen für

den schrittweise formulieren und transkribieren. Sie

das intelligente System vorlagen, konnte Stiegler als

nutzten kleine Schaubilder, kurze Texte und Beschrei-

Informatiker das System trainieren.

bungen, um zu formulieren, wie Bild, Typografie und Inhalt in eine passende Komposition übersetzt

Den Kern des intelligenten Systems bildet ein

werden sollen. Das Team erfasste dabei Gestaltungs-

sogenanntes Reasoning System, das im Grunde ein

parameter der Corporate-Design-Regeln, wie etwa

neuronales Netzwerk ist. Das System kann beispiels-

Farb- und Flächenkomposition, in ihren Beziehungen

weise im Layout passende Bilder vorschlagen oder

zueinander. Es stellte sich beispielsweise die Frage,

unterschiedliche Layoutkompositionen vergleichen

welche formalen gestalterischen Bedingungen im

und kompositorischen Regeln folgend passende

Corporate Design gelten, um eine bestimmte Design-

Variationen ermitteln. Es ist damit in der Lage, ge-

qualität in einem bestimmten Medium zu erzeugen.

stalterische Lösungen zu finden, die wirklich zu den

Diese Fragen diskutierte das Team unter der ständi-

Corporate-Design-Vorgaben passen. Fabian Hammans,

gen Beratung von Stiegler und übersetzte Schritt für

Creative Director im Simplification Team, fasst zu-

Schritt Gestaltungsregeln in Softwareregeln.

sammen, dass der DHL Layout Creator grundlegend für die Auswahl der besten Ergebnisse verantwort-

Das intelligente System bekam Antworten auf die

lich ist, die DHL-Mitarbeiter:innen dagegen für

Fragen, wie beispielsweise ein Bild im Hochformat

die Botschaft und Auswahl der visuellen Kommuni-

neben einem linksbündigen Satz richtig angeordnet

kation.

werden kann. Es musste im Simplification Team

Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess

130

Auf Grundlage des Reasoning Systems entwickelte das Simplification Team automatisierbare Designfunktionen. Um sie zu realisieren, nutzte Stiegler unterschiedliche vortrainierte neuronale Netze. Eines der implementierten Netze ist auf Bilderkennung trainiert, um passende Bildmotive aus dem DHL-Archiv zu finden und im Layout anzubieten. Ein weiteres Netzwerk wurde auf Positionen im Format, die sogenannten Form- und Kompositionsvarianten, trainiert, um weitere unterschiedlichste Layoutkompositionen zu erzeugen. Abschließend prüft innerhalb des Reasoning Systems ein generatives bewertendes

Abb. 4.6: DHL Layout Creator, Bildintegration

Modul die Designentwürfe und vergibt Punkte an die passendsten Ergebnisse. Diese Ergebnisse, die dann die größtmögliche Deckung zu formalen Gestaltungsregeln des Corporate Designs aufweisen, werden in naheliegendsten Varianten durch den DHL Layout Creator empfohlen. Da das Reasoning System innerhalb einer Browserumgebung funktionieren muss, war ein Großteil der Arbeit Stieglers die Entwicklung der sogenannten Strichpunkt-Markup-Language, kurz SML. Die SML basiert auf JavaScript und stellt damit sicher, dass eine Vielzahl von Internetbrowsern das System interpretieren kann. Es erlaubt zudem, dass trainierte

Abb. 4.7: DHL Layout Creator, Fokussieren wichtiger Bilddetails

neuronale Netze eingebunden und schnell verarbeitet werden können. Die SML hat ermöglicht, dass das gesamte System aus neuronalen Netzen und dem generativ bewertenden Modul ohne Wartezeiten zwischen allen Schnittstellen läuft. Der DHL Layout Creator ist zudem Teil des in mehreren Sprachen zur Verfügung stehenden Onlineangebotes für Unternehmenskommunikation, des sogenannten DHL Brand Hubs. Im Brand Hub, einer Art digitaler Bibliothek, können Benutzer:innen auf vielfältige Medien zugreifen. Der Hub ist ein Medienarchiv und ermöglicht, dass alle im Hub abgelegten Medien, wie etwa Fotografien, dem DHL Layout

Abb. 4.8: DHL Layout Creator, Auswahl eines Vorschlages aus unterschiedlichen Gestaltungsvarianten

Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess

131

Verständnis ihrer Praxis und lernten Designprozesse auch als algorithmische Prozesse kennen. Den Designer:innen im Simplification Team wurde klar, welche Übersetzung sie auch zukünftig leisten müssen, damit die Zusammenarbeit mit Informatiker:innen zu optimalen Assistenzsystemen führt. Normalerweise sind Weiterbildungen und Workshops erforderlich, um ein solches Bewusstsein zu schaffen. Auch Stiegler als Informatiker formulierte, dass er erst während dieses Projektes erkannte, wie viele logische Prozesse Abb. 4.9: Startseite des DHL Brand Hub

in Gestaltung enthalten sind. Er erkannte, wie gut sich diese in automatisierte Schrittfolgen überführen lassen und wie wertvoll gutes Design für Unterneh-

Creator zur Verfügung stehen. Zudem lässt sich das

men und die Interaktion mit der Kundschaft ist. Aus

Archiv weltweit abrufen, ständig erweitern und

seiner Sicht ist es erstaunlich, was mit Design alles

aktualisieren.

möglich ist, welche weitreichende Wirkkraft es hat



und wie viel Spaß gute Gestaltung machen kann.

Auf die Frage, ob so ein Automat die Arbeit von

Mit dem Layout Creator hat DHL seine visuelle

Designer:innen gefährdet, bejaht Stiegler entschlos-

Identität und interne Designkompetenz erweitert.

sen. Er ist überzeugt, dass der Layout Creator den

Das System assistiert den einzelnen Mitarbeiter:in-

Designer:innen genau die Arbeit wegnimmt, die

nen, unterstützt sie in ihrer individuellen Kompetenz

ihnen nur bedingt Spaß macht, also Formadaptionen

und stellt eine grundlegende visuelle Qualität des

mit immer gleichen Elementen und Arbeitsschritten.

DHL-Designs sicher. Alle Mitarbeiter:innen können

Aus seiner Sicht ist das letztlich nicht das kreative

damit mit gutem Gewissen und ohne Barrieren, mit

Moment der Gestaltung. Stiegler betont, dass durch

Motivation und Freude zur visuellen Kommunikation

kluge Zusammenarbeit von Designer:innen mit

und dem Branding des Unternehmens beitragen. Da

intelligenten Systemen am Ende ein Freiraum für die

der Service auch bei vollem Einsatz keine Wartezei-

Designer:innen für die eigentlich kreativen Arbeiten

ten verursacht, gelingt eine gute Intelligence Expe-

entsteht.

rience. In der Anwendung des DHL Layout Creators steigt letztlich die gestalterische Gesamtkompetenz

In der Projektarbeit stellte sich heraus, dass der

der Mitarbeiter:innen, die ganz nebenbei lernen, gute

Umgang der Designer:innen mit statistischem Lernen

und passende Entwürfe einzuschätzen und auszu-

dazu führte, dass sie ihr gestalterisches Vokabular

wählen. Der DHL Layout Creator besitzt damit auch

erweiterten. Da sie Gestaltung für das intelligen-

die Fähigkeit, ein kollektives gestalterisches Bewusst-

te System aufbereiten, präzisieren und übersetzen

sein durch alle Unternehmenshierarchien hindurch

mussten, erweiterte sich auch ihr Blick auf die eigene

auszubilden. Damit kann eine kollektive Corporate

Gestaltungsarbeit. Sie entdeckten auf neue Art,

Behaviour entstehen, die alle Mitarbeiter:innen dazu

welche Gestaltungsprinzipien für Corporate Design

anleitet, gutes Design wertzuschätzen.

essenziell sind. Zudem entwickelten sie durch den Austausch mit der Informatik ein interdisziplinäres

Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess

Abb. 4.10: Neural Zoo: Entangled, Detail

132

Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess

133

4.3 Medienkunst:

und aufregend, werden nach einiger Zeit gewöhn-

Neural Zoo und Artificial Remnants von

lich und vergehen dann am Ende und machen neuen

Sofia Crespo

Formen Platz. Sie sind einem konstanten, sich immer bewegenden Kreislauf der Natur unterzogen. Crespo

Die Arbeiten der portugiesischen Künstlerin und

ist überzeugt, dass es in diesem Kreislauf immer ein

Designerin Sofia Crespo verbinden Grafikdesign und

gestalterisches Moment gibt, das man noch nie zuvor

Medienkunst mit darstellenden Künsten zu einer Art

erlebt hat, dem sie dann nachgeht und dem sie ihre

neuer, bewegter Fotografie. Ihre Arbeiten können

Aufmerksamkeit schenkt. Ihre Arbeiten erzeugen

fotografisch, filmisch oder skulptural sein. Sie werfen

damit Parallelen zur Natur, ohne sie direkt nachzuah-

beispielsweise Fragen auf, was Evolution ist und ob

men.

Menschen in diese eingreifen können oder sollen. Crespo kommt aus der Fotografie und verbindet in ihren Arbeiten ihr fotografisches Wissen mit dem Interesse für natürliche Umgebungen und organische Prozesse. Sie nutzt intelligente Systeme, um von der Natur inspirierte Formen zu generieren und so die analoge Fotografie zu erweitern. Sie erkannte, dass neuronale Netzwerke sich mit natürlichen Lernprozessen vergleichen lassen und quasinatürliche Gestaltungsprozesse ermöglichen. So konnte sie eine neue, experimentelle Bildsprache entwickeln, die die Grenzen dessen, was Fotografie ist, erweitert. Sie hat aber gleichzeitig auch einen Gestaltungsprozess entwickelt, der aus ihrer Sicht erfrischend ist und Freude bereitet. Aus Crespos Sicht war die Fotografie bisher nicht in der Lage, die abgelichtete Situation über die

Abb. 4.11: Neural Zoo: Synthetic Optimism Ecosystem, Detail

eigentliche Belichtung hinaus zu manipulieren, zu bearbeiten und weiterzuentwickeln. Sie hat des-

Dadurch entsteht bei den Betrachter:innen das Ge-

halb versucht, den evolutionären Schaffensprozess

fühl, dass sie dem Leben bei der Entstehung zusehen,

in das Medium Fotografie selbst zu übertragen und

ohne dass es echtes Leben ist. Diese falsche Mimi-

einen dynamischen Prozess zu entwickeln, der sich

kry, die als synthetisches Leben einen ganz eigenen

selbstständig erweitert. Sie nutzt dazu generative

Realismus entfaltet, ist zentral für Crespos Arbeit.

neuronale Netze und entwickelt mit ihnen eine Ge-

Sie schafft es, die Essenz des Lebens durch künstliche

staltungsmethode, die eine neue, unbekannte Arten-

neuronale Netze herauszuarbeiten und den Betrach-

und Formenvielfalt visualisiert. Diese Bildästhetik

ter:innen als quasinatürliches Artefakt vorzuführen.

beschreibt Crespo als Blick auf eine Natur, die sich

Dieser Widerspruch zwischen künstlichen Bildver-

ständig verändert. Erst sind die Formen ganz neu

fahren und natürlicher Darstellung ist als Moment

Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess

134

ihrer Gestaltung gleichzeitig auch der Grund für die

Alle Bilder wurden dann zu einem Trainingsdaten-

Faszination, die von den neuronalen Fotografien aus-

satz zusammengefügt, mit dem Crespo ihr neuronales

geht. In ihren Serien Neural Zoo und Artificial Rem-

Netzwerk trainierte. Betrachtet man Crespos Arbei-

nants erstellt sie in diesem Geiste Farb- und Formva-

ten, wird klar, welche grundlegend hohe fotografische

rianten in unterschiedlichen Medien, wie Fotografie,

Qualität die Ursprungsdaten haben mussten. Die

Animation und Skulptur.

Ergebnisse von Neural Zoo zeigen in ihrer hochaufgelösten Detailqualität, wie gut das von Crepso ge-

Alle Werke hat Crespo mit einem von ihr selbst

sammelte Trainingsmaterial für die neuronalen Netze

entwickelten intelligenten System erzeugt. Für das

zusammengestellt wurde und wie intensiv die Netze

Training benötigte sie detailliertes hochaufgelöstes

Bilddetails lernten.

Bildmaterial, das ihrem künstlerischen Bildkonzept und ihrem Qualitätsanspruch entsprach. Für die

Crespos intelligentes System funktioniert mit

Serie Neural Zoo wurden die Trainingsdaten aus

mehreren Convolutional Neural Networks, CNNs.364

Fotografien von Tieren, Pflanzen oder Lebensräumen

Die CNNs liefern neue Varianten der Bilder, mit

zusammengestellt. Zum einen fotografierte sie selbst

denen sie trainiert wurden; aus vielen Fotos von

etwa im Zoo und nutzte dafür teilweise auch Verfah-

Papageienflügeln wurden neue, noch nicht gesehene

ren wie die Mikroskopie. Zum anderen recherchierte

Flügel erzeugt. Diese neuen Varianten erweitern den

sie in öffentlichen Bilddatenbanken und nutzte offene

ursprünglichen Datensatz, den Crespo als Fotografien

Bildquellen.

bereitgestellt hat, hin zu neuen Formvariationen, die die künstliche mit der realen Welt verschmelzen lassen. Im Trainingsprozess des CNN entstehen also hybride Bilder, die nicht mehr mit den Originalbildern identisch sind. Crespo überprüft in ihrem Designprozess diese generativ entstandenen Variationen, indem sie während des Trainings zu verschiedenen Zeitpunkten die Trainingszwischenstände erkundet. Dafür exportiert sie die Bilder, die das CNN generiert hat, und selektiert sie anhand ihrer künstlerischen Kriterien. Sie steuert darin beispielsweise Bilddetails oder Kombinationen von Bildanteilen durch Filter wie etwa Vertrical Edge Detection oder Algorithmen wie k-Means und bestimmt so, welche Bildergebnisse durch das CNN weiter zu verfolgen sind. Im statistischen Lernen und den Berechnungen der neuronalen Netze spricht man in so einem Schritt auch von einer

Abb. 4.12: Optisches Mikroskop von Crespo zur Untersuchung von Details potenzieller Artefakte

Reduzierung der Dimensionalität der Ergebnisse,

364 In Kapitel 2.5 sind der Aufbau und die Funktionsweise dieser Netzwerke ausführlich erklärt.

Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess

Abb. 4.13: Neural Zoo: Free Will, Detail

135

Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess

136

einer sogenannten Dimensionality Reduction. Hier

Neben den zweidimensionalen Darstellungen in

nutzt man Algorithmen wie die sogenannte Feature

Bildern, den Animationen, entstehen bei Crespo

Extraction, mit der intelligente Systeme selbststän-

auch dreidimensionale Objekte in der Serie Artificial

dig im Unsupervised-Learning-Verfahren gewisse

Remnants.

Eigenschaften von Bildern erkennen. Das können beispielsweise alle Bilder sein, die einem Papagei

Um die kleinen Skulpturen zu erzeugen, musste

ähneln. Diese Bilder werden dann gesammelt und als

Crespo nach den Bildvariationen einen weiteren Ge-

Gruppe exportiert, um dann daran weiterzuarbeiten.

staltungsprozess anschließen, der nicht mit statis-

Mit dieser Methode, das intelligente System durch

tischem Lernen verbunden ist. Auf Basis der zwei-

Filter zu führen und zu überwachen, findet Crespo

dimensionalen Bildergebnisse aus den neuronalen

ihre gewünschten Bildergebnisse.

Netzen modellierte Crespo dreidimensionale

Abb. 4.14: Neural Zoo: Realisation, Detail

Abb. 4.15: 3D-Skulpturenarrangement der Artificial Remnants

In dieser Kollaboration zwischen Designer:in und

Skulpturen in einer 3D-Software, um sie im virtu-

System haben Designer:innen eine besondere Gestal-

ellen Raum zu nutzen oder mit einem 3D-Drucker

tungsfunktion. Sie steuern unfertige und dynamische

auszudrucken und im realen Raum auszustellen. Mit

Gestaltungsprozesse. Crespo hat früher als klassische

den Artificial Remnants erweitert Crespo also ihre

Fotografin nur das Bild gestaltet, heute gestaltet sie

Serie Neural Zoo in den dreidimensionalen Raum.

den Bildgebungsprozess des gesamten Systems. Erst

Als konzeptionellen Hintergrund nennt sie, dass in

ganz zum Schluss sucht sie die passenden Ergebnisse

der echten Natur nur dreidimensionale Objekte zu

als Kuratorin der Bildgenerierung aus.

finden sind. Auf diese Weise versucht die Designerin,

Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess

Abb. 4.16: Detail eines Objektes der Artificial Remnants in virtueller interaktiver Umgebung mit User Interface aus Zahlen, welche Anteile des Objektes interaktiv erkunden lassen

137

Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess

138

Abb. 4.17: Ausstellungsarrangement mehrerer Objekte der Artificial Remnants in realer und virtueller interaktiver Umgebung, Detail

noch einmal ihr Konzept eines synthetischen Lebens

telligenten Systems lassen sich dynamisch trainieren

zu verdeutlichen und den Betrachtenden näherzu-

und in neue Ergebnisse überführen. Alle Ergebnisse

bringen. In den Ausstellungen dieser Objekte baut

sind zu jeder Zeit modulierbar, bis die Gestalter:innen

sie szenografisch eine Brücke zwischen artifiziellen

entscheiden, dass der Prozess mit den intelligenten

Objekten und echten, berührbaren Objekten.

Systemen beendet ist und das gewünschte Ergebnis vorliegt.

Sofia Crespo erklärt, dass der Einsatz von statistischem Lernen in gestalterischen Prozessen unbedingt

Um einen solchen dynamischen Gestaltungspro-

und zuallererst ein nachvollziehbares Konzept er-

zess besser zu verstehen, kann man sich folgende

fordert. In dieses Konzept werden die gestalterischen

beiden Konzepte kontrastiv vorstellen. Im ersten Fall

Zwischenschritte der Formfindung dann integriert.

soll ein Frosch fotografiert werden, der vor einem

Ergebnisse sollten sich während der Berechnung, des

blauen Himmel springt. In so einem klassischen sta-

Trainings der generativen Netze, überwachen lassen.

tischen Prozess des Fotografierens stehen alle Bild-

Ohne ein vorbereitetes Konzept verlieren sich Gestal-

motive fest, aber auch die Kameraperspektive, die

ter:innen schnell in den vielfältigen Möglichkeiten

Bildeinstellung und Belichtungszeit. Im zweiten

und Funktionen intelligenter Systeme und gelangen

Fall soll der Frosch mit einem neuronalen Netzwerk

nicht zum gewünschten Ergebnis. Der klassische me-

generiert werden. Dazu müssen Trainingsbilder dem

dienbasierte Entwurfsprozess, den man zum Beispiel

Bildkonzept folgend zusammengestellt werden. In so

auch in der Fotografie oder im Grafikdesign findet,

einem neuronalen Prozess des Generierens stehen die

wird in ihrem Designprozess zu einem dynamischen

Kameraperspektive, die Bildeinstellung und Belich-

Prozess, denn alle Anteile können sich darin ver-

tungszeit nicht endgültig fest. Es entstehen immer

ändern. Nahezu alle gestalterischen Anteile eines in-

neue Kompositionen in einem dynamischen Design-

Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess

prozess. Designer:innen haben in einem dynamischen Gestaltungsprozess die Aufgabe, neuronale Netze zu steuern und die darin angebotenen Ergebnisse kuratorisch auszuwählen, ob sie relevant für ihr künstlerisches Konzept sind. Es stellen sich grundlegende Fragen, was zum Beispiel überhaupt ein ästhetisch ansprechender Frosch ist und wie dieser sich in einem dynamischen Prozess in einer Bildkomposition noch als ästhetisch ansprechender Frosch darstellt. Laut Crespo schult die Auseinandersetzung mit Fragen natürlicher Formgebung Designer:innen in der Fähigkeit, präzise semantische Klassifizierungen in ungewöhnlichen Bildkompositionen zu erkennen und zu bewerten. Mit dieser Fähigkeit können sie auch bei anderen Bildmotiven schneller erkennen, wie kraftvoll die visuelle Kommunikation ist. Um ihre Bildergebnisse zu steuern, nutzt Crespo von ihr zusammengestellte sogenannte Aesthetic Presets. Diese Aesthetic Presets legen zum Beispiel fest, dass nur diejenigen Abbildungen relevant sind, die einen blauen Himmel besitzen. Eine solche Gestaltung mit Aesthetic Presets verstärkt die kuratorische Fähigkeit noch einmal, besonders kraftvolle Kompositionen zu generieren. Letztlich werden durch intelligente Systeme konventionelle Designprozesse verändert. Sofia Crespo erklärt, dass Designer:innen im klassischen Designprozess bei jedem Schritt kontrollieren, was sie gestalten möchten. Intelligente Systeme nun verändern dies aus ihrer Sicht nachhaltig, da die Art und Weise, wie man als Gestalter:in vorgeht, durch die dynamischen Prozesse unvorhersehbarer und unkontrollierbarer geworden sind. Trotzdem betrachtet sie ihre neuen Gestaltungswerkzeuge als kreativ und den Gestaltungsprozess als inspirierend.

139

Kapitel 4. Anwendungsfälle intelligenter Systeme im Designprozess

Abb. 4.18: Visualisierung des latenten Datenraums

140

Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess

141

4.4 Interface-Design:

tensiven und aufwendigen Arbeitsschritten zwischen

Einstein Designer von Salesforce

den Verantwortlichen verbessert wird. In dieser Kette müssen sich Projektmanager:innen, Designer:innen

Der digitale Handel von Produkten und Dienstleis-

und Entwickler:innen häufig abstimmen, was wiede-

tungen hat sich in den letzten Jahrzehnten zu einem

rum erhebliche Ressourcen verschlingt. Insbesondere

schnell wachsenden Markt entwickelt. Kaum ein

für Gestalter:innen sind die Arbeitsschritte kräfte-

anderer Absatzweg nimmt in einer solchen Ge-

raubend und mühsam, denn das Redesign setzt sich

schwindigkeit in Volumen und Vielfältigkeit der dort

meistens aus kleinteiligen Designanpassungen aller

angebotenen Produkte und Services zu. Wie in jedem

Elemente im Screendesign zusammen. Hier konzen-

schnell wachsenden System drängen immer mehr

trieren sich die Designaufgaben vorwiegend darauf,

Anbieter in den digitalen Markt um ihre Produkte

Elemente des Screendesigns neu zu arrangieren,

weltweit anzubieten. Um Kaufentscheidungen zu

was oftmals wenig kreative Designarbeit erfordert.

unterstützen und die Kund:innenbindung zu stärken,

Selbst wenn Designer:innen dann das UI neu gestal-

arbeiten Unternehmen beständig daran, ihre User

tet haben, verändert es oft die Produktpräsentation

Journeys, User Interfaces (UI) und damit die gesamte

nur oberflächlich und nimmt keinen Bezug auf die

User Experience zu verbessern.

persönlichen Bedürfnisse der Käufer:innen. Wird das UI adäquat personalisiert, bietet das die Möglichkeit,

Salesforce ist ein Unternehmen, das sich auf An-

Werte und Bedürfnisse der Käufer:innen nachhaltig

wendungen spezialisiert hat, die Kund:innenbezie-

zu berücksichtigen. Solche oft auch veränderlichen

hungen in webbasierten digitalen Medien stärken.

Bedürfnisse berücksichtigt Salesforce mit seiner

Dabei sammelt Salesforce über seine Plattform

Plattform und einem intelligenten System, das das

Salesforce 360 365 im Auftrag seiner Businesskunden

Unternehmen Einstein Designer getauft hat. Für

Daten über das Surfverhalten ihrer Endverbrau-

Millionen von Kund:innen im E-Commerce erlaubt

cher:innen. Die gesammelten Daten lassen sich

es eine datenbasierte Prognose des Kund:innenver-

analysieren, statistisch auswerten und als grafische

haltens und personalisiert dann datenvalidiert die

Schaubilder visualisieren. Sie lassen sich so für Mar-

User Interfaces. Einstein Designer ist Teil des Sales-

keting, Vertrieb und Kundenservice auswerten und

force-eigenen Forschungsprojekts Deep Learning UX,

bieten die Grundlage für neue Strategien. Aufgrund

kurz DLUX. Ursprünglich wollte DLUX ein intelli-

der Datenlage ist somit nachvollziehbar, in welchen

gentes System entwickeln, das den elektronischen

Bereichen ein UI, verbessert werden kann. So lassen

Geschäftsverkehr nachhaltig optimieren kann. Die

sich Interfaces optimieren, individualisiert anpassen

ersten Recherchen ergaben allerdings, dass nicht der

und die gesamte User Experience lässt sich ver-

elektronische Geschäftsverkehr die meisten Ressour-

bessern. Beispielsweise kann das System erkennen,

cen verschlang und die höchsten Kosten verursachte,

dass zu viele Buttons, die auf einen Kauf hinweisen,

sondern der Bereich der Gestaltung, insbesondere

potenzielle Käufer:innen abschrecken. Ist ein UI

das UI. Sönke Rohde, verantwortlicher Designer und

zu kompliziert, sinkt seine Qualität und damit die

Projektmanager bei Salesforce DLUX, erklärt, dass

Kund:innenbindung. Klassischerweise werden UIs

Einstein Designer sich grundlegend um eine Unter-

optimiert, indem das Redesign im Regelfall in zeitin-

stützung der Gestaltung der UIs kümmern sollte.

365 Salesforce: „Customer 360“, https://www.salesforce.com/de/ products (21.4.2022).

Kapitel 4. Anwendungsfälle intelligenter Systeme im Designprozess

142

Das Team von Salesforce DLUX stellte sich zu

UI bildet also unter dem Strich automatisiert die Inte-

Beginn die Frage, ob es überhaupt möglich ist, ein

ressen der Nutzer:innen ab und eröffnet ihnen durch

intelligentes System wie Einstein Designer zu ent-

die Personalisierung ein neues Produkterlebnis. Da

wickeln, das sich explizit um die UI-Gestaltung

die Interfaces mit Daten personalisiert werden, die

kümmern kann. Auch wurde die Frage gestellt, ob

auch Änderungen im Verhalten der Kund:innen

ein intelligentes System trainierbar wäre und als

jederzeit nachvollziehen können, bleiben sie aktuell

webbasierter Service schnell genug arbeiten kann.

und relevant.

Das System sollte grundlegende Muster der Benutzer:innen aus ihrem digitalen Verhalten ableiten und das Design daran anpassen. Es sollte ein intelligentes System sein, das mit automatisierten Designvorschlägen die Kund:innenbindung glaubwürdig stärkt. Es stellte sich heraus, dass es möglich war, so ein System aufzubauen und zu betreiben. Einstein Designer ist tatsächlich in der Lage, zeitaufwendige und intuitive Anpassungen der UIs zu automatisieren, indem es Designvarianten erstellt, die genau auf die Bedürfnisse der Kund:innen angepasst sind. Wie sich herausstellt, sind auch die Daten von Salesforce 360 sehr gut geeignet, da sie das zielgruppenspezifische und individuelle Surfverhalten der Kund:innen erfassen. Sie werden mit Einstein Designer ausgewertet und in Gestaltungsvariablen der UIs übersetzt. Diese Variablen sind sozusagen

Abb. 4.19: 1-Klick-Personalisierung einer UI mit Einstein Designer, Detail

die grafischen Grundelemente des Screendesigns. Klickt eine Benutzerin beispielsweise mehrfach

Um personalisierte Entwürfe des Interface-Designs

auf eine Schaltfläche, die eine Produktfotografie im

zu erstellen, benötigt Einstein Designer Verfahren

UI vergrößert, bilden die Daten diese Information

des statistischen Lernens. DLUX nutzt dazu als

ab. Einstein Designer kann dann vorschlagen, wie

Basismodul, ähnlich wie Sofia Crespo, ein selbst

Designer:innen das Produktfoto skalieren oder die

erstelltes und trainiertes Convolutional Neural Net-

Schaltflächen repositionieren sollten, um Kund:innen

work. Das CNN lernte den Aufbau, die Elemente und

zu gefallen. Diese Änderungen werden nicht für alle

die spezifischen Gestaltungsvarianten einer Viel-

Kund:innen vorgenommen, sondern nur für solche,

zahl von Screendesigns. Als Trainingsdaten dienten

die eine größere Produktansicht favorisieren. Ein-

dem CNN Webseiten von etwa 1.000 erfolgreichen

stein Designer kann aber auch Produktbewertungen

Fortune-500-Firmen und Unicorn-Start-ups. Das

oder Preisangaben im Screendesign anpassen, indem

Salesforce-Team ging davon aus, dass die erfolgrei-

die entsprechenden grafischen Elemente so arrangiert

chen Firmen auch ein hochwertiges und erfolgreiches

werden, dass beides prominenter zu sehen ist. Das

Webdesign haben. Die Screendesigns der Websei-

Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess

Abb. 4.20: Farbspektrum als Datenvisualisierung aus der Analyse hunderter gestalteter Internetseiten

143

Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess

Abb. 4.21: Visualisierung typografischer Beziehungen ausgewählter Internetauftritte

144

Oben Abb. 4.22: Visualisierung typografischer Beziehungen Unten Abb. 4.23: Darstellung der Farbanteile einer Internetseite

ten wurden nach Parametern wie Farbe, Typografie

Werkzeugen, um die versteckten gestalterischen Be-

und Komposition analysiert und auf Ähnlichkeiten

ziehungen der Webseiten zugänglich zu machen. Mit

und Unterschiede hin klassifiziert. Damit entstand

seinen sogenannten Slice-Visualisierungen konnte

nichts Geringeres als eine Bauanleitung für ge-

gezeigt werden, wie die Webseiten Farben einsetzten.

lungenes Webdesign. Allerdings war es schwierig,

Dabei zeigte sich, dass nicht nur die Farbpalette rele-

die Beziehungen der Gestaltungselemente, die das

vant war, sondern auch wie viel Raum die Farben auf

CNN gelernt hatte, auch transparent nachzuvoll-

der Website einnahmen und in welchem Verhältnis

ziehen. Hier kam Moritz Stefaner

als Experte für

sie zueinander angeordnet und gewichtet waren. Zu-

Datenvisualisierung ins Spiel. Stefaner visualisierte

sätzlich entwickelte Stefaner ein Visualisierungstool,

gestalterische Parameter wie Farbwahl, Typografie,

dass es Designer:innen erlaubt, mit einer gewählten

Bilder und Komposition, indem er Bildwolken er-

Grundfarbe stimmige Farbkombinationen zu erkun-

schuf, die ähnliche Elemente visuell nah beieinander

den. Damit konnte das Team um Rohde wiederum

gruppierten. Man konnte nun die Gestaltungsregeln

bisher unbekannte Zusammenhänge entdecken und

der Webseiten transparent nachvollziehen und sehen,

Gestaltungsregeln für erfolgreiches Screendesign

wie sie bestimmte Elemente in unterschiedlichen

erkunden. Zusammenhänge wie Schriftgröße und

Größen positionieren und welche formalen Bezie-

Abbildungsgröße wurden als abgebildete Beziehun-

hungen diese bildlichen und typografischen Elemente

gen der einzelnen Datensätze lesbar und verständlich

zueinander haben. Stefaner nutzte eine Reihe von

illustriert. Durch die Visualisierungen entstand ein

366

366 Stefaner, Moritz: „Deep Learning UX“, https://truth-and-beauty.net/ projects/sf-dlux (21.4.2022).

Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess

145

Abb. 4.24: Statistik verwendeter Schriftgrößen

Abb. 4.25: Clustering der Ähnlichkeiten in der Gestaltung analysierter UIs

Informationsdesign, das als Grundlage diente, um mit

schaften der Zeichen auch die inhaltliche Bedeutung

den DLUX-Softwareentwickler:innen solche Para-

dieser Zeichen. Das System war nach dem Training

meter zu finden, die einem intelligenten System im

in der Lage, anhand der Größe und Farbe des But-

Supervised-Learning-Verfahren beigebracht werden

tons zu bestimmen, ob er mit einem Kaufabschluss

konnten. Ziel war es, ein System zu erschaffen, dass

verbunden ist. Es konnte zudem prognostizieren,

nicht nur das bekannte Webdesign generieren, son-

welche Stelle im Screendesign die beste ist für diesen

dern auch den gesamten Möglichkeitsraum abbilden

Button. Das intelligente System hatte also gelernt,

und damit neue Screendesigns erschaffen kann.

wie erfolgreiches Webdesign funktioniert und wie

Die neuronalen Netze analysierten nicht nur visu-

man die Elemente in den Interfaces arrangieren muss,

elle Gestaltungsparameter, sondern zusätzlich auch

um erfolgreiches Webdesign zu erschaffen.

sogenannte semantische Informationen des Screendesigns. Dies ist beispielsweise bei einem Button

DLUX führte dann die neuronalen Netze in ihrem

relevant. Das System erkennt nicht nur, dass es sich

System Einstein Designer zusammen. Das intelli-

um ein farbiges Rechteck handelt, sondern um einen

gente System war damit in der Lage, verbesserte

Knopf, der mit einer bestimmten Aktion verknüpft

Neukompositionen von Interfaces vorzuschlagen.

ist. Im Fall eines Buttons kann dies etwa ein Kauf-

Es konnte unzählige Designvariationen errechnen

abschluss oder ein Newsletter-Abonnement sein. Das

und als mehrdimensionalen Möglichkeitsraum den

neuronale Netz lernt also neben den visuellen Eigen-

Designer:innen ausgeben. Stellt man sich diese

Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess

146

Designvariationen als Schwarm von vielen einzel-

und hilft Designer:innen der Salesforce-Unterneh-

nen Punkten vor, in dem jeder Punkt eine mögliche

menskunden, bessere Gestaltungsentscheidungen zu

Kombination der Designelemente mit beispielsweise

treffen. Alle von Einstein Designer bereitgestellten

einem Button repräsentiert, dann wird klar, wie

Designanpassungen lassen sich in der Bearbeitung

hilfreich dieser Möglichkeitsraum ist. So kann das

live testen. Mögliche Varianten können, als Vorschau

System beispielsweise mögliche Button-Designs so

simuliert, damit vorab überprüft werden. Damit kann

im Schwarm anordnen, dass die häufig angeklickten

auch die Designkompetenz der Nutzer:innen des Sys-

Schaltflächen gruppiert sind. Ein anderer Schwarm

tems einfließen und damit die Kompetenzen, die in

wiederum zeigt nur kompositorische Ähnlichkeiten.

den vielen Unternehmen, die Salesforce als Kunden

Eine dritte Datengruppe kann dann die Schnittmenge

hat, bereits existieren. Alle Vorschläge von Einstein

aus dem ersten und zweiten Schwarm zeigen und

Designer lassen sich entweder durch einzelne Desig-

den Designer:innen so erlauben, die beste Position

ner:innen überprüfen oder auch in größeren Teams

für häufig geklickte Buttons in der Gesamtkomposi-

diskutieren.

tion zu erkunden. Einstein Designer ermöglicht es nachzuvollziehen, wie ein Button positioniert und

Es wird deutlich, dass ein System wie Einstein De-

skaliert werden muss, damit er besser funktioniert.

signer den gesamten Arbeitsablauf für das Screende-

Die Ergebnisse können dann noch mittels linearer

sign beschleunigt. Die Mitarbeiter:innen der Unter-

Regression verfeinert werden. Das Verfahren wählt

nehmen können auf Grundlage strategischer Ziele des

aus der Menge an Designvarianten diejenigen aus, die

Unternehmens Designvorschläge überprüfen, über-

in einem linearen Zusammenhang stehen. Stellt man

arbeiten und einbinden. Auch für Mitarbeiter:innen,

sich den Möglichkeitsraum als zweidimensionalen

die keine umfassenden Designkompetenzen haben,

Schwarm von einzelnen Punkten vor, dann sucht die

eignet sich dieses System. Die ursprüngliche Vermu-

lineare Regression nur diejenigen Designvarianten

tung, dass Anwender:innen mit einem intelligenten

aus, die auf einer Gerade liegen. In der praktischen

Modul wie Einstein Designer überfordert wären, hat

Anwendung könnte das bedeuten, dass beispielsweise

sich laut Salesforce nicht bestätigt. Anwender:innen

nur solche Designvarianten ausgewählt werden, in

waren sehr interessiert an einem intelligenten System

denen Produktfotos besonders groß dargestellt wer-

und wollten mithilfe von Einstein Designer heraus-

den. Mittels linearer Regression werden also gezielt

finden, welche personalisierten Designvarianten am

bestimmte gestalterische Merkmale fokussiert und

besten mit ihrer Zielgruppe funktionieren. Sie hatten

andere damit aussortiert.

großes Interesse auszuprobieren, welchen positiven wie negativen Einfluss Designanpassungen auf Nut-

Am Ende des Eingrenzungsprozesses wählen

zer:innen haben können.

Designer:innen dann die relevanteste Designvariante aus. Der Vorschlag wird durch das System dann

Laut Salesforce DLUX steigt schon durch kleintei-

automatisch in das zu verbessernde Screendesign

lige Veränderungen im Design die Wirksamkeit eines

integriert. Sönke Rohde versteht Einstein Designer

UI enorm. Beispielsweise kann ein Button schon

als intelligente Datenlinse, die genau erkennt, welche

personalisiert werden, indem seine Ecken abgerundet

Anpassungen im Design zu beachten sind. Diese

werden und seine Farbe verändert wird. Im handge-

Datenlinse, die optimierbare Designelemente hervor-

machten Designprozess werden diese kleinen Details

hebt und passende Varianten vorschlägt, unterstützt

oftmals nicht beachtet, da sie aus Sicht von Desig-

Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess

ner:innen als formale Details keine relevante kreative Entscheidung benötigen. Aus Sicht von Salesforce sind solche Details jedoch wichtige Bestandteile eines personalisierten Designs. Im Unterschied zu Designer:innen kann ein System wie Einstein Designer auch wenig kreative, aber relevante Änderungen erkennen und vorschlagen. An dieser Stelle wird deutlich, was die Vorzüge eines intelligenten Assistenzsystems für Design im Kern sind. Das System ersetzt designerische Intuition durch statistisch quantifizierbare Daten und schafft so relevante Designlösungen, die Designer:innen – zumindest in Bereichen, die nur minimale Anpassungen betreffen – nicht in diesem Umfang und dieser Präzision leisten könnten. Sönke Rohde fiel im Laufe der Entwicklung von Einstein Designer sogar auf, dass die gestalterische Intuition und Expertise auch ganz an den Bedürfnissen der Nutzer:innen vorbeigehen können. Während des Trainings der neuronalen Netze stellt Rohde erstaunt fest, dass Nutzer:innen statistisch betrachtet komplett andere Schriftgrößen im UI bevorzugen, als es die Designer:innen unter Beachtung typografischer Grundregeln im Screendesign umgesetzt hatten. Damit ist infrage gestellt, ob klassische Regeln für gute Typografie Interfaces in digitalen Medien wirklich verbessern können. Ein Grund könnte sein, dass Nutzer:innen viel zu unterschiedliche Präferenzen haben, als dass sie durch ein starres Set an Regeln abgebildet werden können. Einstein Designer ermöglicht es nun, für einzelne Nutzer:innen personalisiertes Design anzubieten, das gleichzeitig immer die geschmacklichen Vorlieben der Nutzer:innen trifft und damit eine bessere Intelligence Experience erlaubt.

147

Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess

Abb. 4.26: Aktiver Pangolin Dress, Detail

148

Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess

149

4.5 Modedesign:

werden 32 integrierte Servomotoren genutzt, die be-

Pangolin Dress von Anouk Wipprecht

wegbare Teile des Kleids steuern. Hinzu kommen 32 Neopixel-LED-Lichtelemente, mit denen die Gehirn-

Längst ist Kleidung nicht mehr nur sachliches Be-

aktivitäten zusätzlich in Lichtsignale verwandelt wer-

dürfnis, den eigenen Körper vor Umwelteinflüssen

den. Alle Teile des Pangolin Dress wurden in einem

zu schützen. Mode soll in modernen Gesellschaften

selektiven Laser-Sintering-Verfahren hergestellt. Dies

genauso die eigene Identität und spezifische Grup-

ist eine Art Druckverfahren für dreidimensionale Ob-

penzugehörigkeit vermitteln. Längst hat sich eine

jekte, bei dem ein Laser Schicht für Schicht Formen

hochmoderne Industrie um dieses Bedürfnis ge-

aus einem sandartigen Material härtet und ausschnei-

bildet, die gemäß den Regeln der Maximierung des

det. Konzeptuell möchte Wipprecht mit dem Pangolin

eigenen Gewinns in schnellen Zyklen immer neue

Dress eine Symbiose aus Mode, visueller Choreografie

Angebote für einen gesättigten Markt erschafft. Die

und Persönlichkeit der Trägerin schaffen. Der Dress

niederländische Fashion-Tech-Designerin Anouk

soll die Persönlichkeit und Stimmung der Trägerin

Wipprecht möchte dieser Massenmode eine Mode

aufnehmen, indem statistische Lernverfahren deren

entgegensetzen, die den individuellen Körper ihrer

emotionale Muster lernen.

Trägerinnen wahrnehmen und erkennen kann. Mode soll in Wipprechts Sicht mit den Trägerinnen inter-

Im klassischen Modedesign sind Entwurfsme-

agieren. Sie verbindet in ihren Arbeiten Modedesign,

thoden wie Handzeichnungen, Schnittmuster und

Produktdesign, Kommunikationsdesign, Animations-

Formanpassungen an einer Modepuppe notwendig.

gestaltung und Engineering.

Bei Wipprecht erweitert sich dieser klassische Modedesign-Prozess. Sie bezieht intelligente Technologie

Schon während ihres Modedesign-Studiums

und technisch hergestellte Bauteile genauso in den

interessierte sich Wipprecht für den Bereich der

Prozess ein wie Lichtanimationen und kinetische

Robotik. An der Schnittstelle von Technologie und

Elemente. Aus ihrer Sicht hängen alle klassischen

Modedesign experimentierte sie mit Prototypen, die

und neuen Bestandteile im Designprozess wesentlich

Technologie als Material benutzen und die Persön-

zusammen. Die Programmierung der Software gehört

lichkeit der Tragenden in das Design integrieren.

für sie genauso zum Gestaltungsprozess wie desig-

Wipprecht wollte eine Mode schaffen, die Menschen

nerische Änderungen in der Formgebung. Beispiels-

mit ihrer Identität verbindet, ihnen zuhört und hilft,

weise werden die Bewegungen des Exoskeletts durch

sich individuell auszudrücken. Der Pangolin Dress

einen Servomotor gesteuert. Tauscht man diesen Mo-

ist ein solches Kleid, das die Fähigkeit besitzt, eine

tor aus, etwa weil ein leichteres Modell verfügbar ist,

emphatische Stimmung oder einen emotionalen Zu-

dann ändert sich das gesamte Design des Entwurfs.

stand der Trägerin durch ein intelligentes System zu

Durch die technologisch bedingte Veränderung müs-

verarbeiten.

sen dann Hardware, Software und Design im Sinne des Designkonzepts angepasst werden. Auch andere

Das intelligente System im Kleid verarbeitet elek-

Elemente wie Kabel, Halbleiter, Chips oder LEDs be-

trische Gehirnaktivitäten der Trägerin und steuert

einflussen so die Formgebung grundlegend. Schwe-

dadurch ein dreidimensionales Exoskelett, das so den

re Bauteile müssen körpernah angebracht werden,

Körper der Trägerin künstlich erweitern soll. Dazu

leichte Bauteile können flexibler genutzt werden. Für

Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess

150

Wipprecht ist die Flexibilität der Kabel und Gelenke

liegen sie als Bildinformationen vor und können

genauso wichtig wie die Flexibilität der benutzten

durch intelligente Bilderkennungsalgorithmen ana-

Textilien. Auch die Animationen der LEDs gehören

lysiert und ausgewertet werden. Bei einem Erwach-

für die Designerin zum Gestaltungsprozess dazu.

senen in Ruhezustand stellt sich die Gehirnaktivität

In diesen Animationen legt sie fest, wie die LEDs

als regelmäßig wiederkehrende, weich oszillierende

leuchten müssen, wenn die Trägerin eine bestimmte

Welle dar. Man nennt diese Welle auch Alphawelle.

Stimmung hat.

Ist die Person aufgeregt, zeigt das EEG eine schnelle, unregelmäßige Alphawelle. Durch eine Vielzahl von

Um die Wirkungsweise des Pangolin Dress zu ver-

Elektroden kann eine hochaufgelöste detailgenaue

stehen, beginnt man am besten mit dem Brain-Com-

Alphawelle visualisiert werden, was wiederum dem

puter Interface, dem BCI. Über diese Schnittstelle

Bilderkennungsalgorithmus hilft, die Wellenmus-

messen insgesamt 1.024 Elektroden feinste neuronale

ter besser zu identifizieren. So kann das Netz auch

Aktivitäten als elektrische Signale und leiten sie dann

geringe Stimmungsschwankungen in den kaum

an einen sogenannten Analog-to-digital-Konverter

veränderten Alphawellen erkennen. Um die Wellen-

oder AD-Konverter weiter. Durch den Konverter

darstellungen zu klassifizieren, nutzte Wipprecht ein

werden die elektrischen Signale, die das BCI analog

neuronales Netz. In Kooperation mit der Johannes

erfasst, in digitale Daten umgewandelt.

Kepler Universität Linz und der g.tec medical engineering Gmbh, einem Unternehmen aus der Medizintechnologie, gelang es ihr, dieses Netz zu trainieren. In einem weiteren Schritt wurden die erkannten Muster mit bestimmten gestalterischen Zuständen des Kleides verknüpft. Für bestimmte Stimmungsmuster ändert der Dress mechanische und optische Eigenschaften und visualisiert so in seinem Verhalten, seiner Form und Farbe die emotionale Stimmung der Trägerin. Um ein professionelles intelligentes System zu erstellen, mussten die Spezialist:innen von g.tec eine eigene neuronale Architektur aufbauen, die unterschiedliche Funktionen des Pangolin Dress steuert. Ein wichtiger Baustein war ein intelligentes Preprocessing-Verfahren, das eingehende Daten in relevante und irrelevante Daten vorsortiert. Dadurch

Abb. 4.27: Anbringen der Elektroden an der Kopfhaut

konnte die Komplexität des in Echtzeit eingehenden Datenstroms reduziert werden. Springt die Trägerin

Die konvertierten Daten werden dann mittels Elek-

des Kleids beispielsweise über drei Treppenstufen,

troenzephalografie, kurz EEG, in grafische Daten

misst der Dress zwar eine hohe Gehirnaktivität und

übersetzt und so in Wellenform visualisiert. Damit

damit eine starke EEG-Welle. Allerdings entschied

Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess

Abb. 4.28: Gehirn-Computer-Schnittstelle mit Anschlüssen zum EEG und zu den Hardwaremodulen für das Training des intelligenten Systems

151

Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess

152

Wipprecht konzeptionell, dass eine solche Bewe-

die Trägerinnen von einem spürbaren Tragegefühl; sie

gung keine relevante Reaktion des Kleids auslösen

hatten das Gefühl, einen erweiterten Körper zu ha-

soll. Im Preprocessing-Schritt wird für eine solche

ben. Durch die Interaktion von Trägerin und Interface

Datensituation ausgeschlossen, dass das System die

konnte der Dress beides verbinden und so ein neues

Daten weiterverarbeitet. Im zweiten Schritt führen

Gefühl in der Umwelt erzeugen. Wipprecht beschreibt

Klassifizierungsalgorithmen eine Datenanalyse durch,

dieses Phänomen als etwas, was sich wie Superkräfte

indem sie die Daten nach ähnlichen Strukturen oder

für die Trägerin anfühlt. Da diese Interaktion nonver-

Mustern sortieren. Die sogenannte Feature Extrac-

bal ist, könnte man sie auch als synthetische Körper-

tion sorgt dafür, dass nur solche Daten ausgegeben

sprache beschreiben.

werden, die besondere Features besitzen. Ein Feature kann beispielsweise eine fröhliche Stimmung der Trägerin und die dazugehörige EEG-Wellenform sein. Das Basistraining der neuronalen Netze wurde mit vielen Tausenden Daten unterschiedlicher Gehirnaktivitäten aus den Archiven von g.tec ermöglicht. Als das Team die ersten Tests an Trägerinnen durchführte, entsprach das Ergebnis noch nicht Wipprechts konzeptionellen Vorgaben. Ihr Konzept sah vor, dass intelligente Mode den individuellen Körper der Trägerin so genau wie möglich wahrnehmen und interpretieren kann. Oft waren die Stimmungen der Trägerinnen noch nicht genau genug klassifiziert worden und der Dress wirkte unglaubwürdig. Damit das intelligente System des Pangolin Dress präzise erkennen konnte, welche Stimmung seine Trägerinnen hatten, musste es auf die jeweilige Trägerin individuell kalibriert werden. Die Trägerinnen waren in ihren

Abb. 4.29: Kalibrierung des intelligenten Systems

Alphawellen zu unterschiedlich, um trotz des Basistrainings gut genug erkannt zu werden. Nur mit einer

Ein Modedesign, wie Wipprecht es erzeugt, beein-

zusätzlich durchgeführten Kalibrierung der neuro-

flusst die soziale Kommunikation der Träger:innen

nalen Netze war es dem Team möglich, den Pangolin

mit ihrer Umgebung in ungewohnter Art und Weise.

Dress auf eine Trägerin zu personalisieren und damit

Aufgeregtes Zittern und rot leuchtende LEDs signa-

zufriedenstellende Ergebnisse zu erzielen. Für die

lisieren den Betrachtenden unmittelbare Gefahr, ein

Kalibrierung wurden die Trägerinnen angewiesen,

Gefühl, das normalerweise nicht häufig mit Mode

sich in einzelne Stimmungen zu versetzen. In einem

in Verbindung gebracht wird. Natürlich ist soziale

zweiten Schritt konnten die unterschiedlichen Stim-

Kommunikation auch kulturabhängig und der Dress

mungen den individuellen EEG-Signalen in weniger

wird sicher in anderen Kulturkreisen als dem west-

als fünf Minuten Trainingszeit zugeordnet werden.

europäischen anders gesehen. Intelligente Systeme

Nach der Kalibrierung des Pangolin Dress sprachen

erlauben nicht nur, Stimmungen zu kalibrieren,

Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess

153

sondern gegebenenfalls auch die Animationen des

möglichkeiten für die Mode. Sie erzeugen eine Mode,

Kleides in seiner kulturellen Wirkung anzupassen.

die eine persönliche Angelegenheit, eine erweiterte

Denkt man abschließend darüber nach, dass sich sta-

Körpersprache ist.

tistisches Lernen in leichte und portable Materialien integrieren lässt, eröffnen sich vielfältige Gestaltungs-

Abb. 4.30: Finales, trainiertes intelligentes und im Pangolin Dress integriertes System, getragen von einem Model, Detail

Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess

154

4.6 Architectural Design:

nicht hell genug sind, dies aber mit hohen Kosten ver-

Spacemaker von Autodesk

bunden ist, wird dies gegebenenfalls durch die Bauherrin abgelehnt. In einer solchen Situation können

In der Architektur durchläuft der gestalterische Ent-

die Architekt:innen möglicherweise nicht beweisen,

wurf in der Planungsphase bis zum finalen Bauauf-

dass die Sonneneinstrahlung nicht ausreicht, und eine

trag eine Reihe komplexer gestalterischer und design-

notwendige Neuplanung für bessere Lichtverhältnis-

strategischer Schritte. Die Planung beginnt mit einer

se ist damit schwierig. Auch bei der Lärmbelästigung

Ausschreibung oder einem Auftrag, gefolgt von einer

muss gestalterische Intuition nachweisbar sein, etwa

Ideenfindungsphase. Während die gestalterische Idee

bei geplanten Fassadendetails, die Lärm reduzieren

ausformuliert wird, werden für die Prototypen Bau-

können. Können Architekt:innen ihre Intuition nicht

kosten berechnet sowie Konstruktionen, Materialien,

belegen, werden die Mehrkosten oft nicht freigege-

Oberflächen und Baukörper überprüft. Hinzu kommt

ben. Solche Probleme des Entwurfs zu erkennen und

eine Reihe anderer Faktoren, die es zu beachten gilt,

dem Projektteam direkt mit möglichen Lösungen

wie etwa städtische Rahmenbedingungen, vorhan-

vorzustellen ist jedoch für gutes Bauen grundlegend

dene Infrastruktur oder Flussläufe, Zufahrtswege

notwendig.

und Verkehrsaufkommen, die den Planungs- und Bauprozess enorm komplex machen. Will die Archi-

Spacemaker ist eine Software, die vor Kurzem von

tektur zudem noch sozial sein und gesellschaftliche

der Firma Autodesk aufgekauft wurde und Archi-

Werte verwirklichen oder umweltfreundlich sein und

tekt:innen bereits in frühen Planungsphasen assis-

beispielsweise die natürliche Sonneneinstrahlung

tiert. Spacemaker kann unterschiedliche Rahmenbe-

nutzen, wird der Planungsprozess sogar noch kom-

dingungen mittels statistischen Lernens quantitativ

plizierter. Architekt:innen, die alle Bedingungen im

validieren und so gut fundiert berücksichtigen. So

Entwurf mitdenken wollen, sind schnell überfordert.

lassen sich Parameter für Planungsentscheidungen

Eine umfassende Analyse der unzähligen Rahmenbe-

direkt in der Software überprüfen und in anstehende

dingungen eines Baus ist kostenintensiv, kompliziert

Entscheidungen einbinden. Die intelligente Software

und kräftezehrend. Entwerfende Architekt:innen

berücksichtigt die Zusammenarbeit von Projektmana-

werden daher in Projekten oft mit dem Umstand

ger:innen, Architekt:in und Bauherr:innen. Das Ent-

konfrontiert, dass ihre kreativen Ideen durch feh-

wicklungsteam beschreibt Spacemaker als Designtool

lende Budgets, fehlende Zeit oder Ressourcen nicht

für alle an architektonischen Entwurfs- und Pla-

konsequent diskutiert, geprüft und validiert werden.

nungsprozessen beteiligten Personen. Es wird nicht

Für eine Projektfreigabe ist es darüber hinaus not-

als spezialisiertes Designtool nur für Designer:innen

wendig, dass Bauherr:innen den Architekt:innen und

verstanden. Präsentationen und visuelle Darstellun-

ihren Berechnungen vertrauen. Fehlt jedoch die Zeit,

gen können direkt und ohne kompliziertes Interface

dieses Vertrauen im Team aufzubauen oder Vorschlä-

im Team dargestellt und diskutiert werden.

ge durch komplizierte externe Gutachten zu belegen, können Entwürfe schnell verworfen werden. Erkennt

Spacemaker bietet im Kern seines intelligenten Sys-

ein Architekt beispielsweise aus Erfahrung, dass ein

tems unterschiedliche Analysemodule, die in Echtzeit

entworfenes Gebäudeensemble neu zu planen ist,

Rahmenbedingungen für den Entwurf überprüfen.

weil die Innenhöfe für die vorgesehene Begrünung

Diese Module sind also Prüf- und Planungshilfen der

Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess

155 Mikroklimaanalyse

Tageslichtanalyse (Ablenkungswinkel) Umgebungsanalyse

Blick-, Sichtanalyse

Tageslichtanalyse (vertikal)

Geräuschanalyse

Windanalyse

Sonnenanalyse

Gebäudeanalyse Abb. 4.31: Kollektion der Analysemodule von Spacemaker

Architekt:innen und umfassen Bereiche wie Tages-

den Macher:innen von Spacemaker, jedes noch so

lichtanalysen, Mikroklimaanalysen, Umgebungsana-

kleine Detail des Designprozesses zu verstehen und

lysen, Windanalysen oder Geräuschanalysen. Ar-

in der Software zu berücksichtigen. Hatte man erst

chitekt:innen können die Module entweder für ein

einmal den gesamten Entwurfsprozess mit seinen

Architekturdetail oder für ein gesamtes Gebäudeen-

Entwurfsschritten als Daten erhoben, konnten alle

semble anwenden. Sie können beispielsweise Wetter-

Rahmenbedingungen, wie etwa Topografie, natür-

daten im Windanalysemodul nutzen, um die Intuition

liche Einflüsse oder das urbane Umfeld, übersichtlich

zu überprüfen, ob ein bestimmtes Gebäudeareal zu

abgebildet werden. Auf dieser Grundlage konnte ein

wenig belüftet wird.

umfassendes Verständnis von Architekturplanung erarbeitet werden, das dann einem intelligenten System

Carl Christensen, Mitgründer und CTO von Space-

beigebracht wurde. Das Spacemaker-Team diskutierte

maker, weist darauf hin, dass die oft unsichtbaren Be-

zunächst, welchen Planungsprozessen überhaupt mit

dingungen der Architektur, wie etwa Belüftung oder

einem intelligenten System assistiert werden konnten

Tageslichteinstrahlung, selbige grundlegend verän-

und für welche Prozesse Daten vorhanden waren, die

dern können, wenn sie einfach für den Entwurf nutz-

sich dafür eigneten. Waren Daten in ausreichendem

bar werden. Spacemaker will einen Design-Work-

Umfang und ausreichender Qualität vorhanden, prüf-

flow ermöglichen, der Architektur an alle örtlichen

te das Team, welches Analysemodul damit konkret

Gegebenheiten anpassen kann. Spacemaker hat daher

entwickelt werden kann.

den gesamten Gestaltungsprozess in der Architektur umfassend analysiert. Dazu gehören klassische Kons-

Alle Analysemodule – dazu gehören wie gesagt

truktions- und Entwurfsprozesse sowie die Projektie-

Tageslichtanalysen, Mikroklimaanalysen, Umge-

rung von Architektur und Bauplanung. Wichtig war

bungsanalysen, Windanalysen oder Geräuschanaly-

Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess

156

sen – funktionieren auf Basis eines deterministischen

letztlich die virtuellen Entwürfe der Baukörper für

Modells. Deterministisch heißt in diesem Fall, dass

tatsächlich vorhandene Umgebungsbedingungen

das intelligente System immer ein Richtig und Falsch

realistisch simuliert werden. Damit lässt sich dann

kennt, denn entweder sind architektonische Planun-

natürlich auch überprüfen, welche Bedingungen mit

gen, wie etwa statische Berechnungen, richtig oder

dem Entwurf erfüllt werden und wie er für spezifi-

falsch, entweder trägt das Haus oder es stürzt ein.

sche Bedingungen optimiert werden kann. An einem

Das System bildet dies ab, prüft eingehende Daten

Beispiel soll dies noch einmal exemplifiziert werden.

und sortiert sie in richtig oder falsch. Technolo-

In diesem Fall arbeitet eine Architektin an einem

gisch beschreibt man ein solches deterministisches

Gebäudeensemble und ihr fällt dabei auf, dass sie

Verfahren als einmal definierte Zustände, die, auch

wahrscheinlich auch die Geräuschbelastung durch

wenn sie in anderen Anwendungsfällen reproduziert

eine nahe liegende Straße beachten muss. Sie ver-

werden, immer gleich bleiben. Beispielsweise besitzt

mutet, dass die Straße erhebliche Lärmbelästigung

ein bestimmter Ziegel immer dieselben gleichbleiben-

verursacht. Um diese Vermutung sachlich zu belegen,

den Eigenschaften und eine Wand aus diesen Ziegeln

nutzt sie das Lärmanalysemodul von Spacemaker. Sie

hat immer ein identisches Gewicht und identische

wählt einen Fassadenausschnitt, für den das Modul

statische Eigenschaften, egal wo sie eingezogen wird.

die Lärmbelästigung ermittelt. Das Modul zeigt die

Damit kann sie für bestimmte Planungsszenarien

Belästigung grafisch an, indem es die errechneten

funktional sein und tragen oder dysfunktional sein

Dezibel als Heatmap über den Fassadenentwurf legt;

und die statischen Vorgaben nicht erfüllen. Mit

hohe Lärmpegel werden rot angezeigt, mittlere Pegel

den einzelnen deterministischen Verfahren können

gelb und niedrige Pegel in der Farbe Grün. 367 Zusätz-

Szenarien so in komplexen Zusammenhängen be-

lich kann sich die Nutzerin den genauen Dezibel-

rechnet werden, indem neuronale Netze lernen, wie

Zahlenwert anzeigen lassen, indem sie einfach auf

diese deterministischen Zusammenhänge mit- und

ein Fassadendetail im Entwurf klickt. Problematische

aufeinander wirken. Spacemaker nutzt dazu eine

Bereiche werden damit intuitiv identifizierbar und

ganze Breite unterschiedlicher neuronaler Netze, die

können so iterativ optimiert werden.

unterschiedlich Szenarien simulieren und in Gestaltungsprozessen assistieren. Generative Adversarial

Die norwegische Developerfirma Steen & Strøm

Networks sind für generative Formvariationen von

and Storebrand hat Spacemaker für eines der wich-

Gebäudeensembles zuständig. Deep Convolutional

tigsten urbanen Entwicklungsprojekte in Norwegens

Neural Networks passen Baukörper beispielsweise an

Hauptstadt Oslo genutzt. In dem Projekt namens

konkrete topografische Vorgaben an, die als Rahmen-

„Økern Sentrum“, das fast eine Viertelmillion Quad-

bedingungen berücksichtigt werden müssen. Re-

ratmeter Projektierungsfläche besaß, analysierte man

current Neural Networks wiederum analysieren die

mit Spacemaker die lautesten Bereiche in der Fassa-

Entwürfe mit veränderlichen Rahmenbedingungen,

dengestaltung mit dem Lärmanalysemodul und konn-

wie etwa Windverhältnisse und deren Auswirkung

te die Fassade so optimieren, dass der Lärm um zehn

auf die Fassaden, und nutzen in diesem Fall Wetter-

Prozent reduziert werden konnte. Mit dem Modul für

daten. Mit diesen intelligenten Systemen können

Tageslichtanalysen konnten zudem die am wenigs-

367 Spacemaker: „Analysis you can trust, noise analysis“, https://www.spacemakerai.com/resources/analysis-hub#Noise (21.4.2022).

Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess

157

Abb. 4.32: Blick auf die architektonische Umgebung des Økern Sentrum in Oslo

Abb. 4.33: Tageslichtanalyse vor Optimierung der Ist-Situation

Abb. 4.34: Tageslichtanalyse nach der Umgestaltung

Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess

158

Abb. 4.35: Geräusch- und Schallanalyse des Økern Sentrum in Oslo

ten mit Tageslicht versorgten Areale um 50 Prozent

auch für spätere Projekte zur Verfügung und in we-

reduziert werden.

nigen Schritten kann so ein Leistungsverzeichnis für

368

Bemerkenswert ist, dass diese

Analysen im laufenden Entwurfs- und Planungspro-

neue Ausschreibungen erstellt werden. BIM struktu-

zess durchgeführt, geprüft, diskutiert und behoben

riert die vielfältigen Daten, um beispielsweise ein be-

werden konnten.

stimmtes Konstruktionsbauteil über seinen gesamten Lebenszyklus hinweg verfolgen zu können – von der

Um die Datenqualität seiner Analysemodule zu ge-

Planung über den Entwurf bis hin zum Bau und Be-

währleisten, bekommt Spacemaker eine Vielzahl qua-

trieb.369 Das Softwareunternehmen Autodesk, zu dem

litativer Daten aus einer Cloud. Dazu muss man ver-

Spacemaker gehört, sammelt diese relevanten BIM-

stehen, dass Spacemaker zu einer in der Architektur

Daten in einer zentralen, cloudbasierten Lösung und

weit verbreiteten Gruppe der digitalen Entwurfsum-

stellt sie Spacemaker für seine komplexen Planungs-,

gebungen gehört, die Building Information Modeling,

Konstruktions- und Bauprozesse zur Verfügung.

kurz BIM, genannt werden. Eine solche BIM-Software wie Spacemaker ermöglicht optimierte Arbeits-

Letztlich ist es für Spacemaker auch enorm wich-

methoden und damit hochwertige Ergebnisse in der

tig, dass die Ergebnisse der intelligenten Analyse-

Architekturplanung. Mit der BIM-Software können

module eine realistische Nähe zum Entwurf behalten

alle mit der Bauplanung verbundenen digitalen

und Architekt:innen sie damit nachvollziehen kön-

Informationen an einem zentralen Ort gespeichert

nen. Platziert beispielsweise ein Architekt im Ent-

werden. Die Software katalogisiert beispielsweise im

wurf einen Kubus, den das intelligente System dann

Entwurfsprozess alle verwendeten Konstruktions-

validiert und optimiert, um Material und Kosten zu

bauteile als vollständige Liste. Diese Liste steht dann

sparen, muss der Architekt jederzeit nachvollziehen

368 Spacemaker: „Customers & Partners, How Steen & Strøm and Storebrand use Spacemaker for site development“, https://www.spacemakerai.com/blog/how-steen-strom-andstorebrand-use-spacemaker-for-site-development (21.4.2022).

369

Autodesk: „Überblick“, https://www.autodesk.de/solutions/bim (21.4.2022).

Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess

159

Abb. 4.36: User Interface von Spacemaker während des Einsatzes der Geräuschanalyse

können, wie und wieso das System den Entwurf mo-

Team diskutieren oder vor Kundinnen präsentieren

difiziert hat. Kann er das nicht, wird er den Entwurf

können. Alle Beteiligten im Architektur- und Pla-

aus gestalterischer Sicht schwer akzeptieren können.

nungsprozess werden so befähigt, informierte und

Carl Christensen zufolge achtet Spacemaker streng

fundierte Entscheidungen zu treffen, die den Pla-

darauf, dass das intelligente System keine intranspa-

nungsprozess damit zu einem ko-kreativen, inspirie-

renten Ergebnisse produziert. Aus Sicht des intelli-

renden, vitalen und informierten Prozess machen.

genten Systems stellen komplexe und schwer nachvollziehbare Ergebnisse kein Problem dar, aus Sicht der Anwender:innen des Systems schon. Zudem hat Spacemaker entschieden, nicht automatisch Ergebnisse anzubieten. Vielmehr rufen Architekt:innen die Analysemodule nur dann auf, wenn sie im Entwurfsprozess unterstützt werden möchten. Håvard Haukeland, selbst Architekt und einer der Gründer von Spacemaker, ergänzt, dass das Tool nicht nur eine Lösung als bestes Ergebnis anbietet, sondern eine Auswahl der besten Varianten zum aktuellen Planungsstand in der jeweiligen Planungsphase. Damit bekommen die Architekt:innen nicht nur nachvollziehbare, sondern auch optimierte Designvorschläge, die sie direkt in ihr Projekt einbinden, mit dem

Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess

Abb. 4.37: Blick ins SALT Research Archive Istanbul

160

Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess

161

4.7 Interaktionsdesign:

Archive Dreaming des türkischen Medienkünstlers

Archive Dreaming von Refik Anadol

Refik Anadol vermittelt spielerisch, wie mit unüberschaubar großen Datenarchiven umgegangen werden

Archive und Museen werden zunehmend digitaler

kann. Die Installation in einem wenige Quadratmeter

und Ausstellungsstücke virtuell zugänglich. Täg-

großen Raum nutzt ein intelligentes System, das tat-

lich wachsen aber nicht nur die kulturellen Archive,

sächlich vorhandene Daten aus dem Archiv des Salt-

sondern auch die kommerziellen, akademischen und

Research-Instituts in Istanbul nutzt. Die Nutzer:in-

privaten. Forschung, Handwerk und Industrie entwi-

nen der interaktiven Installation können in insgesamt

ckeln immer bessere Werkzeuge für digitale Arbeits-

1,7 Millionen Einzeldokumenten recherchieren. Das

prozesse und produzieren immer mehr Daten, die

intelligente System bereitet die Daten visuell so auf,

archiviert, konserviert, gefunden und verarbeitet wer-

dass die Nutzer:innen sie erkunden können, inspiriert

den müssen. Im Privaten bewahrt man die wenigsten

werden und neue Perspektiven auf die Daten und

Erinnerungen, wie etwa Kinderzeichnungen oder alte

ihre komplexen Zusammenhänge bekommen. Durch

Fotoabzüge, analog auf. Die meisten Erinnerungsstü-

verschiedene Interaktions- und Datenvisualisierungs-

cke, Erlebnisse und Erfahrungen sind längst digitali-

methoden bekommen sie einen neuen Zugang zu

siert und in der Cloud gespeichert. Die archivierten

Erinnerung, Geschichte und Kultur und damit einen

Daten steigen nicht nur in der Menge, sondern auch

Blick auf die museale Wahrnehmung des 21. Jahrhun-

in ihrer Komplexität, sie nehmen also nicht nur

derts. Hier wird das gesamte Archiv in seiner hoch-

quantitativ, sondern auch qualitativ zu. Damit stellen

komplexen Ausformung individuell und interaktiv

die archivierten Daten eine enorme Herausforderung

zugänglich gemacht. Hierzu zählen Aufzeichnungen

dar. Sie sind von sich aus passiv, sie erzählen keine

über das soziale Leben in der Türkei, die türkische

Geschichte oder geben keine neuen Erkenntnisse

Wirtschaftsgeschichte oder die Entwicklung des ur-

aktiv preis. Sie müssen daher gesucht, gruppiert und

banen Städtebaus in Istanbul. Hierzu zählt aber auch

in sinnvolle Zusammenhänge gebracht, synthetisiert

die Geschichte des Mittelmeerraums ab dem späten

und verstanden werden. Nur so können Daten neue

19. Jahrhundert. Hinzu kommen kunsthistorische

Geschichten erzählen, neue Wirkzusammenhänge

Artefakte aus den 1950er-Jahren sowie Architektur-

preisgeben und helfen, neue Anwendungen für sie zu

und Designgeschichte des 20. Jahrhunderts, die alle in

finden. Viele digitale Werkzeuge zur Datenverarbei-

dem digitalen Datenarchiv vorliegen.370

tung, die bis vor Kurzem noch für eine übersichtliche Zahl an Daten ausgereicht haben, können heute mit

Um diese riesige Datenmenge zu nutzen, hat Refik

den komplexen Anforderungen nicht mehr Schritt

Anadol zunächst statische und dynamische Daten

halten. Nicht nur wird es schwierig, bestimmte

unterschieden. Statische Daten sind solche, die sich

Datenverbindungen zu finden, es ist oft noch nicht

nach dem Eintrag ins Archiv nicht mehr ändern und

einmal klar, dass sie existieren. Um also kulturelle,

als Datensatz feststehen. Im Unterschied dazu können

kommerzielle oder private Datenarchive wirklich um-

sich dynamische Daten auch nach der Aufzeichnung

fassend nutzen und für Menschen jeglicher Bildung

noch ändern und müssen laufend aktualisiert werden.

und Sprache zugänglich machen zu können, bedarf es

Der Eintrag einer Autorin im Archiv besteht dann

intelligenter Systeme.

also aus einem statischen Teil, dem Namen der Au370 Salt Research: „About“, https://saltresearch.org/primo_library/libweb/ static_htmls/salt/info_about_en_US.jsp (21.4.2022).

Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess

Abb. 4.38: Interaktion mit dem intelligenten System von Archive Dreaming über ein digitales Tablet

Abb. 4.39: Konzeptionszeichnung der Szenografie mit beschreibenden Details der Funktion

162

Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess

163

torin, der sich nicht ändert, sowie dem dynamischen

ren, musste Anadol eine Vielzahl von Designfragen

Teil, denn mit jedem neu veröffentlichten Buch der

klären. Es mussten technische Fragen geklärt werden,

Autorin ändert sich der Datensatz der Publikationen.

beispielsweise welche Rechenleistung überhaupt

Beide Datenklassen, statische und dynamische, hat

welche Art der Partikelvisualisierung zulässt und wie

Anadol nun in unterschiedlichen Echtzeitanimatio-

diese Partikel kinetisch simuliert werden sollten; aber

nen mit dem intelligenten System visualisiert. Sie

auch welches synthetische Material für die Oberflä-

erlauben dadurch einen intuitiven visuellen Zugang

che der Partikel gewählt wird. Wichtige gestalterische

zu den Daten, der an die natürliche menschliche

Fragen waren dann, wie die einzelnen Datenformate

Wahrnehmung angebunden ist. Anadol spricht in

in der Partikelformation visualisiert und wie diese

dieser Hinsicht auch von seinem künstlerischen Ma-

Partikel animiert werden sollten, damit sie eine

terial, das er wie Pigment auf die digitale Oberfläche

immersive User Experience erschaffen. Dazu gehörten

aufträgt, und den Datenvisualisierungen als einem

auch Fragen danach, welche Größe die Visualisierun-

malerischen Vorgang.

gen haben müssen und wie sie ausgeleuchtet werden müssen, damit sie gut erkennbar sind.

Herz der Installation ist eine begehbare immersive Kapsel, die den Benutzer:innen mittels Tablet-Inter-

Um diese Fragen zu beantworten, entwickelte

face die interaktive Steuerung der Archive-Drea-

Anadol ein eigenes Designkonzept, das er „Aesthetics

ming-Installation erlaubt. Berühren sie das Interface

of Probability“, kurz AoP, taufte und in dem er for-

und bewegen ein Fadenkreuz über das Tablet, ändert

mulierte, wie sich etwa Partikel verhalten, wenn sie

sich auch das Screendesign auf der 360-Grad-Pro-

bestimmte Daten abbilden. In den AoP gibt Anadol

jektionsfläche in Echtzeit. So entsteht der Eindruck,

dynamische Vorgaben für Texturen, Materialien,

dass man als Nutzer:in diese Datenvisualisierung

Licht- und Schattenverhältnisse, Farben, Formen,

direkt steuert und durch die Interaktion erschafft. Die

kinetische Bedingungen wie Trägheit, Masse und

Projektionen stellen die Daten als dreidimensionale

Gravitation. Dabei sind die Vorgaben nicht strikt zu

Partikelwolken in unterschiedlichen Ordnungen und

verstehen, sondern definieren Bereiche, in denen bei-

Informationsebenen dar. Zudem ist es aufgrund ver-

spielsweise Farben oder Geschwindigkeiten der Par-

schiedener Navigations- und Suchmethoden möglich,

tikel verwendet werden sollen. In den unterschied-

zu anderen Projektions- und Darstellungsformen,

lichen Datenvisualisierungen von Archive Dreaming

wie etwa Datenskulpturen oder zweidimensionalen

werden beispielsweise ausgewählte Dokumente

Dokumentabbildungen, zu wechseln, die schriftliche

gruppiert, die aus kugelförmigen Punkten bestehen.

Detailinformationen bereitstellen. Laut Anadol fühlt

Das intelligente System greift dabei auf die AoP-

sich die Installation wie eine Reise durch ein Daten-

Designregeln zu, um zu ermitteln, dass und wie Do-

universum an. Die immersive Wirkung von Archive

kumente als Punkte visualisiert und animiert werden.

Dreaming entsteht durch die szenografische Raum-

Die AoP formulieren auch konkrete grafische Regeln.

gestaltung. Die Projektionen umfassen den gesamten

Wenn Archive Dreaming etwa Beziehungen zwischen

Raum und erzeugen so den Eindruck eines eigenen

Datenartefakten visualisiert, beschreiben die AoP,

kontinuierlichen Raums und damit die Illusion eines

wie zwei Datenpunkte miteinander verbunden wer-

unendlichen Raumgefüges auf wenigen Quadratme-

den. Durch Linien wird dann eine Datenarchitektur

tern. Um die Daten zu animieren und zu visualisie-

erstellt, die Anadol Datenskulptur nennt.

Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess

Abb. 4.40: Visualisierung der Daten mit t-SNE als abstrakte dreidimensionale Datenskulptur

164

Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess

Abb. 4.41: Visualisierung der Daten mit ihren echten Abbildungen als gruppierte Cluster in einer zweidimensionalen Darstellung

165

Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess

166

Abb. 4.42: Zweidimensionale Darstellung als Projektion, Detail

Anadol nutzt 3D-Software wie Unity, Unreal oder

das gesamte Archiv des Salt-Research-Instituts nach

Houdini als Gestaltungswerkzeuge, um die Daten-

bisher unbekannten Mustern durchsuchen und diese

visualisierungen zu erzeugen. Die Render Engines

vergleichen, konnte dann die interaktive Visuali-

der 3D-Software können Daten in visuelle Formen

sierung stattfinden. Dafür wurde ein Convolutional

und Materialien übersetzen und dann animieren. Die

Neural Network trainiert, das in wenigen Sekunden

Daten werden über API-Schnittstellen in die 3D-Soft-

alle Dokumente des Archivs beispielsweise nach

ware eingelesen und dann mittels AoP-Designregeln

Bildinhalten gruppierte. Die klassifizierten Bilder,

in virtuelle dreidimensionale Formen mit entspre-

Zeichnungen und Kunstwerke übergab Anadol

chenden Lichtverhältnissen und Oberflächenmateria-

einem Generative Adversarial Network, GAN. Das

lien übersetzt. In den Augen des Künstlers entsteht

GAN analysierte visuelle Muster, um gestalterische

in diesem Prozess zunächst ein synthetisches Skelett,

Parameter zu kennzeichnen und alle im Archiv ent-

das dann Muskulatur und Haut bekommt. Letztere

haltenen Bilddaten zu kontextualisieren. Nachdem

erschafft die 3D-Software nach den AoP-Designre-

das GAN trainiert war, konnte das gesamte System

geln in Echtzeit immer wieder neu. In der Installa-

beispielsweise alle Fotografien eines bestimmten his-

tion rechnen die Render Engines Formen, Texturen

torischen Zeitabschnitts ausgeben und in festgelegten

und Animationsverhalten jeweils mit jeder Aktuali-

Ordnungen visualisieren.

sierung neu. Beispielsweise rendert die 3D-Software eingespielte Daten in Form von drei Kugeln. Wird

Das System nutzte zur Visualisierung Algorithmen

das Datenarchiv dynamisch aktualisiert, rendert das

wie beispielsweise t-SNE, eine statistische Methode,

System automatisch in Echtzeit dann vier Kugeln.

die die hochdimensionalen, durch KNN klassifizierten Daten in zwei- und dreidimensionale Darstellun-

Refik Anadol wurde bei der Entwicklung durch

gen transferiert. So werden die komplexen Zusam-

Spezialist:innen von Google AMI 371 unterstützt. Auf

menhänge der Daten visuell schnell und intuitiv in

Basis neuronaler Netze, die mittels KNN-Verfahren

sogenannten Datenclustern zugänglich gemacht.

371 Google AMI: „About“, https://ami.withgoogle.com (21.4.2022).

Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess

167

Abb. 4.43: Animation der aktiven Feature Extraction aus dem Datenmaterial, Detail

Auch die t-SNE-Diagramme werden in den Render

viert, indem sie mit mehrdimensionaler Hyperkom-

Engines nach AoP-Regeln visualisiert.

plexität von Wissen umgehen lernt. In dieses Wissen, das oft auch als Erbe der Menschheit bezeichnet wird,

Um alle Möglichkeiten eines intelligenten Systems

können Nutzer:innen mithilfe intelligenter Systeme

auszuschöpfen, integrierte Anadol auch eine experi-

eintauchen, um sich einzeln oder zusammen mit

mentelle Methode, das sogenannte Perplexity Experi-

anderen weiterzubilden.

ment. Dieses Modul findet die größten Unterschiede in solchen Daten, die normalerweise nicht gefunden werden, da sie fast nicht vergleichbar sind. Damit sollte den klassischen wissenschaftlichen Recherchen eine weitere Dimension hinzugefügt werden. Das Perplexity Experiment ist eine Methode, die Informationen nicht wie üblich nach empirisch relevanten Details auffindet, sondern unmögliche, unpassende und unvorstellbare Kontextualisierungen herstellt. Damit können Nutzer:innen von Archive Dreaming ganz neue Kontexte und Zusammenhänge entdecken und herstellen. Mit dem Perplexity Experiment war dann Archive Dreaming als interaktive Installation aus Sicht des Künstlers vollständig, denn es bot die Möglichkeit, das Unmögliche hervorzubringen. Anadol selbst sieht sein Werk als gestaltete Architektur des Wissens, die ein persönliches Wissensego relati-

5. Mit intelligenten Systemen gestalten – ein praktischer Einstieg

Kapitel 5: Mit intelligenten Systemen gestalten – ein praktischer Einstieg

5.1 Einleitung

169

Da ein Buch nur begrenzten Raum hat, praktisches Wissen zu vermitteln, vermag dieses Kapitel unmög-

Designer:innen sind nicht nur theoretisch an einem

lich zu leisten, einzelne Programme zu erklären und

Gegenstand interessiert; ihn praktisch zu erkunden

praktisch in sie einzuführen. Zudem ist das Buch

und zu beherrschen ist wesentlich für ihren Berufs-

als statisches Medium sicher nicht das geeignetste,

stand. Das folgende Kapitel soll nun das theoreti-

um Schritt für Schritt durch einen komplizierten

sche Wissen in ein anwendbares transferieren und

Gestaltungsprozess zu führen. Dafür bieten sich

somit einen ersten praktischen Start in das weite

Online-Tutorials an, die es im Internet bereits in sehr

Feld der Gestaltung mit und für intelligente Systeme

guter Qualität und oft frei verfügbar gibt. Wo es sich

ermöglichen. Es ist klar, dass man als Gestalter:in

anbietet, verweisen die einzelnen Kapitel auf diese

dort starten muss, wo es das eigene theoretische

weiterführenden Ressourcen im Netz. Außerdem

und praktische Verständnis, die eigenen Qualifikatio-

können Designer:innen auf der Internetseite zum

nen und Vorlieben zulassen. Deshalb ist das Kapi-

Buch, unter www.designundki.de, weitere intelligen-

tel so aufgebaut, dass es für viele unterschiedliche

te Tools und Websites, die hier nicht genauer vorge-

Qualifikationen Einstiegsmöglichkeiten bietet, um

stellt werden können, übersichtlich einsehen und von

intelligente Systeme in die eigene Praxis zu integ-

dort aus weiter erkunden. Die kuratierte Liste soll

rieren. Ziel war es, Designer:innen möglichst nicht

den Einstieg erleichtern und inspirieren, mit Neugier

zu überfordern oder zu langweilen. Die Leser:innen

neue Werkzeuge und Anwendungen zu entdecken.

können nun selbst entscheiden, welcher Einstieg für sie der passendste ist. Die einzelnen Kapitel bauen nicht aufeinander auf, sondern sind für sich getrennte Anlaufpunkte, die nach Komplexitätsstufen geordnet wurden. Das Spektrum reicht hier von einfachen Szenariostudien für intelligente Systeme und vorläufige experimentelle Tools über Werkzeuge, die mit und ohne Programmierkenntnisse genutzt werden können, bis hin zu komplexen Entwicklungsprozessen in interdisziplinären Teams. Dabei zielt das Kapitel auch darauf ab, Designer:innen neugierig zu machen und die Lust zu wecken, das Feld weiter zu erkunden.

Kapitel 5: Mit intelligenten Systemen gestalten – ein praktischer Einstieg

170

5.2 Needs: Was Designer:innen tatsächlich

einige mit Büchern oder Fachartikeln weiterbilden.

möchten

Die überwiegende Mehrheit der Teilnehmer:innen steht der künstlichen Intelligenz also nicht ablehnend

Einstiegspunkte für viele verschiedene Designer:in-

gegenüber, sondern sieht praktischen Bedarf, hilf-

nen zu bieten birgt natürlich ein gewisses Risiko,

reiche intelligente Assistenz begleitend in Design-

da sie oft sehr unterschiedliche Expertisen haben.

prozesse zu integrieren. Interessant wird es sicher,

Zunächst soll daher die Frage beantwortet werden,

wenn Designer:innen die Bereiche identifizieren,

welchen Bedarf an praktischem Wissen es unter

in denen intelligente Werkzeuge aus ihrer Sicht am

Designer:innen in Agenturen, Unternehmen und als

sinnvollsten eingesetzt werden können. Mit den

Freelancer:innen überhaupt gibt. Dazu haben die

Systemen sollen erstens wiederkehrende, zeitaufwen-

Autoren im Winter 2021/22 eine kurze Bedarfsstudie

dige Arbeitsschritte automatisiert werden, etwa um

durchgeführt, an der sich freischaffende Designer:in-

zwei- in dreidimensionale Entwürfe zu konvertieren.

nen sowie Designschaffende aus Agenturen und

Zweitens sollen sie eingesetzt werden, um Design-

Unternehmen beteiligt haben. Die meisten Designer:

variationen, etwa im Logo- oder Interface-Design,

innen stammten aus den Bereichen Kommunikations-

zu erstellen. Auch im Bereich Research sehen die

und Grafikdesign, Interface- und UX-Design oder

Teilnehmer:innen Anwendungsgebiete, etwa wenn

Produktdesign. Einige Teilnehmer:innen waren im

Persona-Profile und Moodboards erstellt oder Bilder

Designmanagement und strategischen Design tätig.

recherchiert werden müssen. Einige Teilnehmer:in-

Obwohl die Ergebnisse der Studie nicht repräsentativ

nen möchten, dass intelligente Systeme in der Bau-

sind, zeigen sie Trends und Themen, die hier kurz

teil- und Fertigungsoptimierung eingesetzt werden.

vorgestellt werden sollen.

Andere sehen KI-Anwendungen auch im Nutzer:innentesting. Insgesamt verorten die Designer:innen

Die meisten Designer:innen haben laut eigenem

intelligente Systeme also in allen Phasen des Design-

Bekunden keine profunden Kenntnisse bezüglich

prozesses, der durch die Systeme insgesamt erleich-

künstlicher Intelligenz im Design. Fast alle wünschen

tert werden soll. Darüber hinaus formulieren sie die

sich daher, mehr über Anwendungen von künstlicher

Erwartungen, dass die Ergebnisse der intelligenten

Intelligenz im Design zu erfahren. Eine Mehrheit der

Systeme eine hohe Designqualität haben und schnell

Designer:innen hat sich im vergangenen Jahr zwar

weiter genutzt werden können, sodass sie die auto-

schon mit dem Thema KI und Design auseinander-

matisch generierten Ergebnisse nicht detailliert über-

gesetzt, möchte sich aber auch im kommenden Jahr

prüfen müssen. Intelligente Systeme sollten leicht

praktisch zu diesem Thema weiterbilden. Als wich-

lern-, einsetz- und integrierbar sein, den Designpro-

tigste Medien, mit denen sich die Teilnehmer:innen

zess unterstützen, verständliche, überraschende und

weitergebildet haben, werden Fachkonferenzen und

inspirierende Ergebnisse liefern sowie sich individu-

-literatur, Video-Tutorials und eigene Forschungspro-

ell anpassen lassen.

jekte genannt. Zukünftig wünschen sich die meisten Designer:innen praktische Formate der Weiterbil-

Mit diesem kurzen Blick auf den Bedarf der pro-

dung, hauptsächlich Webinare, Workshops, Tutorials

fessionellen Gestalter:innen wird deutlich, dass keine

und Schulungen. Aber auch theoretisch wollen sich

Themen- und Anwendungsgebiete als praktische In-

Kapitel 5: Mit intelligenten Systemen gestalten – ein praktischer Einstieg

171

teressengebiete ausgeschlossen werden können. Mit

net, weil er keine technischen Kenntnisse voraussetzt

anderen Worten: Es gibt keinen klaren Fokus auf spe-

und intuitiv nutzbar ist. Ideen und Einfälle können

zifische Systeme, der aus der Studie hervorgeht. Das

in diesem Format frei entwickelt und vertieft werden.

heißt im Umkehrschluss, dass alle folgenden Kapitel

Beispielsweise spekuliert der Hub in einem Beitrag

zur praktischen Anwendung intelligenter Systeme in

über die Möglichkeiten sogenannter Conversatio-

irgendeiner Form auch auf Interesse stoßen sollten.

nal Bots, auch bekannt als Sprachassistenten. Die „Eavesdrop Modules“ 372 sind zwei Bots in Form von

5.3 Storys: Erste Gedankenexperimente für

quadratischen Boxen, ähnlich den Aufbewahrungs-

intelligente Systeme

boxen für kabellose Kopfhörer. Beide Bots führen als intelligente Systeme Gespräche miteinander. Die

Wie nähert man sich als Designer:in neuen, noch

Nutzer:innen können diesen Gesprächen lauschen,

nicht erlernten Technologien und Werkzeugen, ohne

aber nicht direkt interagieren und Teil des Gesprächs

dass man einen Workshop mit überwiegend techno-

werden. Damit sollen die Bots als privater Audio-

logischen Inhalten besuchen muss? Neue Techno-

hintergrund einsame Menschen bereichern. Die

logien und ihre Anwendungsgebiete zu verstehen

Gesprächsinhalte der Bots basieren auf vergangenen

beginnt meistens in der Fiktion. Gesucht wird im

Gesprächen. Je nachdem, wie sich die Nutzer:in-

spekulativen Möglichkeitsraum nach einem freien,

nen in ihrem Umfeld verhalten, wird bestimmt,

aber spannenden Anwendungsszenario für die Tech-

welche Stimmung und Gefühle die Bot-Gespräche

nologie. Bei den Zukunftsszenarien handelt es sich

induzieren. Schon heute funktionieren intelligente

unter anderem um eine spekulative Designmethode,

Sprachassistenten im Hausgebrauch mit Methoden

die Denkbares und Undenkbares zu einem kreativen

statistischer Lernverfahren. Rein technisch ist so

Gedankenexperiment zusammenschließt.

eine Bot-Konversation mit Transformer-Netzwerken wie GPT-3 also nicht unmöglich, wenn auch nicht

Ein Beispiel für freie kreative Spekulation in Zu-

sehr ausgereift. Die Eavesdrop Modules erweitern

kunftsszenarien ist der Unthinkable Hub. Der Hub

diese bestehende Funktion hin zu einem spekulati-

entwickelt spekulative Szenarien und beschreibt

ven Anwendungsszenario, das surrealistisch und für

die Funktionen der darin enthaltenen Produkte und

heutige Verhältnisse unsinnig anmutet. Der Unthin-

intelligenten Systeme in Textform. Meist sind es

kable Hub bedient auf diese Weise die Neugier nach

spekulative Designprodukte, die in ihrer zukünftigen

aktuellen Technologien und deren Möglichkeiten und

Nutzungsweise gezeigt und durch Bilder prototypisch

fasst die Technik frei von informatischer Bildung und

illustriert werden. Im Hub steht nicht so sehr im

Machbarkeitsstudien in kreativen Story- und Gestal-

Vordergrund, ob diese Designprodukte technisch rea-

tungsarbeiten. So werden mögliche zukünftige An-

lisierbar sind, sondern welche Gedanken durch ihre

wendungsszenarien bestehender Technologien, aber

Beschreibung angeregt werden. Der Hub untersucht

auch ganz neue Technologien imaginierbar. Letztlich

textlich und bildlich, welche neuen Ideen, Konzepte

dient dies dann dazu, gegenwärtige Use-Cases und

und Lösungen für Technologien wie beispielsweise

Entwicklungen zu inspirieren und sich so mit der

künstliche Intelligenz möglich sind. Als literarisches

Technologie vertraut zu machen.

Medium ist er für Gestalter:innen besonders geeig372 The Unthinkable Hub: „UTH.1 – Evesdrop Modules“, https://mirror.xyz/0x12d7CCC2454111af7039E27Af42b919893d4cCA2/ 7lFar7DSLZTcWj3kCsk5jiGCiJfWoMWTTjebaoTTtgo (21.4.2022).

Kapitel 5: Mit intelligenten Systemen gestalten – ein praktischer Einstieg

5.4 Tools: Praktische Werkzeuge und

172

5.4.1 Tools 1: Experimentelle Werkzeuge

ihre Anwendungsgebiete Experimentelle Werkzeuge, das hat das Kapitel 3.2 gezeigt, erlauben durch glückliche Zufälle, durch unbestimmtes Ausprobieren und freies Spiel, zu neuen Ideen und Lösungsansätzen zu gelangen. Die erste Art der intelligenten Werkzeuge, die hier vorgestellt werden soll, hat den Vorteil, dass man sie leicht nutzen kann. Sie sind intuitiv bedienbar und inspirieren in ihrem spielerischen Gebrauch. Sie haben aber auch den Nachteil, dass die entstandenen Entwürfe den Charakter des Vorläufigen oft nicht ablegen. Sie werden deshalb sehr früh im Designprozess eingesetzt. Für Gestalter:innen, die ein erstes mentales Modell von den intelligenten Gestaltungswerkzeugen bekommen möchten, eignen sich diese experimentellen Werkzeuge gut. Zwei Beispiele wurden ausgewählt, um diese Werkzeugklasse zu bebildern. Das erste Beispiel ist der Open Type Font Generator 373, der Gesichtserkennung mit Typografie zusammenschließt. Der OTF war Teil der Sonderausstellung „ABC. Avantgarde – Bauhaus – Corporate Design“ des Gutenberg-Museums in Mainz. Der browserbasierte Generator erkennt die Gesichter der Nutzerinnen und übersetzt diese in Schriftschnitte. Nutzerinnen können ihre individuellen Schriftschnitte entwickeln, indem sie den Kopf neigen, den Mund öffnen oder andere Mimiken machen. Im ersten Schritt bestimmt das System anhand des gesamten Gesichts die Basisanatomie der Schrift, ihren Duktus. Im zweiten Schritt wird die Strichstärke der Schrift durch den Abstand zwischen Augenbrauen und Augen bestimmt. Ob die Schriftart zu einer Grotesk- oder Antiqua-Schrift wird, hängt vom Alter der Benutzenden ab, und ob eine Schrift gespiegelt wird, davon, ob die Nutzenden traurig schauen. Schriftgestaltung findet hier also in einem experi373 Bauhauslabor: „OTFG“, https://otf.bauhauslabor.de/#/generate (21.4.2022).

Kapitel 5: Mit intelligenten Systemen gestalten – ein praktischer Einstieg

173

mentellen, nicht genau kontrollierbaren Setting statt.

5.4.2 Tools 2: Professionelle Werkzeuge und

Zufällige Gesichtsausdrücke und Eigenschaften der

Stand-alone-Lösungen

Personen führen zu gewünschten oder unerwünschten, in jedem Fall unvorhergesehenen Ergebnissen.

Neben den experimentellen Werkzeugen, die oft

Das zweite Beispiel, StyleClip , erlaubt es, mit Text-

direkt aus Forschungsvorhaben oder Designprojekten

eingaben Bilder zu generieren. Designer:innen geben

entstanden und in wenig ausgereiften Anwendungen

dem Style-GAN-System ein Ausgangsbild und eine

nutzbar sind, gibt es professionelle Tools, die statis-

dazu passende Bildbeschreibung. In einem zweiten

tische Lernverfahren einsetzen. Diese Tools werden

Textfeld beschreiben sie das gewünschte Bild, das das

oftmals von großen Firmen konzipiert, getestet und

System dann auf Basis des Ausgangsbilds und dessen

weiterentwickelt. Der Vorteil dieser Tools ist, dass

Beschreibung generiert. So kann das Ausgangsbild

sie das experimentelle Moment mit einem profes-

eines jungen Mannes mit der Beschreibung „junger

sionellen verbinden, denn diese Tools lassen sich in

Mann“ versehen werden und das Zielbild mit „alter

den eigenen Design-Workflow integrieren, ohne dass

Mann“. Aus dem Bild des jungen Mannes wird dann

Designer:innen fürchten müssen, dass es das Tool

ein älterer Herr, der aussieht wie die gealterte Version

morgen schon nicht mehr gibt oder es veraltet ist.

373

des jungen Mannes. Man kann das Zielbild für den jungen Mann aber auch als „junge Frau“ bezeichnen

Zum Beispiel bietet Adobe 375 seit einiger Zeit

und das Style-GAN eine entsprechende Darstellung

mit seinen Neural Filters die Möglichkeit, Fotos mit

generieren lassen. Entsprechend interessant sieht es

statistischen Lernverfahren zu manipulieren. Basis

dann aus, wenn das Männergesicht weiblich wird.

der Filter sind neuronale Netze, die Bildgenerierung

Durch unterschiedlich präzise, umfangreiche und

und Style-Transfer beherrschen. So kann ein Filter

abwegige Bildbeschreibungen können neue und

namens SuperZoom mittels Uprez-Verfahren niedrig

überraschende Ergebnisse erzielt werden. Es können

aufgelöste in hochaufgelöste Bilder verwandeln. Hier

auch die generierten Ergebnisse als Ausgangsbilder

können Gestalter:innen ihren Workload reduzieren

verwendet werden und so überraschende Bildfolgen

und damit ihren Workflow bereichern, weil nun auch

erzeugt werden. Auch hier sind die Resultate nicht

niedrig auflösende Bilder verfügbar werden. Andere

vorhersehbar und nur begrenzt kontrollierbar. In

Filter unterdrücken Bildrauschen, kolorieren automa-

jedem Fall macht es Spaß, diese Tools zu nutzen, und

tisch oder retuschieren Bildartefakte. Ein spezieller

sorgt für Inspiration.

Filter namens Smart Portrait lässt es zu, Porträtfotos so zu manipulieren, dass Menschen darin dann beispielsweise lächeln, obwohl sie das im Ausgangsbild nicht getan haben. Das zweite Beispiel ist im Industriedesign bereits sehr gut bekannt. Die Firma Autodesk entwickelte mit Fusion 360 376 eine Softwarelösung, die in der Formgebung assistiert, indem sie automatisiert viele

374 Replicate: „StyleClip“, https://replicate.com/orpatashnik/ styleclip (21.4.2022).

375 Adobe: „Liste von Neural Filters und FAQ“, https://helpx.adobe.com/de/ photoshop/using/neural-filters-list-and-faq.html (21.4.2022). 376 Autodesk: „Fusion 360“, https://www.autodesk.de/products/fusion-360 (21.6.2022).

Kapitel 5: Mit intelligenten Systemen gestalten – ein praktischer Einstieg

174

verschiedene 3D-Objekte generiert, die nach be-

5.4.3 Tools 3: Anwendungen ohne Coding-

stimmten Kriterien optimiert sind. So können sich

Kenntnisse gestalten

Industriedesigner:innen Varianten von beispielsweise Tischen generieren lassen, die besonders stabil oder

Experimentelle und professionelle Tools sind immer

leicht sind.

auch auf einen bestimmten Anwendungsbereich beschränkt. Oftmals möchten Designer:innen jedoch

Im dritten Beispiel unterstützt die Firma Brand-

abseits der festen Wege neues Terrain erkunden und

mark Grafikdesigner:innen in ihrem Workflow,

müssen dazu eigene intelligente Anwendungen ge-

indem sie Werkzeuge bietet, die bestimmte repetiti-

stalten. Dies heißt, sie müssen neue Wirkungsweisen

ve Designprozesse übernehmen. Mit dem AI Color

von intelligenten Systemen kennenlernen, erproben

Wheel 377 können Designer:innen beispielsweise in

und in einer spezifischen Anwendung ausformulie-

kürzester Zeit eine riesige Anzahl Farbvariationen er-

ren. Hierzu können sie Tools benutzen, die es ihnen

stellen lassen, die sie dann weiter verfeinern können.

ermöglichen, unkompliziert statistische Lernverfah-

Das Color Wheel ermöglicht Designer:innen damit,

ren auch ohne Programmierkenntnisse zu nutzen. Sie

den Möglichkeitsraum für Farbvarianten schnell und

können auf eine große Bandbreite an vortrainierten

umfassend zu erkunden, was normalerweise nur

Modelle zurückgreifen und diese dann mit den eige-

sehr mühevoll und zeitaufwendig durchzuführen

nen Daten an ihre Zwecke anpassen. Damit gewinnen

ist. Daneben bietet Brandmark das Tool Logo Rank,

Designer:innen konzeptionelle und gestalterische

das Logoentwürfe analysiert und bewertet. Das Tool

Freiheit, denn sie sind nun nicht mehr beschränkt auf

wurde mit über einer Million hochwertiger Logos

bestehende Lösungen. Hierfür wurden zwei zentrale

trainiert und vergleicht diese nun mit dem Entwurf

Softwarelösungen ausgewählt, die es erlauben, An-

der Designer:innen. Bewertet wird dieser anhand

wendungen durch No-Coding-Methoden zu entwi-

visueller Parameter wie Komposition, Klarheit und

ckeln. Die Bandbreite der zur Verfügung stehenden

Ordnung. Natürlich entscheidet dieses Tool nicht

Modelle und Verfahren variiert je nach Lösung

final über den Logoentwurf, bietet jedoch nützliche

teilweise erheblich. In vielen Fällen unterstützen die

Hilfestellungen im frühen Designprozess.

Lösungen bild-, objekt- und textbasierte Modelle, die dann auch kombiniert werden können.

Das letzte Beispiel unterstützt den Design-Workflow in der Phase des Prototypings. Die Firma

Das erste Beispiel, Teachable Machine 379, erlaubt

Vizcom 378 erlaubt mit ihrem intelligenten Werkzeug

es, ein neuronales Netzwerk mit Bildern, Livevideos

beispielsweise, Handzeichnungen in fertige Darstel-

oder Tönen zu trainieren. Die Nutzer:innen können

lungen zu übertragen. Produktstudien von Möbeln

dann entscheiden, welche Zusammenhänge das Netz-

oder Formstudien von Automobilkarosserien werden

werk lernt. So kann das Netzwerk beispielsweise

mittels GAN-System zu fertig ausgearbeiteten Ent-

trainiert werden, das Bild eines Apfels zu erkennen

würfen.

und daraufhin ein GIF abzuspielen. Es kann aber auch eine Audiodatei eines Apfelbisses für den Apfel abspielen. Teachable Machine benutzt das Verfah-

377 Brandmark: „AI Color Wheel“, https://brandmark.io/ color-wheel (21.4.2022). 378 Vizcom: „AI creative tools for artists and designers“, https://www.vizcom.co (21.4.2022).

379 Teachable Machine: „Teachable Machine“, https://teachablemachine.withgoogle.com (21.4.2022).

Kapitel 5: Mit intelligenten Systemen gestalten – ein praktischer Einstieg

175

ren des sogenannten Transfer Learning, was nichts

das von Style Transfer, Bildgenerierung und GANs

anderes bedeutet, als dass fertig trainierte neuro-

über Kolorierungstools und Objektanalyse bis hin zu

nale Netze mit einigen wenigen Beispielbildern, die

Textentwicklung reicht. Alle neuronalen Netze sind

Designer:innen zur Verfügung stellen, auch diese neu

vortrainiert, was den Vorteil hat, dass Designer:innen

gelernten Bilder gut erkennen. Der Vorteil von Tea-

schnell neue Bilder und Texte generieren können. Es

chable Machine ist also, dass die Software nur relativ

hat aber auch den Nachteil, dass alle Ergebnisse vom

wenige Trainingsbeispiele benötigt, um gut zu funk-

Training des Netzes abhängig sind und damit nur

tionieren. Der Nachteil ist, dass die Modelle oft nicht

einen bestimmten visuellen Radius erlauben. Desig-

gut übertragbar sind auf andere Nutzer:innen, weil

ner:innen müssen mit diesem Tool damit leben, dass

sie für ganz bestimmte Gesichter, Hintergründe und

sie nicht die volle Kontrolle über die Ergebnisse der

Farben gelernt haben. Die Funktionen von Teachable

Netze haben und oftmals gestalterische Lösungen nur

Machine können erweitert werden, setzen dann aber

vorläufigen Charakter haben. Das ML-Lab von Run-

Programmierkenntnisse im Programm P5.js voraus.

wayML ist in gewisser Weise also eine Art Spielwiese für Designer:innen, die es erlaubt, in wenigen Ta-

, ermöglicht es eben-

gen zu überzeugenden Ergebnissen zu kommen. Das

falls in einem einfachen Web-Interface, ein neurona-

Interface ist übersichtlich gestaltet und kann intuitiv

les Netzwerk mit eigenen Bildern zu trainieren. Das

bedient werden. Obwohl RunwayML ein gewisses

heißt auch hier, dass zwischen beliebigen visuellen

Grundwissen über intelligente Systeme voraussetzt,

Eingabedaten und Ausgabedaten ein Zusammen-

werden alle Modelle und ihre Funktionsweise in

hang trainiert werden kann. Das intelligente System

kurzen Texten und Videos erklärt und Nutzer:innen

kann dann beispielsweise erkennen, ob jemand einen

bekommen darüber hinaus auch Online-Tutorials zur

Schluck Wasser trinkt, und das als „trinken“ klassi-

Verfügung gestellt.

Das zweite Beispiel, Lobe.ai

380

fizieren. Lobe.ai vereinfacht durch das intuitive Interface stark, solche Zusammenhänge zu trainieren. Das trainierte Modell kann dann direkt genutzt oder weiterverwendet werden, etwa wenn Developer:innen das Modell in eine App integrieren. Dies ist dann im Kapitel „Tools 5“ näher ausgeführt. Das dritte und letzte Beispiel, RunwayML 381, erlaubt in seinem ML-Lab in der Desktopversion des Programms viel mehr als nur das Transfer Learning mit Bilderkennungsalgorithmen. Es stellt Designer:innen eine große Bibliothek intelligenter Systeme zur Verfügung, die sie individuell nutzen, trainieren und anpassen können. Das ML-Lab bietet ein kategorisiertes Verzeichnis der Modelle, die genutzt werden können,

380 Lobe.ai: „Train apps to identify plants“, https://www.lobe.ai (21.4.2022). 381 RunwayML: „ML Lab“, https://help.runwayml.com/hc/en-us/ categories/1500001962941-ML-Lab (21.4.2022).

Kapitel 5: Mit intelligenten Systemen gestalten – ein praktischer Einstieg

176

5.4.4 Tools 4: Intelligente Anwendungen

Eine zweite, unter Designer:innen weit weniger

selbst programmieren

verbreitete Programmiersprache ist Python. Sie wird allerdings fast ausschließlich unter Data Scientists

Wollen Designer:innen einen weiteren Grad an

verwendet, um statistische Lernverfahren von Grund

Freiheit im Umgang mit intelligenten Systemen ge-

auf zu trainieren und zu implementieren. Sie bietet

winnen, müssen sie selbst programmieren. Die Viel-

den großen Vorteil, dass viele Forschungsprojekte

falt der Programmiersprachen bietet zwei einstei-

fertigen Code in Python zur Verfügung stellen, den

ger:innenfreundliche Sprachen an, die sinnvoll für

man dann selber nutzen kann. Außerdem ist sie ver-

eigene Projekte mit Lernverfahren eingesetzt werden

ständlich und klar strukturiert. Einen einfachen Ein-

können.

stieg in Python ohne intelligente Systeme bietet das Manual „Python for Designers“ 386 des italienischen

Die erste Programmiersprache ist die Nachfolgerin

Grafikdesigners Roberto Arista. Dort werden nicht

der unter Gestalter:innen womöglich gut bekannten

nur die Elemente des Python-Codes erklärt, sondern

Sprache Processing. P5.js 382 oder kurz P5 ist die auf

es wird auch der DrawBot vorgestellt. Dieser erlaubt,

JavaScript basierende Version von Processing und er-

weil er eine spezielle Bibliothek für Visualisierung

laubt damit, selbst programmierte Anwendungen ein-

einbindet, auch visuelle Anwendungen zu program-

fach in Webbrowser einzubinden. P5 hat den Vorteil,

mieren. Ohne diese Bibliothek sind visuelle Darstel-

dass es Designer:innen eine große Menge nützlicher

lungen nicht ohne Weiteres in Python möglich. So

Befehle zur Verfügung stellt und ihnen damit erlaubt,

können sich Designer:innen schnell und einfach mit

schnell interaktiv gestalten zu können. Zu P5 gibt

den Grundlagen der Programmiersprache vertraut

es einige gute Online-Tutorials , die den Einstieg

machen. In einem zweiten Schritt können sie dann

noch einmal erleichtern. Interessant ist nun, dass P5

auch Programmcode anderer Forscher:innen und

über eine spezielle Bibliothek verfügt, die eine Reihe

Gestalter:innen nutzen, um ihn in eigene gestalteri-

von intelligenten Systemen umfasst. Die Bibliothek

sche Projekte einzubinden. Eine hilfreiche Seite ist

mit dem Namen ML5.js 384, oder kurz ML5, erlaubt es,

das Google Co-Lab , das erlaubt, Python-Code direkt

diese vortrainierten Systeme direkt in P5 einzubinden

im Browser mittels sogenannter virtueller Notebooks

und zu nutzen. So können beispielsweise Bilderken-

ausführen zu lassen. Zum einen stellen einige For-

nungsalgorithmen als Input genutzt werden, um

scher:innen und Designer:innen 388 ihre Notebooks

interessante interaktive Anwendungen zu schaffen.

direkt in Co-Lab zur Verfügung. Designer:innen kön-

ML5 erlaubt aber auch, Posen zu erkennen, und

nen den Code dann einfach nutzen und selber anpas-

verfügt über Style Transfer, GANs und sogar KNN-

sen. Zum anderen werden viele eher experimentelle

Algorithmen, die im Kapitel 2.5 genauer beschrieben

Forschungsergebnisse zu intelligenten Systemen über

sind. Auch für diese Bibliothek gibt es sehr gute

Open-Source-Bibliotheken wie GitHub oder Papers

Online-Tutorials, beispielsweise der unterhaltsame

With Code geteilt, die Designer:innen mit Python-

„Beginner’s Guide to Machine Learning with ml5.js“ 385

Kenntnissen dann in Co-Lab importieren und frei

von Dan Shiffman, der Lust machen kann, selbst zu

nutzen können.

383

programmieren. 382 P5.js: „Hello!“, https://p5js.org (21.4.2022). 383 Processing with AI: „Starting with p5.js“, https://processing-with-ai.gitlab.io/part2/programming (21.4.2022). 384 ML5: „Friendly Machine Learning for the Web“, https://ml5js.org (21.4.2022). 385 The Coding Train: „A Beginner‘s Guide to Machine Learning with ml5.js“, https://www.youtube.com/watch?v=jmznx0Q1fP0 (21.4.2022).

386 Python for Designers: „Welcome to Python for Designers“, https://pythonfordesigners.com (21.4.2022). 387 Google Research: „Willkommen bei Colaboratory“, https://colab.research.google.com (21.4.2022). 388 Kogan, Gene: „Machine Learning for Art“, https://ml4a.net (21.4.2022).

Kapitel 5: Mit intelligenten Systemen gestalten – ein praktischer Einstieg

177

5.4.5 Tools 5: Intelligente Anwendungen

Für kleinere Projekte können sich Designer:innen

interdisziplinär erarbeiten

mit Data Scientists und Developer:innen zu Miniteams zusammenschließen und bereits bestehende

Designer:innen, die in größeren Unternehmen ar-

Modelle nutzen, um neue Use-Cases zu erproben.

beiten, sind meist in agile, interdisziplinäre Teams

Sie können aber auch mit eigenen Trainingsdaten

eingebunden. Dort sind neben den Projektmana-

frei zugängliche Modelle trainieren und ganz neue

ger:innen und Scrum-Mastern auch Data Scientists

Anwendungsfälle schaffen. Für größere, komplexe

und Entwickler:innen in das Team eingebunden. Da-

kommerzielle Projekte stellt sich die Frage nach

mit eröffnen sich für die Designer:innen neue Mög-

einer schrittweisen Entwicklung neuer intelligenter

lichkeiten, gemeinsam intelligente Anwendungen zu

Anwendungen und damit nach einem Innovation

entwickeln. Sie müssen hier nicht über tiefes techni-

Framework für intelligente Produkte, die im folgen-

sches Wissen oder Programmierkenntnisse verfügen.

den letzten Kapitel beantwortet werden soll.

Sie können sich darauf verlassen, dass Data Scientists die notwendigen Daten sammeln und aufbereiten, die Modelle aussuchen und das intelligente System trainieren. Die Developer:innen binden dann auf Grundlage gestalterischer Vorgaben, wie etwa Wireframes, diese Modelle in beispielsweise eine Webanwendung ein, um letztlich einen funktionierenden Prototyp zu kreieren. Voraussetzung dafür, dass diese Zusammenarbeit gelingt, ist das Wissen der Designer:innen darüber, wie intelligente Systeme funktionieren und angewendet werden und es das Kapitel 2 darlegt. Wichtig sind aber auch Kenntnisse darüber, wie diese Systeme eine Intelligence Experience erzeugen, wie dies in Kapitel 3 beschrieben wurde. Nur so kann das Team sicherstellen, dass ein wirklicher konzeptioneller Austausch stattfinden kann. Designer:innen sollten, wie bei allen Projekten, von Beginn an in das Projekt einbezogen werden. Das Simplification Team von Strichpunkt aus der Case Study im Kapitel 4 beispielsweise tauschte sich schon früh untereinander aus. So verstand der Informatiker Andreas Stiegler das Problem besser, Designregeln in einen Algorithmus zu übersetzen, und die Gestalter:innen wurden mit algorithmischem Denken vertraut gemacht.

Kapitel 5: Mit intelligenten Systemen gestalten – ein praktischer Einstieg

178

5.5 Floom: Ein visuelles, interaktives Innovation

Möchten Designer:innen intelligente Anwendungen

Framework für nutzer:innenzentriertes Machine

und Produkte selbst entwickeln, stehen viele von

Learning in interdisziplinären Teams

ihnen vor dem Problem, dass sie es mit einer komplexen interdisziplinären Aufgabe zu tun haben.

Autoren:

Denn wenn sie nicht das Wissen und die Fähigkeiten

Niclas Bauermeister (MHP)

haben, selbst Daten zu akquirieren, Modelle zu trai-

Marcel Tobien (MHP)

nieren und diese dann in eine App oder eine Website

Sebastian Löwe (MD.H)

einzubinden, dann müssen sie mit Data Scientists, Developer:innen und Businessexpert:innen in einem Team zusammenarbeiten. Diese Teams arbeiten in modernen Unternehmen und Beratungen meist agil und bestehen daher noch zusätzlich aus einem Project-Owner und einem Scrum-Master. Spätestens in diesen agilen Teams müssen Designer:innen mit vielen unterschiedlichen Rollen interagieren und Schnittstellenwissen besitzen, um effizient zu kommunizieren und gemeinsam nützliche und erfolgreiche intelligente Anwendungen zu schaffen. Bisher konnten Innovationsteams bei der Entwicklung von digitalen Produkten auf verschiedene klassische und agile Innovationsmethoden und -prozesse zurückgreifen. Allerdings ist es überraschend, dass trotz der Vielzahl an Methoden und Prozessen noch keine disziplinenübergreifenden Produktentwicklungsprozesse in einem ganzheitlichen Innovation Framework definiert wurden. Für intelligente Produkte gibt es sogar überhaupt kein entsprechendes Framework. Dort, wo diese Frameworks skizziert wurden, schaffen sie oft nicht den Übergang von der theoretischen Reflexion in ein konkret anwendbares und für die unternehmenseigenen Arbeitsabläufe adaptierbares Framework. Oftmals arbeiten Teams trotz ihrer interdisziplinären Zusammensetzung auch noch in einzelnen voneinander getrennten Silos, also voneinander getrennten Kompetenzbereichen. Entsprechend fehlen in den Innovationsprozessen der gegenseitige

Kapitel 5: Mit intelligenten Systemen gestalten – ein praktischer Einstieg

179

Austausch, die gemeinsame Synchronisation und der

Projektablauf insgesamt werden dadurch schlechter

Wissenstransfer über die eigene Fachrichtung hinaus.

nachvollziehbar und an die Teammitglieder kom-

Innovationsprozesse werden viel zu häufig nicht

munizierbar. Damit können die Erwartungen an die

bereichsübergreifend konzipiert und durchgeführt.

Teammitglieder in Bezug auf Umfang und Dauer der

So können mögliche Optimierungspotenziale nicht

jeweiligen Aufgaben schlechter abgeschätzt werden

ausgeschöpft werden, da sie in einzelnen Fachrich-

und entsprechend unrealistisch formuliert sein.

tungen untergehen oder nur in den jeweiligen Silos optimiert werden. Implikationen und Synergieeffekte

Es fehlt oft auch ein gemeinsames Grundlagen-

für andere Fachbereiche, die im Innovationsprozess

wissen, denn jede Fachrichtung erarbeitet und teilt

beteiligt sind, können so ebenfalls nicht berücksich-

eigene Ressourcen nur in den Silos ihrer jeweiligen

tigt werden.

Disziplin. Wiederkehrende Projektschritte und gemeinsam genutzte Ressourcen wie Personas und

Durch die bestehende Silostruktur in Innova-

User Journeys sollten vom gesamten Team erarbei-

tionsprozessen werden oft auch zentrale Vorgänge,

tet werden, um eine nahtlose Zusammenarbeit zu

wie etwa die Problemfindung und -definition, auf

ermöglichen. Insgesamt fühlt sich die Projektarbeit

einzelne Fachrichtungen verteilt, nach dem Motto:

daher sehr technisch und wenig kreativ gestaltbar an.

„Die Designer:innen machen das dann schon.“ Prob-

Hinzu kommt, dass durch fehlende Transparenz

lemlösungen werden häufig fachspezifisch definiert

aktuelle Arbeitsstände und Projektfortschritte vor

und nicht aus allen Fachrichtungen gemeinsam ent-

Stakeholdern nur mit erheblichem zusätzlichem

wickelt. Entsprechend insular ist das grundlegende

Zeitaufwand präsentiert werden können. Zeitaufwen-

Methodenwissen der Teammitglieder in Bezug auf

dig und kompliziert ist es auch, neue Mitglieder ins

Design-Thinking-Methoden, nutzer:innenzentrierte

Projekt einzuarbeiten.

Methoden oder gemeinsam definierte und etablierte Designprinzipien. Diese sind jedoch Ausdruck einer

Aus Sicht des Teamgefühls und -zusammenhalts

nutzer:innenzentrierten Gesamtsicht- und -arbeits-

wird deutlich, dass sie nicht aus der gemeinsamen

weise und sollten von allen Mitgliedern gekannt und

vernetzten Arbeit entstehen können, sondern durch

geteilt sein.

zwischenmenschliches Engagement der Mitglieder untereinander hergestellt werden müssen. Fehler

Insgesamt fehlt also ein gemeinsam geteilter

oder Rückschläge werden zudem nicht als Team

Arbeitsbereich für interdisziplinäre, agile Innova-

abgefangen, sondern auf einzelne Fachrichtungen

tionsprozesse, noch dazu für intelligente Produkte.

abgeschoben, was wiederum negativ auf das gesamte

Dies hat Konsequenzen für die Transparenz von

Teamgefühl wirkt. Zudem werden Teams oft nicht

Projektablauf und -ressourcen und für die Frage,

aus Expert:innen der verschiedenen beteiligten Fach-

wie man erarbeitetes Projektwissen teilen kann.

richtungen zusammengestellt.

In puncto Transparenz fehlt durch die Silostruktur des Innovationsprozesses eine gemeinsame

Durch dieses kurze Schlaglicht auf die reale Praxis

Wissensbasis bezüglich der Anforderungen an die

interdisziplinärer Innovationsprozesse ist deutlich

Teams und ihre konkreten Arbeitspakete. Einzelne

geworden, dass es einen dringenden Innovations-

Entscheidungen der Teammitglieder, aber auch der

bedarf dieser Prozesse selbst gibt. Wir haben daher

Kapitel 5: Mit intelligenten Systemen gestalten – ein praktischer Einstieg

180

Abb. 5.1: Detailansicht des interaktiven Innovation Frameworks

mit der Beratungsfirma MHP – A Porsche Company

führt dann sehr konkret durch alle Schritte, die

ein ganzheitliches Innovation Framework konzipiert,

notwendig sind, um die Idee in einem interdiszipli-

entworfen und iterativ ausgearbeitet, das die oben

nären, agilen Team umzusetzen. Das Framework ist

genannten Defizite behebt. Da es als interaktives vi-

als interaktives grafisches Framework konzipiert, das

suelles Framework den Innovationsprozess, den Flow,

entweder so genutzt werden kann, wie wir es für den

durch eine Reihe wichtiger Stationen und Räume

Beratungskontext entwickelt haben. Es ist gleichzei-

begleitet, firmiert es unter dem Namen Floom, ein

tig als Baukastensystem konzipiert und kann auch auf

Akronym aus Flow und Room.

andere Kontexte übertragen und adaptiert werden. Alle Teammitglieder werden als Avatare grafisch re-

Floom konzentriert sich auf Innovationsprojekte

präsentiert und interaktiv durch den Innovationspro-

für intelligente Produkte und Anwendungen mit

zess geführt. Der Prozess selbst ist als Reihe von auf-

Kund:innen im Beratungskontext, kann aber auch auf

einanderfolgenden Räumen konzipiert, durch die sich

unternehmensinterne Innovationsprozesse angepasst

die Avatare hindurchbewegen. So ist immer für jeden

werden. Es setzt innovationsstrategische Überlegun-

intuitiv ersichtlich, wo sich die jeweiligen Team-

gen, wie sie in Kapitel 3.4.5 angesprochen wurden,

mitglieder befinden und welche Aufgabe sie gerade

bereits voraus, beantwortet also grundlegende stra-

bearbeiten. Jede Disziplin im Team – Designer:innen,

tegische Fragen nicht. Es geht von einer bestehenden

Entwickler:innen, Data Scientists, Businessexpert:in-

Innovationsidee aus, die ein konkretes Anwendungs-

nen, Project-Owner und Scrum-Master – ist farblich

gebiet für intelligente Systeme formuliert. Diese so-

kodiert und folgt ihrer Farbe; gemeinsame Arbeits-

genannte Business-Hypothese der Kund:innen wird

aufgaben als Gesamtteam sind besonders gekenn-

dann geprüft, ob und wie sie umsetzbar ist. Floom

zeichnet und finden in Gruppenräumen statt. Jeder

Kapitel 5: Mit intelligenten Systemen gestalten – ein praktischer Einstieg

181

Raum hat spezielle Aufgabenstellungen, die erfüllt

Floom kann auf www.designundki.de herunterge-

werden sollten, bevor die Avatare fortfahren kön-

laden und genutzt werden. Dort findet sich auch eine

nen. Zusätzlich zu den Aufgaben bekommt das Team

Liste weiterer hilfreicher Ressourcen und Anwen-

Hilfestellungen mit weiterführenden Quellen und

dungen für den Start in das Thema Design mit und

Lösungsanforderungen, um das Wissen aller Fach-

für intelligente Systeme.

kompetenzen zu nutzen. Alle Ergebnisse werden auf interaktiven Whiteboards in den Räumen erarbeitet und festgehalten. Besonders wichtige Ergebnisse, die den Charakter einer Arbeitsvoraussetzung für andere Mitglieder haben, werden durch Floom verlässlich geteilt. Auch gemeinsames Wissen und methodische Grundlagen wie Design Thinking können so im gesamten Team zirkulieren. Die Arbeitsergebnisse der einzelnen Phasen werden damit für das ganze Team zu einer einzigen „Source of Truth“, also einer gemeinsamen Arbeits- und Wissensbasis über alle Phasen des Frameworks hinweg. Durch den Aufbau der Räume ist der Projektablauf in klare Phasen eingeteilt und damit inhaltlich gut strukturiert. Durch die deutlich definierten Aufgabenbereiche und Verantwortlichkeiten wird der komplexe Prozess insgesamt übersichtlicher und transparenter. Einzelne Entscheidungen der Mitglieder werden nachvollziehbar und das interdisziplinäre Verständnis wird insgesamt gefördert. Scrum-Master nutzen Floom als Orientierung und Hilfestellung, um das Projektgeschehen transparenter zu gestalten, interne Kommunikation und Wissenstransfer zu fördern und damit eine positive, produktive Teamdynamik zu erzeugen. Project-Owner als Gesamtverantwortliche für das Produkt stellen mit Floom sicher, dass die richtigen Prioritäten gesetzt sind, verwalten den Project-Backlog und halten mit dem Team die Product-Vision fest. Zudem hilft das Framework, Projektergebnisse relevanten Stakeholdern zu kommunizieren und Vorgehensweisen des Teams zu begründen.

Literaturverzeichnis

Literaturverzeichnis

Adlin, Tamara/Pruitt, John: The Essential Persona Lifecycle. Your Guide to Building and Using Personas, Burlington: Elsevier 2010. Adobe: „Liste von Neural Filters und FAQ“, https://helpx.adobe.com/de/photoshop/using/neural-filters-list-and-faq.html. Adobe: „Neural Filters overview“, https://helpx.adobe.com/photoshop/using/neural-filters.html. Adobe: „The 3D generation is here“, https://www.adobe.com/products/substance3d/3d-augmented-reality.html Adobe Creative Cloud: „#ConceptCanvas. Adobe MAX 2016“, https://www.youtube.com/watch?v=Yyj6oWkAI0I. Affectiva: „Affectiva Media Analytics for Ad Testing“, https://www.affectiva.com/product/affectiva-media-analytics-for-ad-testing. Aggarwal, Charu: Data Mining. The Textbook, Cham: Springer International Switzerland 2015. Ajitsaria, Abhinav: „Build a Recommendation Engine With Collaborative Filtering. Real Python“, https://realpython.com/build-recommendation-engine-collaborativefiltering. Alarcon, Nefi: „NVIDIA Invents AI Interactive Graphics“, https://developer.nvidia.com/blog/nvidia-invents-ai-interactive-graphics. AlBahar, Badour/Lu, Jingwan/Yang, Jimei et al.: „Pose with Style: Detail-Preserving Pose-Guided Image Synthesis with Conditional StyleGAN“, https://arxiv.org/abs/2109.06166. Algorithmic Justice League: „Research“, https://www.ajl.org. Alibaba Luban: „AI-based Graphic Design Tool“, https://www.alibabacloud.com/blog/alibaba-luban-ai-based-graphic-designtool_594294. Alpaydin, Ethem: Machine Learning, Cambridge: MIT Press 2016. An, Jisun/Kwak, Haewoon/Jung, Soon-gyo et al.: „Customer segmentation using online platforms: isolating behavioral and demographic segments for persona creation via aggregated user data“, Social Network Analysis and Mining 8 (2018). Anger, Gerhard: „Drop That Intelligence and Get on with It!“, in: Engenhart, Marc/ Loewe, Sebastian (Hrsg.): Proceedings of the First Conference on Designing with Artificial Intelligence, München: appliedAI 2021, S. 64–69. Angwin, Julia/Larson, Jeff/Mattu, Surya et al.: „Machine Bias“, https://www.propublica.org/article/machine-bias-risk-assessments-in-criminalsentencing. Antipov, Grigory/Baccouche, Moez/Dugelay, Jean-Luc: „Face Aging With Conditional Generative Adversarial Networks“, https://arxiv.org/abs/1702.01983.

183

Literaturverzeichnis

Apple Developer: „Human Interface Guidelines. Machine Learning“, https://developer.apple.com/design/human-interface-guidelines/machine-learning/ overview/introduction. Applied AI: „Ethical use of AI“, https://www.appliedai.de/hub/ethical-use-of-ai. Audi: „UX Paradigms“, https://www.audi.com/ci/en/guides/user-interface/ ux-paradigms.html. Autodesk: „Fusion 360“, https://www.autodesk.de/products/fusion-360. Autodesk: „Überblick“, https://www.autodesk.de/solutions/bim. Autodesk: „Under Armour. Changing the game with generative design and additive manufacturing“, https://fom.autodesk.com/customer-innovation-spotlight/p/8. Bauer, Harald/Richter, Gérard/Wüllenweber, Jan et al.: „Smartening up with Artificial Intelligence. What’s in it for Germany and its Industrial Sector?“, https://www.mckinsey.com/~/media/mckinsey/industries/semiconductors/ our%20insights/smartening%20up%20with%20artificial%20intelligence/ smartening-up-with-artificial-intelligence.ashx. Bauhauslabor: „OTFG“, https://otf.bauhauslabor.de/#/generate. Bernal, Guillermo/Zhou, Lily/Yuen, Erica et al.: „Paper Dreams: Real-Time Human and Machine Collaboration for Visual Story Development“, https://www.media.mit.edu/ publications/real-time-human-and-machine-collaboration-for-visual-story-development. Bertoni, Alessandro/Hallstedt, Sophie/Dasari, Siva et al.: „Integration of value and sustainability assessment in design space exploration by machine learning: an aerospace application“, https://doi.org/10.1017/dsj.2019.29. Betancourt, Michel: Force Magnifier. The Cultural Impacts of Artificial Intelligence, Cabin John: Wild Side Press 2020. Bodegraven, Joël van: „How Anticipatory Design Will Challenge Our Relationship with Technology“, https://www.aaai.org/ocs/index.php/SSS/SSS17/paper/ viewFile/15352/14582. Boden, Margaret: AI. Its Nature and Future, Oxford: Oxford University Press 2016. Böhm, Markus: „Google trennt sich von KI-Forscherin. ‚Das Ausmaß der Respektlosigkeit ist unglaublich‘“, https://www.spiegel.de/netzwelt/web/google-warum-ist-kiforscherin-timnit-gebru-nicht-mehr-im-unternehmen-a-79c1daba-caf1-4d7e-b0196389274c9409. Bostrom, Nick: Superintelligence: Paths, Dangers, Strategies, Oxford: Oxford University Press 2014. Bramer, Max: Principles of Data Mining, London: Springer-Verlag 2016. Brandmark: „AI Color Wheel“, https://brandmark.io/color-wheel.

184

Literaturverzeichnis

Breland, Ali: „How white engineers built racist code – and why it‘s dangerous for black people“, https://www.theguardian.com/technology/2017/dec/04/ racist-facial-recognition-white-coders-black-people-police. Breuer, Klaus: Computerspiele programmieren. Künstliche Intelligenz für künstliche Gehirne, München: Oldenbourg 2012. Bröckling, Ulrich: „Über Kreativität. Ein Brainstorming“, in: Menke, Christoph/Rebentisch, Juliane (Hrsg.): Kreation und Depression. Freiheit im gegenwärtigen Kapitalismus, Berlin: Kadmos 2010, S. 89–97. Brown, Tom/Mann, Benjamin/Ryder, Nick et al.: „Language Models are Few-Shot Learners“, https://arxiv.org/abs/2005.14165. Brownlee, Jason: „Understand the Impact of Learning Rate on Neural Network Performance“, https://machinelearningmastery.com/understand-the-dynamics-of-learningrate-on-deep-learning-neural-networks. Bughin, Jacques/Seong, Jeongmin/Manyika, James et al.: „Notes from the AI frontier: Modeling the impact of AI on the world economy“, https://www.mckinsey.com/~/ media/McKinsey/Featured%20Insights/Artificial%20Intelligence/ Notes%20from%20the%20frontier%20Modeling%20the%20impact%20of%20AI%20 on%20the%20world%20economy/MGI-Notes-from-the-AI-frontier-Modeling-the-impact-of-AI-on-the-world-economy-September-2018.pdf. Buolamwini, Joy/Gebru, Timnit: „Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification“, Proceedings of Machine Learning Research 81 (2018), S. 77–91. Buranyi, Stephen: „Rise of the racist robots – how AI is learning all our worst impulses“, https://www.theguardian.com/inequality/2017/aug/08/rise-of-the-racist-robots-howai-is-learning-all-our-worst-impulses. Bürdek, Bernhard: Design Geschichte, Theorie und Praxis der Gestaltung, Basel: Birkhäuser 2015. Burkov, Andriy: The Hundred-Page Machine Learning Book, Eigenpublikation 2019. Burnap, Alexander/Hartley, Jeffrey/Pan, Yanxin et al.: „Balancing design freedom and brand recognition in the evolution of automotive brand styling“, https://doi.org/10.1017/ dsj.2016.9. Camburn, Bradley/Arlitt, Ryan/Anderson, David et al.: „Computer-aided mind map generation via crowdsourcing and machine learning“, Research in Engineering Design 31 (2020), S. 383–409. Camburn, Bradley/He, Yuejun/Raviselvam, Sujithra et al.: „Evaluating Crowdsourced Design Concepts With Machine Learning“, https://doi.org/10.1115/DETC2019-97285. Cartwright, Amber: „Invisible Design: Co-designing with machines“, https://medium.com/swlh/invisible-design-co-designing-with-machines-aea62a1e0f6d.

185

Literaturverzeichnis

Chao, Yu-Wei/Yang, Jimei/Chen, Weifeng et al.: „Learning to Sit. Synthesizing Human-Chair Interactions via Hierarchical Control“, https://arxiv.org/abs/1908.07423. Chen, Chun-Fu/Pistoia, Marco/Shi, Conglei et al.: „UI X-Ray: Interactive Mobile UI Testing Based on Computer Vision“, https://dl.acm.org/doi/10.1145/3025171.3025190. Chen, Jieshan/Chen, Chunyang/Xing, Zhenchang et al.: „Wireframe-Based UI Design Search Through Image Autoencoder“, https://arxiv.org/abs/2103.07085. Chen, Shizhe/Liu, Bei/Fu, Jianlong et al.: „Neural Storyboard Artist: Visualizing Stories with Coherent Image Sequences“, https://dl.acm.org/doi/10.1145/3343031.3350571. Chen, Shu-Yu/Su, Wanchao/Gao, Lin et al.: „DeepFaceDrawing: Deep Generation of Face Images from Sketches“, http://geometrylearning.com/DeepFaceDrawing. Choi, Yunjey/Uh, Youngjung/Yoo, Jaejun et al: „StarGAN v2: Diverse Image Synthesis for Multiple Domains“, https://github.com/clovaai/stargan-v2. Churchill, Elizabeth/van Allen, Philip/Kuniavsky, Mike: „Special Topic: Designing AI. Introduction“, https://interactions.acm.org/archive/view/november-december-2018/ introduction19. Cinelytic: „Leading the AI Revolution in the Entertainment Industry“, https://www.cinelytic.com/about. Cole, Samantha: „Deepfake of Boris Johnson Wants to Warn You About Deepfakes“, https://www.vice.com/en/article/8xwjkp/deepfake-of-boris-johnson-wants-towarn-you-about-deepfakes. Crawford, Kate: Atlas of AI, New Haven: Yale University Press 2021. Cubic Motion: „Siren“, https://cubicmotion.com/case-studies/siren. Cuthbertson, Anthony: „Elon Musk claims AI will overtake humans in less than five years“, https://www.independent.co.uk/life-style/gadgets-and-tech/news/elon-muskartificial-intelligence-ai-singularity-a9640196.html. D’Arco, Mario/Lo Presti, Letizia/Marino, Vittoria et al.: Embracing AI and Big Data in customer journey mapping. From literature review to a theoretical framework, Innovative Marketing, 15 (2019), S. 102¬–115. Daugherty, Paul/Wilson, James: Human + Machine. Reimagining Work in the Age of AI, Boston: Harvard Business Review Press 2018. Daumé, Hal: A Course in Machine Learning, Eigenpublikation 2017. Deshpande, Adit: „A Beginner‘s Guide To Understanding Convolutional Neural Networks“, https://adeshpande3.github.io/adeshpande3.github.io/ A-Beginner‘s-Guide-To-Understanding-Convolutional-Neural-Networks. Diagne, Cyril: „Runway Palette“, https://experiments.withgoogle.com/ business-of-fashion.

186

Literaturverzeichnis

Digital Blue Foam: „Synthetic Machine Learning: Real-time Spatial Daylight Autonomy Prediction“, https://www.digitalbluefoam.com/whitepapers/daylight-autonomy. Disney Research: „Anyma“, https://studios.disneyresearch.com/anyma. Disney Research: „Medusa“, https://studios.disneyresearch.com/medusa. Dory, Mike/DelliCarpini, Mindy: „Simulating Intelligence. Techniques for prototyping machine learning systems across products and features“, https://design.google/ library/simulating-intelligence. Dudley, John/Kristensson, Per Ola: „A Review of User Interface Design for Interactive Machine Learning“, https://dl.acm.org/doi/10.1145/3185517. Epley, Nicholas/Waytz, Adam/Cacioppo, John: „On seeing human: a three-factor theory of anthropomorphism“, https://pubmed.ncbi.nlm.nih.gov/17907867. Erlhoff, Michael/Marshall, Tim: „Design-Kompetenz“, in: Erlhoff, Michael/Marshall, Tim (Hrsg.): Wörterbuch Design. Begriffliche Perspektiven des Design, Basel: Birkhäuser Verlag 2008, S. 28–33. Ertel, Wolfgang: Introduction to Artificial Intelligence, London: Springer-Verlag 2017. Ethics For Designers: „Design needs ethics“, https://www.ethicsfordesigners.com. Europäische Kommission: „Neue Vorschriften für künstliche Intelligenz – Fragen und Antworten“, https://ec.europa.eu/commission/presscorner/detail/de/QANDA_21_1683. Experiments with Google: „Runway Palette“, https://experiments.withgoogle.com/ business-of-fashion. EyeQuant: „The future is here. Data driven design“, https://www.eyequant.com. Facebook AI: „Inside the Lab: Building for the metaverse with AI“, https://fb.watch/bmXJ194H08. Feldman Barrett, Lisa/Adolphs, Ralph/Marsella, Stacy et al.: „Emotional expressions reconsidered: Challenges to inferring emotion from human facial movements“, https://journals.sagepub.com/doi/full/10.1177/1529100619832930. Fiebrink, Rebecca: „How Design Changes Machine Learning. How Machine Learning Changes Design“, in: Engenhart, Marc/Loewe, Sebastian (Hrsg.): Proceedings of the First Conference on Designing with Artificial Intelligence, München: appliedAI 2021. Fokken, Silke: „Neuer Ärger um Abschlussnoten – und Belege für Noteninflation“, https://www.spiegel.de/panorama/bildung/corona-in-grossbritannien-neueraerger-um-abschlussnoten-und-belege-fuer-noteninflation-a-4eddf750-d51e488e-a8e8-d10cdcc3bcf1. Fontjoy: „Projector“, https://fontjoy.com/projector. Ford, Kenneth/Hayes, Patrick/Glymour, Clark: „Cognitive Orthoses: Toward HumanCentered AI“, https://ojs.aaai.org/index.php/aimagazine/article/view/2629. Fosco, Camilo/Casser, Vincent/Bedi, Amish Kumar et al.: „Predicting Visual Importance Across Graphic Design Types“, http://predimportance.mit.edu.

187

Literaturverzeichnis

Foster, George: „That‘s Not Bruce Willis In A Russian Phone Commercial, That‘s Another Deepfake“, https://www.thegamer.com/bruce-willis-deepfake. Frost, Brad: Atomic Design, Pittsburgh: Brad Frost Web 2016. Galeon, Dom: „Softbank CEO: The Singularity Will Happen by 2047“, https://futurism.com/softbank-ceo-the-singularity-will-happen-by-2047. Garcia-Dorado, Ignacio/Getreuer, Pascal/Le, Madison et al.: „Graphic Narrative with Interactive Stylization Design“, https://arxiv.org/abs/1712.06654. Gatys, Leon/Ecker, Alexander/Bethge, Matthias: „A Neural Algorithm of Artistic Style“, https://arxiv.org/abs/1508.06576. Georgiev, Georgi/Georgiev, Danko: „Enhancing user creativity: Semantic measures for idea generation“, Knowledge-Based Systems 151 (2018), S. 1–15. Gerstner, Karl: Programme entwerfen, Teufen: Niggli 1963. Gillies, Marco/Fiebrink, Rebecca/Tanaka, Atau et al.: „Human-Centred Machine Learning“, https://dl.acm.org/doi/10.1145/2851581.2856492. Gisslén, Linus/Eakins, Andy/Gordillo, Camilo: „Adversarial Reinforcement Learning for Procedural Content Generation“, https://arxiv.org/abs/2103.04847. Godau, Marion: „Design-Kompetenz“, in: Erlhoff, Michael/Marshall, Tim (Hrsg.): Wörterbuch Design. Begriffliche Perspektiven des Design, Basel: Birkhäuser Verlag 2008, S. 94–96. Goodfellow, Ian/Bengio, Yoshua/Courville, Aaron: Deep Learning, Cambridge: MIT Press 2016. Goodfellow, Ian/Pouget-Abadie, Jean/Mirza, Mehdi et al.: „Generative Adversarial Nets“, https://arxiv.org/abs/1406.2661. Google Developers: „Fairness: Types of Bias“, https://developers.google.com/ machine-learning/crash-course/fairness/types-of-bias. Google People and AI Research: „What-If Tool“, https://pair-code.github.io/ what-if-tool. Google People and AI Research: „Hidden Bias“, https://pair.withgoogle.com/ explorables/hidden-bias. Google People and AI Research: „People + AI Guidebook“, https://pair.withgoogle.com/ guidebook. Google Research: „Willkommen bei Colaboratory“, https://colab.research.google.com. GPT-3: „A robot wrote this entire article. Are you scared yet, human?“, https://www.theguardian.com/commentisfree/2020/sep/08/robot-wrotethis-article-gpt-3.

188

Literaturverzeichnis

Graves, Alex/Wayne, Greg/Reynolds, Malcolm et al.: „Hybrid computing using a neural network with dynamic external memory“, https://www.nature.com/articles/nature20101. Grover, Prince: „Various Implementations of Collaborative Filtering“, https://towardsdatascience.com/various-implementations-of-collaborativefiltering-100385c6dfe0. Gründel, Marleen: „So macht Künstliche Intelligenz Unternehmen profitabler“, https://www.manager-magazin.de/unternehmen/kuenstliche-intelligenz-machtunternehmen-laut-zew-studie-profitabler-und-innovativer-a-f7bb26a6-0d4e4954-aea7-9f0e342c2435. Gryaditskaya, Yulia/Hähnlein, Felix/Liu, Chenxi et al.: „Lifting freehand concept sketches into 3D“, https://dl.acm.org/doi/10.1145/3414685.3417851. Guo, Mengxi/Huang, Danqing/Xie, Xiaodong: „The Layout Generation Algorithm of Graphic Design Based on Transformer-CVAE“, https://arxiv.org/abs/2110.06794. Gupta, Prashant: „Decision Trees in Machine Learning“, https://towardsdatascience.com/ decision-trees-in-machine-learning-641b9c4e8052. Hamilton, Mark/Fu, Stephanie/Lu Mindren et al.: „MosAIc: Finding Artistic Connections across Culture with Conditional Image Retrieval“, https://microsoft.github.io/art/app. Hartmann, Philipp/Liebl, Andreas/Waldmann, Alexander et al.: „Applying AI. The elements of a comprehensive AI strategy“, https://www.appliedai.de/hub/elements-ofa-comprehensive-ai-strategy. Hassenzahl, Marc: „User experience (UX): towards an experiential perspective on product quality“, https://dl.acm.org/doi/10.1145/1512714.1512717. He, Kaiming/Gkioxari, Georgia/Dollár, Piotr et al.: „Mask R-CNN“, https://ieeexplore.ieee.org/document/8237584. He, Zecheng/Sunkara, Srinivas/Zang, Xiaoxue et al.: „ActionBert: Leveraging User Actions for Semantic Understanding of User Interfaces“, https://arxiv.org/abs/2012.12350. Hebron, Patrick: Machine Learning for Designers, Boston: O’Reilly Media 2016. Hellström, Thomas/Dignum, Virginia/Bensch, Suna: „Bias in Machine Learning – What is it Good for?“, http://ceur-ws.org/Vol-2659. Hertzmann, Aaron: „Computers Do Not Make Art, People Do“, Communications of the ACM, 63 (2020), S. 45–48. Hochreiter, Sepp/Schmidhuber, Jürgen: „Long Short-Term Memory“, https://doi.org/10.1162/neco.1997.9.8.1735. Hochschule Mainz: „KI-Verbundvorhaben“, https://www.hs-mainz.de/news/ ki-verbundvorhaben. Holden, Daniel/Komura, Taku/Saito, Jun: „Phase-functioned neural networks for character control“, https://dl.acm.org/doi/10.1145/3072959.3073663.

189

Literaturverzeichnis

Howard, Thomas.J./Culley, Stephen.J./Dekoninck, Elies: „Describing the creative design process by the integration of engineering design and cognitive psychology literature“, https://www.sciencedirect.com/science/article/pii/S0142694X08000173. Hsiao, Wei-Lin/Katsman, Isay/Wu, Chao-Yuan et al.: „Fashion++: Minimal Edits for Outfit Improvement“, https://ai.facebook.com/blog/building-ai-to-inform-peoples-fashionchoice. Hulten, Geoff: Building Intelligent Systems. A Guide to Machine Learning Engineering, New York City: Apress 2018. IBM: „Design for AI“, https://www.ibm.com/design/ai. IBM: „What is social media analytics?“, https://www.ibm.com/topics/social-mediaanalytics. IDEO: „Fontmap“, http://fontmap.ideo.com. IEEE: „Ethically Aligned Design“, https://ethicsinaction.ieee.org. Igual, Laura/Seguí, Santi: Introduction to Data Science, Cham: Springer 2017. Isola, Phillip/Zhu, Jun-Yan/Efros, Alexei et al.: „Image-to-Image Translation with Conditional Adversarial Networks“, https://arxiv.org/abs/1611.07004. Jali Research: „Rule Based AI + Animation Principles + Human Insight“, http://jaliresearch.com. James, Gareth/Witten, Daniela/Hastie, Trevor et al.: An Introduction to Statistical Learning, New York: Springer Science+Business Media 2017. Jansen, Bernard/Salminen, Joni/Jung, Soon-gyo et al.: Data-driven Personas, San Rafael: Morgan and Claypool 2021. Jiang, Shuhui/Wang, Zhaowen/Hertzmann, Aaron: „Visual Font Pairing“, https://arxiv.org/abs/1811.08015. Karimi, Pegah/Davis, Nicholas/Maher, Mary Lou et al.: „Relating Cognitive Models of Design Creativity to the Similarity of Sketches Generated by an AI Partner“, in: Dow, Steven/Maher, Mary Lou (Hrsg.): Proceedings of the 2019 ACM Conference on Creativity and Cognition, Association for Computing Machinery, New York: Association for Computing Machinery 2019, S. 259–270. Karras, Tero/Aittala, Miika/Hellsten, Janne et al.: „Training Generative Adversarial Networks with Limited Data“, https://arxiv.org/abs/2006.06676. Karras, Tero/Aittala, Miika/Laine, Samuli et al.: „Alias-Free Generative Adversarial Networks (StyleGAN3)“, https://nvlabs.github.io/stylegan3. Kaspar, Alexandre/Oh, Tae-Hyun/Makatura, Liane et al: „Neural Inverse Knitting: From Images to Manufacturing Instructions“, http://deepknitting.csail.mit.edu. Kaspar, Alexandre/Wu, Kui/Luo, Yiyue et al.: „Knit sketching: from cut & sew patterns to machine-knit garments“, https://dl.acm.org/doi/10.1145/3450626.3459752.

190

Literaturverzeichnis

Khan, Inayat/Khusro, Shah: „Towards the Design of Context-Aware Adaptive User Interfaces to Minimize Drivers’ Distractions“, https://doi.org/10.1155/2020/8858886. Kima, Jingoog/Mahera, Mary Lou/Siddiquia, Safat: „Studying the Impact of AI-based Inspiration on Human Ideation in a Co-Creative Design System“, http://ceur-ws.org/ Vol-2903/IUI21WS-HAIGEN-7.pdf. KISD: „KI greifbar machen und begreifen“, https://kisd.de/projects/ki-greifbar-machenund-begreifen-technologie-und-gesellschaft-verbinden-durch-gestaltung-kitegg. Kleineberg, Marian/Fey, Matthias/Weichert, Frank: „Adversarial Generation of Continuous Implicit Shape Representations“, https://github.com/marian42/shapegan. Koch, Janin: „Design implications for Designing with a Collaborative AI“, https://research.aalto.fi/en/publications/design-implications-for-designing-with-acollaborative-ai. Kogan, Gene: „Machine Learning for Art“, https://ml4a.net. Krening, Samantha/Feigh, Karen: „Interaction Algorithm Effect on Human Experience with Reinforcement Learning“, https://dl.acm.org/doi/10.1145/3277904. Krizhevsky, Alex/Sutskever, Ilya/Hinton, Geoffrey: „ImageNet classification with deep convolutional neural networks“, https://doi.org/10.1145/3065386. Kubat, Miroslav: An Introduction to Machine Learning, London: Springer-Verlag 2017. Kuckartz, Udo/Rädiker, Stefan/Ebert, Thomas et al.: Statistik. Eine verständliche Einführung, Wiesbaden: VS Verlag 2010. Kurzweil, Ray: The Singularity Is Near, New York: Penguin Random House 2006. Kuznetsov, Alexandr/Mullia, Krishna/Xu, Zexiang: „NeuMIP: Multi-Resolution Neural Materials“, https://arxiv.org/abs/2104.02789. Laine, Samuli/Karras, Tero/Lehtinen, Jaakko et al.: „High-Quality Self-Supervised Deep Image Denoising“, https://arxiv.org/abs/1901.10277. Leake, Mackenzie/Davis, Abe/Truong, Anh et al.: „Computational video editing for dialogue-driven scenes“, https://dl.acm.org/doi/10.1145/3072959.3073653. LeCun, Yann/Misra, Ishan: „Self-supervised learning: The dark matter of intelligence“, https://ai.facebook.com/blog/self-supervised-learning-the-dark-matter-of-intelligence. Lewrick, Michael/Leifer, Larry/Link, Patrick: Das Design Thinking Playbook, München: Vahlen 2017. Lewrick, Michael/Leifer, Larry/Link, Patrick: Design Thinking Toolbox, Hoboken: Wiley 2020. Li, Jianan/Yang, Jimei/Zhang, Jianming et al.: „Attribute-Conditioned Layout GAN for Automatic Graphic Design“, IEEE Transactions on Visualization and Computer Graphics 27 (2021), S. 4039–4048.

191

Literaturverzeichnis

Ling, Huan/Kreis, Karsten/Fidler, Sanja et al.: „EditGAN: High-Precision Semantic Image Editing“, https://nv-tlabs.github.io/editGAN. Lobe.ai: „Train apps to identify plants“, https://www.lobe.ai. Loewe, Sebastian: „Making Visual Design Adapt to Emotions and Affect: Thoughts and Research Questions on Emotionally Responsive Visual Design“, in: Engenhart, Marc/ Loewe, Sebastian (Hrsg.): Proceedings of the First Conference on Designing with Artificial Intelligence, München: appliedAI 2021, S. 128–140. Loewe, Sebastian: „We Generated P5-Code Based on Text Inputs with OpenAI’s GPT-3 and This Could Show the Future of Designer-Machine Co-Creation“, https://sebastian-loewe.medium.com/we-generated-p5-code-based-on-text-inputswith-openais-gpt-3-and-this-could-show-the-future-of-db2ae41efc8d. Long, Jonathan/Shelhamer, Evan/Darrell, Trevor: „Fully Convolutional Networks for Semantic Segmentation“, https://arxiv.org/abs/1411.4038. Lun, Zhaoliang/Kalogerakis, Evangelos/Wang, Rui et al.: „Functionality Preserving Shape Style Transfer“, ACM Transactions on Graphics 35 (2016), S. 1–14. Lynch, Jennifer: „Face Off: Law Enforcement Use of Face Recognition Technology“, https://www.eff.org/wp/law-enforcement-use-face-recognition. Mahroum, Sami: „How an AI utopia would work“, https://www.weforum.org/ agenda/2019/07/how-an-ai-utopia-would-work. Mainzer, Klaus: Gehirn, Computer, Komplexität. Berlin, Heidelberg: Springer Verlag 1997. Mao, Hongzi/Alizadeh, Mohammad/Menache, Ishai et al.: „Resource Management with Deep Reinforcement Learning“, https://dl.acm.org/doi/10.1145/3005745.3005750. Mareis, Claudia: „Wer gestaltet die Gestaltung? Zur ambivalenten Verfassung von partizipatorischem Design“, in: Mareis, Claudia/Held, Matthias/Joost, Gesche (Hrsg.): Wer gestaltet die Gestaltung? Praxis, Theorie und Geschichte des partizipatorischen Designs, Bielefeld: transcript Verlag 2013, S. 9–22. Martins, Tiago/Nuno Correia, João/Rebelo, Sérgio: „Portraits of No One“, https://cdv.dei.uc.pt/portraits-of-no-one. Matejka, Justin/Glueck, Michael/Bradner, Erin et al.: „Dream Lens: Exploration and Visualization of Large-Scale Generative Design Datasets“, https://dl.acm.org/ doi/10.1145/3173574.3173943. Matloff, Norman: From Linear Models to Machine Learning. Regression and Classification, with R Examples, Oxfordshire: Taylor & Francis 2017. Mattson, Christopher/Pack, Andrew/Lofthouse, Vicky et al.: „Using a Product’s Sustainability Space as a Design Exploration Tool“, https://doi.org/10.1017/dsj.2018.6. Mauritshuis: „The Next Rembrandt“, https://www.nextrembrandt.com. Maybury, Mark: „Intelligent user interfaces: an introduction“, https://dl.acm.org/doi/ abs/10.1145/291080.291081.

192

Literaturverzeichnis

McCormack, Jon/Lomas, Andy: „Understanding Aesthetic Evaluation using Deep Learning“, https://arxiv.org/abs/2004.06874. Meier, Anika/Rossner, Manuel: „‚I Don’t Experience the Meaning of Creativity in the Same Way Humans Do‘: Künstliche Intelligenz und Kreativität“, in: Engenhart, Marc/ Loewe, Sebastian (Hrsg.): Proceedings of the First Conference on Designing with Artificial Intelligence, München: appliedAI 2021, S. 80–91. Mejjati, Youssef/Gomez, Celso/Kim, Kwang In et al.: „Look here! A parametric learning based approach to redirect visual attention“, https://alamimejjati.github.io/GazeShiftNet. Meta: „Introducing the Facebook Field Guide to Machine Learning video series“, https://research.facebook.com/blog/2018/05/the-facebook-field-guide-to-machinelearning-video-series. Microsoft: „Guidelines for Human-AI Interaction“, https://www.microsoft.com/en-us/ research/project/guidelines-for-human-ai-interaction. Microsoft: „Sketch2Code“, https://sketch2code.azurewebsites.net. Mildenhall, Ben/Srinivasan, Pratul/Tancik, Matthew et al.: „NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis“, https://cacm.acm.org/ magazines/2022/1/257450-nerf/fulltext. Mirza, Mehdi/Osindero, Simon: „Conditional Generative Adversarial Nets“, https://arxiv.org/abs/1411.1784. Misselhorn, Catrin: Künstliche Intelligenz und Empathie. Vom Leben mit Emotionserkennung, Sexrobotern & Co, Ditzingen: Reclam 2021. MIT CSAIL: „Digital Ouija Board for Aircraft Carrier Operations“, http://groups.csail.mit.edu/mug/projects/ouijaboard. MIT Media Lab: „Detect DeepFakes: How to counteract misinformation created by AI“, https://www.media.mit.edu/projects/detect-fakes/overview. ML5: „Friendly Machine Learning for the Web“, https://ml5js.org. Mordvintsev, Alexander/Olah, Christopher/Tyka, Mike: „Inceptionism: Going Deeper into Neural Networks“, https://ai.googleblog.com/2015/06/inceptionism-going-deeperinto-neural.html. Mortensen, Ditte Hvas: „How to manage the users’ expectations when designing smart products“, https://www.interaction-design.org/literature/article/how-to-manage-theusers-expectations-when-designing-smart-products. Moser, Christian: User Experience Design, Heidelberg: Springer Vieweg 2012. Move.ai: „High fidelity Motion Capture from video“, https://www.move.ai. Myers West, Sarah/Whittaker, Meredith/Crawford, Kate: Discriminating Systems. Gender, Race, and Power in AI, New York: AI Institute Now 2019.

193

Literaturverzeichnis

Neff, Thomas/Stadlbauer, Pascal/Parger, Mathias et al.: „DONeRF: Towards Real-Time Rendering of Compact Neural Radiance Fields using Depth Oracle Networks“, https://depthoraclenerf.github.io. Neuburg, Klaus/Quadflieg, Sven/Nestler, Simon: „Will Artificial Intelligence Make Designers Obsolete?“, in: Engenhart, Marc/Loewe, Sebastian (Hrsg.): Proceedings of the First Conference on Designing with Artificial Intelligence, München: appliedAI 2021, S. 80–85. NVIDIA: „GauGAN2 Beta“, http://gaugan.org/gaugan2. O‘Donovan, Peter/Agarwala, Aseem/Hertzmann, Aaron: „Collaborative Filtering of Color Aesthetics“, http://www.dgp.toronto.edu/~donovan/cfcolor/index.html. O‘Donovan, Peter/Agarwala, Aseem/Hertzmann, Aaron: „DesignScape: Design with Interactive Layout Suggestions“, http://www.dgp.toronto.edu/~donovan/design/ index.html. Oechsle, Michael/Niemeyer, Michael/Mescheder, Lars et al.: „Learning Implicit Surface Light Fields“, https://arxiv.org/abs/2003.12406. Oeldorf, Cedric/Spanakis, Gerasimos: „LoGANv2: Conditional Style-Based Logo Generation with Generative Adversarial Networks“, https://arxiv.org/abs/1909.09974. Open AI: „CLIP: Connecting Text and Images“, https://openai.com/blog/clip. Open AI: „DALL·E 2 is a new AI system that can create realistic images and art from a description in natural language“, https://openai.com/dall-e-2. Open Source Guides: „The Legal Side of Open Source“, https://opensource.guide/legal. Oppenheim, Maya: „Amazon scraps ‚sexist AI‘ recruitment tool“, https://www.independent.co.uk/life-style/gadgets-and-tech/amazon-ai-sexistrecruitment-tool-algorithm-a8579161.html. Otte, Ralf: Künstliche Intelligenz für Dummies, Weinheim: Wiley VCH 2019. P5.js: „Hello!“, https://p5js.org. Pan, Yanxin/Burnap, Alexander/Hartley, Jeffrey et al.: „Deep Design: Product Aesthetics for Heterogeneous Markets“, https://dl.acm.org/doi/10.1145/3097983.3098176. Pang, Yingxue/Lin, Jianxin/Qin, Tao et al.: „Image-to-Image Translation: Methods and Applications“, https://arxiv.org/abs/2101.08629. Papalampidi, Pinelopi/Keller, Frank/Lapata, Mirella: „Film Trailer Generation via Task Decomposition“, https://arxiv.org/abs/2111.08774. Patashnik, Or/Wu, Zongze/Shechtman, Eli et al.: „StyleCLIP: Text-Driven Manipulation of StyleGAN Imagery“, https://replicate.com/orpatashnik/styleclip. Pęśko, Maciej/Svystun, Adam/Andruszkiewicz, Paweł et al.: „Comixify: Transform video into a comics“, https://arxiv.org/abs/1812.03473.

194

Literaturverzeichnis

Playform: „No Code AI for Creative People“, https://create.playform.io. Plenke, Max: „The Reason This ‚ Racist Soap Dispenser‘ Doesn‘t Work on Black Skin“, https://www.mic.com/articles/124899/the-reason-this-racist-soap-dispenser-doesnt-work-on-black-skin. Polytopal: „Lingua Franca. A Design Language for Human-Centered AI“, https://linguafranca.polytopal.ai. Posavec, Stefanie/Lupi, Giorgia: „Dear Data“, http://www.dear-data.com/theproject. Processing with AI: „Starting with p5.js“, https://processing-with-ai.gitlab.io/part2/ programming. Python for Designers: „Welcome to Python for Designers“, https://pythonfordesigners.com. Quiñonero Candela, Joaquin: „Facebook and the Technical University of Munich Announce New Independent TUM Institute for Ethics in Artificial Intelligence“, https://about.fb.com/news/2019/01/tum-institute-for-ethics-in-ai. Rädeker, Jochen: „Markengestaltung im Wandel. The Interface Becomes the Brand“, in: Baetzgen, Andreas (Hrsg.): Brand Design. Strategien für die digitale Welt, Stuttgart: Schäffer-Poeschel Verlag, S. 211–230. Rae, Jack/Potapenko, Anna/Jayakumar, Siddhant et al.: „Compressive Transformers for Long-Range Sequence Modelling“, https://arxiv.org/abs/1911.05507. Rainie, Lee/Anderson, Janna/Vogels, Emily: „Experts Doubt Ethical AI Design Will Be Broadly Adopted as the Norm Within the Next Decade“, https://www.pewresearch.org/ internet/2021/06/16/experts-doubt-ethical-ai-design-will-be-broadly-adopted-asthe-norm-within-the-next-decade. Rammer, Christian: Auf Künstliche Intelligenz kommt es an. Beitrag von KI zur Innovationsleistung und Performance der deutschen Wirtschaft, Berlin: Bundesministerium für Wirtschaft und Energie 2020. Ramos, Gonzalo/Suh, Jina/Amershi, Saleema et al.: „Emerging Perspectives in HumanCentered Machine Learning“, https://dl.acm.org/doi/10.1145/3290607.3299014. Rashid, Tariq: Neuronale Netze selbst programmieren, Heidelberg: dpunkt.verlag 2017. Replicate: „StyleClip“, https://replicate.com/orpatashnik/styleclip. Rittel, Horst: „Architekten und Computer“, in: Reuter, Wolf/Jonas, Wolfgang (Hrsg.): Thinking Design. Transdisziplinäre Konzepte für Planer und Entwerfer, Basel: Birkhäuser 2013, S. 185–195. Rittel, Horst: „Zur Planungskrise: Systemanalyse der ersten und zweiten Generation“, in: Reuter, Wolf (Hrsg.): Planen, Entwerfen, Design, Ausgewählte Schriften zur Theorie und Methodik, Stuttgart: Kohlhammer 1992, S. 37–59. Ronneberger, Olaf/Fischer, Philip/Brox, Thomas: „U-Net: Convolutional Networks for Biomedical Image Segmentation“, https://doi.org/10.1007/978-3-319-24574-4_28.

195

Literaturverzeichnis

Rössler, Andreas/Cozzolino, Davide/Verdoliva, Luisa et al.: „aceForensics++: Learning to Detect Manipulated Facial Images“, http://www.niessnerlab.org/projects/ roessler2019faceforensicspp.html. Rothkopf, Joshua: „Deepfake Technology Enters the Documentary World“, https://www.nytimes.com/2020/07/01/movies/deepfakes-documentary-welcometo-chechnya.html. Ruder, Sebastian: „An overview of gradient descent optimization algorithms“, https://arxiv.org/abs/1609.04747. RunwayML: „ML Lab“, https://help.runwayml.com/hc/en-us/categories/ 1500001962941-ML-Lab. RunwayML: „Runway: The fastest way to edit video“, https://runwayml.com. Rustler, Florian: Denkwerkzeuge. Thinking Tools for Creativity and Innovation, St. Gallen: Midas 2018, S. 178 ff. Sage, Alexander/Agustsson, Eirikur/Timofte, Radu et al.: „Logo Synthesis and Manipulation with Clustered Generative Adverserial Network“, https://data.vision.ee.ethz.ch/sagea/lld. Saito, Shunsuke/Simon, Tomas/Saragih, Jason et al.: „PIFuHD: Multi-Level Pixel-Aligned Implicit Function for High-Resolution 3D Human Digitization“, https://shunsukesaito.github.io/PIFuHD. Salesforce: „Customer 360“, https://www.salesforce.com/de/products. Salian, Isha: „What Is AI Upscaling?“, https://blogs.nvidia.com/blog/2020/02/ 03/what-is-ai-upscaling. Salminen, Joni/Guan, Kathleen/Jung, Soon-Gyo et al.: „A Survey of 15 Years of Data-Driven Persona Development“, International Journal of Human–Computer Interaction 37 (2021), S. 1685–1708. Salminen, Joni/Jung, Soon-gyo/Jansen, Bernard: „The Future of Data-driven Personas. A Marriage of Online Analytics Numbers and Human Attributes“, in: Filipe, Joaquim/Smialek, Michal/Brodsky, Alexander et al. (Hrsg.): Proceedings of the 21st International Conference on Enterprise Information Systems, Setúbal: Scitepress 2019, S. 608–615. Salt Research: „About“, https://saltresearch.org/primo_library/libweb/static_htmls/ salt/info_about_en_US.jsp. Sanchez-Gonzalez, Alvaro/Godwin, Jonathan/Pfaff, Tobias: „Learning to Simulate Complex Physics with Graph Networks“, https://arxiv.org/abs/2002.09405. Sarwar, Badrul/Karypis, George/Konstan, Joseph/Riedl, John: „Item-based collaborative filtering recommendation algorithms“, https://dl.acm.org/doi/10.1145/371920.372071. Sbai, Othman/Elhoseiny, Mohamed/Bordes, Antoine et al.: „Design Inspiration from Generative Networks“, https://arxiv.org/abs/1804.00921.

196

Literaturverzeichnis

Schneider, Sven/Fischer, Jan-Ruben/König, Reinhard: „Rethinking Automated Layout Design: Developing a Creative Evolutionary Design Method for the Layout Problems in Architecture and Urban Design“, in: Gero, John (Hrsg.): Design Computing and Cognition 10, Berlin, Heidelberg: Springer Science+Business Media 2011, S. 367–386. Schulz, Adriana/Sung, Cynthia/Spielberg, Andrew et al.: „Interactive robogami: An end-to-end system for design of robots with ground locomotion“, https://journals.sagepub.com/doi/10.1177/0278364917723465. Schulz, Adriana/Xu, Jie/Zhu, Bo et al.: „Interactive Design Space Exploration and Optimization for CAD Models“, https://people.csail.mit.edu/aschulz/optCAD/index.html. Seidel, Stefan/Berente, Nicholas/Lindberg, Aron et al.: „Autonomous Tools and Design. A Triple-Loop Approach to Human-Machine Learning“, https://dl.acm.org/ doi/10.1145/3210753. Shamir, Ariel/Schulz, Adriana/Levin, David et al.: „Design and fabrication by example“, https://dspace.mit.edu/handle/1721.1/111080. Shen, Xi/Efros, Alexei/Aubry, Mathieu: „Discovering Visual Patterns in Art Collections with Spatially-consistent Feature Learning“, http://imagine.enpc.fr/~shenx/ArtMiner. Shi, Yichun/Deb, Debayan/Jain, Anil: „WarpGAN: Automatic Caricature Generation“, https://arxiv.org/abs/1811.10100. Shugrina, Maria/Shamir, Ariel/Matusik, Wojciech: „Fab forms: customizable objects for fabrication with validity and geometry caching“, https://dl.acm.org/doi/10.1145/2766994. Simo-Serra, Edgar/Iizuka, Satoshi/Sasaki, Kazuma et al.: „Learning to simplify: fully convolutional networks for rough sketch cleanup“, ACM Transactions on Graphics 35 (2016), S. 1–11. Sitzmann, Vincent/Rezchikov, Semon/Freeman, William et al.: „Light Field Networks. Neural Scene Representations with Single-Evaluation Rendering“, https://www.vincentsitzmann.com/lfns. Skansi, Sandro: Introduction to Deep Learning. From Logical Calculus to Artificial Intelligence, Cham: Springer Nature 2018. Skiena, Steven: The Data Science Design Manual, Cham: Springer Nature 2017. Smirnov, Dmitriy/Fisher, Matthew/Campagnolo, Vitor et al.: „MarioNette: Self-Supervised Sprite Learning“, https://openreview.net/forum?id=3zP6RrQtNa. Spacemaker: „Analysis you can trust, noise analysis“, https://www.spacemakerai.com/ resources/analysis-hub#Noise. Spacemaker: „Customers & Partners, How Steen & Strøm and Storebrand use Spacemaker for site development“, https://www.spacemakerai.com/blog/how-steen-strom-andstorebrand-use-spacemaker-for-site-development. Stackpole, Beth: „The next chapter in analytics. data storytelling“, https://mitsloan.mit.edu/ideas-made-to-matter/next-chapter-analytics-datastorytelling.

197

Literaturverzeichnis

Stefaner, Moritz: „Deep Learning UX“, https://truth-and-beauty.net/projects/sf-dlux. Stitch Fix: „Algorithms Tour. How data science is woven into the fabric of Stitch Fix“, https://algorithms-tour.stitchfix.com. Syverson, Ben: „The Rules of Brainstorming Change When Artificial Intelligence Gets Involved. Here’s How“, https://www.ideo.com/blog/the-rules-of-brainstormingchange-when-ai-gets-involved-heres-how. Teachable Machine: „Teachable Machine“, https://teachablemachine.withgoogle.com. The Asimov Institute: „The Neural Network Zoo“, https://www.asimovinstitute.org/ neural-network-zoo. The Coding Train: „A Beginner‘s Guide to Machine Learning with ml5.js“, https://www.youtube.com/watch?v=jmznx0Q1fP0. The Unthinkable Hub: „UTH.1 – Evesdrop Modules“, https://mirror.xyz/0x12d7CCC2454111af7039E27Af42b919893d4cCA2/ 7lFar7DSLZTcWj3kCsk5jiGCiJfWoMWTTjebaoTTtgo. This Artwork Does Not Exist: „This Artwork Does Not Exist“, https://thisartworkdoesnotexist.com. This Chair Does Not Exist: „GAN-generated Chairs“, https://thischairdoesnotexist.com. This Person Does Not Exist: „Random Face Generator“, https://this-person-does-notexist.com/en. Todi, Kashyap/Bailly, Gilles/Leiva, Luis et al.: „Adapting User Interfaces with Modelbased Reinforcement Learning“, https://arxiv.org/abs/2103.06807. Truscheit, Karin: „Durch Tauschen zum Täter“, Frankfurter Allgemeine Zeitung, 8.3.2021, S. 7. UIzard: „Welcome your new team member: AI“, https://uizard.io/design-assistant. Vanderdonckt, Jean/Bouzit, Sara/Calvary, Gaëlle et al.: „Cloud Menus: a Circular Adaptive Menu for Small Screens“, https://dl.acm.org/doi/abs/10.1145/3172944.3172975. Vasileva, Mariya/Plummer, Bryan/Dusad, Krishna et al.: „Learning Type-Aware Embeddings for Fashion Compatibility“, https://arxiv.org/abs/1803.09196. Vemulapalli, Raviteja/Agarwala, Aseem: „A Compact Embedding for Facial Expression Similarity“, https://arxiv.org/abs/1811.11283. Verganti, Roberto/Vendraminelli, Luca/Iansiti, Marco: „Innovation and Design in the Age of Artificial Intelligence“, Journal of Product Innovation Management 37 (2020), S. 212–227. Vincent, James: „A never-ending stream of AI art goes up for auction“, https://www.theverge.com/2019/3/5/18251267/ai-art-gans-mario-klingemannauction-sothebys-technology. Vincent, James: „Google ‚fixed‘ its racist algorithm by removing gorillas from its image-labeling tech“, https://www.theverge.com/2018/1/12/16882408/ google-racist-gorillas-photo-recognition-algorithm-ai.

198

Literaturverzeichnis

Vincent, James: „The problem with AI ethics“, https://www.theverge. com/2019/4/3/18293410/ai-artificial-intelligence-ethics-boards-chartersproblem-big-tech. Vizcom: „AI creative tools for artists and designers“, https://www.vizcom.co. Volland, Holger: Die kreative Macht der Maschinen. Warum Künstliche Intelligenzen bestimmen, was wir morgen fühlen und denken, Weinheim: Beltz 2018. Wagner, Ben: „Ethics as an Escape from Regulation. From Ethics-Washing to EthicsShopping“, in: Bayamlioglu, Emre/Baraliuc, Irina/Janssens, Liisa et al. (Hrsg.): Being Profiled. Cogitas Ergo Sum. 10 Years of Profiling the European Citizen, Amsterdam: Amsterdam University Press 2018. Walch, Kathleen: „Rethinking Weak Vs. Strong AI“, https://www.forbes.com/sites/ cognitiveworld/2019/10/04/rethinking-weak-vs-strong-ai/?sh=3238e57b6da3. Wang, Huamin: „Rule-free sewing pattern adjustment with precision and efficiency“, https://dl.acm.org/doi/10.1145/3197517.3201320. Wang, Mingxian/Sha, Zhenghui/Huang, Yun et al.: „Predicting product co-consideration and market competitions for technology-driven product design“, https://doi.org/10.1017/dsj.2018.4. Wang, Sheng-Yu/Bau, David/Zhu, Jun-Yan: „Sketch Your Own GAN“, https://github.com/peterwang512/GANSketching. Wei, Fangyin/Sizikova, Elena/Sud, Avneesh: „Learning to Infer Semantic Parameters for 3D Shape Editing“, https://ieeexplore.ieee.org/document/9320459. Will Robots Take My Job: „Will Robots Take My Job?“, https://willrobotstakemyjob.com. Wille, Matt: „South Korean chatbot Lee Luda killed off for spewing hate“, https://www.inputmag.com/culture/south-korean-chatbot-lee-luda-killed-off-forspewing-hate. Wladawsky-Berger, Irving: „The Impact of Artificial Intelligence on the World Economy“, https://www.wsj.com/articles/the-impact-of-artificial-intelligence-on-the-world-economy-1542398991. Wu, Jiajun/Zhang, Chengkai/Xue, Tianfan et al.: „Learning a Probabilistic Latent Space of Object Shapes via 3D Generative-Adversarial Modeling“, https://arxiv.org/ abs/1610.07584. Wunner, Felix/Krüger, Tino/Gierse, Bernd: „How AI-driven generative design disrupts traditional value chains“, https://www.accenture.com/us-en/blogs/industry-digitization/ how-ai-driven-generative-design-disrupts-traditional-value-chains. Xu, Catherina/Doshi, Tulsee: „Fairness Indicators: Scalable Infrastructure for Fair ML Systems“, https://ai.googleblog.com/2019/12/fairness-indicators-scalable.html. Xu, Kaidi/Zhang, Gaoyuan/Liu, Sijia: „Adversarial T-shirt! Evading Person Detectors in A Physical World“, https://arxiv.org/abs/1910.11099.

199

Literaturverzeichnis

Yang, Qian: „Unremarkable AI: Towards AI That Co-lives and Co-evolves with Users“, in: Engenhart, Marc/Loewe, Sebastian (Hrsg.): Proceedings of the First Conference on Designing with Artificial Intelligence, München: appliedAI 2021, S. 70–76. Yi, Li/Guibas, Leonidas/Hertzmann, Aaron et al.: „Learning Hierarchical Shape Segmentation and Labeling from Online Repositories“, https://cs.stanford.edu/~ericyi/ project_page/hier_seg/index.html. Yu, Alex/Ye, Vickie/Tancik, Matthew et al.: „pixelNeRF. Neural Radiance Fields from One or Few Images“, https://alexyu.net/pixelnerf. Yu, Jiahui/Lin, Zhe/Yang, Jimei et al.: „Generative Image Inpainting with Contextual Attention“, https://arxiv.org/abs/1801.07892. Yumer, Mehmet Ersin/Chaudhuri, Siddhartha/Hodgins, Jessica et al.: „Semantic shape editing using deformation handles“, https://dl.acm.org/doi/10.1145/2766908. Zaremba, Wojciech/Brockman, Greg: „OpenAI Codex“, https://openai.com/blog/ openai-codex. Zeng, Yu/Lin, Zhe/Yang, Jimei et al.: „ProFill: High-Resolution Image Inpainting with Iterative Confidence Feedback and Guided Upsampling“, https://zengxianyu.github.io/iic. Zhang, Haotian/Sciutto, Cristobal/Agrawala, Maneesh et al.: „Vid2Player: Controllable Video Sprites That Behave and Appear Like Professional Tennis Players“, https://dl.acm.org/doi/10.1145/3448978. Zhang, He/Starke, Sebastian/Komura, Taku et al.: „Mode-adaptive neural networks for quadruped motion control“, https://dl.acm.org/doi/10.1145/3197517.3201366. Zhang, Jiakai/Liu, Xinhang/Ye, Xinyi et al.: „Editable Free-Viewpoint Video using a Layered Neural Representation“, https://jiakai-zhang.github.io/st-nerf. Zhang, Lymin/Li, Chengze/Wong, Tien-Tsin et al. „Two-stage sketch colorization“, ACM Transactions on Graphics 37 (2018), S. 1–14. Zhao, Allan/Xu, Jie/Konaković Luković, Mina et al.: „RoboGrammar: Graph Grammar for Terrain-Optimized Robot Design“, https://people.csail.mit.edu/jiex/papers/ robogrammar/index.html. Zhao, Tianming/Chen, Chunyang/Liu, Yuanning et al.: „GUIGAN: Learning to Generate GUI Designs Using Generative Adversarial Networks“, https://github.com/ GUIDesignResearch/GUIGAN. Zhu, Zhen/Xu, Zhiliang/You, Ansheng et al.: „Semantically Multi-modal Image Synthesis“, https://github.com/Seanseattle/SMIS. Zimmermann, Christian/Ceylan, Duygu/Yang, Jimei et al.: „FreiHAND: A Dataset for Markerless Capture of Hand Pose and Shape from Single RGB Images“, https://arxiv.org/abs/1909.04349. Ziva Dynamics: „ZRT Face Trainer“, https://zivadynamics.com/zrt-face-trainer.

200

Abbildungsverzeichnis

Abbildungsverzeichnis

Abb. 2.1, Marc Engenhart, Sebastian Löwe: „Lineare Regression“, grafisches Schaubild © Engenhart ° Design Studio, 2022. Abb. 2.2, Marc Engenhart, Sebastian Löwe: „Entscheidungsbaumalgorithmus“, grafisches Schaubild © Engenhart ° Design Studio, 2022. Abb. 2.3, Marc Engenhart, Sebastian Löwe: „Berechnung der Ähnlichkeit durch KNN-Algorithmen“, grafisches Schaubild © Engenhart ° Design Studio, 2022. Abb. 2.4, Marc Engenhart, Sebastian Löwe: „Prinzip eines künstlichen neuronalen Netzes“, grafisches Schaubild © Engenhart ° Design Studio, 2022. Abb. 2.5, Marc Engenhart, Sebastian Löwe: „Detail der Funktion eines Neurons in der verstecken Schicht“, grafisches Schaubild © Engenhart ° Design Studio, 2022. Abb. 2.6, Marc Engenhart, Sebastian Löwe: „Übersicht eines künstllich neuronalen Netzes welches einen von Hand geschriebenen Buchstaben erkennen kann“, grafisches Schaubild © Engenhart ° Design Studio, 2022. Abb. 2.7, Marc Engenhart, Sebastian Löwe: „Übersicht eines vollständigen Convolutional Neural Network, CNN“, grafisches Schaubild © Engenhart ° Design Studio, 2022. Abb. 3.1, Marc Engenhart, Sebastian Löwe: „Taxonomie der intelligenten Gestaltungssysteme“, grafisches Schaubild © Engenhart ° Design Studio, 2022. Abb. 4.1, Strichpunkt Design: „Digitale Medien der DHL Group“, mit freundlicher Genehmigung von Fabian Hammans, Strichpunkt Design © Strichpunkt Design, 2021. Abb. 4.2, Strichpunkt Design: „DHL Layout Creator“, Gestaltungsbeispiel User Interface der Startseite, mit freundlicher Genehmigung von Fabian Hammans, Strichpunkt Design © Strichpunkt Design, 2021. Abb. 4.3, Strichpunkt Design: „DHL Layout Creator“, Gestaltungsbeispiel User Interface zur Auswahl einer Medienart, mit freundlicher Genehmigung von Fabian Hammans, Strichpunkt Design © Strichpunkt Design, 2021. Abb. 4.4, Strichpunkt Design: „DHL Layout Creator“, Gestaltungsbeispiel User Interface zur Formatauswahl einer Werbeanzeige, mit freundlicher Genehmigung von Fabian Hammans, Strichpunkt Design © Strichpunkt Design, 2021. Abb. 4.5, Strichpunkt Design: „DHL Layout Creator“, Gestaltungsbeispiel User Interface, Einfügen von Inhalt für eine Werbeanzeige, mit freundlicher Genehmigung von Fabian Hammans, Strichpunkt Design © Strichpunkt Design, 2021. Abb. 4.6, Strichpunkt Design: „DHL Layout Creator“, Gestaltungsbeispiel User Interface, Bildintegration in eine Werbeanzeige, mit freundlicher Genehmigung von Fabian Hammans, Strichpunkt Design © Strichpunkt Design, 2021. Abb. 4.7, Strichpunkt Design: „DHL Layout Creator“, Gestaltungsbeispiel User Interface, Fokussieren wichtiger Bildinhalte in einer Werbeanzeige, mit freundlicher Genehmigung von Fabian Hammans, Strichpunkt Design © Strichpunkt Design, 2021.

202

Abbildungsverzeichnis

Abb. 4.8, Strichpunkt Design: „DHL Layout Creator“, Gestaltungsbeispiel User Interface, Auswahl eines Vorschlages aus unterschiedlichen Gestaltungsvarianten der Werbeanzeige, mit freundlicher Genehmigung von Fabian Hammans, Strichpunkt Design © Strichpunkt Design, 2021. Abb. 4.9, Strichpunkt Design: „DHL Layout Creator“, User Interface des DHL Brand Hub, mit freundlicher Genehmigung von Fabian Hammans, Strichpunkt Design © Strichpunkt Design, 2021. Abb. 4.10, Sofia Crespo: „Neural Zoo: Entangled“, Acryl-Digitaldruck, Neural Zoo Collection, mit freundlicher Genehmigung der Künstlerin © Sofia Crespo, 2018/2019. Abb. 4.11, Sofia Crespo: „Neural Zoo: Synthetic Optimism Ecosystem“, Acryl-Digitaldruck, Neural Zoo Collection, mit freundlicher Genehmigung der Künstlerin © Sofia Crespo, 2018/2019. Abb. 4.12, Sofia Crespo: „Microscope“, Fotografie der Künstlerin zur Dokumentation ihres Schaffenprozesses, https://www.instagram.com/p/ CK4L48CF4w5, mit freundlicher Genehmigung der Künstlerin © Sofia Crespo, 2021. Abb. 4.13, Sofia Crespo: „Neural Zoo: Free Will“, Acryl-Digitaldruck, Neural Zoo Collection, mit freundlicher Genehmigung der Künstlerin © Sofia Crespo, 2018/2019. Abb. 4.14, Sofia Crespo: „Neural Zoo: Realisation“, Acryl-Digitaldruck, Neural Zoo Collection, mit freundlicher Genehmigung der Künstlerin © Sofia Crespo, 2018/2019. Abb. 4.15, Sofia Crespo: „Artificial Remnants“, 3D-gedruckte Skulpturen auf AcrylPlatte, Polylactide (PLA), Artificial Remnants Collection, mit freundlicher Genehmigung der Künstlerin © Sofia Crespo, 2019. Abb. 4.16, Sofia Crespo: „Artificial Remnants“, Objekt als 3D-Netz-Rendering, Artificial Remnants Collection, https://artificialremnants.com, mit freundlicher Genehmigung der Künstlerin © Sofia Crespo, 2019. Abb. 4.17, Sofia Crespo: „Neural Zoo: Artificial Remnants“, Bildschirm, Tisch, interaktive Oberfläche und Gestaltung, Artificial Remnants Collection, Ausstellungsansicht, Retune, Berlin, mit freundlicher Genehmigung der Künstlerin © Sofia Crespo, 2019. Abb. 4.18, Moritz Stefaner: „Salesforce Einstein Designer“, Visualisierung des latenten Raumes aller analysierten visuellen Details, mit freundlicher Genehmigung des Designers © Moritz Stefaner, 2020. Abb. 4.19, Sönke Rohde: „Salesforce Einstein Designer. 1-Click personalisation. Powered by Deeplearning UX“, Detail aus der Übersicht zur Funktion von Einstein Designer anhand eines Beispiels, mit freundlicher Genehmigung des Designers © Sönke Rohde, Salesforce, 2020. Abb. 4.20, Moritz Stefaner: „Salesforce Einstein Designer“, Farbkreis aus der Analyse von Farbspektren vorliegender Internetseiten, mit freundlicher Genehmigung des Designers © Moritz Stefaner, 2020.

203

Abbildungsverzeichnis

Abb. 4.21, Moritz Stefaner: „Salesforce Einstein Designer“, Visualisierung typografischer Beziehungen ausgewählter Internetauftritte, mit freundlicher Genehmigung des Designers © Moritz Stefaner, 2020. Abb. 4.22, Moritz Stefaner: „Salesforce Einstein Designer“, Visualisierung typografischer Beziehungen ausgewählter Internetauftritte, mit freundlicher Genehmigung des Designers © Moritz Stefaner, 2020. Abb. 4.23, Moritz Stefaner: „Salesforce Einstein Designer“, Visualisierung der Farbanteile eines Internetauftrittes, mit freundlicher Genehmigung des Designers © Moritz Stefaner, 2020. Abb. 4.24, Sönke Rohde: „Salesforce Einstein Designer“, Statistik verwendeter Schrifgrößen, mit freundlicher Genehmigung des Designers © Sönke Rohde, Salesforce, 2020. Abb. 4.25, Sönke Rohde: „Salesforce Einstein Designer“, Visualisierung von Gruppen von ähnlichen Layouts analysierter Internetauftritte mit der Methode des Clustering, mit freundlicher Genehmigung des Designers © Sönke Rohde, Salesforce, 2020. Abb. 4.26, Anouk Wipprecht: „Pangolin Dress“, Detailansicht, in Lasersinternverfahren gedruckte Objekte, Gewebematerialien, Servomotoren, Neopixel-LEDs an einem Model installiert, mit freundlicher Genehmigung der Designerin © Anouk Wipprecht, 2020. Abb. 4.27, Anouk Wipprecht: „Pangolin Dress“, Gehirn-Computer-Schnittstelle, Anbringen der Elektroden an der Kopfhaut der Träger:in, mit freundlicher Genehmigung der Designerin © Anouk Wipprecht, 2020. Abb. 4.28, Anouk Wipprecht: „Pangolin Dress“, Gehirn-Computer-Schnittstelle mit Anschlüssen zum EEG und zu den Hardwaremodulen, mit freundlicher Genehmigung der Designerin © Anouk Wipprecht, 2020. Abb. 4.29, Anouk Wipprecht: „Pangolin Dress“, Gehirn-Computer-Schnittstelle bei der Kalibrierung des neuronalen Netzes, mit freundlicher Genehmigung der Designerin © Anouk Wipprecht, 2020. Abb. 4.30, Anouk Wipprecht: „Pangolin Dress“, final kalibrierter, von einem Model getragener Pangolin Dress mit integriertem intelligenten System, mit freundlicher Genehmigung der Designerin © Anouk Wipprecht, 2020. Abb. 4.31, Autodesk Spacemaker: „Spacemaker Software“, Kollektion der Analysemodule, https://www.spacemakerai.com/resources/analysis-hub, mit freundlicher Genehmigung von Maria Dantz, Spacemaker © Autodesk Spacemaker, 2021. Abb. 4.32, Autodesk Spacemaker: „Økern Sentrum project, ØKERN aerial“, Simulation des Gebäudeensembles, Bildmaterial/Rendering von A-lab, mit freundlicher Genehmigung von Maria Dantz, Spacemaker © A-lab, Autodesk Spacemaker, Steen & Strøm and Storebrand, 2021. Abb. 4.33, Autodesk Spacemaker: „Økern Sentrum project“, User Interface des Analysewerkzeugs Tageslichtanalyse, https://aec.autodesk.com/spacemaker-steenstrom-storebrand/p/1, mit freundlicher Genehmigung von Maria Dantz, Spacemaker © Autodesk Spacemaker, Steen & Strøm and Storebrand, 2021.

204

Abbildungsverzeichnis

Abb. 4.34, Autodesk Spacemaker: „Økern Sentrum project“, User Interface des Analysewerkzeugs Tageslichtanalyse, https://aec.autodesk.com/spacemakersteen-strom-storebrand/p/1, mit freundlicher Genehmigung von Maria Dantz, Spacemaker © Autodesk Spacemaker, Steen & Strøm and Storebrand, 2021. Abb. 4.35, Autodesk Spacemaker: „Spacemaker Software“, User Interface mit dem Analysewerkzeug Geräusche und Schall, mit freundlicher Genehmigung von Maria Dantz, Spacemaker © Autodesk Spacemaker, 2021. Abb. 4.36, Autodesk Spacemaker: „Spacemaker Software“, User Interface des Analysewerkzeugs Geräusch und Schall, Økern Sentrum project, https://aec.autodesk.com/ spacemaker-steen-strom-storebrand/p/1, mit freundlicher Genehmigung von Maria Dantz, Spacemaker © Autodesk Spacemaker, 2021. Abb. 4.37, Refik Anadol Studio: „Archive Dreaming“, Fotografie der räumlichen Gegebenheiten des SALT Research Archive Istanbul, mit freundlicher Genehmigung von Refik Anadol Studio © Refik Anadol Studio, 2017. Abb. 4.38, Refik Anadol Studio: „Archive Dreaming“, Fotografie zur Dokumentation, stehende Person, die mit dem intelligenten System über ein Tablet interagiert, https://refikanadol.com/works/archive-dreaming/, mit freundlicher Genehmigung von Refik Anadol Studio © Refik Anadol Studio, 2017. Abb. 4.39, Refik Anadol Studio: „Archive Dreaming“, digitale Zeichnung zur Konzeption aller notwendigen szenografischen und baulichen wie technischen Details, mit freundlicher Genehmigung von Refik Anadol Studio © Refik Anadol Studio, 2017. Abb. 4.40, Refik Anadol Studio: „Archive Dreaming“, Detail einer auf Grundlage des t-SNE-Algorithmus gerenderten 3D-Datenskulptur, mit freundlicher Genehmigung von Refik Anadol Studio © Refik Anadol Studio, 2017. Abb. 4.41, Refik Anadol Studio: „Archive Dreaming“, Visualisierung von Clustergruppen als 2D-Übersicht, mit freundlicher Genehmigung von Refik Anadol Studio © Refik Anadol Studio, 2017. Abb. 4.42, Refik Anadol Studio: „Archive Dreaming“, Detail des Arrangements von analysierten Einzeldokumenten mit zugeordneten Informationen als UI, mit freundlicher Genehmigung von Refik Anadol Studio © Refik Anadol Studio, 2017. Abb. 4.43, Refik Anadol Studio: „Archive Dreaming“, Detail der Visualisierung von Feature Extraction im Datenmaterial, mit freundlicher Genehmigung von Refik Anadol Studio © Refik Anadol Studio, 2017. Abb. 5.1, Marcel Tobien, Niclas Bauermeister, Sebastian Löwe: „Floom“, Detailansicht des interaktiven Innovation Frameworks, Figma-Sketch, mit freundlicher Genehmigung von Marcel Tobien und Niclas Bauermeister © Tobien, Bauermeister, 2022.

205

Danksagung

Danksagung Unser Dank für die Unterstützung in fachlichen Fragen geht an Dr. Mike Scherfner, Professor für Mathematik und theoretische Informatik an der Hochschule Anhalt, sowie an Dr. Kay Diedrich, Fachanwalt für Informationstechnologierecht bei der Kanzlei Kümmerlein, Simon & Partner Rechtsanwälte. Wir möchten uns aber auch ausdrücklich bei allen kreativen Projektbeteiligten bedanken, die uns für wertvolle Einblicke zur Verfügung standen und ihre Ideen, Konzepte und Technologien offengelegt und so als Case Studies einer breiten Öffentlichkeit zugänglich gemacht haben. Wir bedanken uns explizit bei Refik Anadol, Carl Christensen, Sofia Crespo, Nikolay Jetchev, Dr. Christoph Guger, Fabian Hammans, Håvard Haukeland, Sönke Rohde, Dr. Andreas Stiegler, Moritz Stefaner und Anouk Wipprecht. Wir bedanken uns vor allem bei unseren Partnerinnen, ohne die diese Publikation in dieser Qualität nicht möglich gewesen wäre. Danke, Kristin. Danke, Laura.

206 23

Die Autoren

207

Marc Engenhart

Sebastian Löwe

Geboren 1978. Studium der Fotografie und der

Geboren 1978. Lehrt seit 2018 als Professor für

visuellen Kommunikation. 2005 Gründung des

Designmanagement an der Berliner Mediadesign

Engenhart ° Design Studio. Arbeit an Projekten im

Hochschule im Masterstudiengang Designmanage-

angewandten Kommunikationsdesign, der Interak-

ment unter anderem Design Thinking und strate-

tionsgestaltung, an digitalen Systemen, spekulativem

gische Innovationsthemen und unterrichtet zudem

Design, Critical Design wie Transmedia. Diverse

im Bachelorstudiengang Mediadesign angewandt zu

nationale und internationale Auszeichnungen. Seit

Design mit intelligenten Systemen und User Expe-

2015 Lehre und Forschung an Hochschulen und

rience. Löwe wurde 2016 an der Martin-Luther-

Universitäten, unter anderem an der Hochschule

Universität Halle-Wittenberg mit einer ästhetiktheo-

für Gestaltung Schwäbisch Gmünd, der Hochschule

retischen und medienwissenschaftlichen Arbeit zum

Rhein-Waal und der TH Ingolstadt im Bereich Kom-

Thema Kitsch promoviert, die die Luther-Urkunde

munikationsdesign, Human-Computer-Interaction

für herausragende Promotionen erhielt. Anschließend

und Typografie. Seit 2006 Mitglied im Type Directors

wurde er wissenschaftlicher Mitarbeiter im Fachbe-

Club New York, seit 2012 Mitglied im BDG, Berufs-

reich Design an der Hochschule für Medien, Kom-

verband der Deutschen Kommunikationsdesigner,

munikation und Wirtschaft in Berlin. Zuvor studierte

seit 2018 Mitglied im Bundesverband Künstliche

Löwe an der Burg Giebichenstein Medienkunst und

Intelligenz. Seit 2019 freier Autor zum Thema speku-

Medienwissenschaft an der Ruhr-Universität Bo-

latives Design für den Unthinkable Hub und Gründer

chum. 2020 führte er gemeinsam mit Marc Engenhart

der Konferenz „Designing with Artificial Intelligence

die Konferenz „Designing with Artificial Intelligence

(dai)“ mit veröffentlichtem Sammelband zusammen

(dai)“ durch und gab dazu den begleitenden Sammel-

mit Sebastian Löwe.

band heraus. Gemeinsam mit der Beratungsfirma MHP – A Porsche Company setzt er Forschungspro-

www.marcengenhart.com

jekte wie etwa das interaktive „Innovation Framework Floom“ um. Er hielt Vorträge auf der TEDxHU, dem Internationalen Bauhaus-Kolloquium oder der Jahrestagung der College Art Association in Washington. Zudem publizierte er in Peer-Review-Journalen wie Dialectic, Diegesis oder Field. www.sebastianloewe.com

Impressum

208

Autoren: Coverabbildung:

Marc Engenhart

Das Cover zeigt ein schwarzes grafisches Muster, mit

Sebastian Löwe

dessen Hilfe in der zweiten Hälfte des 20. Jahrhunderts basale neuronale Netze – sogenannte Perceptrons – für

Konzept:

die Bilderkennung trainiert wurden. Die roten Anteile

Marc Engenhart, Sebastian Löwe

visualisieren darin einen Trainingsschritt als typografische Adaption.

Acquisitions Editor: David Marold, Birkhäuser Verlag, A-Wien

Library of Congress Control Number: 2022937585 Content & Production Editor: Bibliografische Information der Deutschen

Bettina R. Algieri, Birkhäuser Verlag,

Nationalbibliothek

A-Wien

Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie;

Korrektorat:

detaillierte bibliografische Daten sind im Internet

Andrea Mayer,

über http://dnb.dnb.de abrufbar.

D-Berlin

Dieses Werk ist urheberrechtlich geschützt. Die dadurch

Covergestaltung:

begründeten Rechte, insbesondere die der Übersetzung,

Marc Engenhart, Sebastian Löwe

des Nachdrucks, des Vortrags, der Entnahme von Abbildungen und Tabellen, der Funksendung, der Mikroverfil-

Layout und Satz:

mung oder der Vervielfältigung auf anderen Wegen und

Engenhart ° Design Studio,

der Speicherung in Datenverarbeitungsanlagen, bleiben,

D-Stuttgart

auch bei nur auszugsweiser Verwertung, vorbehalten. Eine Vervielfältigung dieses Werkes oder von Teilen

Lithografie:

dieses Werkes ist auch im Einzelfall nur in den Grenzen

Engenhart ° Design Studio,

der gesetzlichen Bestimmungen des Urheberrechtsge-

D-Stuttgart

setzes in der jeweils geltenden Fassung zulässig. Sie ist grundsätzlich vergütungspflichtig. Zuwiderhandlungen

Druck und Verarbeitung:

unterliegen den Strafbestimmungen des Urheberrechts.

Beltz Grafische Betriebe GmbH, D-Bad Langensalza

ISBN 978-3-0356-2554-7 e-ISBN (PDF) 978-3- 0356-2555-4

Papier: Magno Volume, 135 g/m²

© 2022 Birkhäuser Verlag GmbH, Basel Postfach 44, 4009 Basel, Schweiz Ein Unternehmen der Walter de Gruyter GmbH,

Schrift:

Berlin/Boston

Lineto Circular XX Book/ Bold /Bold Italic (Laurenz Brunner)

9 8 7 6 5 4 3 2 1 www.birkhauser.com

Grilli GT Sectra Book/Book Italic/ Medium (Dominik Huber, Marc Kappeler, Noël Leu)