Designing with intelligent applications Intelligent machines are no longer merely the stuff of science fiction; we are
246 66 26MB
German Pages 208 Year 2022
Table of contents :
Inhaltsverzeichnis
1. Künstliche Intelligenz als Designproblem – eine Einführung
2. Grundfragen künstlich-intelligenter Systeme
3. Gestaltung mit und für intelligente Systeme
4. Anwendungsfälle intelligenter Systeme im Designprozess
5. Mit intelligenten Systemen gestalten – ein praktischer Einstieg
Literaturverzeichnis
Abbildungsverzeichnis
Danksagung
Die Autoren
Impressum
Design und künstliche Intelligenz
Design und künstliche Intelligenz Theoretische und praktische Grundlagen der Gestaltung mit maschinell lernenden Systemen Marc Engenhart Sebastian Löwe
Birkhäuser Basel
Für Kristin
Für Laura
Inhaltsverzeichnis
Inhaltsverzeichnis
10
1. Künstliche Intelligenz als Designproblem – eine Einführung
15
2. Grundfragen künstlich-intelligenter Systeme
16 18 20 22 23 23 25 27 30 30 38 43 45 47 47 50 53 54
2.1 Zur Notwendigkeit für Designer:innen, sich mit künstlicher Intelligenz zu befassen 2.2 Aus Daten lernen 2.3 Arten des Lernens und Problemlösens 2.4 Arten der Prognose 2.5 Einige wichtige Klassen des statistischen Lernens 2.5.1 Lineare Regression 2.5.2 Entscheidungsbäume 2.5.3 Clustering und Ähnlichkeit 2.5.4 Neuronale Netze Künstliche neuronale Netze Convolutional Neural Networks Recurrent Neural Networks Generative Adversarial Networks 2.6 Prognosemaschinen – ein Zwischenfazit 2.7 Die Frage der Intelligenz optimierender Systeme 2.8 Zur Frage der (Un-)Voreingenommenheit und Ethik diskriminierender Systeme 2.9 Eine Technologie für die Leistungs- und Wachstumsgesellschaft 2.10 Konsequenzen für das Design
56
3. Gestaltung mit und für intelligente Systeme
57 58 60 62 64 70 75 82 84 85 88 94 96 108 109 109 113 118 119 121
3.1 Einleitung 3.2 Gestaltung mit intelligenten Systemen: Ko-Kreation von Designer:in und Maschine 3.2.1 Systeme für Strategie und Needfinding 3.2.2 Systeme für Ideation und Inspiration 3.2.3 Systeme für Suche und Generierung 3.2.4 Systeme für Low-Fidelity-Prototyping 3.2.5 Systeme für Designoptimierung und -automatisierung 3.2.6 Resultate 3.3 Gestaltung für intelligente Systeme: Intelligence Experience 3.3.1 Vorhersage und Personalisierung als zentrale Eigenschaften von Intelligence Experience 3.3.2 Intelligente User Interfaces 3.3.3 Faktoren und Modi der Intelligence Experience 3.3.4 Designprinzipien für Intelligence Experience 3.3.5 Resultate 3.4 Auswirkungen auf Gestaltung und Gestalter:innen 3.4.1 Ein neues Verständnis von Kreativität, Autorschaft und Design in Zeiten intelligenter Gestaltung? 3.4.2 Neue Herausforderungen und Fähigkeiten für Designer:innen 3.4.3 Neue Bereiche in der Designausbildung 3.4.4 Neue rechtliche und ethische Fragen 3.4.5 Neue Wertschöpfung mit und Strategien für intelligente Produkte
124
4. Anwendungsfälle intelligenter Systeme im Designprozess
125 127 133 141 149
4.1 Einleitung 4.2 Kommunikationsdesign: DHL Layout Creator von Strichpunkt 4.3 Medienkunst: Neural Zoo und Artificial Remnants von Sofia Crespo 4.4 Interface-Design: Einstein Designer von Salesforce 4.5 Modedesign: Pangolin Dress von Anouk Wipprecht
7
Inhaltsverzeichnis
154 161
4.6 Architectural Design: Spacemaker von Autodesk 4.7 Interaktionsdesign: Archive Dreaming von Refik Anadol
168
5. Mit intelligenten Systemen gestalten – ein praktischer Einstieg
169 170 171 172 172 173 174 176 177 178
5.1 Einleitung 5.2 Needs: Was Designer:innen tatsächlich möchten 5.3 Storys: Erste Gedankenexperimente für intelligente Systeme 5.4 Tools: Praktische Werkzeuge und ihre Anwendungsgebiete 5.4.1 Tools 1: Experimentelle Werkzeuge 5.4.2 Tools 2: Professionelle Werkzeuge und Stand-alone-Lösungen 5.4.3 Tools 3: Anwendungen ohne Coding-Kenntnisse gestalten 5.4.4 Tools 4: Intelligente Anwendungen selbst programmieren 5.4.5 Tools 5: Intelligente Anwendungen interdisziplinär erarbeiten 5.5 Floom: Ein visuelles, interaktives Innovation Framework für nutzer:innenzentriertes Machine Learning in interdisziplinären Teams
182 201
Literaturverzeichnis Abbildungsverzeichnis
206 207
Danksagung Die Autoren
208
Impressum
8
9
1. Künstliche Intelligenz als Designproblem – eine Einführung
Kapitel 1: Künstliche Intelligenz als Designproblem – eine Einführung
11
Wer noch vor einigen Jahren Bilder anschaute, die
deutlich, dass sich die Bilder durch KI von ihrem
mit künstlicher Intelligenz, kurz KI, hergestellt wur-
Original abgelöst haben und durch das rasante Tempo
den, sah selbst als ungeübte:r Betrachter:in sofort,
des Fortschritts der KI-Techniken selbstständig ge-
dass es sich nicht um Fotografien handeln konnte.
worden sind.
Man staunte zwar, dass solche Bilder überhaupt existierten, und malte sich aus, welche Art von in-
Das Phänomen Deep Fake ist allerdings nur ein
formatischer Magie diese Artefakte hergestellt haben
Beispiel aus einer Vielzahl von Technologien und
mag. Doch man war sich sicher, dass diese Bilder so
Methoden, die sich hinter dem Schlagwort KI ver-
schnell ihren eingezäunten Bereich der KI-Labore
bergen. Künstliche Intelligenz ist nicht nur auf Bilder
nicht verlassen und als Massenware niemanden täu-
beschränkt, sie erkennt auch Stimmen, Sprache, Töne,
schen oder schädigen werden.
Gesten und Emotionen und kann diese entsprechend verarbeiten und selbst erschaffen. Seit einiger Zeit
Ihre Unschuld haben diese Bilder längst verloren.
werden sogar Bilder durch Sprache generiert und KI,
Unter dem Namen „Deep Fake“ sind sie zu einem kul-
die zur Spracherkennung entwickelt wurde, erkennt
turellen Massenphänomen geworden. Websites wie
Bildelemente. Künstliche Intelligenz kann zudem in
„This Person Does Not Exist“ erlauben auf Knopf-
riesigen Mengen von Daten Muster erkennen und so
druck, Porträts von Menschen zu erzeugen, die es
helfen, Kaufentscheidungen zu verstehen oder erfolg-
erstens nicht gibt und die zweitens mit dem bloßen
reiche Designfeatures auszumachen.
1
Auge nicht mehr von einer Porträtfotografie zu unterscheiden sind. Adobes Photoshop bietet neuronale
Für die Welt der Gestaltung und der Gestaltenden
Filter, die es erlauben, porträtierte Menschen zum
in ihr hat künstliche Intelligenz, wie man unschwer
Lächeln zu bringen, auch wenn die Personen vorher
erkennen kann, weitreichende Konsequenzen. Wenn
auf den Bildern gar nicht gelächelt haben. Strafver-
KI Einzug in die Designwerkzeuge erhält, werden
folgungsbehörden nutzen Deep Fakes, um Bilder
zentrale Fragen für die Gestaltung aufgeworfen:
pädophiler Straftaten zu generieren und Täter anzulocken.2 Deep Fakes von Prominenten wie Bruce Willis
•
Welche
Wirkung hat KI auf das Design
und den Designprozess?
werden erfolgreich in der Werbung eingesetzt. Dabei
•
kommt nicht die aktuelle Version von Willis zum
Wie verändert KI die Aufgabenbereiche und Arbeitsweisen von Designer:innen?
Einsatz, sondern der junge Bruce Willis. 3 Deep Fakes
•
Welche
setzt, etwa um Menschen in Ländern zu schützen,
•
wo sie wegen ihrer sexuellen Orientierung verfolgt
Wie
Gestaltungsprozess eingebunden?
werden. Ihre wahren Gesichter müssen dann nicht
•
mehr verpixelt werden, sondern werden durch Deep
methoden und -prozesse?
werden aber auch in Filmdokumentationen einge-
Möglichkeiten ergeben sich
durch KI-Designwerkzeuge? sind diese Werkzeuge in den
Entstehen
durch KI neue Gestaltungs-
Fake zu einem ganz anderen Gesicht. 4 Schnell wird
1 2
This Person Does Not Exist: „Random Face Generator“,
Rothkopf, Joshua: „Deepfake Technology Enters the Documentary World“, https://www.nytimes.com/2020/07/01/movies/deepfakes-documentary-
Truscheit, Karin: „Durch Tauschen zum Täter“, Frankfurter Allgemeine
welcome-to-chechnya.html (20.4.2022).
Zeitung, 8.3.2021, S. 7. 3
4
https://this-person-does-not-exist.com/en (19.4.2022).
Foster, George: „That’s Not Bruce Willis In A Russian Phone Commercial, That’s Another Deepfake“, https://www.thegamer.com/bruce-willis-deepfake (20.4.2022).
Kapitel 1: Künstliche Intelligenz als Designproblem – eine Einführung
12
Neben diesen unmittelbar designspezifischen Fra-
auf das Rollenverständnis der Designer:innen. Hier
gen werden aber auch ethische und rechtliche Fragen
sind folgende Fragen zentral:
aufgeworfen, etwa: • •
Wem
•
Welche
gehören die Bilder? ethischen Implikationen hat KI?
Wie verändert
sich das Verständnis von Kreativität
und Gestaltung durch KI? •
Welche
neuen Fähigkeiten brauchen Designer:innen
im Umgang mit KI?
Nicht nur wird KI in den Gestaltungswerkzeugen selbst verwendet, sie wird auch in digitalen Produk-
Obwohl künstliche Intelligenz kein neues Phäno-
ten eingebaut, die Designer:innen konzipieren und
men und bereits weitreichend in digitale Produkte
umsetzen. Designer:innen nutzen hier KI als Design-
integriert ist, sind die meisten der oben aufgeworfe-
material und gestalten neue „User Experiences“ für
nen Fragen noch keinesfalls beantwortet. In vielen
intelligente Produkte und Medien. Hier stellen sich
Fällen fehlt überhaupt eine belastbare Basis der aka-
Fragen, wie:
demischen Auseinandersetzung mit der KI-Technologie in der Gestaltung. Die Fragen des Designs mit
•
Wie verändert
•
Welche
KI das Erlebnis digitaler Produkte?
Möglichkeiten ergeben sich durch KI
für die Nutzenden? •
Welche
Prinzipien guter Gestaltung ergeben
sich daraus?
KI sind überraschenderweise also weder systematisch beantwortet noch in eine theoretische Ordnung überführt oder aus der Sicht des Designs umfassend wissenschaftlich diskutiert und ausgewertet. Im Ganzen sind die meisten der oben aufgeworfenen Fragen noch ein Desiderat der Designforschung und ihre
Auch an diese inhärent designerischen Fragen
systematische Beantwortung ein erstes wichtiges
schließt die zentrale ethische Frage an:
Anliegen des hier vorliegenden Buches.
•
Wie
schütze ich Nutzer:innen vor einer
diskriminierenden KI?
Da künstliche Intelligenz als universale Technologie ein inhärent interdisziplinäres Phänomen ist, ist es auch nicht nur auf eine Disziplin beschränkt.
Auf der Ebene der Designstrategie stellen sich
Vielmehr entstanden viele wichtige Beiträge in Dis-
zentrale Fragen, wie:
ziplinen, die an das Design angrenzen, wie etwa der Human-Computer-Interaction-Forschung, die eher
•
Welche
neuen Geschäftsmodelle ergeben sich
aus Gestaltungssicht relevante akademische Beiträge
mit KI? •
Wie
•
Welche
•
Wie
dem Bereich der Informatik zugeordnet wird. Einige
schafft KI Differenzierung im Markt? Folgen hat KI für das Markenerlebnis?
strukturiert und steuert man Innovations-
prozesse für KI-basierte Produkte?
stammen auch aus der Psychologie oder den Ingenieurwissenschaften. Hier sind die Disziplinengrenzen oft ein Hindernis für eine informierte Debatte und Schnittstellenwissen wäre von zentraler Bedeutung. Ziel des Buches ist es daher genauso, die vielen Strän-
Abschließend hat künstliche Intelligenz auch Wir-
ge und Wissensstände aus den unterschiedlichsten
kungen auf die Design- und Kreativitätstheorie sowie
Disziplinen zusammenzuführen und für Gestalter:in-
Kapitel 1: Künstliche Intelligenz als Designproblem – eine Einführung
13
nen in verständlicher Weise zugänglich zu machen.
Auch die Fragen, wie man als Designer:in die
Dazu soll zunächst einmal – in Kapitel 2 – geklärt
neuen KI-Werkzeuge praktisch nutzt und neue KI-
werden, was sich hinter der Chiffre künstliche Intel-
Anwendungen im Team generiert, beantwortet das
ligenz überhaupt verbirgt, wieso KI-Technologie auf
Buch. Im abschließenden fünften Kapitel möchte das
so große Mengen von Daten angewiesen ist und um
Buch praktische Hilfestellungen für Designer:innen
welche Art von Intelligenz es sich bei KI überhaupt
leisten und zeigen, wie ein leichter Einstieg in die
handelt. Es sollen zentrale Verfahren der KI vorge-
Arbeit mit KI-Werkzeugen gelingen kann. Für den
stellt werden, welche Probleme sie lösen und welche
Unternehmens- und Beratungskontext stellt das
Anwendungsgebiete, aber auch welche ethischen,
Buch erstmals ein umfängliches visuelles interaktives
ökonomischen und designerischen Implikationen
Innovation Framework vor, mit dem Designer:innen
sich daraus ergeben.
im Team KI-Produkte entwickeln können.
Im dritten Kapitel wird systematisch erklärt,
Obwohl sich das Buch als Grundlagenwerk ver-
welche Auswirkung KI auf den Gestaltungsprozess
steht, kann es unmöglich alle Aspekte der KI-Tech-
hat und wie KI-Werkzeuge in den Designprozess
nologie oder der Gestaltung mit und für KI abdecken.
integriert sind. Das Buch macht zum ersten Mal in
Die Einführung in die Grundlagen der KI setzt
der deutschsprachigen Designforschung den Ver-
ausgewählte Schwerpunkte auf solche Verfahren, die
such, anhand von fünf Systemebenen ein kohärentes
die Prinzipien der Technologie am schlüssigsten il-
Ordnungsprinzip der KI-Technologie für das Design
lustrieren und häufig verwendet werden. Es ist nicht
abzuleiten. Ergänzt wird das Kapitel durch die syste-
Absicht des Buches, sich grundlegend mathematisch
matische Untersuchung der KI als Designmaterial für
oder informatisch mit dem Thema auseinanderzu-
digitale Produkte und Produkterlebnisse. Untersucht
setzen. Dafür sind bereits viele Grundlagenwerke
wird die für KI zentrale Anpassung an Nutzer:in-
zum Thema KI erschienen. Das Buch soll vielmehr
nenwünsche durch Personalisierung, von der aus
einerseits KI-Schnittstellenwissen für Designer:in-
dann Prinzipien guter Gestaltung mit KI entwickelt
nen erarbeiten. Zum anderen fokussiert es vor allem
werden. Das Kapitel schließt mit einer Diskussion
auf die visuelle Gestaltung. Der große Bereich der
darüber, wie sich das Designverständnis und die
Spracherkennung und -verarbeitung und ihre An-
Fähigkeiten von Designer:innen durch KI erweitern
wendung in den Sprachassistenten soll hier nur am
müssen, aber auch wie sich designstrategische Über-
Rande behandelt werden und nur dort, wo sie für
legungen anpassen müssen.
visuelle Gestaltung relevant ist.
Im vierten Kapitel illustriert das Buch anhand
Die Publikation ist eine Einführung in das Thema
einschlägiger Fallbeispiele in ausgesuchten Design-
Design und künstliche Intelligenz und richtet sich
disziplinen, wie KI-Werkzeuge eingesetzt werden
vornehmlich an Theoretiker:innen und Praktiker:in-
können, sodass eine gelungene Gestaltung und ein
nen aus den Bereichen Design, Designmanagement
gutes Designerlebnis daraus resultieren. Insgesamt
und angrenzenden Gebieten, wie der Human-Com-
sechs Designer:innen, Designagenturen und -studios
puter-Interaction, der Medienkunst oder dem Projekt-
sowie Beratungsunternehmen geben Einblicke in ihre
management. Es wurde bewusst darauf geachtet, dass
Arbeitsschritte und die Überlegungen, die letztlich
auf keine spezifische Designdisziplin fokussiert wird
zu ihrem intelligenten Design führten.
Kapitel 1: Künstliche Intelligenz als Designproblem – eine Einführung
und die meisten Bereiche, in denen Designer:innen heute arbeiten, gleichberechtigt repräsentiert sind. Das Buch ist aber sicher auch für Leser:innen interessant, die nicht im Design arbeiten, sich aber dennoch zu Grundfragen der Gestaltung mit dieser schillernden Technologie ein erstes umfassendes Bild machen möchten.
14
2. Grundfragen künstlich-intelligenter Systeme
Kapitel 2: Grundfragen künstlich-intelligenter Systeme
16
Um die Wirkung und das Potenzial künstlicher
Verfahren im Designprozess als intelligente Werk-
Intelligenz ranken sich viele eher überzogene Vorstel-
zeuge und in den Designanwendungen als Design-
lungen. So trifft man häufiger auf die Überzeugung,
material verwendet werden. Abschließend reflektiert
dass KI als Vorstufe einer umfassenden, menschen-
das Kapitel kritisch die ethischen und ökonomischen
gleichen Intelligenz zu begreifen wäre. Ebenfalls
Implikationen des statistischen Lernens.
wird häufig wiederholt, dass Designer:innen bald durch intelligente Maschinen ersetzt werden. Solche
Zunächst soll jedoch die Frage beantwortet
Ansichten gehen am Wesen der künstlichen Intelli-
werden, wieso sich Designer:innen überhaupt mit
genz vorbei. Gemeinhin werden unter dem Begriff
Verfahren statistischen Lernens auseinandersetzen
„künstliche Intelligenz“ Verfahren der Informatik
sollten.
gefasst, die in der Lage sind, für bestimmte eingegrenzte Problembereiche selbstständig Lösungen zu
2.1 Zur Notwendigkeit für Designer:innen, sich
generieren. Es sind computergestützte Verfahren,
mit künstlicher Intelligenz zu befassen
die das Moment der Optimierung ihrer Ergebnisse von Grund auf eingebaut haben, denn sie lernen, ihre
Design nutzt immer Gestaltungswerkzeuge, egal ob
eigenen Fehler zu korrigieren. Weil diese Verfahren
sie Jahrtausende alt sind oder erst kürzlich entwickelt
entfernt an menschliche Intelligenz erinnern, nutzt
wurden. Diese Werkzeuge helfen nicht nur, Gestal-
man den Begriff „künstliche Intelligenz“. Allerdings
tung dem Zweck ihrer Nutzung gemäß zu planen und
ist der Begriff fragwürdig, denn er betont zu stark
zu implementieren. Sie sind auch Mittel, um schnel-
die wenig vorhandenen Gemeinsamkeiten mit
ler, effektiver und präziser zu gestalten. Es ist kein
menschlicher Intelligenz. Prüft man genauer, was die
Geheimnis, dass digitale Werkzeuge ihren analogen
Technologien tatsächlich vermögen, die als intelligent
Gegenstücken in puncto Verarbeitung und An-
gefasst werden, merkt man schnell, dass sie mit einer
wendung vielfach überlegen sind. Oft sind Stift und
menschlichen Intelligenz noch sehr wenig teilen.
Papier gute Werkzeuge für Ideenfindung und Prototyping, aber wenn es um die Umsetzung geht, müssen
Das folgende Kapitel soll klären, was eigentlich das
gestalterische Werkzeuge mittlerweile komplexe Auf-
Intelligente an künstlich-intelligenten Systemen ist
gaben bewältigen können, die nur digitale Systeme
oder mit anderen Worten, wie intelligente Systeme
zufriedenstellend ausführen.
lernen. Der Oberbegriff für alle Verfahren der künstlichen Intelligenz und des maschinellen Lernens
Digitale Werkzeuge, darin unterscheiden sie sich
in diesem Kapitel ist das statistische Lernen. Das
nicht von den analogen, haben ihre je eigenen Not-
Kapitel hat zum Ziel, zentrale Verfahren des statisti-
wendigkeiten, Funktionsweisen, Potenziale und
schen Lernens zu erklären, ohne informatische oder
Grenzen. Die intelligenten Gestaltungswerkzeuge
mathematische Kenntnisse vorauszusetzen. Gezeigt
sind in dieser Hinsicht keine Ausnahme. So arbeiten
werden soll, worin das Moment des Lernens besteht
intelligente Systeme nur in ihrem jeweils definierten
und welche Konsequenzen es für die Lösung welcher
Bereich und das auch nur, wenn sie eine genügend
Probleme hat. Damit soll der Grundstein für ein bes-
gute Basis haben.
seres Verständnis darüber gelegt werden, wie diese
Kapitel 2: Grundfragen künstlich-intelligenter Systeme
17
In einer anderen Hinsicht jedoch sind intelligente
dungsmöglichkeiten zentraler Verfahren statistischen
Werkzeuge tatsächlich von allen anderen zu unter-
Lernens. Neben den Bedürfnissen der Nutzenden
scheiden. Mit statistischen Lernverfahren ist es
müssen sie nun auch die Datenbedürfnisse der intel-
möglich, auf der Grundlage von mehr oder weniger
ligenten Systeme kennen.
genauen Vorhersagen zu gestalten, sowohl was die digitalen Erlebnisse von Nutzer:innen angeht als
Vielfach sind Gestalter:innen heute in interdiszi-
auch die Mittel der Gestaltung. Damit ändert sich die
plinäre Entwicklungsteams eingebunden. Mit Data
Qualität der Werkzeuge für Gestaltung ein ganzes
Scientists oder Developer:innen in interdisziplinären
Stück weit und schafft neue, kreativere oder effekti-
Teams zusammenzuarbeiten, ohne ein Verständnis
vere Möglichkeiten zu gestalten. Für Designer:innen
des gemeinsamen Gegenstandes zu haben, ist schwie-
bedeutet dies, dass sie ohne ein grundlegendes Ver-
rig und unproduktiv. Gerade in Teams, die keinen
ständnis der Funktionsweise von statistischem Ler-
homogenen fachlichen Background besitzen, ist es
nen in Zukunft nicht mehr die vollen Potenziale von
für Gestaltende wichtig, ein Grundverständnis zu
Gestaltungswerkzeugen werden ausschöpfen können.
entwickeln, wie intelligente Systeme funktionieren,
Wenn sie die Logik und Funktionsweise ihrer Werk-
um sich mit Kolleg:innen austauschen und gemein-
zeuge nicht verstehen, können sie sie schlicht nicht
sam neue Ideen entwickeln und umsetzen zu können.
effektiv einsetzen.
Wie gut Innovationspotenziale ausgeschöpft werden, ist daher auch eine Frage des gelingenden Austauschs zwischen den Teammitgliedern.
Aber nicht nur die Technologie hat sich in den letzten Jahren rasant fortentwickelt. Auch die Arbeitsbereiche der Designer:innen haben sich
In einigen Firmen haben es sich Designer:innen
immer mehr erweitert. Gestalter:innen sind heu-
daher zur Aufgabe gemacht, eine gestalterische
te nicht mehr nur die Schönheitsbeauftragten, die
Grundlage für die gemeinsame Arbeit zu schaffen.
fertige Produkte aufhübschen, sondern mittlerweile
Bei Airbnb haben Designer:innen und Designma-
in agile Innovations- und Produktentwicklungspro-
nager:innen beispielsweise ein Framework mit dem
zesse von Beginn an einbezogen. Sie forschen dort
Namen „Invisible Design“ entwickelt, das ihnen
an nutzer:innenzentrierten Lösungen für tatsächlich
ermöglicht, eine gemeinsame Verständigung mit Data
vorhandene Bedürfnisse. Dabei fällt ihnen die Auf-
Scientists und Entwickler:innen herzustellen, indem
gabe zu, solche Bedürfnisse mittels technologischer
sie die Wirkungsweise eines für Airbnb zentralen
Möglichkeiten in komplexe digitale Lösungen und
Verfahrens statistischen Lernens, die lineare Regres-
User Experiences zu überführen. Mit intelligenten
sion, visualisierten.5 In dem interdisziplinären Ent-
Systemen ändern sich auch Nutzer:innenerfahrungen
wicklungsteam wurde ein gemeinsames Verständnis
grundlegend, denn sie können Präferenzen, Vorlieben
entwickelt, wie lineare Regression funktioniert,
und Handlungen von Nutzer:innen antizipieren und
indem man die mathematische Formel, die den De-
das Produkt daran anpassen. Um diese Erfahrungen
signer:innen nicht zugänglich war, grafisch übertrug.
mit intelligenten Produkten bestmöglich gestalten zu
So wurde die Wirkungsweise des Lernverfahrens
können, benötigen Designer:innen ein grundlegendes
visuell verdeutlicht. Dies wiederum lieferte dann die
Verständnis von der Wirkungsweise und den Anwen-
gemeinsame Grundlage, um erfolgreich Services, wie
5
Cartwright, Amber: „Invisible Design: Co-designing with machines“, https://medium.com/swlh/invisible-design-co-designing-with-machinesaea62a1e0f6d (20.4.2022).
Kapitel 2: Grundfragen künstlich-intelligenter Systeme
18
die automatische Preisempfehlung für Airbnb-Gast-
man fest kodierte, regelbasierte Programmierung.
geber:innen umzusetzen. Gestaltende verantworten
Beispielsweise bekommt ein Sortierungsalgorithmus
nicht mehr nur Nutzer:innenerlebnisse, sie spielen
eine unsortierte Liste von Zahlen. Er prüft dann, ob
auch eine zentrale Rolle dabei, die technologische
die Eingabedaten überhaupt eine Liste von Zahlen
Grundlage dieser Erlebnisse zu kommunizieren und
sind, schaut jede Zahl in der Liste an, vergleicht sie
in eine User Experience zu übersetzen.
mit der vorhergehenden und ändert dann auf Basis dieses Vergleichs die Platzierung dieser Zahl in der
Alle hier angesprochenen Aspekte müssen Desig-
Liste. Sind alle Schritte der Handlungsanweisung
ner:innen, die mit intelligenten Systemen gestalten,
ausgeführt, sind also alle Zahlen einmal angeschaut
nachvollziehen und beherrschen, um zu nützlichen
und platziert worden, ist der Algorithmus fertig und
Lösungen zu gelangen. Gestalter:innen sollten
die Nutzenden erhalten eine fertig sortierte Liste.
deshalb eine grundlegende Vorstellung haben, was
Egal welche Zahlen das Programm bekommt und wie
zentrale Verfahren statistischen Lernens sind, was sie
viele es sind, es führt immer nur das aus, was vorher
für die Nutzer:innen leisten können und worin ihre
als seine Handlungsanweisung eindeutig definiert
wesentlichen Unterschiede und Anwendungsgebiete
wurde, es sortiert immer nur Zahlen.
bestehen. Nun sind aber manche Probleme mit solchen Allen Anwendungen statistischen Lernens ist ein
vordefinierten Handlungsanweisungen nicht lös-
Moment wesentlich zu eigen: Einem Nutzer:innen-
bar, auch nicht mit sehr detailliert beschriebenen
bedürfnis kann nur so gut gedient werden, wie es die
Handlungsschritten. So etwas wie die Prognose,
Funktionsweise des Lernverfahrens erlaubt. Dessen
ob eine bestimmte Kundin ein bestimmtes Produkt
Qualität der Vorhersagen ist entscheidend abhängig
kaufen wird, scheitert daran, dass es schlicht zu viele
von den Trainingsdaten. Damit wird eine zentrale
Möglichkeiten gibt, die ein Algorithmus zu beachten
Frage aufgeworfen: Was bedeutet es eigentlich, wenn
hätte. Programmierer:innen müssten alle möglichen
ein Algorithmus aus Daten lernen kann, und wieso
Kaufentscheidungen und vor allem deren jeweilige
sind Daten so wichtig für statistisches Lernen?
psychologische, ökonomische, soziale und ästhetische Faktoren kennen, um sie in eine funktionale
2.2 Aus Daten lernen
Handlungsanweisung zu überführen. Es ist schlicht unmöglich, in der Logik einzeln definierter Regeln
Alle Problemlösungen, die den Computer als Hilfs-
dieses Verhalten für viele Millionen Kund:innen
mittel verwenden, benötigen konkrete Handlungsan-
abzubilden; abgesehen davon, dass das auch viel zu
weisungen, sogenannte Algorithmen. Diese Algo-
teuer wäre. Das Prinzip der fest kodierten, regelba-
rithmen sind für Computer verständlich formulierte,
sierten Programmierung scheitert hier.
zeitlich begrenzte Schritte, die er nacheinander abarbeiten muss, um ein bestimmtes Problem zu
Trotzdem können manche Algorithmen solche
lösen. Algorithmen bekommen bestimmte Daten als
Kaufentscheidungen recht gut bestimmen. Nicht in-
Eingabedaten vorgegeben und liefern dann durch
dem sie jeden Schritt streng vordefiniert bekommen,
ihre Ausführung bestimmte Ausgabedaten; das nennt
sondern indem man sie ermächtigt, aus Millionen
Kapitel 2: Grundfragen künstlich-intelligenter Systeme
19
von Einzeldaten logische Schlüsse zu ziehen. Dieses
Die Algorithmen sind nun zweitens in der Lage,
Vorgehen ist der Kern des statistischen Lernens. Es
nur auf der Basis des gelernten Prinzips neue, un-
umfasst Verfahren, die aus einer großen Menge von
bekannte Daten mit hoher Wahrscheinlichkeit richtig
Daten lernen, ob und wie ein bestimmter statistischer
zu bestimmen. Manchmal müssen Anwender:innen
Zusammenhang in ihnen vorhanden ist. Verfahren
diese Prinzipien und Zusammenhänge noch nicht
des statistischen Lernens können aber auch ganz und
einmal vollständig verstehen und die Algorithmen
gar selbstständig aus den Daten statistische Muster
decken diese Prinzipien selbstständig auf. Das macht
ermitteln, die dem Menschen gar nicht zugänglich
diese Arten von Algorithmen so wirkungsvoll und
sind, und ihre Vorgehensweise darauf anpassen. 6
attraktiv. All das hat nichts mit Magie oder einer quasimenschlichen Fähigkeit zu tun, sondern vielmehr mit informatischen Strategien der Optimierung.
Voraussetzung und Grundlage dieser Lernprozesse sind große Mengen an Daten, weshalb man dieses Phänomen auch Big Data getauft hat. Der selbst-
Ein Anwendungsbeispiel soll dies erhellen: So
lernende Algorithmus hat im Unterschied zu vorher
möchte Airbnb den optimalen Übernachtungspreis
streng definierten Handlungsanweisungen einstell-
kennen, den ein Apartment zu einem bestimmten
bare Parameter, die er im Laufe seines Lernprozesses
Zeitpunkt an einem bestimmten Ort und mit be-
anpasst, indem er sie optimiert.7 Lernenden Algo-
stimmter Ausstattung erzielen kann. Kennt das
rithmen gibt man also ein Optimierungsproblem, das
Unternehmen diesen Preis, hat das enorme Aus-
sie mittels ihres Aufbaus und der verfügbaren Daten
wirkungen auf die User Experience von Airbnb.
sukzessive lösen können. Wie das im Einzelnen
Vermieter:innen müssen nicht mehr Preise intuitiv
geschieht, welche Arten und Strategien des Optimie-
bestimmen und Mieter:innen bekommen immer den
rens es gibt, ist Gegenstand der folgenden Unterkapi-
für sie besten Preis. Gesucht ist also ein Preis, der das
tel.
Maximum für die Vermieter:innen herausholt, ohne für potenzielle Gäste zu teuer zu werden. Airbnb
Grundsätzlich hat man es also beim statistischen
nutzt lineare Regression 9, um den idealen Preis zu
Lernen mit Verfahren zu tun, die durch sukzessi-
ermitteln. Da es einen linearen Zusammenhang gibt
ves Training und fortlaufende Optimierung besser
zwischen dem Ort des Apartments, seiner Verkehrs-
werden. Dabei ist erstens wesentlich, dass sie aus den
anbindung und Ausstattung sowie dem Preis, kann
vielen einzelnen Daten einen statistisch signifikan-
man mit dem Verfahren diesen Zusammenhang er-
ten, also allgemeinen Zusammenhang erschließen
lernen. Hat der Algorithmus, der das Verfahren nutzt,
können. Mit anderen Worten: dass sie in der Lage
diesen Zusammenhang erst einmal ermittelt, kann er
sind zu generalisieren, also von vielen konkreten
ohne Probleme für das kommende Wochenende den optimalen Preis für ein Apartment vorhersagen. Den
Daten auf ein übergeordnetes, in den Daten verborgenes Wirkungsverhältnis oder Prinzip zu schließen.
Preis kann Airbnb dann seinen Gastgeber:innen als
8
Man nennt diese Algorithmen auch Modelle, weil sie
Optimum für jedes einzelne Apartment vorschlagen
ein Abbild der Wirklichkeit geben in Form von aus
und so die Bedürfnisse von Nutzer:in und Gastge-
Daten gelernten Annäherungen.
ber:in befriedigen.
9
6
Alpaydin, Ethem: Machine Learning, Cambridge: MIT Press 2016, S. 16.
7
Alpaydin: Machine Learning, S. 24.
genauer erklärt. An dieser Stelle reicht der Gedanke, dass dieses Verfahren
8
Daumé, Hal: A Course in Machine Learning, Eigenpublikation 2017, S. 9,
einen linearen Zusammenhang zwischen Preis und Wohnungseigenschaften
http://ciml.info (20.4.2022).
erkennt.
Im Kapitel „Lineare Regression“ wird die Funktionsweise des Verfahrens
Kapitel 2: Grundfragen künstlich-intelligenter Systeme
20
Die Preisermittlung behält immer die Qualität
prognostizierten und dem korrekten Ergebnis ab und
einer Prognose, weil sie eine statistische Annäherung
lernt anhand des Labels, wie es optimieren muss. So
an die Wirklichkeit ist; sie bleibt also Spekulation,
klassifiziert beispielsweise der Bilderkennungsalgo-
wenn auch statistisch abgesicherte Spekulation. Man
rithmus in den ersten Optimierungsdurchläufen das
kann schon an dieser Stelle festhalten, dass Verfah-
Foto einer Katze noch als Hund, weil er die wesent-
ren statistischen Lernens informierte Spekulation
lichen Unterschiede noch nicht erkannt und auf sie
betreiben, die auf vorher gelernten Zusammenhängen
hin optimiert hat. Er bekommt beim überwachten
basiert. Diese Verfahren antizipieren damit ein Stück
Lernen nach jedem Durchlauf das Feedback anhand
weit zukünftige Wirklichkeit. Dass diese Natur der
des Labels, ob seine bisherige Klassifikation stimmt
informierten Spekulation interessante Auswirkungen
oder nicht, denn mit dem Label ist eindeutig ver-
auf die Gestaltung hat, wird sich im Weiteren zeigen.
merkt, ob es sich um eine Katze oder einen Hund handelt. Solange der Algorithmus Fehler macht, ist
2.3 Arten des Lernens und Problemlösens
klar, dass er weiter optimieren muss; so lange, bis er das Ergebnis richtig prognostiziert. Ist der Bild-
Zunächst kann man lernfähige Algorithmen anhand
erkennungsalgorithmus, der zwischen Hunden und
der drei Strategien unterscheiden, mit und durch
Katzen unterscheiden kann, fertig trainiert, kann er
die sie lernen und Probleme lösen. Das ist erstens
auch unbekannte – also nicht gelabelte – Daten richtig
das sogenannte Supervised Learning, zweitens das
bestimmen. Dies ist das Ziel des Trainings, denn man
Unsupervised Learning und drittens das Reinforcement
möchte einen Algorithmus, der ungelabelte Daten
Learning.
richtig klassifiziert. Ein typisches Verfahren für überwachtes Lernen ist das künstliche neuronale Netz,
Am weitesten verbreitet ist derzeit Supervised
das später ausführlicher erklärt wird.
Learning, das man mit „beaufsichtigtes Lernen“ oder „überwachtes Lernen“ übersetzen kann. Die Überwa-
Beim Unsupervised Learning, dem unbeaufsichtigten
chung besteht darin, Modelle mit Daten zu trainieren,
oder nicht überwachten Lernen ist das Modell in der
deren korrektes Ergebnis vor dem Lernprozess be-
Lage, ohne Rückbezug auf ein Label innerhalb einer
reits bekannt ist. Beispielsweise kann so ein Modell
Menge von Daten Zusammenhänge selbstständig
trainiert werden, dass es Hunde- von Katzenbildern
auszumachen. So wird beispielsweise bei der Waren-
unterscheiden kann. Die Trainingsdaten hierfür
korbanalyse das Einkaufsverhalten vieler Tausend
sind Bilder, die jeweils individuell als Hunde- oder
Supermarktkund:innen ausgewertet und ermittelt,
Katzenbilder gekennzeichnet sind. Zu jedem Bild ist
welche Einkäufe häufig zusammen getätigt werden.
also die Angabe hinterlegt, ob es sich um ein Bild von
Mit dem unüberwachten Lernen können statistische
einem Hund oder einer Katze handelt. Dies nennt
Zusammenhänge in Daten ausfindig gemacht wer-
man in der Fachsprache Label. In der überwachten
den, die vorher unbekannt oder wegen der zu großen
Lernphase gleicht der Algorithmus seine aktuelle
Datenmenge für menschliche Wahrnehmung nicht
Prognose mit dem Label ab und erfährt, ob er bereits
auffindbar waren. Mit der Warenkorbanalyse hat man
richtig liegt oder weiter optimieren muss. Das Modell
beispielsweise herausgefunden, dass Kund:innen, die
gleicht also immer wieder zwischen seinem jeweils
Milch und Käse kaufen, mit 70-prozentiger Wahr-
Kapitel 2: Grundfragen künstlich-intelligenter Systeme
21
scheinlichkeit auch gleich noch Brot kaufen.10 Mit
Die letzte Gruppe der Lernverfahren, die hier be-
diesem Wissen kann das Management des Super-
leuchtet werden soll, ist das Reinforcement Learning
markts dann Schlüsse auf den Grundriss des Markt-
oder bestärkende Lernen. Bei diesem Verfahren
es ziehen, den Architekt:innen, Planer:innen oder
werden keine richtigen Lösungen vorgegeben, son-
Interiordesigner:innen dann umsetzen. Legt man die
dern Lösungswege honoriert, indem es einen Score
Milchprodukte näher an die Bäckerei, schafft man
für richtige Lösungen gibt. Einzelne Schritte auf
Bequemlichkeit für die Kundschaft. Legt man sie
dem Weg zur richtigen Lösung werden belohnt oder
weiter auseinander, garantiert man, dass Kund:innen
bestraft und ergeben dann den Gesamtscore. Der
an anderen Produkten vorbeigehen, und erhöht damit
Algorithmus lernt also, welche Handlungen stärker
Impulskäufe. Verfahren für unüberwachtes Lernen
belohnt werden, und optimiert dadurch sein Ver-
sind die später ausgeführten Entscheidungsbäume
halten. Beispielsweise kann ein Staubsaugerroboter
und das Clustering.
die Aufgabe bekommen, den optimalen, das heißt schnellsten Weg durch eine Wohnung zu finden, um
Zwischen Supervised und Unsupervised Lear-
alle Räume zu reinigen. Der Algorithmus, der den
ning bestehen Mischformen, die unter dem Begriff
Roboter steuert, arbeitet mit Reinforcement Learning,
Semi-supervised Learning zusammengefasst werden.
das sowohl den aktuellen Status des Roboters kennt,
Eines der wichtigsten Verfahren, die in diese Katego-
in diesem Fall den Raum, in dem sich der Roboter
rie fallen, ist das Self-supervised Learning. Denn mit
befindet, als auch mögliche Aktionen, die er aus-
diesem Verfahren kann einer der großen Nachteile
führen kann. In diesem Fall soll der Algorithmus nur
von Supervised Learning behoben werden, und zwar
entscheiden, wie er am schnellsten durch die gesamte
die großen Mengen an gelabelten Daten, die benötigt
Wohnung gelangt; alle anderen Reinigungsaktionen
werden. Das Verfahren heißt selbstüberwacht, weil
automatisiert ein anderer Algorithmus. Manche der
es die Signale für das unüberwachte Lernen selbst-
möglichen Aktionen sind nachteilig, weil der Roboter
ständig ermittelt. Damit ist dieses Verfahren eine Art
in Räume gelangt, die er schon gesaugt hat oder die
Vortraining auf Basis eines Unsupervised Learnings,
ihn auf einen Umweg führen. Andere Aktionen sind
das subtile Muster in großen Datenmengen selbst-
vorteilhaft, weil sie schneller zum Ziel, einer sauberen
ständig erkennt und als Hinweis für das weitere
Wohnung, führen. Mit dem Reinforcement Learning
überwachte Lernen versteht. In der überwachten
wird ohne Vorwissen gelernt, welche der je nach Sta-
Lernphase lernt ein System dann anhand von nur
tus verschiedenen Aktionen vorteilhaft ist und wel-
wenigen Daten die relevanten Zusammenhänge und
che nachteilhaft. Jede einzelne Aktion wird zunächst
kann somit auch aus kleinen Datenmengen erfolg-
mit einem vorläufigen Score versehen. Je höher der
reich Prinzipien ableiten. Anwendungsgebiete hierfür
Score, umso besser ist die Aktion und umso höher ist
sind beispielsweise Algorithmen, die Schwarz-Weiß-
der Gesamtscore am Ende des Lerndurchgangs. 12 Auf
Bilder kolorieren oder fehlerhafte Bilder retuschieren
diese Weise findet der Roboter nach dem Training
können.
den besten Weg zum Staubsaugen.
11
10
Bramer, Max: Principles of Data Mining, London: Springer-Verlag 2016, S. 8.
11
LeCun, Yann/Misra, Ishan: „Self-supervised learning: The dark matter of intelligence“, https://ai.facebook.com/blog/self-supervised-learningthe-dark-matter-of-intelligence (9.2.2022).
12
Breuer, Klaus: Computerspiele programmieren. Künstliche Intelligenz für künstliche Gehirne, München: Oldenbourg 2012, S. 85.
Kapitel 2: Grundfragen künstlich-intelligenter Systeme
22
Bei der Wahl der Aktionen wird im Reinforcement
Kennt ein Modell nur zwei Kategorien, etwa bei den
Learning nicht zufällig gewählt, sondern abgewogen
Kategorien Spammail und Nicht-Spammail, spricht
zwischen einem Vorgehen, das mögliche Aktionen
man von binärer Klassifikation. Bei mehr als zwei
erkundet und dabei riskiert, schlechte Scores zu
Kategorien, etwa bei dem Beispiel der Tiere, spricht
erhalten, und einem Vorgehen, das besonders hohe
man von Mehrklassen-Klassifikation.
Scores ausnutzt und riskiert, unbekannte, aber bessere Wege zu übersehen. Diese Strategie, beiden Vor-
Vorhersagen, die einen Zahlenwert ermitteln,
gehensweisen entsprechend abzuwägen, nennt man
werden als Regression bezeichnet.15 Regression heißt
in der Fachsprache Exploration vs. Exploitation. Im
so viel wie „Rückführung“ und meint, dass von einer
Laufe des Lernens passt sich der Anteil zwischen Ex-
oder mehreren unabhängigen Variablen auf eine
ploration und Exploitation sukzessive an, denn sind
abhängige Variable zurückgeschlossen wird. Mit
alle Wege erkundet, kann der Anteil an explorativem
anderen Worten wird ein Zahlenwert abhängig von
Verhalten reduziert werden. Reinforcement Learning
anderen feststehenden Zahlenwerten bestimmt, etwa
eignet sich in der Anwendung für solche Probleme,
der Preis für ein Haus aus der Quadratmeterzahl aller
die abstrakte Spielregeln oder komplexe Vorgehens-
Zimmer. Der Häuserpreis ist die abhängige Variable,
weisen lernen sollen. Das reicht vom bereits zitierten
die feststehende unabhängige Variable ist die Ge-
Roboter, der sich in einer Umgebung optimal be-
samtquadratmeterzahl.16 Mit der Regression werden
wegen soll, über Computer- und Brettspiele, wie das
keine für immer feststehenden Zahlenwerte ermittelt;
berühmte AlphaGo, bis hin zu Systemen wie einem
sie können sich je nach genutzten Variablen mehr
Restaurant, dessen Ressourcenmanagement mit
oder weniger signifikant verändern.
13
Reinforcement Learning optimiert werden kann.
14
Die dritte Art der Prognose sind die Rankings, die 2.4 Arten der Prognose
zwischen Klassifikation und Regression angesiedelt sind und beispielsweise durch Suchmaschinen oder
In einem zweiten Schritt können lernfähige Algorith-
Empfehlungsalgorithmen ermittelt werden. Soll ein
men anhand der Prognosen unterschieden werden,
Empfehlungsalgorithmus geeignete Filme vorschla-
die sie machen. Hier gibt es die drei großen Bereiche
gen, dann ermittelt er je Zuschauer:in die Wahr-
Klassifikation, Regression und Ranking. Klassifika-
scheinlichkeit, mit der sie oder er einen bestimmten
tionsalgorithmen lernen, Daten korrekt zu klassifizie-
Film mögen wird. Dabei sind die Filme nicht gelabelt
ren, also in Kategorien einzuordnen. Kategorien sind
in „gefällt“/„gefällt-nicht“, denn damit könnte man
begrenzte Mengen von unterscheidbaren Klassen,
einen Klassifikationsalgorithmus trainieren. Sie sind
wie beispielsweise Tiere. Zu den Tierkategorien, die
auch nicht mit einem Sternesystem von eins bis
ein Algorithmus erkennen kann, gehören dann etwa
fünf bewertet worden, denn dann könnte man einen
Hund, Katze oder Vogel. Klassifikationsalgorithmen
Regressionsalgorithmus trainieren. Der Rankingal-
kennen immer nur eine begrenzte Zahl an Katego-
gorithmus ermittelt für Film und Nutzer:in einen
rien. Man kann die Kategorien zwar erweitern, dann
Score, indem solche Filme, die der Nutzerin oder dem
muss aber auch das Modell neu trainiert werden.
Nutzer am meisten gefallen könnten, hoch bewertet
13
Breuer: Computerspiele programmieren, S. 86.
15
Bramer: Principles of Data Mining, S. 6.
14
Mao, Hongzi/Alizadeh, Mohammad/Menache, Ishai et al.: „Resource
16
Burkov, Andriy: The Hundred-Page Machine Learning Book,
Management with Deep Reinforcement Learning“, https://dl.acm.org/ doi/10.1145/3005745.3005750 (20.4.2022).
Eigenpublikation 2019, S. 19.
Kapitel 2: Grundfragen künstlich-intelligenter Systeme
23
werden. Anhand der Scores wird dann bestimmt,
in und mit den Daten ein mathematischer Zusam-
welche Filme in welcher Reihenfolge empfohlen
menhang, der sich als lineares Verhältnis beschreiben
werden.17
und dann auch prognostizieren lässt. So besteht beispielsweise ein linearer Zusammenhang zwischen
2.5 Einige wichtige Klassen des statistischen
Alter und Klimabewusstsein.18 Das bedeutet: Je älter
Lernens
Personen werden, umso mehr steigt die statistische Wahrscheinlichkeit, dass sie Klimafragen bewusster
In diesem Kapitel sollen nun einige zentrale Klassen
wahrnehmen. Mit anderen Worten steigt statistisch
statistischen Lernens beleuchtet, also ihr wesent-
gesehen das Klimabewusstsein linear, also in gleich-
licher Aufbau und ihre Funktionsweise dargelegt
bleibender Proportion zum Alter.
werden. Besprochen werden sollen die Klassen in der Logik ihrer zunehmenden Komplexität. Begonnen
Bei der einfachen linearen Regression, um die es
wird demnach mit der linearen Regression als einer
hier gehen soll, wird der Zusammenhang zwischen
der einfachsten Klassen statistischen Lernens, den
einer unabhängigen Input-Variable x und der soge-
Abschluss bildet eine Reihe von Deep-Learning-Klas-
nannten Response-Variable y ermittelt. 19 Im Bei-
sen. Allen Klassen ist zu eigen, dass sie ein statisti-
spielfall wäre das Alter die Input-Variable und das
sches Verteilungsprinzip in einer Menge von Daten
Klimabewusstsein die Response-Variable. Die lineare
ermitteln können. In den allermeisten Fällen lernt der
Regression setzt voraus, dass der Zusammenhang von
Algorithmus mittels Optimierungsfunktionen, die Vor-
Input-Variable und Response-Variable tatsächlich ein
gehensweisen zur Fehlerverringerung sind. Zentral
linearer ist. Erhöht sich der Input-Wert um einen be-
für dieses Kapitel ist also der Aufbau der jeweiligen
stimmten Faktor, muss sich auch der Response-Wert
Klasse in Verbindung mit der Funktionsweise ihrer
um einen gleichbleibenden Faktor erhöhen.
Optimierungsfunktionen. Nicht alle existierenden Klassen statistischen Lernens können und sollen hier
Allerdings liegt es in der Natur der Daten, dass sie
betrachtet werden. Es geht vielmehr darum, einige
nicht durch reine mathematische Funktionen in die
grundlegende Wirkungsprinzipien des statistischen
Welt gekommen sind, sondern im Falle des Klimabe-
Lernens exemplarisch zu beleuchten, um so darzu-
wusstseins individuelle Einstellungen repräsentieren.
legen, für welche Problemfelder man sie einsetzen
Diese Einstellungen können in Bezug auf die Lineari-
kann.
tät, die sie als statistisches Prinzip zusammenhält, schwanken. Deutlich wird dies, wenn man die Daten
2.5.1 Lineare Regression
wie in der Abbildung 2.1 als grafische Darstellung visualisiert. Die x-Achse zeigt die Verteilung der
Eine der simpleren, wenn auch häufig gebrauchten
Menschen anhand ihres Alters, die y-Achse zeigt den
Klassen des statistischen Lernens ist die lineare Re-
Grad des Klimabewusstseins dieser Menschen.
gression. Wie der Name schon andeutet, ist das statis-
17
tische Verteilungsprinzip der Daten, das mit dieser
Man erkennt in Abbildung 2.1, dass die Daten nicht
Klasse aufgefunden wird, ein lineares. Es besteht also
auf einer Linie liegen, und trotzdem kann man den li-
Mehr dazu dann im Kapitel 2.5.3 zu Clustering und Ähnlichkeit.
18
Kuckartz, Udo/Rädiker, Stefan/Ebert, Thomas et al.: Statistik. Eine verständliche Einführung, Wiesbaden: VS Verlag 2010, S. 333.
19
Igual, Laura/Seguí, Santi: Introduction to Data Science, Cham: Springer 2017, S. 98.
Kapitel 2: Grundfragen künstlich-intelligenter Systeme
24
nearen Zusammenhang bereits mit dem bloßen Auge
ler angenommen. Dieser Fehler soll dann so lange
erkennen. Jüngere Menschen haben oft ein niedri-
minimiert werden, bis sich der Punkt auf der Aus-
geres Klimabewusstsein, ältere Menschen oft ein
gleichsgerade befindet. Die Fehler der Punkte werden
höheres. Mit der linearen Regression kann man nun
mit dem Optimierungsverfahren also immer weiter
den linearen Zusammenhang ermitteln, der in der
minimiert und der Punkt damit auf die Gerade ver-
Gesamtheit der Datenpunkte steckt, und damit die
schoben. Dazu wird der Abstand quadriert, was den
Ausgleichsgerade einzeichnen, die in der Abbildung
Effekt hat, dass große Fehler stärker bestraft werden,
zu sehen ist. Diese Ausgleichsgerade repräsentiert
kleine Fehler dagegen weniger stark, denn alle Werte
den statistischen Mittelwert des linearen Zusammen-
kleiner als eins werden durch das Quadrat verringert,
hangs zwischen Alter und Klimabewusstsein. Ziel
alle Werte größer als eins werden erhöht. Das hat zur
der linearen Regression ist es also, über die tatsäch-
Folge, dass Punkte, die nahe der Ausgleichsgerade lie-
lich vorhandenen Datenpunkte die Ausgleichsgerade
gen, nur wenig verschoben werden. Punkte, die weit
zu berechnen.
weg liegen, werden entsprechend stärker verschoben. Durch das Verfahren wird für jeden Datenpunkt also sukzessive der Fehler minimiert und letztlich werden
y-Achse
alle Punkte in einer Gerade angeordnet, also wird die e
d era
korrekte Ausgleichsgerade ermittelt.
sg
ch lei
sg Au
Hat der Algorithmus den konkreten linearen
Klimabewusstsein
Zusammenhang aus einer Menge an Daten gelernt, dann kann er aus einem bekannten x-Wert einen
Fehler
unbekannten y-Wert inferieren, also mit hoher Wahrscheinlichkeit richtig bestimmen. Mit anderen Worten: Ist die Ausgleichsgerade bestimmt, kann eine Response-Variable prognostiziert werden, auch wenn nur die Input-Variable bekannt ist. Es kann also für jedes beliebige Alter ein statistisch wahrscheinlicher
Alter
Grad an Klimabewusstsein vorhergesagt werden.
x-Achse
Man kann mit der linearen Regression aber auch die Menge von Abverkäufen eines Produkts prognosti-
Abb. 2.1: Lineare Regression
zieren, je nachdem ob der Produktpreis sinkt oder Um sie zu bestimmen, wird ein Optimierungsver-
steigt. 21 Ebenso kann man die Gewichtszunahme von
fahren eingesetzt, das unter dem Namen „Methode
Sportler:innen anhand von Alter und Körpergröße
der kleinsten Quadrate“ firmiert. Dafür wird der
ermitteln.22 Die Anwendungsfälle sind enorm viel-
Abstand vom tatsächlichen Punkt zum vorher-
fältig und nur durch den Verteilungszusammenhang
gesagten Punkt auf der Ausgleichsgerade, der in
der Daten beschränkt.
20
der Abbildung gestrichelt dargestellt ist, als Feh-
20
Igual/Seguí: Introduction to Data Science, S. 99.
21
Igual/Seguí: Introduction to Data Science, S. 97.
22
Matloff, Norman: From Linear Models to Machine Learning. Regression and Classification, with R Examples, Oxfordshire: Taylor & Francis 2017, S. 6.
Kapitel 2: Grundfragen künstlich-intelligenter Systeme
25
Regression, lateinisch für Rückführung, bedeu-
spezifische, den Symptomen angemessene Untersu-
tet also, von einem oder mehreren unabhängigen
chungen vor. 24 Sie überlegen demnach anhand von
Parametern auf einen davon abhängigen Parameter
übergeordneten Kategorien, welches Krankheits-
rückzuschließen. Das mag an dieser Stelle vielleicht
symptom in welche Kategorie passt, und grenzen so
etwas simpel erscheinen, kann man den Mittelwert
immer mehr ein. Ähnlich sind Entscheidungsbäume
in der obigen Abbildung doch mit dem bloßen Auge
aufgebaut und Kategorien werden durch Verzwei-
erkennen. Aber schon bei mehr als zwei unabhän-
gungen am Baum, sogenannte Nodes, repräsentiert.
gigen Variablen kann der mehrdimensionale lineare
Verzweigt sich der Ast weiter nach unten, bilden sich
Zusammenhang nicht mehr grafisch dargestellt und
Unterkategorien. Am Ende des Baums finden sich
visuell wahrgenommen werden. Zur Klasse der Re-
dann die klassifizierten Objekte in den jeweils für sie
gressionsverfahren zählen weitere Unterklassen, wie
relevanten Kategorien. 25
etwa die logistische Regression, die jedoch an dieser Stelle nicht weiter ausgeführt werden soll.
In der Logik des Lernens beginnt der Entscheidungsbaum mit einem Stamm und demnach mit dem
2.5.2 Entscheidungsbäume
Attribut mit dem höchsten Informationsgewinn, also mit dem stärksten Einfluss auf das Ergebnis. Danach
Nicht immer ist der statistische Zusammenhang der
wird das Attribut mit dem nächsthöchsten Informa-
Daten, der durch das Lernverfahren ermittelt werden
tionsgewinn als Verzweigung implementiert. Der
soll, von vornherein bekannt. Oft sind Datenmen-
Baum wird anhand bestimmter relevanter Schwellen-
gen so unübersichtlich und komplex, dass mit dem
werte verzweigt, so lange, bis alle Attribute eingeflos-
Lernverfahren gleichzeitig auch entschieden werden
sen sind oder die noch verbleibenden Attribute kei-
muss, wie die Daten geordnet werden können. Ein
nen signifikanten Einfluss mehr auf die Verzweigung
solches unüberwachtes Verfahren ist der Entschei-
nehmen. Die Funktionen, die darüber entscheiden,
dungsbaum. Entscheidungsbäume können sowohl
an welcher Stelle eine Verzweigung entstehen soll,
für Regressions- als auch Klassifikationsprobleme
das heißt ein relevanter Schwellenwerte erreicht ist,
angewendet werden.
sind die Optimierungsfunktionen des Entscheidungs-
23
baums. Sie entscheiden auch darüber, wie akkurat der Der Vorteil des Entscheidungsbaums ist, dass er
Baum am Ende prognostizieren kann.
durch die Lernphase die wichtigsten Daten identifizieren, einteilen und sukzessive Unterkategorien
In Abbildung 2.2 ist das berühmte Trainingsbei-
bilden kann. Um eine Parallele zu bilden, die die Wir-
spiel der Titanic dargestellt. Ermittelt wird in diesem
kungsweise verdeutlicht, kann man Entscheidungs-
Beispiel eine Antwort auf die Frage, ob bestimmte
bäume auch mit medizinischen Untersuchungen ver-
Passagiergruppen den Untergang der Titanic wahr-
gleichen. Dort lassen die behandelnden Ärzt:innen
scheinlich überlebten. 26
nicht gleich alle verfügbaren Tests an Patient:innen durchführen, sondern grenzen anhand von Krankheitssymptomen Ursachen ein und schlagen dann 24 Kubat, Miroslav: An Introduction to Machine Learning, London: Springer-Verlag 2017, S. 113. 23
James, Gareth/Witten, Daniela/Hastie, Trevor et al.: An Introduction to Statistical Learning, New York: Springer Science+Business Media 2017, S. 303.
25 Ertel, Wolfgang: Introduction to Artificial Intelligence, London: Springer-Verlag 2017, S. 199. 26 Skiena, Steven: The Data Science Design Manual, Cham: Springer Nature 2017, S. 358.
Kapitel 2: Grundfragen künstlich-intelligenter Systeme
26
Ist der Passagier männlich?
Ja
daten anzupassen. Dies wird in der Fachsprache als
Nein
Overfitting bezeichnet. 27 Damit kann man das Modell dann nicht mehr für unbekannte Daten außerhalb des Trainingssets generalisieren; seine Prognosen sind nur mit den ihm bekannten Daten wirklich treffend.
Überlebt
Alter > 9.5 ?
Dies gilt es unbedingt zu vermeiden. Ja
Nein
Für männliche Passagiere verzweigt sich der Entscheidungsbaum weiter und macht mit dem Alter ein weiteres signifikantes Attribut aus. Waren männliche
Gestorben
Passagiere älter als zehn Jahre, sind sie wahrscheinMehr als zwei Geschwister?
lich gestorben. Auch für diese Gruppe endet der Entscheidungsbaum an dieser Stelle, da keine signi-
Ja
fikanten Attribute mehr ermittelt werden konnten.
Nein
Dieser Umstand deckt sich mit der empirischen Beobachtung und der traurigen Wahrheit, dass die meisten Todesopfer der Titanic-Katastrophe erwach-
Gestorben
sene männliche Reisende waren.
Überlebt
Eine letzte Verzweigung macht der Algorithmus anhand des Attributs „Geschwister“ für männliche
Abb. 2.2: Entscheidungsbaumalgorithmus
Reisende unter zehn Jahren. Jungen, die mehr als Der dargestellte Entscheidungsbaumalgorithmus
zwei Geschwister hatten, sind wahrscheinlich gestor-
hat als wichtigstes Unterscheidungsmerkmal das Ge-
ben. Führt man jetzt alle Passagiere als Datenpunkte
schlecht der Reisenden identifiziert. Dass Passagiere
durch den Entscheidungsbaum, dann kann man
auf der Titanic wahrscheinlich überlebten, wenn sie
prognostizieren, welches Schicksal den betreffenden
weiblich waren, lässt sich leicht nachvollziehen, denn
Passagier wahrscheinlich ereilt hat.
bekannt ist die nautische Regel, dass Frauen und Kinder zuerst in die Rettungsboote einsteigen dürfen. Die Frage, die sich nun mit Blick auf die VerzweiAn dieser Stelle erreicht der Entscheidungsbaum
gung des Entscheidungsbaums und der Optimie-
für Frauen bereits sein Ende. Weitere Kriterien der
rungsfunktion stellt, ist, wie genau der Algorithmus
Unterscheidung sind für sie in diesem Fall nicht rele-
weiß, welche Attribute relevant sind und welche
vant, etwa ihr Alter oder die Klasse, in der sie reisen,
nicht. Um Spaltungsregeln zu ermitteln, berechnet
denn das gesamte Modell hat für Frauen schon eine
der Algorithmus die sogenannten Kosten für die
Prognosegenauigkeit von etwa 80 Prozent erreicht,
Spaltung des Baumes und entscheidet mit ihnen, ob
die hier genügen soll. Man könnte zwar eine höhe-
eine Verzweigung sinnvoll ist. Eine solche Optimie-
re Genauigkeit des Modells erreichen, indem man
rungs- oder Kostenfunktion ist beispielsweise der
beispielsweise Altersklassen einführt, läuft damit al-
Root Mean Square Error, kurz RMSE, mit dessen
lerdings Gefahr, das Modell zu sehr an die Trainings-
Hilfe ermittelt wird, welche Attribute am homogen27
Skiena: The Data Science Design Manual, S. 358.
Kapitel 2: Grundfragen künstlich-intelligenter Systeme
27
sten und am relevantesten sind, sich daher auch am
beispielsweise in der Social-Network-Analyse ge-
meisten als Verzweigung eignen. An dieser Stelle
nutzt, um die Ähnlichkeiten von Communitys zu
sollen keine Details der Operation erläutert werden,
ermitteln.31
28
da nur das abstrakte Prinzip verdeutlicht werden sollte.
Auch viele Empfehlungsmaschinen bauen auf Clustering-Methoden auf, wenn sie Nutzer:innen mit
Entscheidungsbäume können für eine Vielzahl von
ähnlichen Vorlieben oder Produkte mit ähnlichen
Anwendungsfällen genutzt werden. Sie bewerten bei-
Eigenschaften ermitteln, um sie zu empfehlen.
spielsweise das Ausfallrisiko bei Kreditvergabe oder bei Investitionen. Oder sie können Nutzer:innen nach
Eine der am häufigsten verwendeten Methoden für
Kaufverhalten und soziodemografischen Eigenschaf-
Clustering ist das sogenannte Collaborative Filte-
ten gruppieren und damit eine sinnvolle Vorauswahl
ring.32 Die Bezeichnung „collaborative“, zu Deutsch
für User Research und Personas-Erstellung bereitstel-
gemeinschaftlich, leitet sich aus dem Umstand her,
len.
dass Daten von vielen verschiedenen Nutzer:innen für individualisierte Empfehlungen herangezogen
2.5.3 Clustering und Ähnlichkeit
werden. Innerhalb des Collaborative Filterings existieren viele unterschiedliche Ansätze und Methoden,
Oftmals ist es wichtig, Daten ihren Eigenschaften
um Ähnlichkeiten zu ermitteln. Die beiden wesent-
nach zu gruppieren, um dadurch Schlüsse auf die
lichen sind nutzerbasierte und produktbasierte
Eigenschaften unbekannter Daten ziehen zu können.
Filtering-Methoden. Das nutzerbasierte Filtering, das
Im Kern haben Clustering-Methoden den Vorteil,
sogenannte User-based Filtering nimmt eine bestimm-
dass sie Strukturen und Zusammenhänge in den
te Nutzerin oder einen bestimmten Nutzer und findet
Daten entdecken, die vorher noch nicht bekannt sein
eine ähnliche Nutzerin oder einen ähnlichen Nutzer,
müssen. Damit gehört auch das Clustering zu den
basierend auf Bewertungen, die beide Nutzer:innen
unüberwachten Lernverfahren, da man dem Algo-
abgegeben haben. Zwischen beiden Bewertungen, die
rithmus nicht schon ein bereits bekanntes, korrektes
entweder explizit durch Ratings oder implizit durch
Ergebnis im Lernprozess mitteilen muss. Cluste-
Surfverhalten abgegeben worden sind, können Ähn-
ring-Verfahren gruppieren beliebige Datenmengen
lichkeiten – also gemeinsame ästhetische, funktionale
ihren Eigenschaften entsprechend in Gruppen mit
oder preisliche Präferenzen – ermittelt werden. Basie-
ähnlichen Eigenschaften und sind damit in vielen
rend auf dieser Gemeinsamkeit werden dann Pro-
Bereichen einsetzbar. Für einen Großteil der An-
dukte ermittelt, für die es noch keine expliziten oder
wendungen, die riesige Datenmengen auswerten,
impliziten Feedbacks gibt. Es wird einfach angenom-
ist Clustering ein notwendiger erster Schritt in der
men, dass die Personen mit dem gleichen Geschmack
Datenaufbereitung und umfasst eine Vielzahl von
auch dieselben Dinge bevorzugen.33
29
unterschiedlichen Methoden.30 Clustering wird
28
Gupta, Prashant: „Decision Trees in Machine Learning“,
31 Aggarwal: Data Mining, S. 154.
https://towardsdatascience.com/decision-trees-in-machine-
32 Grover, Prince: „Various Implementations of Collaborative Filtering“,
learning-641b9c4e8052 (20.4.2022). 29
Alpaydin: Machine Learning, S. 115.
30
Aggarwal, Charu: Data Mining. The Textbook, Cham: Springer International Switzerland 2015, S. 153.
https://towardsdatascience.com/various-implementations-ofcollaborative-filtering-100385c6dfe0 (20.4.2022). 33 Igual/Seguí: Introduction to Data Science, S. 167.
Kapitel 2: Grundfragen künstlich-intelligenter Systeme
28
Im Unterschied zum User-based Filtering nimmt
euklidischen Abstand und Kosinus-Ähnlichkeit.
der Vergleich beim Item-based Filtering seinen Aus-
Die Abbildung 2.3 verdeutlicht die Wirkungsweise
gangspunkt im Produkt und nicht bei den Nutzer:in-
der Algorithmen.36
ten ermittelt, die wiederum die Grundlage bilden, um Nutzer:innen Vorschläge zu unterbreiten.34 Dieses Verfahren wird für Produktempfehlungen nach dem
y-Achse
nen. Es werden Ähnlichkeiten zwischen den Produk-
5
Muster „Kund:innen, die dieses Produkt gekauft haben, interessierten sich auch für jenes Produkt“
A (2, 4)
4
verwendet, wie man es schon seit zwei Jahrzehnten
e
aus Onlineshops kennt.35
C (3, 3)
3
d
φ3
Eines der grundlegendsten, wenn auch nicht mehr
B (5, 2)
2
so häufig verwendeten Verfahren für Collaborative
a
Filtering sind die sogenannten KNN-Algorithmen. Sie
f
1
φ1 φ2
c
sollen hier im Folgenden näher erläutert werden, da
b
sie sich gut eignen, Ähnlichkeitsbestimmungen zu 1
verdeutlichen. KNN steht für „K-nearest Neighbor“
2
3
4
5
und wie der Name schon sagt, werden mit diesem Verfahren Ähnlichkeiten der Daten als Nachbar-
Abb. 2.3: Berechnung der Ähnlichkeit durch KNN-Algorithmen
schaftsverhältnis ausgedrückt. KNN-Algorithmen
34
ermitteln semantische und inhaltliche Ähnlichkeiten,
Für die Datenpunkte A, B und C, mit jeweils einem
indem sie die Distanz zwischen zwei Datenpunk-
x- und einem y-Wert, soll sowohl der euklidische
ten berechnen. Eine geringe Distanz zwischen zwei
Abstand als auch die Kosinus-Ähnlichkeit ermittelt
Datenpunkten repräsentiert eine große Ähnlich-
werden. Die drei Datenpunkte können beispielsweise
keit, und eine größere Distanz bedeutet umgekehrt
Sterne-Ratings von drei Nutzer:innen für zwei Filme
weniger Gemeinsamkeit. Es gibt viele mathematische
repräsentieren. Nutzerin A hat dem ersten Film
Verfahren zur Berechnung dieser Distanzen. An die-
(x1) ein Rating von zwei Sternen gegeben und dem
ser Stelle reicht es, sich auf zwei zentrale und leicht
zweiten Film (y1) ein Rating von vier Sternen. In
verständliche Verfahren zu beschränken. Die erste
dem Koordinatensystem ist sie als Datenpunkt A (2,4)
mathematische Operation ermittelt die Distanz als
eingezeichnet. Nutzer B dagegen hat dem ersten Film
zweidimensionalen Abstand zwischen zwei Punkten,
(x2) ein Rating von fünf Sternen gegeben und dem
die zweite den Winkel zwischen zwei Vektoren, die
zweiten Film (y2) ein Rating von zwei Sternen. In
durch die Kosinus-Funktion berechnet wird. Vek-
dem Koordinatensystem ist er als Datenpunkt B (5,2)
toren sind hier im geometrischen Sinne Darstellun-
eingezeichnet. Nutzerin C wiederum hat jeweils drei
gen von Strecken mit einer bestimmten Länge und
Sterne vergeben und wird folgerichtig als C (3,3) in
Richtung. Beide Verfahren nennt man deshalb auch
das Koordinatensystem eingetragen.
Sarwar, Badrul/Karypis, George/Konstan, Joseph et al.: „Item-based collaborative filtering recommendation algorithms“, https://dl.acm.org/doi/10.1145/371920.372071 (20.4.2022).
35
Igual/Seguí: Introduction to Data Science, S. 167.
36
Die Beispiele sind angelehnt an solche aus Igual/Seguí: Introduction to Data Science, S. 175.
x-Achse
Kapitel 2: Grundfragen künstlich-intelligenter Systeme
29
Berechnet man nun den euklidischen Abstand, also
dass es Faktoren, wie Filmgenre, Lieblingsschauspie-
den direkten Abstand zwischen zwei Punkten, dann
lerin oder Jahreszeiten, die die Filmvorlieben signi-
werden die Nachbarschaften sichtbar. Die Linien d,
fikant bestimmen können, nicht abbilden kann. Diese
e und f zeigen die Abstände zwischen A und B, A
Faktoren sind meist nicht bekannt, was die Empfeh-
und C sowie B und C. Der geringste Abstand existiert
lungen noch schwieriger macht. Zudem hat das KNN-
demnach zwischen den Nutzerinnen A und C, gefolgt
Verfahren einen zweiten wesentlichen Nachteil. Trotz
vom Abstand zwischen Nutzer B und Nutzerin C.
der theoretisch unbegrenzten Menge an Daten, die es
Die wenigsten Gemeinsamkeiten in Bezug auf ihre
zur Grundlage für Berechnungen macht, ist es nicht
Vorliebe für die beiden Filme haben die Nutzerin A
wirklich gut skalierbar. Es dauert schlicht zu lange,
und der Nutzer B.
für Millionen von Datenpunkten Empfehlungen in Echtzeit zu ermitteln, und ist daher für Echtzeitan-
Für die Kosinus-Ähnlichkeit wird ein Vektor zwi-
wendungen im Internet nicht sinnvoll.37
schen dem Ursprung des Koordinatensystems (0,0) und dem jeweiligen Datenpunkt gezogen. Die Linie
Um beide Nachteile zu beheben, wurde ein Ver-
vom Nullpunkt zu A (4,2) in der Abbildung zeigt den
fahren namens Matrix Factorization entwickelt, das im
Vektor a für die Nutzerin A. Durch eine Kosinus-
Unterschied zum KNN-Verfahren eine Optimierungs-
Berechnung, die an dieser Stelle wieder ohne mathe-
funktion nutzt. Das KNN-Clustering ist ganz ohne
matische Formel auskommen soll, wird der Winkel
eine solche ausgekommen, musste also im engeren
zwischen zwei Vektoren berechnet. Auch auf diese
Sinne nicht optimieren. Die Distanz zu anderen
Weise wird deutlich, dass Nutzerin A und Nutzerin C
Nutzer:innen oder Produkten einmal zu berechnen,
mehr Gemeinsamkeiten haben, da der Winkel φ 1 der
reichte völlig aus, um Ähnlichkeiten zu bestimmen.
Vektoren a und c deutlich kleiner ist als der Winkel
Um die Schwäche des KNN-Verfahrens also zu be-
φ 2 der Vektoren a und b.
heben und die versteckten Faktoren bei Nutzer:innenpräferenzen zu berücksichtigen, leitet die Matrix
Natürlich kann man auf einer Grundlage von
Factorization versteckte Faktoren aus vergangenen
zwei Bewertungen noch keine guten Empfehlungen
Aktionen ab und macht sie zur Grundlage für Emp-
abgeben, aber das Prinzip sollte deutlich geworden
fehlungen. Beispielsweise werden für Filmempfeh-
sein. Man würde also der Nutzerin C auch solche für
lungen, Bewertungen in zwei Ähnlichkeitsverhältnis-
sie unbekannten Filme empfehlen, die die Nutzerin
se, sogenannte Mappings, zerlegt. Das erste Mapping
A hoch bewertet hat. Die Wahrscheinlichkeit, dass
erfasst die Ähnlichkeiten zwischen Nutzer:in und
beide einen ähnlichen Geschmack in Bezug auf be-
Faktoren, wie etwa der Lieblingsschauspielerin, das
stimmte Filme haben, ist hoch.
zweite Mapping erfasst die Ähnlichkeit zwischen Faktoren und Filmen.38 Der Algorithmus lernt dann,
Allerdings muss man das Wort „bestimmt“ in
Ähnlichkeitsverhältnisse so zu optimieren, dass sie
„bestimmte Filme“ betonen, da die Realität deutlich
geschmackliche Präferenzen der Nutzer:innen besser
komplexer ist. Das KNN-Verfahren hat den Nachteil,
abbilden.39 37 Sarwar/Karypis/Konstan et al.: Item-based collaborative filtering recommendation algorithms. 38 Alpaydin: Machine Learning, S. 120 f. 39 Ajitsaria, Abhinav: „Build a Recommendation Engine With Collaborative Filtering. Real Python“, https://realpython.com/build-recommendationengine-collaborative-filtering (25.5.2021).
Kapitel 2: Grundfragen künstlich-intelligenter Systeme
30
Die wichtigsten Anwendungsgebiete für alle Arten
Aufbau und Funktionsweise auch für besondere
von Clustering-Verfahren wurden bereits erwähnt.
Aufgabenfelder und Anwendungen ausgelegt, die
Es sind zum einen Empfehlungsalgorithmen und
hier kurz näher vorgestellt werden sollen. Begonnen
zum anderen eine Vielzahl an Datenanwendungen
werden soll mit der einfachsten Variante eines künst-
für Kund:innen- oder Marktsegmentierung. Viele
lichen neuronalen Netzes. Darauf aufbauend werden
digitale Services nutzen diese Art der Vorauswahl
dann elaborierte Formen neuronaler Netze, wie die
und des kuratorischen Eingriffs. Schon ein einfacher
Convolutional Neural Networks, Recurrent Neural
Feed auf Facebook oder Instagram basiert auf einem
Networks und Generative Adversarial Networks, be-
elaborierten Empfehlungsalgorithmus. Auch wenn
trachtet.
die Anwendungen im Design erst später thematisiert Künstliche neuronale Netze
werden, sind entsprechende Use-Cases schon jetzt erkennbar, etwa die „Font-Map“
40
der Designagentur
IDEO, die Ähnlichkeiten von Schriftschnitten als
Ein künstliches neuronales Netzwerk oder synonym
Nachbarschaftsverhältnisse auf einer Landkarte dar-
Artificial Neural Network, kurz ANN, ist ein Algo-
stellt, oder das dreidimensionale Cluster, das unter
rithmus, der in Aufbau und Funktionsweise biologi-
dem Namen „Runway Palette“ farbige Ähnlichkeiten
schen Nervenzellen, den sogenannten Neuronen, lose
von Modekollektionen repräsentiert.
nachempfunden ist. Forscher:innen ließen sich von
41
der Biologie inspirieren, um die Leistungsfähigkeit 2.5.4 Neuronale Netze
der menschlichen und tierischen Gehirne auch für rechnerbasierte Vorgänge nutzen zu können. Im-
Künstliche neuronale Netze sind im Unterschied zu
merhin sind schon mit wenigen Hundert Neuronen
anderen statistischen Lernverfahren nicht an be-
äußerst komplexe Verhaltensweisen bei niederen
stimmte Aufgaben und Probleme gebunden. Sie sind
Tieren wie den Fadenwürmern möglich, die Compu-
in der Lage, viele unterschiedliche regressive und
terprogramme vor größere Schwierigkeiten stellen. 42
klassifikatorische Probleme durch ein Verfahren zu
Übernommen haben Forscher:innen die Qualität der
lösen, das im Grunde jeden statistischen Zusammen-
Neuronen, sich untereinander zu vernetzen und Ein-
hang nachmodellieren und damit theoretisch jedes
gangssignale synchron zu verarbeiten. Außerdem hat
Problem lösen kann. Durch enorme Fortschritte im
man in der Architektur künstlicher neuronaler Netze
Aufbau und der Funktionsweise dieser künstlichen
berücksichtigt, dass sie, ähnlich den biologischen
neuronalen Netze, aber auch durch immer massivere
Vorbildern, nicht jeden Impuls weiterleiten, sondern
Datenbestände, die ein effektives Training unterstüt-
erst ab einer bestimmten Signalstärke eingehende Sig-
zen, sowie durch steigende Rechnerkapazitäten und
nale weiterleiten. Entsprechend kennen künstliche
effizientere Hardware haben diese Netze an enormer
Neuronen die Zustände „erregt“ und „gehemmt“. 43
Bedeutung gewonnen und sind zum Inbegriff für maschinelle Intelligenz geworden.
Der tatsächliche Aufbau eines ANN unterscheidet sich allerdings dann doch deutlich von organisch
Neuronale Netze kommen in unterschiedlichen
gewachsenen Nervenzellen und dem menschlichen
Formen und Architekturen vor; sie sind je nach
Gehirn, denn biologische Nervenzellen wachsen und
40
IDEO: „Fontmap“, http://fontmap.ideo.com (20.4.2022).
41
Experiments with Google: „Runway Palette“, https://experiments.withgoogle.com/business-of-fashion (20.4.2022).
42
Rashid, Tariq: Neuronale Netze selbst programmieren, Heidelberg: dpunkt.verlag 2017, S. 31.
43
Alpaydin: Machine Learning, S. 87.
Kapitel 2: Grundfragen künstlich-intelligenter Systeme Eingabeschicht
Versteckte Schicht
Ausgabeschicht
N 1.0
vernetzen sich. Durch das Wachstum wird bestimmt,
N 0.0
N 1.1
welche und wie viele Zellen sich vernetzen und
N 2.0
damit auch, welche mehr oder weniger komplexen N 1.2
Funktionen Organismen ausführen können. 44 Künstliche neuronale Netze müssen mit mathematischen
N 0.1
und informatischen Methoden solche Vernetzungen
N 1.3
nachempfinden. Diese Differenz ist entscheidend, will man sachlich über die Qualität der Intelligenz urteilen, die mit diesen Methoden möglich wird.
N 2.1 N 0.2
N 1.4
Während also in der Natur durch Zellwachstum entschieden wird, welche Zellen miteinander Ver-
N 1.5
bindungen eingehen, wird bei einem ANN einfach im Vorfeld festgelegt, wie viele Neuronen ein solches Netz besitzen soll. Ein ANN besteht aus einer Einga-
Abb. 2.4: Prinzip eines künstlichen neuronalen Netzes
beschicht, die Daten zur Verfügung gestellt bekommt, während in der Natur die Zellen Umweltreize aufneh-
erregten Zustand weiter oder unterdrücken sie in
men und in einem komplex vernetzten System wei-
einem gehemmten Zustand. Am Ende laufen dann
tergeben. Künstliche neuronale Netze haben neben
starke, schwache oder keine Signale in alle Neuro-
der Eingabeschicht noch zwei weitere Komponenten,
nen der Ausgabeschicht. In dieser Ausgabeschicht
eine oder mehrere versteckte Schichten und eine
findet dann die eigentliche Klassifizierung statt.
Ausgabeschicht. In einem ANN sind in der Regel alle
Jedes Neuron in der Ausgabeschicht steht für eine
Neuronen in einer Schicht mit allen Neuronen in der
Klasse, die das neuronale Netzwerk lernt. Beispiels-
darauffolgenden Schicht vernetzt. Man spricht daher
weise können handgeschriebene Großbuchstaben
auch von „Fully Connected Networks“. Im Gegensatz
klassifiziert werden. Dann gibt es 26 Neuronen in
zu ihren organischen Vorbildern, wo nicht benötig-
der Ausgabeschicht und das erste Neuron klassifi-
te Verbindungen einfach nicht entstehen, erweisen
ziert den Buchstaben A, das letzte entsprechend den
sich irrelevante Verbindungen in einem ANN erst im
Buchstaben Z. Bekommt das richtige Neuron je nach
Nachhinein; sie werden gehemmt, also nicht benutzt,
zu klassifizierendem Buchstaben in der Ausgabe-
und existieren dann nur noch pro forma als Verbin-
schicht den Wert eins, hat das neuronale Netz richtig
dung weiter. In Abbildung 2.4 sieht man das verein-
klassifiziert. Ist der zu bestimmende Buchstabe ein
fachte Schema eines neuronalen Netzes mit einer
handgeschriebenes A, muss also das erste Neuron
einzigen versteckten Schicht.
der Ausgabeschicht den Wert eins bekommen. Dass
45
es richtig klassifiziert hat, weiß das neuronale Netz, Jede Schicht besteht aus mehreren sogenannten
weil es ein Supervised-Learning-Verfahren ist und zu
Neuronen, in der Abbildung mit N bezeichnet. Wie
jedem Trainingsbeispiel auch erfährt, was die richtige
bereits erwähnt, leiten sie Eingangssignale in einem
Kategorie für den Buchstaben ist.
44 Mainzer, Klaus: Gehirn, Computer, Komplexität, Berlin, Heidelberg: Springer Verlag 1997, S. 15. 45 Der Terminus „versteckt“ ist etwas merkwürdig, geht aber darauf zurück, dass die Schichten nicht direkt einsehbar sind, wenn man nur die Eingangs- und Ausgangswerte kennt. Der Begriff hat sich aber als feststehender Fachbegriff etabliert und wird sehr häufig verwendet.
Kapitel 2: Grundfragen künstlich-intelligenter Systeme
32
Damit die Neuronen die richtigen Werte an die
neuronale Netz sorgt mit den Neuronen also dafür,
richtigen Ausgabeneuronen senden, sind alle Neuro-
dass die Signale verstärkt oder geschwächt werden,
nen der versteckten Schicht zu kleinen Rechen-
und zwar so lange, bis sie richtig eingestellt sind und
maschinen gemacht worden. Schaut man sich ein
nur die relevanten Signale mit den richtigen Werten
Neuron, beispielsweise das oberste aus der versteck-
durch die relevanten Neuronen hindurchgelassen
ten Schicht, hier mit N 1.0 bezeichnet, in Abbildung
werden. Auf diese Weise kommen dann am Ende des
2.5 genauer an, dann sieht man, dass die drei Ein-
Trainings die korrekten Zahlenwerte in der Ausgabe-
gangssignale nicht einfach zufällig hindurchgeleitet
schicht an den richtigen Neuronen an und der hand-
oder gestoppt werden.
geschriebene Buchstabe wird dann richtig klassifiziert. Die Gewichte sind zentral bei der Anpassung der Netzwerke; hier findet das eigentliche Lernen statt. Zu Beginn der Lernphase werden die Gewichte zufällig bestimmt und dann im Laufe der Lernphase
N 1.0
i0
Summe
W2
Die gewichteten, also mit den Gewichten verrech-
1
W1
i1
Output
W0
immer weiter optimiert.
neten Eingangssignale werden dann in einem zwei-
0 W0+W1 +W2+b
ten Schritt zu einem einzigen Wert zusammenaddiert,
Input
denn das Neuron kann im Weiteren nur einen Wert weiterverarbeiten. Zu dieser Summe wird ein vierter
b
Summand addiert, das sogenannte Bias, das in der
i2
Abbildung mit b gekennzeichnet ist. 47 An dieser Stelle kann man das Bias allerdings für die Erklärung der Wirkungsweise vernachlässigen.
Abb. 2.5: Detail der Funktion eines Neurons in der versteckten Schicht
Im letzten Schritt wird der summierte Wert dann Alle drei Eingangswerte werden mit drei Fakto-
noch einmal überprüft und geschaut, ob er hoch
ren, sogenannten Gewichten oder englisch Weights,
genug ist, damit das Neuron wirklich aktiviert wird,
multipliziert, die in der Abbildung mit „w0“ bis „w2“
oder ob das Neuron unterdrückt bleibt. Eine solche
gekennzeichnet sind. Durch diese Gewichte, die von
Aktivierungsfunktion wird in jedem Neuron der ver-
ihren Zahlenwerten her in der Regel zwischen –1 und
steckten Schicht als Letztes ausgeführt. Die Funk-
2 liegen, werden die Eingangssignale verstärkt oder
tion ist zuständig dafür, in einem erregten Zustand
abgeschwächt. Multipliziert man mit einer negati-
Signale weiterzuleiten und sie in einem inhibito-
ven Zahl über eins, werden die Signale stark abge-
rischen Zustand zu unterdrücken. Dies passiert in
schwächt. Bei Zahlen zwischen null und eins werden
Abbildung 2.5 über eine Schwellenwertfunktion, die
in der Multiplikation die Signale leicht unterdrückt
die Eigenschaft hat, dass sie bis zu einem bestimmten
und bei Zahlen über eins werden sie verstärkt. Das
Eingangswert alle Signale unterdrückt und erst wenn
46
46 Breuer: Computerspiele programmieren, S. 62.
47 Das Bias sollte an dieser Stelle nicht verwechselt werden mit der technisch bedingten Befangenheit solcher Netzwerke, die ebenfalls Bias genannt und in einem späteren Kapitel ausgeführt wird. 48 Breuer: Computerspiele programmieren, S. 62.
Kapitel 2: Grundfragen künstlich-intelligenter Systeme
33
der Wert überschritten ist, das Signal als Ausgangs-
sechs Neuronen alle den Wert null übergeben bekom-
wert weiterleitet. Ist also das Eingangssignal stark
men. Erst das siebte Neuron in der Eingabeschicht
genug, „feuert“ auch das Neuron und leitet den Wert
bekommt den Wert eins, weil dort das Dach des
an die Ausgabeschicht weiter. Insgesamt wirken also
Buchstaben A in einen schwarzen Pixel und den Wert
alle Neuronen in der versteckten Schicht als Ein- und
eins übersetzt wurde. Für alle handgeschriebenen
Ausschalter, die jeweils konkrete Werte weiterleiten
Buchstaben bleibt insgesamt die Zahl der Pixel gleich,
oder blockieren. Je nachdem welche Werte durch
doch es verändert sich natürlich je nach Handschrift
die Neuronen blockiert oder weitergeleitet werden,
und Buchstabe der Wert für jedes einzelne Pixel. Eine
erhalten die Neuronen der Ausgabeschicht ihre
zweite Person schreibt das A vielleicht so, dass schon
Ergebnisse.
der zweite Pixel den Wert eins bekommt. Das neuro-
48
49
nale Netz besitzt die Fähigkeit, für jede Handschrift Schon hier wird die Universalität des Verfahrens
immer den Buchstaben A zu erkennen, wenn ein A
deutlich, eine beliebige Art von Eingabedatum mit
geschrieben und trainiert wurde.
einem spezifischen Ausgabedatum sinnvoll zu verknüpfen. 50 So können wie in dem zitierten Beispiel
Die versteckte Schicht in der Mitte besteht in
handgeschriebene Buchstaben richtig klassifiziert
der Abbildung nur aus einer einzelnen Schicht mit
werden. Es können aber auch Fotografien und Bild-
50 Neuronen. Die Ausgabeschicht besteht aus 26
beschreibungen verknüpft werden, Sprachlaute und
Neuronen, eins für jeden Buchstaben im Alphabet.51
Buchstaben oder Töne und Farben.
Insgesamt hat das neuronale Netz also drei Schichten. Die Zahl der Schichten hängt in der Regel von der
Die Abbildung 2.6 auf der folgenden Seite zeigt
Komplexität des zu lernenden Zusammenhangs von
den Ausschnitt eines „Fully Connected ANN“, das in
Eingangs- und Ausgangsdaten ab. Je größer das Netz-
der Lage ist, von Hand geschriebene Buchstaben zu
werk, umso besser kann ein neuronales Netz statisti-
erkennen und den Klassen „A“ bis „Z“ zuzuordnen.
sche Zusammenhänge abbilden.
Die Buchstaben haben eine Auflösung von acht mal acht Pixeln, wobei jedes Pixel in einen Zahlenwert
Die Eingangswerte werden nun wie oben beschrie-
überführt wird und als Eingangssignal für die Einga-
ben verarbeitet und in die jeweils nächste Schicht
beschicht fungiert. Die weißen Pixel bekommen den
übergeben, bis sie dann an die Ausgabeschicht ge-
Wert null, die schwarzen Pixel den Wert eins. Damit
langen. Man nennt diese Netzwerke deshalb auch
ergeben sich für die Eingabeschicht 64 Neuronen, für
vorwärtsgerichtete Netzwerke oder Feed Forward
jedes Pixel ein Neuron. Im Beispiel des handgeschrie-
Networks. Wie weiß ein neuronales Netz nun, welche
benen Buchstaben A ist zu erkennen, dass die ersten
Neuronen es aktivieren, welche es hemmen muss?
49 Deutlich wird, dass man mit diesem Prinzip die informatischen Operatoren UND, ODER, EXKLUSIVES-ODER (XOR) abbilden kann. Im Grunde ist ein künstliches neuronales Netz also eine universelle Rechenmaschine bestehend aus lauter AND-, OR- und XOROperatoren, die die abstrakten Regeln einer n-dimensionalen Funktion „lernt“, indem sie diese Operatoren anpasst. 50 Oder in der Sprache der Data Scientists: Es wird deutlich, dass man einen beliebigen Input-Vektor sinnvoll auf einen OutputVektor abbilden kann. Siehe Goodfellow, Ian/Bengio, Yoshua/ Courville, Aaron: Deep Learning, Cambridge: MIT Press 2016, S. 167.
51 Sonderzeichen und Umlaute werden hier der Einfachheit halber nicht mitgezählt.
Kapitel 2: Grundfragen künstlich-intelligenter Systeme
Handgeschriebener Buchstabe
Digitale Konvertierung
0
0
0
0
0
0
1
0
0
0
0
0
0
0
1
0
Erste Zeile
0
0
0
0
0
1
1
0
Zweite Zeile
0
0
0
0
1
1
1
0
0
0
0
1
1
0
1
0
0
0
1
1
1
1
1
0
0
1
1
1
0
1
1
0
0
1
0
0
0
1
1
0
1
1
0
0
0
1
1
0
Resultierende Daten
Abb. 2.6: Übersicht eines künstlich neuronalen Netzes, das von Hand geschriebene Buchstaben erkennen kann
35
Eingabeschicht
Versteckte Schicht
Ausgabeschicht
0
0,27
„A“
0
0,82
„B“
0
0,1
„C“
0
0,09
„D“
0
0,12
„E“
0
0,01
„F“
1
0,1
„G“
0
0,11
„H“
Erster Wert der ersten Zeile
0
Erster Wert der zweiten Zeile 0
0
Kapitel 2: Grundfragen künstlich-intelligenter Systeme
36
Es führt einfach die Rechenoperationen aus, die
das heißt schrittweise in ihrem Wert angepasst. Zur
in den Neuronen der versteckten Schicht angelegt
Erinnerung: Liegt der Gewichtswert über eins, dann
wurden. Das erste Neuron der versteckten Schicht
verstärkt sich auch der Eingangswert für das jeweili-
in dem Beispiel bekommt also 64 Eingangswerte,
ge Neuron, liegt er unter eins, schwächt man sie und
davon haben 38 den Wert null und 26 den Wert eins.
senkt damit den Eingangswert, der durch die Neuro-
Jeder Wert wird mit seinem Gewicht multipliziert,
nen verarbeitet wird.
dann werden alle Werte addiert und zum Schluss wird geschaut, ob der Wert hoch genug ist, damit die
Um die Gewichte zu optimieren, muss aber zu-
Aktivierungsfunktion den Wert an die Neuronen der
nächst einmal erkannt werden, in welche Richtung
Ausgabeschicht weitergibt.
ein Gewicht verändert werden muss, denn das Netzwerk weiß nicht automatisch, ob es die Werte der
Am Ende der allerersten Vorwärtsbewegung
Gewichte senken oder erhöhen muss. Dafür muss ein
der Daten von der Eingabeschicht zur versteckten
Fehler ermittelt werden zwischen einem Istwert, den
Schicht hin zur Ausgabeschicht bekommen die Neu-
das neuronale Netz ermittelt, und dem Sollwert, also
ronen der Ausgabeschicht einen Wert übergeben, der
der richtigen Klassifikation des handgeschriebenen
das Ergebnis der Klassifikation nach einem einzigen
Buchstaben. Dafür werden die aktuell gelieferten
Trainingsdurchlauf für das erste Trainingsbeispiel,
Werte der Ausgabeschicht mit dem Label der Trai-
den Buchstaben A, darstellt. Diese Anfangswerte
ningsdaten verglichen, denn neuronale Netze lernen
für den Buchstaben A, die durch das Netzwerk ver-
im Supervised-Learning-Verfahren.
arbeitet und weitergegeben wurden, führen anfangs gar nicht zur richtigen Klassifikation. Das Netzwerk
In dem Beispiel des handgeschriebenen Buch-
bestimmt im ersten Durchlauf das A noch als B,
staben hat das Netz am ersten Neuron der Aus-
weil die Gewichte, wie erwähnt, zufällig bestimmt
gabeschicht, dem Neuron, das den Buchstaben A
wurden. Dies hat seinen Grund darin, dass man noch
klassifiziert, den Wert 0,27 bekommen. Am zweiten
nicht weiß, wie die Gewichte wirklich einzustellen
Ausgabe-Neuron, dem Neuron, das den Buchstaben
sind. Man überlässt es dem Netzwerk, das erst durch
B klassifiziert, kam der Wert 0,82 an. Alle anderen
seine Optimierung herauszufinden, also zu lernen. Es
Neuronen haben nur sehr geringe Werte bekommen,
ist klar, dass hier viele Tausend Durchläufe benötigt
die zwischen 0,1 und 0,001 lagen und damit zu ver-
werden, bis das Netz vollständig gelernt hat, welche
nachlässigen sind. Das ANN hat also mit nur 27-pro-
Gewichte zur korrekten Klassifikation führen.
zentiger Sicherheit ein A erkannt, stattdessen hat es mit 82-prozentiger Sicherheit auf den Buchstaben
Die spannende Frage ist nun, wie die Gewichte op-
B getippt. 52 Das ist aber falsch, denn das Eingangs-
timiert werden, also welchen Wert die jeweiligen Ge-
datum war ein handgeschriebenes A, und somit wird
wichte haben müssen, damit sie zu einem richtigen
deutlich, dass das Netz weiter trainiert werden muss.
Ergebnis führen. Die Gewichte werden in den Neuro-
Das ist nach dem allerersten Durchlauf beim statisti-
nen der versteckten Schicht sukzessive optimiert,
schen Lernen auch keine Überraschung. Der Aus52 Die Zahlen sind ganz offensichtlich ausgedacht und sollen hier nur das Prinzip verdeutlichen. Wer sehen möchte, welche Werte tatsächlich bei einem MNIST ANN herauskommen, dem sei das Processing-Tutorial „Let’s Code a Neural Network From Scratch“ von Charles Fried empfohlen, https://medium.com/typeme/lets-code-a-neural-network-from-scratchpart-1-24f0a30d7d62 (20.4.2022).
Kapitel 2: Grundfragen künstlich-intelligenter Systeme
37
gabefehler für den Buchstaben A im ersten Ausgabe-
das ganze Gelände. Der oben ermittelte Fehler wird
Neuron ist demnach die Differenz zwischen 0,27, dem
nun in eine einfache Funktion gegeben und der Gra-
tatsächlichen Ausgabewert, und 1,0, dem Solltrai-
dient, also der Abstieg des Geländes, dazu ermittelt.
ningswert, den das Label beim Supervised Learning
Ist der Gradient positiv, muss der Wert des Gewichts
vorgibt. Allerdings kann man nicht einfach den
verringert werden, ist er negativ, muss er erhöht wer-
Ausgabefehler nehmen und jedes einzelne Gewicht
den. Das geschieht schrittweise und die sogenannte
um diese Differenz reduzieren, denn die Gewichte
Lernrate gibt an, in welchen Abständen die Gewichte
waren letztlich dafür zuständig, die Werte zu bestim-
optimiert werden. 57 Denn sind die Schritte und damit
men. Für den Fehler sind also viele unterschiedliche
die Lernrate zu groß, läuft man Gefahr, das Optimum
Gewichte mit jeweils unterschiedlichen Anteilen
immer zu übergehen und den Berg wieder hinaufzu-
verantwortlich und daher muss das neuronale Netz
steigen; ist die Lernrate zu klein, dauert das Training
auch die Gewichte so anpassen, wie sie anteilig zum
zu lange. Das Gradientenverfahren optimiert hin zu
Fehler beigetragen haben. In dem Beispiel sind also
einem Fehlerminimum für jedes einzelne Gewicht
in einer versteckten Schicht mit 50 Neuronen, die
im neuronalen Netzwerk. Wurde das Gewicht ein
jeweils 64 Gewichte haben, für jedes Signal der Ein-
paarmal optimiert, heißt das allerdings nicht, dass das
gabeschicht 3.200 Gewichte auf ihre Fehler zurück-
ANN auch schon alle Buchstaben im Alphabet richtig
zuverfolgen. Es ist also notwendig, für jedes einzelne
klassifiziert. Es bedarf oft vieler Tausend Trainings-
Gewicht zurückzuverfolgen, welchen Beitrag es am
durchgänge, sogenannter Epochen, um ein Netzwerk
Gesamtfehler des Ausgabe-Neurons hatte. Diese
auszutrainieren.
53
Fehlerrückführung, englisch Backpropagation genannt, passiert entgegen der Richtung, in der die Eingabe-
Nimmt man nun Testdaten, für die das Netzwerk
werte verarbeitet und weitergegeben wurden. Dies
noch nicht das richtige Ergebnis kennt, die aber mit
kann man für alle Gewichte im ANN machen und so
der nun gelernten Funktion ermittelt werden können,
die konkreten Fehleranteile der Gewichte ermitteln.
kann es mit hoher Sicherheit das richtige Ergebnis
Um nicht in endlose Berechnungen zu verfallen, die
prognostizieren. Im Beispiel wären das handgeschrie-
Jahre an Rechenzeit benötigen, werden die richtigen
bene Buchstaben beispielsweise von einer anderen
Gewichte nicht exakt berechnet, sondern mit einer
Person, mit denen das Netzwerk nicht trainiert
Optimierungsfunktion schrittweise einem Optimum
wurde, die es also noch nicht kennt. Neuronale Netze
angenähert. Die Funktion für diese Annäherung ist
können aber auch den Preis eines Grundstücks be-
bei ANNs oft ein sogenanntes Gradientenabstiegs-
stimmen oder in einem digitalen Bild Tiere entde-
verfahren oder Verfahren des steilsten Abstiegs.
cken.
54
55
Dieses Verfahren nähert sich einem Minimum, ohne die komplexe Funktion, die es optimiert, verstehen zu
Aber selbst wenn das Netzwerk fertig trainiert ist,
müssen. Es ist vergleichbar mit einem Bergabstieg
heißt das nicht, dass es keine Fehler mehr macht. Es
im Dunklen mit einer Taschenlampe. Man sieht nur
liegt an der Qualität der Optimierungsfunktion, ein
in unmittelbarer Nähe, wo es hinabgeht, nicht aber
fast exaktes Fehlerminimum zu finden, das darüber
56
53 Rashid: Neuronale Netze selbst programmieren, S. 59.
57
Brownlee, Jason: „Understand the Impact of Learning Rate on
54 Rashid: Neuronale Netze selbst programmieren, S. 72.
Neural Network Performance“, https://machinelearningmastery.com/
55 Für eine Übersicht der verschiedenen Gradientenverfahren siehe
understand-the-dynamics-of-learning-rate-on-deep-learning-neural-
Ruder, Sebastian: „An overview of gradient descent optimization algorithms“, https://arxiv.org/abs/1609.04747 (20.4.2022). 56 Rashid: Neuronale Netze selbst programmieren, S. 73.
networks (20.4.2022).
Kapitel 2: Grundfragen künstlich-intelligenter Systeme
38
entscheidet, ob und wie genau ein neuronales Netz
ren. Diese hochdimensionalen Datenräume haben
klassifizieren kann. Eine 100-prozentige Genauigkeit
Forscher:innen dazu motiviert, sehr tiefe neuronale
wird man mit einem neuronalen Netz wegen dieser
Netze, sogenannte Deep Neural Networks,60 und
Optimierungsverfahren allerdings nie erreichen.
unterschiedliche Verfahren des Deep Learnings zu
Je nach Anwendungskontext bedarf es aber einer
entwickeln, die in den folgenden Kapiteln besprochen
solchen exakten Genauigkeit oft nicht. In manchen
werden sollen. Zwar konnte man den komplexen
kritischen Kontexten, wie etwa im medizinischen
Aufgaben mit Deep Learning beikommen, doch der
Bereich bei der Krebsdiagnose, können allerdings
„Fluch der Dimensionalität“ 61 hat gleichzeitig dazu
schon geringe Fehlertoleranzen schwerwiegende Fol-
geführt, dass auch die Zahl der Trainingsdaten erhöht
gen haben. Dies gilt es bei der Anwendung der ANN
werden und Tausende von Trainingsbeispielen zur
im Auge zu behalten.
Verfügung stehen mussten.
Trotz angebrachter Vorsicht bezüglich seiner Prog-
Convolutional Neural Networks
nosegenauigkeit hat man mit dem neuronalen Netzwerk nichts Geringeres als eine universelle Rechen-
Um dem Fluch der Dimensionalität bei der Bild-
maschine geschaffen, die prinzipiell jeden komplexen
erkennung zu entkommen, wurden Convolutional
Zusammenhang, jede multidimensionale Beziehung
Neural Networks, kurz CNN, entwickelt, die nicht
von Eingangs- und Ausgangswerten durch ihre
mehr voll untereinander vernetzt sein müssen, wie
Neuronenstruktur abbilden und dadurch das innere
noch die ANNs. Die CNNs sind ebenfalls Feed-For-
Gesetz der Daten nachahmen kann. Mit anderen
ward-Netze, 62 aber sehr spezielle, die hochdimen-
Worten kann man mit den neuronalen Netzwerken
sionale Daten verarbeiten und in ihrer Komplexität
jedes Eingabedatum mit jedem Ausgabedatum sinn-
reduzieren, um Bildinhalte zu klassifizieren. Bilder zu
voll verbinden. Damit hat man eine Rechenmaschine,
erkennen ist für Rechenmaschinen keine triviale Auf-
die universell jeden tatsächlichen Zusammenhang
gabe. Menschen erkennen einen Hund auf einem Bild
von Daten lernen und vorhersagen kann.
in Bruchteilen einer Sekunde. Eine Maschine kann
58
diese Abstraktionen von „Das ist ein Hund“ nicht Für einige sehr komplexe Aufgaben wie Sprach-
ohne Weiteres vornehmen. Sie „kennt“ das Bild als
und Bilderkennung reichen neuronale Netzwerke
viele Tausend Zahlenwerte, die die Farben Rot, Grün
mit nur einer versteckten Schicht allerdings nicht
und Blau jedes einzelnen Pixels repräsentieren. Diese
aus. Neue, noch unbekannte Daten zu generalisieren
große Menge an Zahlen wird in sogenannten Matri-
und zu erkennen, wird exponentiell schwieriger,
zen gespeichert. Matrizen, oder im Singular Matrix,
wenn man mit Daten arbeitet, die nicht nur ein
sind zweidimensionale Container, in der die Zahlen
oder zwei Eigenschaften haben, sondern sehr viele
horizontal und vertikal angeordnet sind. Program-
Dimensionen. Schon für ein 1.000 mal 1.000 Pixel
miersprachen können diese Container verarbeiten,
großes Bild mit den drei Farbkanälen Rot, Grün und
indem sie beispielsweise den Auftrag bekommen, die
Blau sind über drei Millionen Gewichte zu optimie-
Matrizen miteinander zu multiplizieren. Eine solche
59
58
Eine interaktive Darstellung eines ANN findet sich hier:
60 Tiefe neuronale Netze haben in der Regel mehr als zwei
http://playground.tensorflow.org. 59
Goodfellow/Bengio/Courville: Deep Learning, S. 155.
versteckte Schichten. 61
Goodfellow/Bengio/Courville: Deep Learning, S. 155.
62 Goodfellow/Bengio/Courville: Deep Learning, S. 168.
Kapitel 2: Grundfragen künstlich-intelligenter Systeme
39
Matrixmultiplikation, die im Deutschen „Faltung“
Dieses Prinzip voneinander unabhängig gesuch-
heißt, wird im Englischen „Convolution“ genannt,
ter Low-Level-Features, die zu immer komplexeren
woher die Convolutional Neural Networks ihren
Formen zusammengesetzt werden, ist ähnlich wie
Namen erhalten haben.
bei den ANNs lose der Natur entnommen, denn auch die Neuronen im visuellen Cortex, derjenigen Region
Die mathematische Operation der Faltung besteht
der Großhirnrinde, die die visuelle Wahrnehmung
im Grunde aus einer elementweisen Multiplikation
ermöglicht, sind nicht alle gleichzeitig erregt. Sie
von zwei Matrizen. In der Abbildung 2.7 auf der Fol-
werden nach bestimmten Gesetzen aktiviert. So sind
geseite sind diese Matrizen rechts des Hundebildes
manche Neuronen aktiv, wenn sie horizontale Kanten
abgebildet. Die erste Matrix beinhaltet die Pixelwerte
sehen, andere, wenn sie vertikale Kanten erkennen. 64
eines Bildausschnittes, die zweite Matrix ist der so-
Die erste wesentliche Leistung der Matrixmultiplika-
genannte Faltungskern, der auch Filter oder Kernel
tion ist also, dass sie die visuellen Eigenschaften des
genannt wird. Der Faltungskern ist eine weitere
Bildes verstärken und herausfiltern kann. Die zweite
kleine Matrix, bestehend aus Zahlenwerten, die die
Leistung der gesamten CNN-Technologie ist, dass
Faktoren für die Multiplikation mit den Pixelwerten
die Faltungskerne, die für diese Operation zuständig
bilden. Stück für Stück bewegt sich nun der Faltungs-
sind, sich selbst durch eine Optimierungsfunktion
kern über den Bildausschnitt, führt die elementweise
einstellen, die hier nicht weiter erklärt werden soll.65
Multiplikation durch und errechnet so neue Werte.
Damit können sie selbst die besten Zahlenwerte
Die Operation der Faltung erlaubt es so, die Pixelwer-
finden, die sie in der Matrixmultiplikation benötigen,
te des Bildausschnitts zu filtern und so anfänglich
um die relevanten Bildeigenschaften mathematisch
bestimmte niedrigschwellige Eigenschaften, die soge-
zum Vorschein zu bringen. Letztlich können CNNs
nannten Low-Level-Features, des Ausschnitts heraus-
damit jedes noch so komplexe Verhältnis formaler
zuarbeiten. So kann mittels Faltung ermittelt werden,
Bildinhalte und ihrer Wechselbeziehungen durch
ob Kanten, Rundungen oder Ecken im Bild existieren.
Optimierungs- und Lernvorgänge erkennen und aus-
Basierend auf diesen rechnerisch verstärkten Eigen-
werten.
schaften des Bildes wird eine Funktion aktiviert, die sogenannte Activation Map oder Feature Map, die
Das CNN besteht also folgerichtig am Anfang aus
die neu errechnete Matrix mit den herausgefilterten
Schichten, die die einzelnen Bildausschnitte auf ihre
Eigenschaften an die nächste Schicht weitergibt. Auf
simplen Eigenschaften hin untersuchen und dann
diese Weise können immer abstraktere Zusammen-
immer komplexere und abstraktere Zusammenhänge
hänge des Bildes, beispielsweise komplexe Beziehun-
der Bilder entdecken. Man bedarf dabei keines voll-
gen von Augen- und Schnauzenformen beim Hund,
umfänglich verbundenen Netzes, weil viele Bildberei-
erkannt werden. 63
che gar nicht miteinander im Zusammenhang stehen.
63 Deshpande, Adit: „A Beginner‘s Guide To Understanding Convolutional Neural Networks“, https://adeshpande3.github.io/ adeshpande3.github.io/A-Beginner‘s-Guide-To-UnderstandingConvolutional-Neural-Networks (20.4.2022).
64 Deshpande: A Beginner‘s Guide. 65 Otte, Ralf: Künstliche Intelligenz für Dummies, Weinheim: Wiley VCH 2019, S. 268.
Kapitel 2: Grundfragen künstlich-intelligenter Systeme
40
Faltungsschichten
Feature Map für Ausschnitt in erster Schicht
Faltungskern
15
0
7 6
6 4
5 5 6 7
3 2 2 4 6
-1
5 5 3 3 3 3 5
6 4
3 3 3 5
0 7
-1 5 -1
0 -1 0
6 2 2 4 6
5 5 6 7
Abb. 2.7: Übersicht eines vollständigen Convolutional Neural Network, CNN
Kapitel 2: Grundfragen künstlich-intelligenter Systeme
41
Schichten Schichten desdes neuronalen neuronalen Netzes Netzes
Klassifikation Klassifikation
1000 1000 Klassen Klassen Wahrscheinlichkeit Wahrscheinlichkeit 0-100% 0-100%
Max-Pooling Max-Pooling
x1 x1 x2 x2 x3 x3
Beagle Beagle
Bodeguero Bodeguero
x4 x4 Dalmatiner Dalmatiner
x5 x5 x6 x6
Mops Mops
Labrador Labrador
Pitbull Pitbull
Rehpinscher Rehpinscher
Whippet Whippet
Kapitel 2: Grundfragen künstlich-intelligenter Systeme
42
Der Hund auf dem Bild ist im Vordergrund, und der
mehrere Tausend Neuronen und bekommt die vielen
Hintergrund ist unwichtig für die Klassifikation.
kleinen Bildausschnitte als Zahlenwerte geliefert
Wenn der Hund auf einem weit entfernten Stuhl sitzt
(in der Abbildung x1, x2 usw.), die Ausgabeschicht
oder in einer Makroaufnahme zu sehen ist, soll der
nur noch 1.000 Neuronen; sie kann also Bildinhalte
Algorithmus das Tier trotzdem richtig klassifizieren
für 1.000 unterschiedliche Klassen bestimmen. Das
können. Wichtig ist die charakteristische Form der
gesamte CNN wurde mit 1,2 Millionen Trainingsbei-
Schnauze, aber auch die typischen formalen Bezie-
spielen in 150.000 Dimensionen trainiert.66
hungen zwischen Schnauze, Auge und Körper. All das muss für eine bestimmte Hundeart ähnlich sein,
Trotz dieses beachtlichen Ergebnisses werden
egal wie der Hund im Bild positioniert ist. Deshalb
CNNs stetig weiterentwickelt und können mittler-
abstrahiert das CNN mit den Filtern hin zu dominan-
weile viele unterschiedliche Inhalte in einem einzi-
ten Bildeigenschaften. Man könnte auch sagen, dass
gen Bild erkennen. „Fully Convolutional Networks“ 67
die Filter als Identifikatoren für Bildeigenschaften
können sogar eine semantische Segmentierung
fungieren. Mittels Max-Pooling, eines Verfahrens zur
des Bilds vornehmen, erkennen also nicht nur ob,
Reduktion von Informationen und zur Ermittlung
ein Mensch oder Hund auf dem Bild zu sehen ist.
der interessantesten, in diesem Falle der maximalen
Modelle wie U-Net 68 oder Mask R-CNN 69 können
Werte, werden die Ausgabewerte der vorhergehenden
Bildobjekte mit ihrer tatsächlichen Position auf dem
Schicht zu den Eingabewerten der nächsten Schicht.
Bild bestimmen. Damit sind Anwendungen in vielen
Das CNN versucht also so lange Wichtiges von Un-
verschiedenen Bereichen möglich, angefangen bei der
wichtigem zu unterscheiden, bis alle Eigenschaften
Überwachung und Qualitätssicherung im Industrie-
nacheinander für sich erkannt und in immer komple-
kontext oder der Verkehrsüberwachung für auto-
xere Verhältnisse gesetzt wurden.
nomes Fahren über den Einsatz in medizinischen Diagnoseinstrumenten oder bei der Schrift-, Ge-
In Krizhevskys und Hintons berühmtem ersten
sichts- und Emotionserkennung bis hin zu Videofil-
CNN-Modell von 2012 hat das CNN insgesamt acht
tern in digitalen Consumerprodukten.
Schichten; die ersten fünf sind Faltungsschichten, die die Bildeigenschaften von simpel bis komplex
Interessanterweise sind CNNs nicht nur in der
erkunden. Die letzten drei Schichten bestehen aus
Lage, Bilder zu klassifizieren. Forscher bei Google
einem vollumfänglich verbundenen neuronalen Netz,
Brain haben herausgefunden, dass CNNs auch Bilder
das die komplexen Eigenschaften als Eingabedaten
generieren können, als sie versuchten, zu visualisie-
für ein neuronales Netzwerk bekommt. Dieses Netz-
ren, was das Netzwerk in einem bestimmten Bild er-
werk dient dann zur eigentlichen Klassifikation der
kennt. Das CNN wurde dazu gebracht, zu visualisie-
Bilder. Die Eingabeschicht des neuronalen Netzes hat
ren, was es als Objekt im Bild erkennt, und mit den
66 Krizhevsky, Alex/Sutskever, Ilya/Hinton, Geoffrey: „ImageNet classification with deep convolutional neural networks“, https://doi.org/10.1145/3065386 (20.4.2022). 67 Long, Jonathan/Shelhamer, Evan/Darrell, Trevor: „Fully Convolutional Networks for Semantic Segmentation“, https://arxiv.org/abs/1411.4038 (20.4.2022). 68 Ronneberger, Olaf/Fischer, Philip/Brox, Thomas: „U-Net: Convolutional Networks for Biomedical Image Segmentation“, https://doi.org/10.1007/978-3-319-24574-4_28 (20.4.2022). 69 He, Kaiming/Gkioxari, Georgia/Dollár, Piotr et al.: „Mask R-CNN“, https://ieeexplore.ieee.org/document/8237584 (20.4.2022).
Kapitel 2: Grundfragen künstlich-intelligenter Systeme
43
Informationen anzureichern, die es über das jeweilige
sentationen von beispielsweise Menschen erstellen.72
Objekt gelernt hat. Je nach Schicht des Netzwerkes,
Die Schwierigkeit bestand hier sowohl darin, flache
die man es verstärken lässt, sind die visuellen Er-
Bilder in räumliche zu übersetzen, als auch darin,
gebnisse, die es liefert, auch sehr verschieden. In den
nicht vorhandene Daten – wie etwa eine Rücken-
frühen Schichten sind die Formen, aus denen sich
ansicht bei einer von vorne fotografierten Person –
das Bild zusammensetzt, einfach und lassen viel von
sinnvoll zu ergänzen.
dem ursprünglichen Bild erkennen. In den späteren Schichten des Netzwerks werden sie komplexer und
Recurrent Neural Networks
die gelernten Eigenschaften überlagern daher das Ursprungsbild. In vielen Fällen hat das CNN ganz
Ein zweites großes Feld der Anwendungen, die für
neue Objekte erschaffen, wenn es in Bildern bild-
einfache ANNs schnell zu komplex wurden, ist die
fremde Objekte entdeckt hat. Ließ man das Netz
Spracherkennung und damit der Bereich, der in der
iterativ vorgehen und seine eigenen Ergebnisse als
Fachsprache Natural Language Processing genannt
neuen Input nehmen, entstanden absurde, aber sehr
wird. Anders als bei einem Bild, das räumlich in Pixel
interessante Bildwelten. Die Forscher tauften diese
aufgeteilt werden kann, operiert Sprache mit vielen
Entdeckung Inceptionism ; später wurde es unter
semantischen Einheiten, die sich zwar aufeinander
dem Namen Deep Dream bekannt. Eine zweite bild-
beziehen, aber zeitlich nicht immer aufeinander
gebende Verwendung der CNNs ist der sogenannte
folgen müssen. Einer solchen sequenziellen Komple-
Style Transfer.71 Hier nutzte man den Umstand, dass
xität gesprochener und geschriebener Sprache wurde
die CNNs sehr genaue visuelle Repräsentationen des
man dadurch Herr, indem man das neuronale Netz
Bildes lernen. Diese Repräsentationen liegen in den
so erweiterte, dass es die Temporalität und Sequen-
Feature Maps, also den durch Faltung errechneten
zialität der Sprache abbilden konnte. So wurden
Bildern, am deutlichsten vor. Man nutzte sie, um den
Netzwerkarchitekturen entwickelt, die keine reinen
Stil eines Input-Bildes zu erlernen und diesen dann
Feed-Forward-Netzwerke sind, sondern eingebaute
auf ein zweites Bild zu applizieren, indem man das
Feedback-Loops haben.73 Diese rückgekoppelte Sig-
Output-Bild im Stil des Input-Bildes rekonstruierte.
nalverarbeitung wird im Englischen als „recurrent“
So ließen sich beispielsweise Bilder des Malers
bezeichnet und gibt dem Netz seinen Namen: Recur-
Vincent van Gogh nehmen und dessen Stil auf eine
rent Neural Network oder kurz RNN. Die Daten, die
beliebige Fotografie einer Stadt applizieren. Entstan-
durch das Netzwerk hindurchgerechnet werden, kön-
den ist dann eine Stadtansicht, die einem Gemälde
nen damit an jedem Neuron der versteckten Schicht
van Goghs ähnelte. Eine dritte bildgebende Anwen-
für eine kurze Zeit gespeichert, zurück in dasselbe
dung der CNNs betrifft 3D-Bilder. In Kombination
Neuron als Input gegeben und damit nochmals ver-
mit einem zweiten Netzwerk können CNNs aus
wendet werden.
70
zweidimensionalen Fotos dreidimensionale Reprä-
70 Mordvintsev, Alexander/Olah, Christopher/Tyka, Mike: „Inceptionism: Going Deeper into Neural Networks“, https://ai.googleblog.com/ 2015/06/inceptionism-going-deeper-into-neural.html (20.4.2022). 71 Gatys, Leon/Ecker, Alexander/Bethge, Matthias: „A Neural Algorithm of Artistic Style“, https://arxiv.org/abs/1508.06576 (20.4.2022).
72 Saito, Shunsuke/Simon, Tomas/Saragih, Jason et al.: „PIFuHD: MultiLevel Pixel-Aligned Implicit Function for High-Resolution 3D Human Digitization“, https://shunsukesaito.github.io/PIFuHD (20.4.2022). 73 Skansi, Sandro: Introduction to Deep Learning. From Logical Calculus to Artificial Intelligence, Cham: Springer Nature 2018, S. 136.
Kapitel 2: Grundfragen künstlich-intelligenter Systeme
44
Durch parallele Verbindungen der Neuronen in
Weiterentwickelt wurden die LSTMs durch die
derselben Schicht einerseits und durch Verbindungen
Differentiable Neural Computer 77 und später durch
mit sich selbst andererseits sind RNNs in der Lage,
die sogenannten Transformer, die die Gedächtniska-
Sequenzen zu speichern und sequenzielle Eigenschaf-
pazität der Netzwerke noch einmal enorm erhöhten.
ten zu bestimmen. Das Kurzzeitgedächtnis, das diese
Aktuelle Modelle, wie das Transformer-Netzwerk
Netze damit besitzen, hat immense Vorteile für die
GPT-3 78 oder Google DeepMinds Compressive
Verarbeitung von Datensequenzen, die in der Sprache
Transformer 79, haben Milliarden von Neuronen und
in Form von Buchstaben- und Wortfolgen vorkom-
können ganze Buchinhalte in ihr informatisches
men.74 Je komplexer der Aufbau und die Verschrän-
Gedächtnis zwischenspeichern. Damit ist Sprachsyn-
kung dieser rückgekoppelten neuronalen Netze, umso
these möglich, die auf einem menschlichen Sprach-
weiter zurück können sich die Netzwerke erinnern
niveau liegt.
und umso genauer können sie die Komplexität der Sprache abbilden und simulieren.
RNNs werden hauptsätzlich eingesetzt, um Grammatik und Semantik in gesprochener oder ge-
Einfache RNNs mit einer versteckten Schicht
schriebener Sprache zu erkennen. So können sie als
können sich Informationen nicht sehr lange merken
Chatbots oder Personal Assistants Fragen beantwor-
und ganze Sätze zu analysieren war noch vor zwei
ten oder einfache Befehle ausführen. Zudem werden
Jahrzehnten eine große Herausforderung. Die beiden
RNNs für die Sentimentanalyse eingesetzt, um die
Forscher Sepp Hochreiter and Jürgen Schmidhuber
emotionale Verfasstheit der Schöpfer:innen von Pro-
haben daher 1997 eine Art von RNN entworfen,
duktrezensionen, Umfragen oder Social-Media-Inhal-
das sie „Long-Short Term Memory Network“, kurz
ten zu analysieren.
LSTM,75 tauften und das es erlaubte, durch eine Vielzahl von Aktivierungsfunktionen in einem einzigen
Kombiniert mit CNNs können RNNs semantische
Neuron selbst Informationen über lange Sequenzen
Bildinhalte sowie die Gesetze ihrer Anordnung und
hinweg zu gewinnen, zu behalten und wiederzu-
damit komplexe Layouts lernen. 80 In diesem Fall ver-
verwenden. Solche RNNs mit Langzeitgedächtnis
stehen RNNs die einzelnen Elemente eines Layouts,
können komplexe Satzstrukturen lernen, indem sie
also etwa Headline, Fotos oder Bildunterschriften, als
Wort für Wort durch den Satz gehen und das aktuelle
Elemente einer Sprache, deren Regeln das Netzwerk
Wort als Input nehmen und das jeweils nächste Wort
lernt. Das RNN hat damit im Grunde Gestaltungsre-
als Zielwert. Damit sind sie in der Lage, in unfertigen
geln für Editorial Design gelernt.
Sätzen diejenigen Wörter zu prognostizieren, die am wahrscheinlichsten auf eine gegebene Kette von Wörtern folgen werden.76 Eine Leistung, die heutzutage mit der Predictive-Text-Funktion in jedem Smartphone verwendet wird.
77 Graves, Alex/Wayne, Greg/Reynolds, Malcolm et al.: „Hybrid computing using a neural network with dynamic external memory“, https://www.nature.com/articles/nature20101 (20.4.2022). 78 Brown, Tom/Mann, Benjamin/Ryder, Nick et al.: „Language Models are
74 Skansi: Introduction to Deep Learning, S. 136. 75 Hochreiter, Sepp/Schmidhuber, Jürgen: „Long Short-Term Memory“, https://doi.org/10.1162/neco.1997.9.8.1735 (20.4.2022). 76 Skansi: Introduction to Deep Learning, S. 138.
Few-Shot Learners“, https://arxiv.org/abs/2005.14165 (20.4.2022). 79 Rae, Jack/Potapenko, Anna/Jayakumar, Siddhant et al.: „Compressive Transformers for Long-Range Sequence Modelling“, https://arxiv.org/ abs/1911.05507 (20.4.2022). 80 He, Zecheng/Sunkara, Srinivas/Zang, Xiaoxue et al.: „ActionBert: „Leveraging User Actions for Semantic Understanding of User Interfaces“, https://arxiv.org/abs/2012.12350 (20.4.2022).
Kapitel 2: Grundfragen künstlich-intelligenter Systeme
45
Große RNNs wie GPT-3 sind multimodale Netz-
klassifizieren. Das Generator-Netzwerk dagegen ist
werke und besitzen damit Neuronen, die konzeptba-
angehalten, den Discriminator möglichst geschickt zu
siert aktiviert werden. Das bedeutet, dass die Neuro-
täuschen, also die Wahrscheinlichkeit des Discrimi-
nen über einen großen Bereich hinweg für jeweils
nator-Netzes zu erhöhen, Daten falsch zu bestimmen.
einen Gegenstand aktiviert werden. GPT-3 kann
Das ganze System besteht aus tiefen neuronalen
dann beispielsweise eine Banane mit hoher Genauig-
Netzen, die ähnlich den einfachen neuronalen Netzen
keit nicht nur in den klassischen Fotos erkennen, wie
mithilfe von Backpropagation optimieren. Durch die
andere CNNs, sondern auch in Handzeichnungen,
Optimierung verbessern beide Netze sukzessive ihre
Comics, in Produkten anderer bildgenerierender
Methoden, sodass am Ende des Trainings die Origi-
Netze und natürlich als geschriebenes Wort. Damit
nale von der Fälschung nicht mehr zu unterscheiden
sind diese Netze besonders geeignet, Wort und Bild
sind. 83
81
auf neue Art zu verbinden. Kombiniert man sie mit einem zweiten bildgebenden Netzwerk, sind sie
Zu Beginn ihrer Karriere waren die Ergebnisse der
in der Lage, selbst komplexe Bilder durch Eingabe
GANs für das menschliche Auge noch sehr einfach
von Textbeschreibungen zu generieren. Die Firma
von einem echten Foto zu unterscheiden. Mittler-
OpenAI hat mit DALL·E eine Variante des RNN
weile wurden GANs unter anderem in Form des
entwickelt, die es erlaubt, qualitativ sehr hochwertige
StyleGANs 84 weiterentwickelt und ihre Ergebnisse
Bilder, Zeichnungen und Illustrationen aus geschrie-
können mit dem bloßen Auge nicht mehr von echten
benem Text zu generieren.
Bildern unterschieden werden. 85 Der Aufbau der
82
GANs wurde auch in Bezug auf die Merkmale der Generative Adversarial Networks
Bilder weiterentwickelt, die sie erschaffen können, denn früher näherte sich ein GAN den Trainings-
Ähnlich wie GPT-3 kann auch ein Generative Adver-
daten an, ohne in Features zu unterscheiden, also
sarial Network oder kurz GAN Bilder selbst generie-
ohne zu berücksichtigen, ob beispielsweise ein älterer
ren. Ein GAN besteht aus zwei Netzwerken, die in
Mann oder eine jüngere Frau generiert werden soll.
einem gegenläufigen Prozess aufeinander bezogen
Mit den Conditional Generative Adversarial Net-
und miteinander verknüpft sind. Das erste Netzwerk,
works, kurz cGANs, können die Bildgenerierung und
Generator genannt, erzeugt Bilder und übergibt sie
das Training an bestimmte Merkmale und Konditio-
dem zweiten Netz. Das zweite Netzwerk, Discrimina-
nen geknüpft werden, die in den Labels hinterlegt
tor genannt, versucht nun, zwischen den erzeugten
sind. 86 Auf diese Weise kann man die Bilderzeugung
Bildern aus dem Generator-Netzwerk und echten
steuern und inhaltlich anpassen und beispielsweise
Bildern, die es zusätzlich erhält, zu unterscheiden. Es
ältere Männer generieren, die warm und herzlich
ist darauf ausgelegt, die Fälschungen des Generators
wirken.
aufzudecken und nur die echten Bilder als solche zu
83 Goodfellow, Ian/Pouget-Abadie, Jean/Mirza, Mehdi et al.: „Generative Adversarial Nets“, https://arxiv.org/abs/1406.2661 (20.4.2022). 84 Karras, Tero/Aittala, Miika/Laine, Samuli et al.: „Alias-Free Generative 81 Open AI: „CLIP: Connecting Text and Images“, https://openai.com/blog/clip (20.4.2022). 82 Open AI: „DALL·E 2 is a new AI system that can create realistic images and art from a description in natural language“, https://openai.com/ dall-e-2 (20.4.2022).
Adversarial Networks (StyleGAN3)“, https://nvlabs.github.io/stylegan3 (20.4.2022). 85 This Person Does Not Exist: Random Face Generator. 86 Mirza, Mehdi/Osindero, Simon: „Conditional Generative Adversarial Nets“, https://arxiv.org/abs/1411.1784 (20.4.2022).
Kapitel 2: Grundfragen künstlich-intelligenter Systeme
46
Mit den cGANs sind eine Reihe interessanter
Es ist kein Wunder angesichts der Bandbreite
Anwendungen möglich. Bei der „Image-to-Image
bildgebender Anwendungen, dass die Kunst- und
Translation“, also der Übertragung eines Bildstils
Designwelt auf diese Netzwerke besonders angespro-
auf ein zweites Bild, das dann in diesem Stil darge-
chen hat und sie manchmal exklusiv und ungerecht-
stellt wird, können cGANs in ganz neue bildgebende
fertigtermaßen mit dem Label „künstliche Intelligenz“
Dimensionen vorstoßen. 87 Sie können verschiedene
assoziiert. GAN-basierte Kunst ist im Kunst-Main-
neue Funktionen bei der Bildübertragung ausführen,
stream angekommen und wird auf Auktionen
etwa ein Bild, das nur aus semantisch segmentierten
verkauft 94 und die Technologie wird für vielfältige
Bereichen oder architektonischen Labels besteht, in
Design- und Kunstprojekte benutzt. 95 Das Projekt The
ein realistisches Straßen- oder Fassadenbild zurück-
Next Rembrandt 96 beispielsweise versuchte, die Essenz
rechnen. Sie können Satellitenbilder in grafische
des bekannten Malers in neue Bilder zu transferieren,
Karten übertragen oder eine tagsüber aufgenom-
die aus seiner Hand entstanden sein könnten, was ge-
mene Straßenszene in ein Foto derselben Szene bei
wisse anachronistische Züge hat. Zur Umsetzung hat
Nacht verwandeln. Mit ihnen ist es auch möglich,
man Deep-Learning-Modelle ganz unterschiedlicher
Schwarz-Weiß-Zeichnungen zu kolorieren oder
Bauart benutzt. Neben neuronalen Netzen, die eine
Handzeichnungen in realistisch aussehende Objekte
demografische Analyse der Bildmotive vorgenommen
zu verwandeln. 88 Es gibt GANs, die fehlende Bereiche
haben, nutzte man CNNs, um die Gesichtszüge zu
eines Bildes ergänzen, handgezeichnete Porträts in
analysieren, und GANs, um sie neu zu generieren. Ein
fotorealistische Porträtfotografien transformieren90
Clustering-Algorithmus bestimmte dann die Ähn-
oder den Alterungsprozess simulieren. Auch für Vi-
lichkeit der neu geschaffenen Bilder mit den Origi-
deogenerierung und 3D-Objekte sind GANs sehr viel-
nalen. Am Ende setzte man von Menschenhand die
versprechend getestet worden. Sie können nicht nur
neuen Gemälde aus vielen einzelnen Ausschnitten
dreidimensionale Objekte generieren, sondern auch
zusammen, ließ für diese Konstellation das typisch
aus zweidimensionalen Vorlagen verräumlichen.
Rembrandt’sche Licht berechnen und anschließend
Mittlerweile benötigen diese Netzwerke nicht mehr
dreidimensional ausdrucken. Die komplexen An-
Millionen, sondern nur noch wenige Tausend Trai-
wendungen von statistischen Lernverfahren im
ningsbeispiele, um sehr gute Ergebnisse zu erzeugen,
Fall von The Next Rembrandt zeigen nicht nur die
was ihre Einsatzgebiete weiter verbreitert.
Vielzahl der Verfahren, sondern auch ihre Vorzüge
89
91
92
93
87 Isola, Phillip/Zhu, Jun-Yan/Efros, Alexei et al.: „Image-to-Image Translation with Conditional Adversarial Networks“, https://arxiv.org/ abs/1611.07004 (20.4.2022). 88 Isola/Zhu/Efros et al.: Image-to-Image Translation. 89 Yu, Jiahui/Lin, Zhe/Yang, Jimei et al.: „Generative Image Inpainting with Contextual Attention“, https://arxiv.org/abs/1801.07892 (20.4.2022). 90 Chen, Shu-Yu/Su, Wanchao/Gao, Lin et al.: „DeepFaceDrawing: Deep Generation of Face Images from Sketches“, http://geometrylearning.com/ DeepFaceDrawing (20.4.2022). 91 Antipov, Grigory/Baccouche, Moez/Dugelay, Jean-Luc: „Face Aging With Conditional Generative Adversarial Networks“, https://arxiv.org/ abs/1702.01983 (20.4.2022). 92 Wu, Jiajun/Zhang, Chengkai/Xue, Tianfan et al.: „Learning a Probabilistic Latent Space of Object Shapes via 3D Generative-Adversarial Modeling“, https://arxiv.org/abs/1610.07584 (20.4.2022). 93 Karras, Tero/Aittala, Miika/Hellsten, Janne et al.: „Training Generative Adversarial Networks with Limited Data“, https://arxiv.org/ abs/2006.06676 (20.4.2022).
94 Vincent, James: „A never-ending stream of AI art goes up for auction“, https://www.theverge.com/2019/3/5/18251267/ai-art-gans-marioklingemann-auction-sothebys-technology (20.4.2022). 95 This Artwork Does Not Exist: „This Artwork Does Not Exist“, https://thisartworkdoesnotexist.com (20.4.2022). 96 Mauritshuis: „The Next Rembrandt“, https://www.nextrembrandt.com (20.4.2022).
Kapitel 2: Grundfragen künstlich-intelligenter Systeme
47
für bestimmte Aufgaben. Neben den prominenten
gleichen oder nicht. Völlig zu Recht unterstreicht
neuronalen Netzwerkarchitekturen, die in diesem Ka-
der Computerwissenschaftler Tariq Rashid, dass sich
pitel besprochen wurden, gibt es noch eine Vielzahl
Klassifizieren nicht sehr vom Vorhersagen unter-
mehr, die hier nicht berücksichtigt werden können.
scheidet.98 Verfahren statistischen Lernens betreiben
Das Asimov Institute hat eine illustrierte Liste der
mit anderen Worten informierte Spekulation.
bekanntesten neuronalen Netze herausgegeben, die es den „Zoo der neuronalen Netze“ taufte und die die
Sie sind damit drittens gleichzeitig auch universel-
Vielfalt der Netze veranschaulichen soll.
le Schöpfer. Mit jeder Klassifikation, jeder Regression
97
oder jedem Bilderkennungsvorgang erschaffen die 2.6 Prognosemaschinen – ein Zwischenfazit
Verfahren aus einem Set historischer Daten ganz neue Daten. Damit sind sie Kreatoren, also Maschi-
Der Blick auf die wichtigsten Verfahren statistischen
nen, die Neues schaffen. Im ganz engen Sinne des
Lernens führt deutlich vor Augen, wie diese Algo-
Wortes und noch ohne Blick auf Kreativitätstheorien,
rithmen lernen, das heißt, wie sie aus einer großen
die erst in Kapitel 3 diskutiert werden sollen, erschaf-
Menge von Daten Zusammenhänge ermitteln können,
fen alle Verfahren statistischen Lernens neue Matri-
die für Menschen einerseits einfach in wenigen
zen, Vektoren und Zahlen, die die Grundlage bilden
Hundertstelsekunden zu erfassen oder anderer-
für korrekte Prognosen. An diese Leistung schließen
seits gar nicht ohne Weiteres zu begreifen sind. Die
die neuronalen Netze mit ihren bildgebenden Ver-
Algorithmen sind durch die vielen ausgeklügelten
fahren an, die in der Welt der Gestaltung für so viel
Optimierungsverfahren in der Lage, versteckte
Aufmerksamkeit sorgen. Es bleibt aber festzuhalten:
Wirkungsprinzipien in großen Datenmengen zu er-
Nicht nur die Generative Adversarial Networks sind
mitteln. Die neuronalen Netze sind sogar in der Lage,
Kreatoren, alle Verfahren, die lernen und optimieren,
theoretisch zumindest, jedes komplexe Prinzip abzu-
erschaffen neue Daten, die die Eigenschaft besitzen,
bilden. Sie sind universelle Analysemaschinen, weil
Wirklichkeit zu antizipieren. Das Prinzip dieser Leis-
sie prinzipiell zumindest zwischen jedem beliebigen
tung basiert nicht auf einer strengen mathematischen
Eingangsdatum und jedem beliebigen Ausgangs-
Formel, sondern bleibt eine statistische Annäherung.
datum einen Zusammenhang lernen können. Sie sind
Dieser Umstand hat weitreichende Konsequenzen für
aber gleichzeitig auch universelle Prognosemaschi-
Fragen der Intelligenz, der Ethik und der wirtschaft-
nen, weil sie den gelernten Zusammenhang auf für
lichen Bedeutung dieser Systeme.
sie unbekannte Daten anwenden, also generalisieren und so Vorhersagen treffen können. Sie können
2.7 Die Frage der Intelligenz optimierender
Apartmentpreise für bestimmte saisonale Ereig-
Systeme
nisse vorhersagen, sie können die geschmacklichen Präferenzen von Zuschauer:innen vorhersagen oder
Schaut man sich die Verfahren an, die unter dem
aber die Wahrscheinlichkeit prognostizieren, mit der
Label „künstliche Intelligenz“ gefasst werden, wird
Objekte in Bildern vorhanden sind. Sie sind sogar in
deutlich, dass das, was als intelligent gilt, nicht
der Lage, durch Optimierung vorherzusagen, ob ihre
vergleichbar ist mit den weitreichenden kognitiven
eigenen Kreationen einem bekannten Gegenstand
Leistungen eines menschlichen Gehirns, die als
97 The Asimov Institute: „The Neural Network Zoo“, https://www.asimovinstitute.org/neural-network-zoo (20.4.2022).
98 Rashid: Neuronale Netze selbst programmieren, S. 8.
Kapitel 2: Grundfragen künstlich-intelligenter Systeme
48
Intelligenz gefasst werden. Statistische Lernverfah-
Die berechtigten Fragen hier sind, ob Maschinen
ren verknüpfen Eingabe- und Ausgabedaten mittels
ohne Bewusstsein und Körper so etwas wie Intelli-
mathematischer Methoden. Diese Verfahren – allen
genz überhaupt besitzen können; ob diese maschinel-
voran die neuronalen Netze – haben mit mensch-
le Intelligenz mit menschlicher Intelligenz überhaupt
lichem Lernen im engeren Sinne nicht viel gemein.
verglichen werden darf; und um welche Art Intel-
Überspitzt könnte man formulieren, dass das Hirn
ligenz es sich handelt, wenn sie mit dem Konzept
keine Backpropagation macht. Zur Erinnerung:
menschlicher Intelligenz nicht kommensurabel ist.
Backpropagation ist das Optimierungsverfahren der
Diese umfang- und weitreichenden Fragen können
neuronalen Netze, mit dem sie die idealen Gewichte
an dieser Stelle nicht beantwortet werden. 100 Sie
der Neuronen bestimmen. Entsprechend begrenzt
sollen aber die Komplexität der Fragen aufzeigen, die
und spezialisiert sind die Aufgaben, die statisti-
beantwortet werden müssen, wenn man menschliche
sche Lernverfahren bewältigen können. Sie können
Intelligenz mit maschinellen Optimierungsverfahren
Zahlenwerte ermitteln oder die Wahrscheinlich-
vergleichen möchte.
99
keit, mit der ein handgeschriebenes Zeichen einem Buchstaben entspricht. Schon bei der Bilderkennung
Die große Mehrheit, vor allem in der öffentlichen
erkennen die Verfahren die Inhalte der Bilder nicht
Debatte, geht jedoch einfach davon aus, dass Intelli-
im verstandesmäßigen Sinne. Sie haben verständli-
genz und Optimierung ohne Weiteres vergleichbar
cherweise weder Wissen über irgendein Objekt, das
sind. Mehrheitlich wird in den Debatten ein teleo-
in den Bildern repräsentiert wird, noch Wissen über
logisches Stufenmodell der Optimierungsalgorithmen
die Welt, die das Objekt erzeugt hat. Sie wurden ge-
unterstellt, also ein Modell des zielgerichteten und
baut und instruiert, einen Zusammenhang zwischen
unausweichlichen Fortschritts dieser Verfahren, die
den eingehenden Pixelwerten und dem Ausgabevek-
schlussendlich auf Gleichwertigkeit mit menschli-
tor herzustellen. Was dieser Zusammenhang bedeu-
chen kognitiven Fähigkeiten drängen und diese sogar
tet, welche weiteren wirtschaftlichen, politischen,
überwinden möchten. So wird in und mit diesem
sozialen und ethischen Folgen ihr Tun hat und wieso
Modell eingeräumt, dass die Intelligenz der Maschi-
man diese Bilder überhaupt verarbeiten soll, bleibt
nen momentan noch auf der Stufe einer begrenzten
ihnen zu Recht völlig verschlossen. Noch nicht ein-
Intelligenz, der sogenannten „Narrow AI“ oder „Weak
mal die Kategorien der Zustimmung oder Ablehnung
AI“ steht. Diese Form der Intelligenz wird „narrow“,
sind hier passend gewählt in Bezug auf das, was eine
also begrenzt genannt, weil sie auf ein spezifisches
intelligente Maschine tut. Sie ist reines Instrument
Problem oder eine beschränkte Aufgabe fokussiert
eines menschlichen Willens, auch wenn es bei sehr
ist, wie etwa autonomes Fahren oder Bilderkennung.
tiefen Netzwerken, wie dem Transformer GPT-3, den
Die maschinelle Intelligenz drängt in diesem Modell
Anschein haben mag, dass da eine verstandesmäßige
jedoch auf die Stufe der „General AI“ oder „Strong
Leistung durch die Ergebnisse des Netzwerks hin-
AI“, eine Form, die jede Aufgabe und jedes noch so
durchschaut. Neuronale Netze sind nicht mehr und
komplexe Problem in jedem erdenklichen Bereich
nicht weniger als leistungsstarke Generalisierungs-
lösen kann. Systeme mit einer generellen Intelligenz
maschinen.
sind bis heute nicht existent, werden jedoch ima-
99 Otte: Künstliche Intelligenz für Dummies, S. 271.
100 Wer sich für diese Fragen interessiert, siehe Mainzer: Gehirn, Computer, Komplexität.
Kapitel 2: Grundfragen künstlich-intelligenter Systeme
49
giniert als solche, die menschengleiche kognitive, emotionale und intellektuelle Fähigkeiten besitzen.
bis 2029 dauert, bis die starke, intelligente Maschine 101
entsteht und ihren Weg bahnt, 105 oder ob es schon
Im Moment verweist man einfach auf die Welt künst-
2025 so weit ist. 106 Dass Milliardenmärkte schon jetzt
lerischer Fantasie, um diese Vorstellung zu bebildern,
existieren und wenige globale Unternehmen in einer
oder stuft die Komplexität menschlicher emotionaler
hitzigen Konkurrenz um die Technologieführerschaft
und intellektueller Fähigkeiten zu algorithmusglei-
auf diesem Feld kämpfen und damit de facto die
chen Handlungen hinab, um die Analogie passend
hauptursächlichen Treiber dieser Entwicklung sind,
zu machen.
wird mit dem Telos der Machtübernahme der Ma-
102
Besonders anhängliche Verfechter:in-
nen dieser Theorie sind überzeugt, dass sobald die
schinen einfach verdrängt. Das Bild einer autonomen
Singularität, also die Gleichwertigkeit von Mensch
Maschine, begabt mit eigenem Willen und ausgestat-
und Maschine, erst einmal erreicht ist, es ganz auto-
tet mit eigenen Motiven, eignet sich offenbar besser
matisch zu einem Umschlagpunkt kommt, der zur
dazu, die Konkurrenz unter Akteuren zu legitimieren,
Superintelligenz der Maschinen führt.
die intelligente Systeme als Instrumente ihrer öko-
103
nomischen und politischen Konkurrenz nutzen. Die In diesem einfachen dreistufigen Modell der künst-
Analogiebildung zwischen Optimierungsverfahren
lichen Intelligenz wird einfach unterschlagen, was die
und dem menschlichen Verstand bleibt jedenfalls
lernende Maschine de facto leistet und wozu sie über-
das, bloße Analogie. Verfahren statistischen Lernens
haupt in der Welt ist. Sie hat keinen eigenen Willen
können nicht über die eigenen Modelle und Trai-
und kein eigenes Interesse, sondern ist Instrument
ningsdaten hinaus generalisieren, 107 auch wenn sich
politischer, wirtschaftlicher, sozialer und kultureller
die Dystopie des Aufstands der Maschinen im Lichte
Interessen. Die Gesellschaft und die Subjekte in ihr –
zahlloser menschengemachter Katastrophen so evi-
mit ihren antagonistischen Interessen und ihren sehr
dent anfühlt. Trotzdem werden lernende Maschinen
unterschiedlich ausgestatteten Ressourcen – werden
anthropomorphisiert, 108 also hinter der mathemati-
in diesem Bild einfach einer Gesamtheit der Maschi-
schen Funktionsweise menschenähnlicher Verstand
nen gegenübergestellt, die wie von selbst als Gegen-
und Motivation identifiziert. Wer Personal Digital
spieler auftreten. „Wir“ gegen „die“ heißt dann die
Assistants Namen wie Alexa oder Siri gibt oder sie
simple Gegenüberstellung und die Frage ist eröffnet,
als autonome Autor:innen 109 und Künstler:innen 110
wer am Ende das Rennen gewinnt und wann es so
feiert, der deutet damit nicht nur an, dass es sich bei
weit ist.
Maschinen um Persönlichkeiten handelt, der besteht
104
Unternehmer:innen, Transhumanist:innen
und Futurist:innen spekulieren dann, ob es nur noch
darauf. Kritiker:innen dieser Übertreibung und der
105 Kurzweil, Ray: The Singularity Is Near, New York: Penguin Random House 2006. 101 Walch, Kathleen: „Rethinking Weak Vs. Strong AI“,
106 Cuthbertson, Anthony: „Elon Musk claims AI will overtake humans
https://www.forbes.com/sites/cognitiveworld/2019/10/04/
in less than five years“, https://www.independent.co.uk/life-style/
rethinking-weak-vs-strong-ai/?sh=3238e57b6da3 (21.4.2022).
gadgets-and-tech/news/elon-musk-artificial-intelligence-ai-
102 Walch: Rethinking Weak Vs. Strong AI. 103 Bostrom, Nick: Superintelligence: Paths, Dangers, Strategies, Oxford: Oxford University Press 2014. 104 Galeon, Dom: „Softbank CEO: The Singularity Will Happen by 2047“, https://futurism.com/softbank-ceo-the-singularity-will-happenby-2047 (21.4.2022).
singularity-a9640196.html (21.4.2022). 107 Daumé: A Course in Machine Learning, S. 17. 108 Epley, Nicholas/Waytz, Adam/Cacioppo, John: „On seeing human: a three-factor theory of anthropomorphism“, https://pubmed.ncbi.nlm.nih.gov/17907867 (21.4.2022). 109 GPT-3: „A robot wrote this entire article. Are you scared yet, human?“, https://www.theguardian.com/commentisfree/2020/sep/08/ robot-wrote-this-article-gpt-3 (21.4.2022). 110 Kelly, Liam: „Meet Ai-Da, the robot artist who is making an exhibition of herself“, https://www.thetimes.co.uk/article/meet-ai-da-the-robotartist-who-is-making-an-exhibition-of-herself-hxhcdsm0j (21.4.2022).
Kapitel 2: Grundfragen künstlich-intelligenter Systeme
50
manchmal folgenschweren Entscheidungen dieser
mit denjenigen Parametern, die ihnen ihr Aufbau
Maschinen wirken dann wie Blasphemiker:innen,
gewährt. Ob die gelernten Zusammenhänge über-
die einer mit Intelligenz ausgestatteten Entität das
haupt vertret- oder zumutbar sind, ob sie nicht eine
Existenzrecht absprechen.
ungerechtfertigte Eingrenzung eines viel komplexe-
111
ren Zusammenhangs darstellen, können die Systeme 2.8 Zur Frage der (Un-)Voreingenommenheit
weder beurteilen noch beeinflussen. Noch können
und Ethik diskriminierender Systeme
sie bewerten, ob bestimmte vorgegebene Lernparameter sinnvoll sind in Bezug auf die gewünschten
Die Analyse der unterschiedlichen statistischen
Prognosen. Sie sind technisch eingeschränkt und
Lernverfahren hat auch gezeigt, dass sie Wirklichkeit
damit im weitesten Sinne voreingenommen. Diese
nicht exakt mathematisch repräsentieren, sondern
Voreingenommenheit, die man Inductive Bias oder
sich ihr – basierend auf Abertausenden Trainings-
Learning Bias 114 nennt, hängt eng damit zusammen,
beispielen – über Optimierungsverfahren annähern.
welche Expertise diejenigen haben, die diese Systeme
Dieses induktive Vorgehen, das statistisches Ler-
aufsetzen und trainieren. Schon hier wird deutlich,
nen nutzt, liefert immer eine Prognose und bleibt
dass ein Bias kein bewusst gepflegtes Vorurteil oder
daher im engeren Sinne immer eine Annäherung
keine aktiv angestrebte Verzerrung der algorithmi-
an Wirklichkeit. Überspitzt formuliert könnte man
schen Funktionen sein muss. Die Bias bleiben wirk-
sagen, dass statistisches Lernen immer ein Stück
sam, auch wenn der Algorithmus korrekt im Sinne
weit verzerrt, also im engen Sinne diskriminiert. Der
der Anwendenden funktioniert und eigentlich gute
Begriff der Diskriminierung wird im Zusammenhang
Ergebnisse liefert.
mit dem statistischen Lernen auch oft als Bias bezeichnet. 112 Das Bias im Sinne einer Diskriminierung
Ein zweiter großer Wirkungsbereich der Voreinge-
oszilliert im Bedeutungsraum zwischen einer rein
nommenheit erstreckt sich auf die genutzten Daten.
technischen Verzerrung von Wirklichkeit und einer
Da statistische Lernverfahren immer auf Grundlage
politisch-sozialen Kritik der Voreingenommenheit
von Daten lernen, können damit auch durch Daten
gegen bestimmte Menschen, die herabgesetzt und
Verzerrungen entstehen. Die meisten Bias in diesem
stigmatisiert werden. 113 Beide Pole dieses Bedeu-
Bereich treten dort auf, wo Datensätze nicht aus-
tungsraums hängen beim statistischen Lernen wech-
gewogen erstellt werden und somit die Wirklichkeit
selseitig und notwendig miteinander zusammen.
nicht akkurat repräsentieren. Das Reporting Bias 115 benennt den Umstand, dass für bestimmte Daten-
Der erste Wirkungsbereich der Voreingenom-
sätze keine durchschnittlichen Ereignisse festgehal-
menheit betrifft die statistischen Lernverfahren
ten werden und dann als Daten zugänglich sind. So
selbst. Sie lernen nur diejenigen Zusammenhänge
kommt es oft vor, dass Kund:innen ihre Rezensionen
111 Anger, Gerhard: „Drop That Intelligence and Get on with It!“, in: Engenhart, Marc/Loewe, Sebastian (Hrsg.): Proceedings of the First Conference on Designing with Artificial Intelligence, München: appliedAI 2021, S. 64–69. 112 Der Begriff ist abzugrenzen gegen seine Verwendung im Bereich der neuronalen Netze. Dort wird mit Bias ein Summand bezeichnet, der zu den gewichteten Eingabewerten in den Neuronen hinzuaddiert wird. Siehe dazu ausführlicher das Kapitel 2.5.4 „Neuronale Netze“. 113 Hellström, Thomas/Dignum, Virginia/Bensch, Suna: „Bias in Machine Learning – What is it Good for?“, http://ceur-ws.org/Vol-2659 (24.2.2022).
114 Hellström/Dignum/Bensch: Bias in Machine Learning, S. 4. 115 Google Developers: „Fairness: Types of Bias“, https://developers.google. com/machine-learning/crash-course/fairness/types-of-bias (24.2.2022).
Kapitel 2: Grundfragen künstlich-intelligenter Systeme
51
nur schreiben, wenn sie besonders zufrieden oder
vereinzelte Fehlfunktionen der Algorithmen sind,
enttäuscht waren von einem gekauften Produkt.
sondern People of Color systematisch in den Daten-
Durchschnittliche Erlebnisse werden nicht als mit-
sätzen unter- oder überrepräsentiert sind. 121 Damit ist
teilungswürdig erachtet und finden sich in Produkt-
beispielsweise in der Strafverfolgung die Anwendung
rezensionen deshalb seltener als außergewöhnliche.
von Modellen, die schwarze Menschen prinzipiell als krimineller einstufen, hochgradig problematisch und
Die sogenannten Selection Bias
116
wiederum treten
hat weitreichende politische und ethische Implika-
auf, wenn Daten zu selektiv in Datensätze eingepflegt
tionen. 122 Speziell gegen die rassistisch diskriminie-
werden. Zu dieser Gruppe von Bias gehören das
renden Systeme hat sich in den letzten Jahren ein
Coverage Bias, das den Umstand benennt, dass be-
wissenschaftlicher 123 und politischer Aktivismus 124
stimmte Verzerrungen durch die einseitige Auswahl
geformt, der diese System verurteilt und auf ihre
von beispielsweise Personengruppen auftreten. Wenn
Reform oder Beseitigung drängt. Selbst bei scheinbar
nur bestimmte Personengruppen bereit sind, Daten
harmlosen Fällen wie der Prognose von Schulnoten
von sich preiszugeben, spricht man von einem Par-
in Zeiten von Corona zeigt sich, dass Algorithmen
ticipation Bias. Sind Datensätze statistisch gesehen
sexistische und klassistische Vorurteile oftmals ein-
nicht rein zufällig ausgewählt worden, bezeichnet
fach ungefiltert abbilden. Die Algorithmen wurden
man das als Sampling Bias.
in Großbritannien in der ersten Phase der Pandemie eingesetzt, um nicht erbringbare Schulnoten zu
Werden Daten zu einseitig zum Lernen bereitge-
prognostizieren. Die Schüler:innen bekamen keinen
stellt, kann das weitreichende soziale, politische und
Unterricht, sollten aber dennoch ihre Noten und
ökonomische Konsequenzen haben. Beispielsweise
Abschlüsse bekommen. Im Streit um diese Prognose
reproduzieren Chat- 117 und Hiring-Bots 118 rassistische
von Schulnoten wurde deutlich, dass statistische
oder sexistische Sprache und Muster. Bilderken-
Lernverfahren einkommensschwache und weibliche
nungsalgorithmen klassifizieren People of Color als
Schüler:innen niedriger bewerteten als ihre männli-
Gorillas 119 oder erkennen sie gar nicht erst und ma-
chen und reicheren Mitschüler:innen. 125 Ein Um-
chen es ihnen dann beispielsweise unmöglich, sich
stand, der sich ganz aus den historischen Daten und
in öffentlichen Räumen die Hände zu waschen. 120
den darin festgehaltenen tatsächlichen Leistungen
Forscherinnen haben herausgefunden, dass das nicht
erklärt, in die sicher auch Vorurteile der Lehrer:innen
116 Google Developers: Fairness. 117 Buranyi, Stephen: „Rise of the racist robots – how AI is learning all our worst impulses“, https://www.theguardian.com/inequality/2017/ aug/08/rise-of-the-racist-robots-how-ai-is-learning-all-our-worstimpulses (24.2.2022). Wille, Matt: „South Korean chatbot Lee Luda killed off for spewing hate“, https://www.inputmag.com/culture/south-korean-chatbotlee-luda-killed-off-for-spewing-hate (24.2.2022). 118 Oppenheim, Maya: „Amazon scraps ‚sexist AI‘ recruitment tool“,
121 Buolamwini, Joy/Gebru, Timnit: „Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification“, Proceedings of Machine Learning Research 81 (2018), S. 77–91. 122 Angwin, Julia/Larson, Jeff/Mattu, Surya et al.: „Machine Bias“, https://www.propublica.org/article/machine-bias-risk-assessmentsin-criminal-sentencing (24.2.2022). 123 Myers West, Sarah/Whittaker, Meredith/Crawford, Kate: Discriminating Systems. Gender, Race, and Power in AI, New York: AI Institute Now 2019. 124 Lynch, Jennifer: „Face Off: Law Enforcement Use of Face
https://www.independent.co.uk/life-style/gadgets-and-tech/
Recognition Technology“, https://www.eff.org/wp/law-enforcement-use-
amazon-ai-sexist-recruitment-tool-algorithm-a8579161.html
face-recognition (24.2.2022).
(24.2.2022).
Breland, Ali: „How white engineers built racist code – and why it’s
119 Vincent, James: „Google ‚fixed‘ its racist algorithm by removing
dangerous for black people“, https://www.theguardian.com/technology/
gorillas from its image-labeling tech”, https://www.theverge.com/
2017/dec/04/racist-facial-recognition-white-coders-black-people-police
2018/1/12/16882408/google-racist-gorillas-photo-recognition-
(24.2.2022).
algorithm-ai (24.2.2022). 120 Plenke, Max: „The Reason This ‚Racist Soap Dispenser‘ Doesn’t Work
Algorithmic Justice League: „Research“, https://www.ajl.org (24.2.2022). 125 Fokken, Silke: „Neuer Ärger um Abschlussnoten – und Belege für
on Black Skin“, https://www.mic.com/articles/124899/the-reason-
Noteninflation“, https://www.spiegel.de/panorama/bildung/corona-
this-racist-soap-dispenser-doesn-t-work-on-black-skin (24.2.2022).
in-grossbritannien-neuer-aerger-um-abschlussnoten-und-belegefuer-noteninflation-a-4eddf750-d51e-488e-a8e8-d10cdcc3bcf1 (24.2.2022).
Kapitel 2: Grundfragen künstlich-intelligenter Systeme
52
gegenüber schlechter gestellten Schüler:innen, vor
hielten Data Scientists bei der Qualitätskontrolle
allem aber Bildungsnachteile aufgrund von Armut
eines Herstellers die auf Machine Learning basierende
eingeflossen sind. Ein Versuch, diese Bias zu mini-
Überwachung für effektiver als diejenige mensch-
mieren, wie ihn beispielsweise Google unternimmt,
licher Expert:innen, obwohl sie das de facto nicht
kann zwar Erfolge vorweisen, Diskriminierung letzt-
gewesen ist.
lich aber nicht ganz ausschließen. 126 Alle drei Bereiche der Verzerrungen und Voreinge Ein dritter großer Bereich sind menschliche Vor-
nommenheit spielen ineinander und fordern letztlich
annahmen, die in statistisches Lernen einfließen
sowohl Entwickler:innen als auch Designer:innen
und sich mit Teilen soziologischer und sozialpsycho-
und Nutzer:innen heraus. Sie sollten achtsam auf
logischer Definitionen von Diskriminierung über-
Modelle, Daten und ihre eigenen Urteile schauen, um
schneiden. Bei den Group Attribution Bias
Bias so weit wie möglich zu reduzieren. Allerdings
127
hat man
es mit Verzerrungen zu tun, die tatsächliche oder
wird mit den massenhaft genutzten intelligenten
eingebildete Eigenschaften von einzelnen Personen
Systemen, wie beispielsweise den Feeds bei Facebook
auf Gruppen übertragen. Beim In-Group Bias gehört
oder Instagram, auch deutlich, dass die voreingenom-
man derselben Gruppe an und bekommt deshalb eine
mene Maschine immer mehr bestimmt, was man als
verzerrte positive Sicht auf Fähigkeiten und Eigen-
wichtig wahrnimmt und sogar als wahr. Gerade des-
schaften der In-Group. Beim Out-Group Homoge-
halb kann hier ein grundlegendes ethisches Prinzip in
neity Bias hat man eine verzerrte Sicht auf Perso-
Form eines Maschinen-intelligenten Imperativs abge-
nen, die nicht zur eigenen Gruppe gehören. Oftmals
leitet werden. Er lautet: Erschaffe intelligente Anwen-
werden Eigenschaften und Fähigkeiten der Gruppe
dungen, die nicht gefährlich sind, wenn sie scheitern,
als homogener und einheitlicher gesehen, als sie tat-
und nicht schädlich, wenn sie funktionieren.
sächlich sind. In diesem Lichte arbeiten Unternehmen, Regierun Das Implicit Bias 128 wiederum tritt auf, wenn man
gen und die Zivilgesellschaft an Regeln einer fairen
eigene Erfahrungen und eigenes Verständnis un-
und transparenten Verwendung von statistischen
zulässig verallgemeinert. Eine verbreitete Form des
Lernverfahren, die die Bereiche Haftung, Ausrichtung
Implicit Bias ist das Confirmation Bias, bei und mit
an Werten, Erklärbarkeit, Gerechtigkeit und Recht auf
dem Algorithmen eine erwartete Sichtweise affirmie-
Nutzerdaten umfasst. Gegen die vielfältigen Bias, die
ren müssen, damit man ihre Ergebnisse als richtig
sich in die Daten und Modelle einschreiben, hat man
und unverfälscht bewertet. Beispielsweise werden
beispielsweise Metriken 129 entwickelt, die versuchen,
hier nur Nachrichtenempfehlungen gelesen, die die
diese Verzerrungen so weit wie möglich zu minimie-
eigene politische Sichtweise wiedergeben. Das Auto-
ren. Sie ganz zu beseitigen hat bis heute aufgrund der
mation Bias besagt, dass man softwaregenerierten
genutzten Modelle und Daten noch nicht funktioniert.
Datensätzen mehr Glaubwürdigkeit attestiert als den von Menschen zusammengestellten. Beispielsweise
126 Google People and AI Research: „Hidden Bias“, https://pair.withgoogle.com/explorables/hidden-bias (24.2.2022).
129 Xu, Catherina/Doshi, Tulsee: „Fairness Indicators: Scalable Infrastructure for Fair ML Systems“, https://ai.googleblog.com/2019/12/fairness-
127 Google Developers: Fairness.
indicators-scalable.html (21.4.2022). Google PAIR: „What-If Tool“,
128 Google Developers: Fairness.
https://pair-code.github.io/what-if-tool (21.4.2022).
Kapitel 2: Grundfragen künstlich-intelligenter Systeme
53
Auch eigens geschaffene Ethikkommissionen 130 in
2.9 Eine Technologie für die Leistungs- und
Regierungen und großen Techunternehmen
Wachstumsgesellschaft
131
haben
ihre Arbeit aufgenommen, werden aber immer wieder von Skandalen 132 und Protesten 133 heimgesucht
Schaut man sich die Berichterstattung zu künstlicher
und demonstrieren damit, dass Ethik und Fairness
Intelligenz an, wird dieser Grund sehr unmittelbar
trotz ihrer zentralen Bedeutung für die Anwender:
zum Thema gemacht. Es sind ihre enormen ökonomi-
innen derzeit in der Wirtschaft oftmals noch mar-
schen Wirkungen in der Wachstumsgesellschaft, die
ginalisiert werden. Begriffe wie „Ethics Washing“
Wirtschaft und Politik so stark auf diese Technologie
134
zeugen von dieser Beziehung der Wirtschaft zu
fixieren lässt. Nichts Geringeres als eine neue wirt-
ethischen Fragen intelligenter Systeme.
schaftliche Revolution stehe mit dieser Allzwecktechnologie ins Haus, die man auf eine Stufe mit der
Am Ende bleibt der Versuch, Phänomene wie
Dampfmaschine und dem Roboter stellt. 138 Sagen-
Deep Fakes, Fake News oder Filter-Bubbles durch
hafte Gewinnsteigerungen von 25 Prozent verspricht
wissenschaftliche Forschung 135 sowie durch poli-
sich die Bundesregierung im Namen von Industrie
tische, zivilgesellschaftliche
und Dienstleistern für den Einsatz des statistischen
136
und künstlerische
137
Aufklärung einzudämmen. An der Technologie selbst
Lernens, nebst gesteigerter Innovationskraft in den
und ihren Wirkungen hält man aus einem ganz
Unternehmen. 139 Wurde vor einigen Jahren noch die
anderen, schwerwiegenden Grund entschieden fest.
große Jobvernichtung durch künstliche Intelligenz thematisiert und dabei die eine oder andere Stilblüte 140 hervorgebracht, hat sich der Diskurs mittlerweile gewandelt und man betont verstärkt, dass die Unternehmen neue Jobs durch den Einsatz der
130 Applied AI: „Ethical use of AI“, https://www.appliedai.de/hub/ethical-use-of-ai (21.4.2022). 131 Quiñonero Candela, Joaquin: „Facebook and the Technical University of Munich Announce New Independent TUM Institute for Ethics in Artificial Intelligence“, https://about.fb.com/news/2019/01/tuminstitute-for-ethics-in-ai (21.4.2022). 132 Böhm, Markus: „Google trennt sich von KI-Forscherin. ‚Das Ausmaß der Respektlosigkeit ist unglaublich‘“, https://www.spiegel.de/netzwelt/
Technologie schaffen. 141 Studien gehen davon aus, dass in den nächsten zehn Jahren etwa drei Viertel der Unternehmen weltweit mindestens eine Art von statistischem Lernen im Unternehmen anwenden werden. 142
web/google-warum-ist-ki-forscherin-timnit-gebru-nicht-mehr-imunternehmen-a-79c1daba-caf1-4d7e-b019-6389274c9409 (21.4.2022). 133 Vincent, James: „The problem with AI ethics“, https://www.theverge.com/2019/4/3/18293410/ai-artificialintelligence-ethics-boards-charters-problem-big-tech (21.4.2022). 134 Wagner, Ben: „Ethics as an Escape from Regulation. From EthicsWashing to Ethics-Shopping“, in: Bayamlioglu, Emre/Baraliuc, Irina/ Janssens, Liisa et al. (Hrsg.): Being Profiled. Cogitas Ergo Sum. 10 Years of Profiling the European Citizen, Amsterdam: Amsterdam University Press 2018. 135 Rössler, Andreas/Cozzolino, Davide/Verdoliva, Luisa et al.: „aceForensics++: Learning to Detect Manipulated Facial Images“,
138 Wladawsky-Berger, Irving: „The Impact of Artificial Intelligence on the World Economy“, https://www.wsj.com/articles/the-impact-ofartificial-intelligence-on-the-world-economy-1542398991 (14.6.2021). 139 Rammer, Christian: Auf Künstliche Intelligenz kommt es an. Beitrag von KI zur Innovationsleistung und Performance der deutschen Wirtschaft, Berlin: Bundesministerium für Wirtschaft und Energie 2020, S. 19. 140 Will Robots Take My Job: „Will Robots Take My Job?“ https://willrobotstakemyjob.com (24.2.2022). 141 Gründel, Marleen: „So macht Künstliche Intelligenz Unternehmen
http://www.niessnerlab.org/projects/
profitabler“, https://www.manager-magazin.de/unternehmen/
roessler2019faceforensicspp.html (21.4.2022).
kuenstliche-intelligenz-macht-unternehmen-laut-zew-studie-profitabler-
136 Cole, Samantha: „Deepfake of Boris Johnson Wants to Warn You About Deepfakes“, https://www.vice.com/en/article/8xwjkp/deepfake-
und-innovativer-a-f7bb26a6-0d4e-4954-aea7-9f0e342c2435 (24.2.2022). 142 Bughin, Jacques/Seong, Jeongmin/Manyika, James et al.: „Notes from the
of-boris-johnson-wants-to-warn-you-about-deepfakes (21.4.2022).
AI frontier: Modeling the impact of AI on the world economy“,
MIT Media Lab: „Detect DeepFakes: How to counteract misinformation
https://www.mckinsey.com/~/media/McKinsey/Featured%20Insights/
created by AI“, https://www.media.mit.edu/projects/detect-fakes/
Artificial%20Intelligence/Notes%20from%20the%20frontier%20Modeling
overview (21.4.2022).
%20the%20impact%20of%20AI%20on%20the%20world%20economy/
137 Martins, Tiago/Nuno Correia, João/Rebelo, Sérgio: „Portraits of No One“, https://cdv.dei.uc.pt/portraits-of-no-one (21.4.2022).
MGI-Notes-from-the-AI-frontier-Modeling-the-impact-of-AI-on-theworld-economy-September-2018.pdf (24.2.2022).
Kapitel 2: Grundfragen künstlich-intelligenter Systeme
54
Einige Autor:innen gehen im Lichte dieser Ent-
Produktivitätssteigerung und Automatisierung einen
wicklungen sogar so weit, ein neues Zeitalter der
großen Schritt vorangetrieben. 145 Man kann die Tech-
Freizeit auszurufen. Wenn Maschinen flächende-
nologie als potenzielle Befreierin feiern, muss aber
ckend und kostengünstig komplexe Aufgaben erledi-
genauso ihre realen Wirkungen auf die Arbeit sehen.
gen können, die Menschen vorher machen mussten,
Mit der Technologie werden tradierte Arbeitszusam-
dann wäre doch mehr Zeit, sich auf die schönen
menhänge umgewälzt und dynamisiert, wird Arbeit
Dinge im Leben zu konzentrieren. Das World Econo-
intensiviert, Fähigkeiten und Qualifikationen werden
mic Forum spekuliert darüber, dass mit den ökonomi-
entwertet. Das schließt Disziplinen wie das Design
schen Verheißungen der künstlichen Intelligenz auch
nicht aus.
die Annehmlichkeiten des Sozialstaates beibehalten 2.10 Konsequenzen für das Design
werden können und auch bei sinkenden Steuereinnahmen Bürger:innen westlicher Staaten mehr Freizeit bekämen. 143 Der amerikanische Theoretiker
Statistisches Lernen hat enormes Potenzial, Ge-
Michael Betancourt beispielsweise sieht sogar eine
staltungswerkzeuge und -prozesse, aber auch die
gänzliche Befreiung von der Arbeit durch den Einsatz
zu gestaltenden Produkte zu verändern. Wenn die
von künstlicher Intelligenz.
Vorhersage, als bestimmendes Moment intelligenter
144
Systeme, weiträumig in die Welt des Designs ein Diese Positionen betonen, dass eine solche Utopie
zieht, gar zu seinem bestimmenden Modus werden
die Änderung der Einstellung zur Arbeit voraussetzt.
sollte, hat das für das Design, seine Prinzipien und
Es muss sich davon verabschiedet werden, sich durch
Praktiker:innen weitreichende Konsequenzen. Wenn
seine Arbeit als Subjekt zu definieren und damit von
statistische Lernverfahren basierend auf historischen
einer Arbeitsethik, die Faulenzen bestraft und harte
Daten korrekte Vorhersagen über die Wahrschein-
Arbeit anerkennt. Interessanterweise überlassen es
lichkeit zukünftiger Ereignisse treffen, dann machen
die Autor:innen der Imagination der Leser:innen, ob
sie neue Zusammenhänge sichtbar. Das gilt nicht nur
das Gebot, den eigenen Lebensunterhalt durch ein
für Ereignisse, die sich aus statistischen Zusammen-
Einkommen zu bestreiten, suspendiert wird vor dem
hängen in enorm großen Datenmengen ermitteln
Sinneswandel. Am Ende bleibt eine technizistische
lassen. Das betrifft auch Daten, die Maschinen bisher
Utopie, in der es die Technologie erlaubt, sich gänz-
nicht verarbeiten konnten, weil sie zu ungenau wa-
lich frei zu geltenden ökonomischen Sachzwängen zu
ren, etwa bei der Klassifikation von digitalen Bildern.
stellen.
Bilder richtig zu klassifizieren heißt ja nichts anderes, als die Wahrscheinlichkeit ihrer Inhalte richtig vor-
De facto wird die Technologie durch ökonomisches
herzusagen.
Kalkül vorangetrieben und nicht für die Befreiung geplagter Arbeitnehmer:innen. Mit und durch statis-
Maschinen sind nun in der Lage, menschliche
tisches Lernen wird die marktwirtschaftliche Logik
Gesten, Mimiken, Worte, Handlungen, Gefühle und
der Gewinnmaximierung und des Wachstums durch
Geschmackspräferenzen in genügender Genauigkeit
143 Mahroum, Sami: „How an AI utopia would work“,
145 Neuburg, Klaus/Quadflieg, Sven/Nestler, Simon: „Will Artificial
https://www.weforum.org/agenda/2019/07/how-an-ai-utopia-
Intelligence Make Designers Obsolete?“, in: Engenhart, Marc/
would-work (24.2.2022).
Loewe, Sebastian (Hrsg.): Proceedings of the First Conference on
144 Betancourt, Michel: Force Magnifier. The Cultural Impacts of Artificial Intelligence, Cabin John: Wild Side Press 2020, S. 134.
Designing with Artificial Intelligence, München: appliedAI 2021, S. 80–85.
Kapitel 2: Grundfragen künstlich-intelligenter Systeme
55
zu bestimmen; sie sind in der Lage, abstrakte Regeln
sinnvollen Zusammenhang gebracht, die Logik dieses
von politischen, sozialen, ökonomischen und virtu-
Zusammenhangs gelernt und Ausgabedaten dann
ellen Systemen zu lernen und zu bestimmen; außer-
autonom generierbar werden. Hier eröffnet statisti-
dem können sie aus großen Datenmengen auf bisher
sches Lernen das weite Feld der Assistenzsysteme
unbekannte statistische Zusammenhänge und Regeln
für Gestalter:innen und wirft weitreichende Fragen
rückschließen.
auf, wie Kreativität verstärkt und Gestaltungsprozesse automatisiert werden, aber auch wie Gestalter:in
Damit eröffnet statistisches Lernen die Dimen-
und System als Lehrende und Lernende interagieren.
sion der Vorhersage für das Design, die im folgenden
Auch diese Fragen sollen im Folgenden beantwortet
Kapitel im Detail dargelegt werden soll. So viel sei
werden.
schon vorweggenommen: Wenn intelligente Systeme Rückschlüsse auf zukünftige Vorhaben, Bewegungen,
Auf der Ebene der Ethik lösen die intelligenten
Aktionen, Ereignisse, Handlungen, Geschmäcker
Systeme prinzipiell die Unterscheidung zwischen
und Emotionen ziehen können, dann ist Gestaltung
korrekter Funktion und Diskriminierung auf, denn
nicht mehr nur eine Frage des einzigartigen Entwurfs
Bias sind grundlegend in ihren Aufbau und ihre
durch Designer:innen. Prinzipiell jeder Entwurf
Wirkungsweise integriert. Damit werden Fragen der
kann sich dann individuell an die Nutzer:innen und
gestalterischen Verantwortung, der Inklusion und des
ihre Präferenzen anpassen. Auf der Ebene der User
Schutzes der Nutzer:innen virulent, die mit einem
Experience schaffen intelligente Systeme ein radi-
Standpunkt der individuellen Nützlichkeit nicht
kal individuelles Nutzer:innenerlebnis und lösen
immer korrelieren müssen.
die Grenze zwischen Nutzung und Gestaltung auf. Design entsteht dann automatisch im Moment der
Letztendlich zeitigt statistisches Lernen auch
Benutzung. Hier werfen die intelligenten Systeme
auf der Ebene eines kritischen, spekulativen De-
Fragen zur Natur, Qualität und den Prinzipien dieser
signs Konsequenzen und verlangt neue Formen des
neuen Erfahrungen auf, die im folgenden Kapitel be-
Engagements, der Einmischung und Aufklärung für
antwortet werden.
Gestalter:innen, Nutzer:innen und eine breitere Gesellschaft. Hier werden Fragen nach neuen kritischen
Auf der Ebene der Gestaltungspraxis lösen die in-
Formen des Experiments, der gesellschaftlich-tech-
telligenten Systeme den Unterschied zwischen Altem
nologischen Gegenentwürfe und der DIY-Kultur
und Neuem, zwischen bekannten Daten und Kreation
aufgeworfen. Diesen Fragen soll nun systematisch
auf, denn nur mit und aus dem Alten entsteht das
nachgegangen werden.
Neue. Dieses Prinzip wird sicher am deutlichsten bei der Bilderzeugung durch GANs, die neue Bilder auf Basis gelernter Bilder erschaffen. Aber auch andere Arten von Gestaltungswerkzeugen werden hier möglich, wenn Eingabe- und Ausgabedaten in einen
3. Gestaltung mit und für intelligente Systeme
Kapitel 3: Gestaltung mit und für intelligente Systeme
3.1 Einleitung
57
Zum anderen steht die Gestaltung von User Experiences im Mittelpunkt, die erst durch statistisches
Dass und wie die Vorhersage als bestimmendes Mo-
Lernen möglich werden. Das Kapitel beleuchtet mit
ment intelligenter Systeme Design modifiziert, muss
anderen Worten zweitens die Gestaltung für intelli-
nun ausgeführt und belegt werden. Die intelligenten
gente Systeme, für eine intelligente User Experience.
Systeme, das ist die zentrale Behauptung, werden
Hier stellen sich Fragen nach den Prinzipien und
nicht nur zu einer neuen Art Designwerkzeug oder
dem Erleben von intelligenten Anwendungen durch
Designmaterial unter vielen, sondern verändern das
Nutzer:innen sowie den daraus resultierenden De-
Design in vielen Aspekten grundlegend. Es stimmt
signprinzipien. Es wird die Frage aufgeworfen, wie
zwar, dass statistisches Lernen in vielen Designdis-
digitale Produkte, die statistisches Lernen verwen-
ziplinen und -bereichen die Entwurfsarbeit lediglich
den, so gestaltet werden müssen, dass Nutzer:innen
automatisiert und damit beschleunigt. Bekannte
die Ergebnisse der Prognosen in ihrem Kontext
Gestaltungspraktiken werden hier nicht grundlegend
und ihrer Funktionalität bestmöglich verstehen
revolutioniert, sondern nur optimiert. In anderen
und nutzen können. Mit anderen Worten, es soll
Bereichen jedoch wird Gestaltung durchaus grund-
erläutert werden, wie Gestaltende nutzer:innenzen-
legend durch die Technologie verändert. Das Kapitel
trierte, transparente und ethische Anwendungen für
möchte zeigen, auf welche Art und Weise das Anti-
intelligente Systeme schaffen können. Das Kapitel
zipatorische das Design modifiziert, wie es also die
schließt damit, die Wirkungen der beiden Abteilun-
Methoden, Formen und Inhalte von Gestaltung und
gen – Gestaltung für und Gestaltung mit intelligenten
somit ihre Wirkung und Wirksamkeit beeinflusst
Systemen – sowohl auf das theoretische Designver-
und sich dann in neue Designprozesse und -konzepte,
ständnis als auch auf die praktischen Fähigkeiten
neue Gestaltungsprinzipien sowie neue Rollenver-
der Gestalter:innen kritisch zu reflektieren. Letztlich
ständnisse und berufliche Fähigkeiten von Gestal-
fragt es auch nach ethischen und ökonomischen
ter:innen übersetzt. Fokus des Kapitels sind zwei
Konsequenzen für das Design.
wesentliche Bereiche des Designs. Zum einen steht die Gestaltungspraxis selbst im Mittelpunkt der Untersuchung. Herausgearbeitet werden soll die Wechselwirkung von intelligenten Systemen auf Gestaltungsarbeit und die Kreativität der Gestaltenden. Das Kapitel beleuchtet mit anderen Worten den großen Bereich der Gestaltung mit intelligenten Systemen, die als Werkzeuge, Koautoren und autonome Maschinen die Gestaltungspraktiken selbst automatisieren, erweitern und modifizieren. Es stellen sich hier Fragen, wie die intelligenten Systeme den Designprozess selbst unterstützen oder überformen können und welche Rolle Gestalter:innen dabei spielen.
Kapitel 3: Gestaltung mit und für intelligente Systeme
58
3.2 Gestaltung mit intelligenten Systemen:
mit welchen Informationen und welchen Mitteln
Ko-Kreation von Designer:in und Maschine
Designprozesse unterstützt werden, ändert sich auch der Aufgabenumfang und die Rolle der Gestaltenden
Bisher wurde das weite Feld der Gestaltung mit
sowie der Grad ihrer Mitbestimmung, ihrer Agency.
intelligenten Systemen weder in der Designtheorie
Anhand eines schematisch vereinfachten Designpro-
noch in angrenzenden Bereichen theoretisch ge-
zesses, der viele unterschiedliche Designdisziplinen
ordnet und damit systematisch erschlossen. Dieses
abdeckt, soll im Folgenden die systematische Ord-
Forschungsdesiderat soll nun im Folgenden behoben
nung der intelligenten Systeme als Designwerkzeuge
und eine Ordnung intelligenter Werkzeuge skizziert
erarbeitet werden. Diese Taxonomie soll sowohl die
werden. Der theoretische Ausgangspunkt wird daher
Dimensionen Automatisierung und Augmentation als
beim Gestaltungsprozess selbst gesetzt und von dort
auch die Rolle der Gestaltenden im Umgang mit dem
aus erschlossen, wie intelligente Systeme Desig-
intelligenten System verdeutlichen.
ner:innen bei der Problemfindung und -lösung im Gestaltungsprozess unterstützen. Zwei wesentliche
Der Designprozess besteht aus fünf übergeord-
Dimensionen kristallisieren sich in dieser theore-
neten Phasen, 146 der Research-Phase, der Ideen-
tischen Perspektive heraus. Das ist zum einen die
findungsphase, der Explorationsphase sowie der
autonome Problemlösungskompetenz intelligenter
Konzeptions- und Umsetzungsphase. Diesen Phasen
Systeme im Designprozess. Im Wesentlichen handelt
sind wiederum einschlägige Anwendungsbereiche
sich dabei um den Bereich der Automatisierung von
zugeordnet, die in der Abbildung 3.1 dargestellt sind.
unterschiedlich komplexen Teilaufgaben, von oft
Aus den Anwendungsbereichen ergeben sich die
wiederholten Arbeitsschritten bis hin zu elaborier-
Ordnungskategorien für die Taxonomie der intelligen-
ten Problemlösungsstrategien. Je nach Komplexität
ten Gestaltungssysteme.
und Umfang des Problems, je nach Arbeitsschritt und Aufgabenstellung können intelligente Systeme
Da bisher noch nicht systematisch erforscht wur-
Gestaltungsprobleme autonom lösen. Das kann die
de, wie intelligente Systeme in den Designprozess
Kolorierung von Handzeichnungen in der Design-
integriert sind, soll diese Taxonomie induktiv anhand
konzeptphase betreffen oder aber ein umfangreiches
einer Vielzahl von exemplarischen Anwendungsfäl-
Game-Level-Design in der Umsetzungsphase. Die
len erschlossen werden. Diese Anwendungsfälle sind
zweite Dimension der Gestaltung mit intelligenten
dabei ganz unterschiedlicher Natur. Viele Systeme
Systemen betrifft die Problemlösungskompetenz der
stammen aus Forschungsprojekten, die von Universi-
Gestaltenden, die durch intelligente Systeme ver-
täten und Unternehmen durchgeführt wurden. Man-
stärkt werden kann. Hier handelt es sich um den
che dieser Projekte und Institutionen sind renom-
Bereich der Augmentation von Intuition und Kreativi-
miert, die erforschten Systeme haben Namen und
tät der Gestalter:innen durch intelligente Werkzeuge.
können in einigen Fällen direkt verwendet werden.
Indem intelligente Systeme kognitive Fähigkeiten
Manche Systeme stammen aus experimentellen Pro-
der Designer:innen erweitern, machen sie komple-
jekten, haben oft keine Namen und sind bisher nicht
xere Designentscheidungen möglich und steigern so
skaliert oder frei zugänglich gemacht worden. Sie
kreative Leistungen. Je nachdem in welchem Umfang,
können also nicht ohne Weiteres verwendet werden.
146 Howard, Thomas/Culley, Stephen/Dekoninck, Elies: „Describing the creative design process by the integration of engineering design and cognitive psychology literature“, https://www.sciencedirect.com/ science/article/pii/S0142694X08000173 (21.4.2022).
Kapitel 3: Gestaltung mit und für intelligente Systeme
59
Phase im Designprozess Recherche
Ideenfindung
Exploration
Konzeption
Umsetzung
Designstrategie
Inspiration
Suche
Low-Fidelity Prototyping
Designoptimierung
Needfinding
Ideation
Generierung
Implementierung
Anwendungsfelder für intelligente Systeme
Abb. 3.1: Taxonomie der intelligenten Gestaltungssysteme
Für manche Systeme gibt es die verwendeten Modelle
vereinfachten Designprozess intelligente Systeme zu
und Trainingsdaten frei verfügbar; sie können daher
bestimmen, die Designer:innen phasen- und auf-
auch, wie in Kapitel 5 beschrieben, in interdisziplinä-
gabenweise unterstützen können. 148 Die Grundvor-
ren Teams zu funktionalen Anwendungen entwickelt
stellung der Ordnung ist, dass intelligente Systeme
werden. In anderen Fällen handelt es sich um Syste-
prinzipiell auf sehr eingegrenzte Anwendungsgebiete
me, die kommerziell verfügbar sind oder von großen
beschränkt sein können und trotzdem einen signifi-
Unternehmen frei zur Verfügung gestellt werden. In
kanten Effekt auf den Designprozess haben, wenn sie
wenigen Fällen gibt es für experimentelle Systeme
skaliert werden. 149 Der hier vorgestellten Systematik
bereits webbasierte Anwendungen, die zum direkten
liegt der Gedanke zugrunde, dass jeder begrenzte An-
Experimentieren einladen. Einige hilfreiche nutz-
wendungsfall eine positive Wirkung auf den Gestal-
bare Anwendungen werden, nach Komplexitäts- und
tungsprozess haben kann. Die Systematik versucht,
Qualifikationsgrad gestaffelt, im Kapitel 5 vorgestellt.
diese Wirkung zusammenzufassen, zu clustern und
Eine umfangreiche Liste von hilfreichen Anwendun-
dadurch zu verdeutlichen und zugänglich zu machen.
gen, die Designer:innen direkt nutzen können, findet
Die Taxonomie intelligenter Gestaltungssysteme soll
sich auf der Website zum Buch: designundki.de.
zudem Anwendungsbereiche und Konsequenzen für den Designprozess verdeutlichen und darüber spätere
Ziel der systematischen Erschließung war es
praktische Projekte erleichtern. Die Anwendungsfälle
nicht, ein einziges intelligentes Gesamtsystem für
für die Systematik sind den Bereichen der visuellen
Gestaltung zu imaginieren, das den Fähigkeiten der
Kommunikation, des Interaktions- und Interface-
Gestaltenden letztlich auf Augenhöhe begegnet, Ge-
Designs, des Game-Designs, des Digital-Film-Designs/
staltungsaufgaben universell übernimmt und an jeder
VFX, des Modedesigns, des Produktdesigns, des
Stelle mit ihnen rückgekoppelt ist, wie es Janin Koch
User-Experience-Designs und des Kommunikations-
vorschlägt. 147 Ziel war es vielmehr, im schematisch
designs entnommen. Darüber hinaus können einige
148 Schneider, Sven/Fischer, Jan-Ruben/König, Reinhard: „Rethinking Automated Layout Design: Developing a Creative Evolutionary Design Method for the Layout Problems in Architecture and Urban Design“, in: Gero, John (Hrsg): 147 Koch, Janin: „Design implications for Designing with a Collaborative AI“, https://research.aalto.fi/en/publications/design-implicationsfor-designing-with-a-collaborative-ai (21.4.2022).
Design Computing and Cognition 10, Berlin, Heidelberg: Springer Science+Business Media 2011, S. 367–386. 149 Verganti, Roberto/Vendraminelli, Luca/Iansiti, Marco: „Innovation and Design in the Age of Artificial Intelligence“, Journal of Product Innovation Management 37 (2020), S. 221.
Kapitel 3: Gestaltung mit und für intelligente Systeme
60
Anwendungsfälle auch dem weiten Methodenspek-
den Markt startet, dann wird der Designprozess aus
trum des Design Thinkings zugeordnet werden. In
designstrategischer Sicht essenziell verbessert. Die
einer multimodalen und oftmals disziplinübergrei-
Anwendungsgebiete hierfür reichen von Social-
fenden Arbeitsweise der Gestalter:innen sind natür-
Listening-Analysen und Social-Media-Sentiment-
lich auch Ton-, Stimm- und Spracherkennung, sind
Analysen über Trend- und Product-Hype-Analysen
Gestenerkennung sowie alle multimodalen Vermi-
bis hin zu Datenanalysetools, die unternehmens- und
schungen nicht weniger relevant. Durch die Eingren-
branchenspezifische Voraussagen zum Produkterfolg
zung auf zuvorderst visuelle Medien soll die hier vor-
treffen können. Zu Letzteren gehört beispielsweise
gestellte Systematik an Fokus und Klarheit gewinnen,
Cinelytic, 150 ein Tool, das den Erfolg von Spielfilmen
ohne die multimodalen Wechselbezüge dieser uni-
anhand bestimmter Parameter wie Filmlänge, Be-
versalen Technologie, das sogenannte Cross-Domain
setzung, Genre oder Verleih prognostiziert und so die
Modeling, zu unterschlagen. Wo es sich inhaltlich
voraussichtlichen Einspielergebnisse geplanter Filme
anbot und die Anwendungsfälle es hergaben, sind die
für bestimmte Regionen und Medien ermitteln kann.
multimodalen Wechselbezüge auch eingearbeitet und hervorgehoben. Nicht jeder Anwendungsfall passt
Eine Trendanalyse hingegen erlaubt beispielsweise
exklusiv in nur eine Systemkategorie. Wo das der Fall
das Visualisierungstool Runway Palette 151, das mittels
war, wird explizit auf die Wechselbezüge hingewie-
Clustering-Verfahren dominante Farbschemen von
sen. Es obliegt den Leser:innen, diese Bezüge darüber
Modekollektionen darstellt. Mithilfe dieser Darstel-
hinaus auch für ihre Disziplin und ihre Expertisefel-
lung ist es möglich, auf einen Blick besonders häufig
der herzustellen.
oder selten genutzte Farbkombinationen innerhalb der Modekollektionen zu erkennen und basierend da-
3.2.1 Systeme für Strategie und Needfinding
rauf die strategische Farbwahl künftiger Kollektionen zu entscheiden.
In der Research-Phase sind für den Einsatz intelligenter Systeme vor allem zwei Bereiche interes-
Social-Listening- oder Social-Media-Sentiment-
sant. Im ersten großen Anwendungsbereich liefern
Analysen dienen dazu, Nutzer:innenfeedback aus
intelligente Systeme Informationen, die die Markt-
sozialen Medien zu gewinnen, um positive wie
anpassung verbessern, indem sie den Erfolg eines
negative emotionale Reaktionen auf Produkteigen-
Produkts analysieren und voraussagen. Damit sind
schaften oder langfristige Nutzer:innentrends zu
sie von strategischer Bedeutung, möchte man neue
erkennen. 152 Mittels Natural Language Processing
Produkte entwickeln oder bestehende Produkte
sowie durch Clustering- und Sentimentanalysen, die
neu ausrichten. Denn wenn die Gestaltung und das
die Stimmung der Nutzer:innen erkennen, können
Erlebnis des zukünftigen Produkts zu einem gewis-
Informationen gewonnen werden, die die Funk-
sen Grad an bestehende Nutzer:innenbedürfnisse,
tionsweise, Experience und Gestaltung von neuen
kulturelle Gewohnheiten, Trends und Geschmacks-
Produkten entscheidend beeinflussen. So kann bei-
vorstellungen angepasst werden können, bevor es in
spielsweise erkundet werden, ob bestimmte Features 150 Cinelytic: „Leading the AI Revolution in the Entertainment Industry“, https://www.cinelytic.com/about (24.2.2022). 151 Diagne, Cyril: „Runway Palette“, https://experiments.withgoogle.com/ business-of-fashion (24.1.2022). 152 IBM: „What is social media analytics?“, https://www.ibm.com/topics/ social-media-analytics (24.2.2022).
Kapitel 3: Gestaltung mit und für intelligente Systeme
61
von bestimmten Nutzer:innengruppen negativ auf-
der Erstellung datengetriebener Personas entlang
genommen werden. Auf Basis dieser Informationen
der Customer Journey. Personas sind Nutzer:in-
und durch weitere qualitative Nutzer:innenforschung
nen-Archetypen, die bisher in oft langwierigen
kann herausgefunden werden, welche Umstände
User-Research- und Syntheseprozessen quantitativ
die negativen Reaktionen hervorrufen und wie ein
und qualitativ erhoben, synthetisiert und erstellt
Design aussehen müsste, das inklusiver ist.
wurden. 155 Bei der datengetriebenen Persona-Erstellung werden die Nutzer:innentypen nicht mehr
Auch Branding-Strategien können mit solchen
vorrangig durch Interviews ermittelt, sondern durch
Analysetools unterstützt werden, denn sie erlauben
Clustering-Algorithmen aus großen Datenmengen
Aussagen über Markenloyalität, Markenkenntnis
erhoben und synthetisiert. Dabei können einerseits
und -assoziationen sowie Aussagen über marken-
öffentlich zugängliche Daten aus sozialen Medien,
relevante Urteile der Nutzer:innen über die Qualität
als auch unternehmensinterne Nutzer:innendaten
der Produkte. Zudem werden Social-Listening- oder
verwendet werden, 156 um über Behavioral-Segmenta-
Social-Media-Sentiment-Analysen genutzt, um neue
tion-Verfahren Kund:innensegmente zu ermitteln. 157
Designs, Produktfeatures und -trends von Mitbewer-
Ziel der Behavioral Segmentation ist es, Präferenzen,
bern zu erkennen und auszuwerten.
Einstellungen und Typen der Nutzer:innen aus ihrem
153
Verhalten herauszulesen. Nutzer:innen können aber Natürlich können auch Daten, die durch bereits
auch anhand demografischer Daten segmentiert
bestehende Produkte des Unternehmens generiert
werden mittels Demographic-Segmentation-Verfah-
werden, unternehmensintern genutzt und mittels
ren. Durch die Kombination beider Verfahren können
statistischer Lernverfahren ausgewertet werden.
automatisch aussagekräftige Personas erstellt werden.
Datenintensive Produkte wie beispielsweise Automobile liefern den Autokonzernen große Datenmengen,
Allerdings sind automatisch generierte Personas
die oft Hinweise über den Erfolg neuer Produktfea-
nicht automatisch fehlerfrei. Designer:innen müssen
tures liefern oder ganz neue Nutzungsweisen wie das
daher sowohl die Segmentierung der datengetrieben
autonome Fahren ermöglichen.
erstellten Personas durch Vor-Ort-Checks, qualitative
154
Stichproben und Anti-Persona-Vergleiche überprüfen Der zweite große Anwendungsbereich für intel-
als auch Feedback von professionellen Anwender:
ligente Systeme in der Research-Phase umfasst den
innen der Persona-Profile einholen. 158 Zudem sind
User Research selbst. Hier assistieren Systeme bei
automatisch generierte Personas derzeit noch nicht
155 Lewrick, Michael/Leifer, Larry/Link, Patrick: Das Design Thinking Playbook, München: Vahlen 2017, S. 19. Lewrick, Michael/Leifer, Larry/Link, Patrick: Design Thinking Toolbox, 153 D’Arco, Mario/Lo Presti, Letizia/Marino, Vittoriav et al.: „Embracing AI and Big Data in customer journey mapping: from literature review to a theoretical framework“, Innovative Marketing 15 (2019), S. 109. 154 Bauer, Harald/Richter, Gérard/Wüllenweber, Jan et al.: „Smartening
Hoboken: Wiley 2020, S. 97. Adlin, Tamara/Pruitt, John: The Essential Persona Lifecycle. Your Guide to Building and Using Personas, Burlington: Elsevier 2010, S. 15 f. 156 An, Jisun/Kwak, Haewoon/Jung, Soon-gyo et al.: „Customer segmentation
up with Artificial Intelligence. What’s in it for Germany and its
using online platforms: isolating behavioral and demographic segments for
Industrial Sector?“, https://www.mckinsey.com/~/media/mckinsey/
persona creation via aggregated user data“, Social Network Analysis and
industries/semiconductors/our%20insights/smartening%20up% 20with%20artificial%20intelligence/smartening-up-with-artificialintelligence.ashx (24.2.2022).
Mining 8 (2018), S. 4. 157 Jansen, Bernard/Salminen, Joni/Jung, Soon-gyo et al.: Data-driven Personas, San Rafael: Morgan and Claypool 2021, S. 14. 158 Salminen, Joni/Guan, Kathleen/Jung, Soon-Gyo et al.: „A Survey of 15 Years of Data-Driven Persona Development“, International Journal of Human– Computer Interaction 37 (2021), S. 1700.
Kapitel 3: Gestaltung mit und für intelligente Systeme
62
3.2.2 Systeme für Ideation und Inspiration
in der Lage, tiefgreifende Informationen wie etwa Wünsche und Bedürfnisse der Nutzer:innen zu ermitteln.159 Es ist deshalb wichtig, besonders relevante
Nachdem in der Designstrategie- und Needfinding-
Informationen wie Wünsche und Bedürfnisse der
Phase der generelle Fokus des Produkts auf ein
Personas durch qualitative Interviews zu ermitteln
bestehendes Nutzer:innenbedürfnis und damit auf
und im Persona-Profil zu ergänzen, da sonst die
einen potenziellen Markt erforscht wurde, werden
Gefahr besteht, dass die datengenerierten Personas
nun Ideen gesucht, wie dieses Bedürfnis in einem
unvollständig und damit nicht aussagekräftig genug
gestalteten Produkt oder Service umgesetzt werden
sind. Die Gestalter:innen und der User Research
kann. In der Ideenfindungsphase suchen Gestalter:in-
koordinieren dann auf Basis der datengetriebenen
nen oft gemeinsam in einem Produktteam nach mög-
Personas die Auswahl der zu interviewenden Vertre-
lichen neuen Ideen für nützliche Produkte. In dieser
ter:innen der jeweiligen Persona-Gruppe.
Phase können intelligente Systeme auf mehreren Ebenen hilfreiche Dienste leisten.
Der wesentliche Vorteil von datengetriebenen Personas besteht darin, dass sie schneller zu erstellen
Auf der Ebene der konzeptionellen Ideenfindung
sind als qualitativ erhobene Personas und dass sie
stehen Designer:innen oft vor dem Problem, einen
sich auch an veränderliche Nutzer:innenpräferenzen
Lösungsraum sinnvoll zu erkunden. Hier kann ein
schnell anpassen lassen.
Tool wie GPT-3 das Brainstorming sinnvoll unter-
160
Eine Kombination aus
datengetriebener Persona-Erstellung ergänzt um qua-
stützen, 161 da es Ideen nicht nur zufällig generiert,
litative Interviews scheint derzeit das zielführendste
sondern basierend auf ähnlichen Lösungswegen
Vorgehen.
konzeptionell zielführende Vorschläge liefert. GPT-3 ist mit über 17 Milliarden Verknüpfungen eines der
Generell kann man für die Needfinding- und
größten Transformer-Netzwerke weltweit und in
Strategiephase resümieren, dass intelligente Systeme
der Lage, anhand von wenigen Beispielen, die die
dabei unterstützen, Produkte und Services stärker auf
Designer:innen vorgeben, ähnliche Ideen zu generie-
Nutzer:innenbedürfnisse abzustimmen und Trends
ren. Das intelligente System nutzt also konzeptionell
vorherzusagen. Sie sorgen auch dafür, den Zeitauf-
eingegrenzte Lösungswege, ohne dabei zu stark die
wand zu reduzieren, der anfällt, um aussagekräftige
Trainingsbeispiele zu imitieren. Mittels einstellbarer
Nutzer:innenprofile zu erstellen, weshalb Personas
Parameter kann das System auch abwegige Vorschlä-
jederzeit aktuell bleiben.
ge erzeugen und so neue Ideen bei den Gestalter:innen hervorrufen. Derzeit wird auch versucht, die Qualität der Ideen und ihren zukünftigen Erfolg durch statistisches Lernen vorherzusagen. 162 Diese ersten Experimente
159 Salminen, Joni/Jung, Soon-gyo/Jansen, Bernard: „The Future
161 Syverson, Ben: „The Rules of Brainstorming Change When Artificial
of Data-driven Personas. A Marriage of Online Analytics Numbers
Intelligence Gets Involved. Here’s How“, https://www.ideo.com/blog/
and Human Attributes“, in: Filipe, Joaquim/Smialek, Michal/
the-rules-of-brainstorming-change-when-ai-gets-involved-heres-how
Brodsky, Alexander et al. (Hrsg.): Proceedings of the 21st International Conference on Enterprise Information Systems, Setúbal: Scitepress 2019, S. 611. 160 Jansen/Salminen/Jung et al.: Data-driven Personas, S.10.
(27.1.2022). 162 Georgiev, Georgi/Georgiev, Danko: „Enhancing user creativity: Semantic measures for idea generation“, Knowledge-Based Systems 151 (2018), S. 11.
Kapitel 3: Gestaltung mit und für intelligente Systeme
63
erstrecken sich momentan auf Ideen mit einem aka-
Ein Tool wie der Collaborative Ideation Partner 167
demischen Background, werden aber sicher mittel-
liefert so die Möglichkeit, gemeinsam mit dem intel-
fristig auch für den Designprozess erstellt werden
ligenten System Ideen auf der visuellen Ebene direkt
können. Für Ideen, die nicht von Designer:innen,
zu erkunden und ko-kreativ zu transformieren.
sondern durch eine mehr oder weniger große Gruppe von Menschen, also mittels Crowdsourcing, erstellt
Visuelle Ideenfindung findet im Design oft auch
werden sollen, können intelligente Systeme helfen,
über eine Sammlung visueller Materialien und
indem sie Ideen quantifizierbar und so zugänglich
Konzepte statt, die sogenannte Mindmap, die einer-
machen. In einem System, das an der Technischen
seits konkrete Ideen für den Gestaltungsraum des
Universität Singapur erstellt wurde,
Produkts sammelt, andererseits aber auch eine
163
werden die
massenhaft generierten Designideen der Crowd
Materialsammlung zur Inspiration darstellt, über die
darauf geprüft, inwiefern sie neu, einzigartig und
Gestalter:innen oft hinausgehen, indem sie Ideen
umsetzbar, aber auch wie detailliert sie ausgeführt
kombinieren. Eine solche visuelle Mindmap zu er-
sind. Damit wird es möglich, große Mengen von
stellen ist oft zeitaufwendig. Ein semi-automatisches
Ideen über das Designteam hinaus zu evaluieren und
System 168 kann Designer:innen dabei unterstützen,
Crowdsourcing permanent in den Designprozess ein-
visuelle Konzepte in den Mindmaps sinnvoll zu
zubinden.
gruppieren. Das System ordnet basierend auf einem Clustering-Algorithmus das gesammelte Material, so-
Ein weiteres intelligentes System unterstützt De-
dass semantisch und visuell ähnliches Material näher
signer:innen bei der visuellen Ideenfindung. Basie-
beieinander liegt. Als unüberwachtes Lernverfahren
rend auf handgezeichneten Skizzen findet das System
muss beim Clustering das zu sortierende Material
weitere Skizzen mit semantischen und visuellen
noch nicht einmal gelabelt werden. Außerdem ver-
Ähnlichkeiten.
bindet das System ähnliche Inhalte durch Linien.
164
Das System kann sehr ähnliche
oder wenig ähnliche Skizzen liefern und damit die
Designer:innen können so das Material schneller und
kombinatorische und transformationale Kreativität
besser einsehen, zu neuen Ideen kombinieren und zu
von Designer:innen anregen.
unterschiedlichen Stylescapes ausbauen. So kön-
165
Das Verfahren funk-
tioniert ähnlich wie die Ideationsmethoden Scamper
nen Designkonzepte schneller vorbereitet und mit
und Escape,
Kund:innen abgestimmt werden.
166
die es ermöglichen, durch konzeptio-
nelle Umkehrung, Aufhebung und Verschiebung von Bestandteilen der Idee selbige zu transformieren.
163 Camburn, Bradley/He, Yuejun/Raviselvam, Sujithra et al.: „Evaluating Crowdsourced Design Concepts With Machine Learning“, https://doi.org/10.1115/DETC2019-97285 (27.1.2022). 164 Karimi, Pegah/Davis, Nicholas/Maher, Mary Lou et al.: „Relating
167 Kima, Jingoog/Mahera, Mary Lou/Siddiquia, Safat: „Studying the Impact of AI-based Inspiration on Human Ideation in a Co-Creative Design System“, http://ceur-ws.org/Vol-2903/IUI21WS-HAIGEN-7.pdf (27.1.2022). 168 Camburn, Bradley/Arlitt, Ryan/Anderson, David et al.: „Computer-aided
Cognitive Models of Design Creativity to the Similarity of Sketches
mind map generation via crowdsourcing and machine learning“, Research
Generated by an AI Partner“, in: Dow, Steven/Maher, Mary Lou (Hrsg.):
in Engineering Design 31 (2020), S. 383.
Proceedings of the 2019 ACM Conference on Creativity and Cognition, Association for Computing Machinery, New York: Association for Computing Machinery 2019, S. 260. 165 Karimi/Davis/Maher et al.: Relating Cognitive Models, S. 264. 166 Rustler, Florian: Denkwerkzeuge. Thinking Tools for Creativity and Innovation, St. Gallen: Midas 2018, S. 178 ff.
Kapitel 3: Gestaltung mit und für intelligente Systeme
64
Bevor Ideen in der Konzeptionsphase erprobt und
Experimente erlaubt auch GPT-3, denn es übersetzt
umgesetzt werden können, gibt es oft noch eine Pha-
Texteingaben in fertigen Programmcode für künst-
se der freien Inspiration. In dieser Phase suchen Ge-
lerische Experimente, beispielsweise für die Pro-
stalter:innen nach Eingebungen, um ihr Vorstellungs-
grammiersprache Processing. 174 Das Netzwerk erstellt
vermögen darüber zu erweitern, auf welche Art und
basierend auf sprachlichen Umschreibungen funk-
Weise das Designproblem oder -briefing umgesetzt
tionierenden Code. Die experimentellen Ergebnisse
werden könnte. In dieser Inspirationsphase helfen
dieser Ko-Kreation waren sowohl inspirierend als
intelligente Systeme nicht nur bei der Materialsamm-
auch überraschend, weil auch abstrakte Texteingaben
lung, sondern ermöglichen auch eine experimentelle
wie etwa „Erstelle etwas Großartiges“ funktionieren-
Auseinandersetzung mit dem Designmaterial, denn
den Code lieferten, der Ideen anregte.
oft entstehen Ideen erst, wenn Gestalter:innen gestalterische Möglichkeiten praktisch erkunden, verwer-
Insgesamt kann man für die Ideenfindungs- und
fen und neu kombinieren können.
Inspirationsphase festhalten, dass intelligente Systeme die Ideenfindung beschleunigen, indem sie Ideen
Hier sind Tools wie Wekinator, Teachable Machine
171
169
oder ML5.js
172
Playform,
entweder selbst generieren oder den Grad an Kreati-
170
vität und Inspiration, der zur Ideenfindung nötig ist,
nützlich, die
es ermöglichen, Designideen iterativ zu erkunden.
erhöhen, indem sie entscheidende Vorarbeiten leisten,
Designer:innen können mit diesen Tools auf bereits
neue Einfälle provozieren oder Designexperimente
trainierte Modelle zurückgreifen und damit unkom-
ermöglichen. Insgesamt erlauben diese Tools, immer
pliziert Inputs, wie Bilder, Töne oder Gesten, mit
größere Mengen an Ideen in immer kürzerer Zeit zu
bestimmten gestalterischen Outputs, wie Farben,
erstellen, sinnvoll zu ordnen und auszuwerten.
Formen oder Typografie, verknüpfen. Auf diese Weise 3.2.3 Systeme für Suche und Generierung
kommen sie oft zu unvorhergesehenen und überraschenden Ergebnissen. Die Daten, die für diese Experimente benötigt werden, stellen Designer:innen
In der dritten Gestaltungsphase, der Explorations-
in geringen Mengen selbst zur Verfügung. Die Daten
phase, erkunden Gestalter:innen, basierend auf ei-
gleichen eher einem Material für experimentelle und
nem eingegrenzten Problemraum, systematisch den
spielerische Gestaltungsideen und müssen nicht
Möglichkeitsraum für Gestaltungslösungen. Hier
streng kontrolliert werden, damit der Algorithmus
öffnen sich zwei große Anwendungsfelder für in-
korrekt funktioniert, wie Rebecca Fiebrink unter-
telligente Systeme. Zum einen können vorhandene
streicht.
Gestaltungselemente und -lösungen gesucht werden.
173
Zum anderen können intelligente Systeme Gestaltung 169 Wekinator: „Welcome“, http://www.wekinator.org (27.1.2022).
generieren und werden so zu generativen Systemen.
170 Playform: „No Code AI for Creative People“,
Diese vorgeschlagenen Lösungen können Gestal-
https://create.playform.io (27.1.2022). 171 Teachable Machine: „Teachable Machine“, https://teachablemachine.withgoogle.com (27.1.2022). Das Tool wird auch noch einmal in Kapitel 5 vorgestellt.
ter:innen dann erkunden und iterativ weiterentwickeln. Zum Teil sind generative Systeme schon so
172 ML5: „Friendly Machine Learning for the Web“, https://ml5js.org (27.1.2022). Das Tool wird auch noch einmal in Kapitel 5 vorgestellt. 173 Fiebrink, Rebecca: „How Design Changes Machine Learning.
174 Loewe, Sebastian: „We Generated P5-Code Based on Text Inputs with OpenAI’s GPT-3 and This Could Show the Future of Designer-Machine
How Machine Learning Changes Design“, in: Engenhart, Marc/
Co-Creation“, https://sebastian-loewe.medium.com/we-generated-p5-
Loewe, Sebastian (Hrsg.): Proceedings of the First Conference
code-based-on-text-inputs-with-openais-gpt-3-and-this-could-show-
on Designing with Artificial Intelligence, München:
the-future-of-db2ae41efc8d (27.3.2022).
appliedAI 2021, S. 29.
Kapitel 3: Gestaltung mit und für intelligente Systeme
65
elaboriert, dass ihre Ergebnisse je nach Problemstel-
in Bildern unterschiedlichster Epochen auffindbar.
lung keine weitere Bearbeitungsphase mehr benöti-
Damit lassen sich nicht nur designhistorische Zusam-
gen und direkt in das fertige Produkt fließen können.
menhänge entdecken, die inspirierend auf Gestal-
Hier überschneiden sich die Anwendungsgebiete der
ter:innen wirken können, sondern auch Bildelemente
Systeme und generative Systeme können in mehreren
für Gestaltung noch schneller und gezielter finden.
Phasen zum Einsatz kommen. Die Suche von passenden Schriftschnitten wird Die intelligenten Suchsysteme erstrecken sich
durch ein Tool 179 wie den Fontjoy Projector er-
dabei jeweils auf Bild oder Sprache, können aber auch
leichtert, der Schriften in einem dreidimensionalen
beides kombinieren. So sucht Clip
Cluster darstellt. Ähnliche Schriftschnitte werden
175
von OpenAI
basierend auf Texteingaben nach Bildern, die nicht
nah beieinander gruppiert, Schnitte, die keine große
verschlagwortet worden sein müssen. Das neuronale
Ähnlichkeit besitzen, sind weiter voneinander ent-
Netz hat den Zusammenhang von Bildinhalten und
fernt. Durch die dreidimensionale, interaktive Dar-
Bildbeschreibung gelernt und ermöglicht es Gestal-
stellung können Gestalter:innen die Beziehungen der
ter:innen, in großen Mengen unklassifizierter Bilder
Schriftschnitte intuitiv entdecken und ihre formalen
nach Bildinhalten zu suchen. Adobes Bildersuche
Beziehungen auf einen Blick erfassen. Das hilft dabei,
176
ermöglicht es Gestalter:innen sogar, Begriffe räum-
Auswahlprozesse und Vorarbeiten des Designs zu
lich auf einer Canvas zu arrangieren und Bilder zu
beschleunigen, wenn Gestalter:innen beispielsweise
finden, deren Bildinhalte im Bild räumlich genauso
Schriften zu Paaren zusammenstellen wollen.
angeordnet sind wie die Begriffe auf der Canvas. Wenn der Begriff „Hund“ links neben dem Begriff
Ähnlich funktioniert eine Suche, die auf einem
„Mensch“ steht, findet die Suche Bilder, in denen
intelligenten System basiert, das die Charakteris-
ein Hund auch links neben einem Menschen steht.
tika und Begriffe von dreidimensionalen digitalen
Damit wird die Bildrecherche enorm erleichtert und
Objekten gelernt hat. 180 So ist es möglich, in großen
beschleunigt, denn Designer:innen finden nun auch
3D-Modell-Archiven nach spezifischen Details und
komplexere, aufeinander räumlich bezogene Bildin-
Bestandteilen der 3D-Modelle zu suchen. Desig-
halte.
ner:innen können so nach spezifischen Bestandteilen wie beispielsweise Scheibenwischern oder Armatu-
Statistisches Lernen findet zudem formal ähnliche
renbrettern bei Automodellen suchen und ersparen
Elemente in Malerei, 177 Grafiken oder Skulpturen 178
sich aufwendige Recherchen durch Modelle, die diese
über verschiedene Jahrhunderte hinweg. Formal
Bestandteile nicht haben.
gleiche Elemente wie etwa eine Geste werden damit
175 Open AI: „CLIP: Connecting Text and Images“, https://openai.com/blog/clip (27.1.2022). 176 Adobe Creative Cloud: „#ConceptCanvas. Adobe MAX 2016“, https://www.youtube.com/watch?v=Yyj6oWkAI0I (27.1.2022). 177 Hamilton, Mark/Fu, Stephanie/Lu Mindren et al.: „MosAIc: Finding Artistic Connections across Culture with Conditional Image Retrieval“, https://microsoft.github.io/art/app (27.1.2022). 178 Shen, Xi/Efros, Alexei/Aubry, Mathieu: „Discovering Visual Patterns in Art Collections with Spatially-consistent Feature Learning“, http://imagine.enpc.fr/~shenx/ArtMiner (27.1.2022).
179 Fontjoy: „Projector“, https://fontjoy.com/projector (27.1.2022). 180 Yi, Li/Guibas, Leonidas/Hertzmann, Aaron et al.: „Learning Hierarchical Shape Segmentation and Labeling from Online Repositories“, https://cs.stanford.edu/~ericyi/project_page/hier_seg/index.html (27.1.2022).
Kapitel 3: Gestaltung mit und für intelligente Systeme
66
Prinzipiell werden mit intelligenten Systemen alle
Landschaften oder Autos. GANs und VAEs sind
Arten von visuellen Gestaltungskomponenten für
grundsätzlich in der Lage, nicht nur die Bilder zu
Suchaktionen zugänglich, sogar ganze Website-
reproduzieren, mit denen sie trainiert wurden, son-
Wireframes.
dern können den visuellen Möglichkeitsraum – den
181
Designer:innen können damit große
Mengen möglicher Website-Architekturen durch-
sogenannten Latent Space – darstellen, der zwischen
suchen, sich inspirieren lassen und die gefundenen
und neben den bekannten Bildinhalten hypothetisch
Wireframes ihren Gestaltungsvorgaben entsprechend
existiert. So ist es möglich, ganz neue und unvorher-
anpassen.
gesehene Bildinhalte zu generieren und Designer:innen zur Exploration zugänglich zu machen.
Der Effekt aller intelligenten Suchen ist schließlich, dass die Designexplorationsphase beschleunigt
Die momentan fortschrittlichsten Versionen ge-
wird, dass der Möglichkeitsraum systematischer und
nerativer Verfahren sind solche, die es erlauben, den
umfassender erkundet werden kann und dass der An-
visuellen Möglichkeitsraum in zwei Dimensionen zu
schluss an die Prototyping-Phase besser gelingt, weil
kontrollieren. Das ist zum einen die Domain der Bild-
häufig schon die richtigen Assets gefunden wurden.
inhalte, also die Bildkategorien, und zum anderen der Stil der Bildinhalte. 182 Im Falle von Gesichtern wird
In der zweiten großen Abteilung der Explorations-
es möglich, beispielsweise Frauengesichter in eine
phase kommen Verfahren der Bilderstellung zum
andere Domain zu transferieren, also etwa männ-
Einsatz. Hier sind zwei intelligente Systeme zu nen-
lich zu machen, oder das Gesicht eines Prominenten
nen, die häufig genutzt werden. Das sind zum einen
mit dem eines anderen zu mischen. 183 Es wird aber
die Generative Adversarial Networks, GANs, die
auch möglich, ein lachendes Gesicht in ein trauriges
auch in Kapitel 2 erklärt wurden, und zum anderen
zu überführen, Katzen mit Hunden zu kreuzen oder
die Variational Autoencoder, VAEs, die ähnlich wie
Tages- in Nachtansichten zu verwandeln. Mittlerwei-
die GANs generative Verfahren sind und ähnliche
le können bildgebende Verfahren auch schon mit nur
Ergebnisse erzeugen. Beide Systeme sind mittler-
einem Bild als Trainingsbeispiel eine menschliche
weile in der Lage, selbstständig hochwertige, pixel-,
Pose erkennen und dieselbe Person in einer anderen
voxel- und meshbasierte Formen für im Prinzip jeden
Pose fotorealistisch darstellen. 184 Weiterhin ist es
Bildinhalt zu generieren. Da aber oft eine sehr große
möglich, den Stil der Bilder zu verändern und für
Datenmenge nötig ist, um das System zu trainieren,
ein weibliches Gesicht die Haarfarbe und -länge zu
sind die meisten GANs und VAEs nur auf einen be-
ändern, ohne dass dafür ein Vorbild tatsächlich hätte
stimmten Bildinhalt spezialisiert. In der Regel sind
existieren müssen. Es ist ebenfalls möglich, Stile
das Bildinhalte, für die schon große Bildbibliotheken
zwischen zwei Bildern zu übertragen. Mit dem Style
zu Trainingszwecken angelegt und öffentlich zu-
Transfer 185 wird der Stil eines Ausgangsbilds auf das
gänglich gemacht wurden, etwa für Gesichter, Tiere,
Zielbild übertragen. So werden einfache Landschafts182 Choi, Yunjey/Uh, Youngjung/Yoo, Jaejun et al.: „StarGAN v2: Diverse Image Synthesis for Multiple Domains“, https://github.com/clovaai/stargan-v2 (28.1.2022). 183 Karras, Tero/Aittala, Miika/Laine, Samuli et al.: „Alias-Free Generative Adversarial Networks (StyleGAN3)“, https://nvlabs.github.io/stylegan3 (28.1.2022). 184 AlBahar, Badour/Lu, Jingwan/Yang, Jimei et al.: „Pose with Style: Detail-
181 Chen, Jieshan/Chen, Chunyang/Xing, Zhenchang et al.: „Wireframe-Based UI Design Search Through Image Autoencoder“, https://arxiv.org/abs/2103.07085 (28.1.2022).
Preserving Pose-Guided Image Synthesis with Conditional StyleGAN“, https://arxiv.org/abs/2109.06166 (4.2.2022). 185 Pang, Yingxue/Lin, Jianxin/Qin, Tao et al.: „Image-to-Image Translation: Methods and Applications“, https://arxiv.org/abs/2101.08629 (28.1.2022).
Kapitel 3: Gestaltung mit und für intelligente Systeme
67
fotos zu Gemälden von van Gogh oder Porträtfotos
Alle diese oben beschriebenen Elemente und
zu Comiczeichnungen.
Funktionen finden sich im derzeit aktuellsten GANModell, EditGAN 189 von Nvidia, wieder. Mit diesem
Die beiden Dimensionen Stil und Domain lassen
System ist es außerdem möglich, mit extrem wenigen
sich aber nicht nur visuell steuern; es gibt Systeme,
Bildern die volle individuelle Kontrolle über alle Be-
die auch textbasierte Manipulation unterstützen. 186
reiche des Bildes zu bekommen. In den kommenden
Designer:innen können dann mittels detaillierter
Jahren sind sicher noch viele schnelle Fortschritte in
sprachlicher Beschreibungen zunächst das Ausgangs-
der Entwicklung von GANs zu erwarten und Syste-
bild definieren und dann das Zielbild bestimmen.
me wie EditGAN sicher bald Standard im Designpro-
So kann das Ausgangsbild einer jungen Frau mit der
zess.
Beschreibung „junge Frau“ versehen werden und das Zielbild mit „alter Mann“. Aus dem Bild der jungen
Natürlich beschränken sich die generativen Ver-
Frau wird dann ein älterer Herr. Das Überraschende
fahren der Bilderzeugung nicht nur auf natürliche
daran ist, dass der ältere Herr Ähnlichkeiten aufweist
Gegenstände, wie Personen, Tiere oder Landschaften.
mit der jungen Frau. Man kann das Ausgangsbild
Auch Designartefakte können mit diesen Systemen
der jungen Frau aber auch als „alte Frau“ bezeichnen
generiert werden. So ist es möglich, Logos 190 unter
und das GAN eine „junge Frau“ erstellen lassen. Ent-
Berücksichtigung bestimmter Eigenschaften und
sprechend verjüngt sieht das errechnete Gesicht aus.
Kategorien zu generieren. Allerdings kommen die
Deutlich wird, dass Domain- und Stilmanipulationen
Ergebnisse dieser Systeme bei Weitem noch nicht an
anhand sprachlich-semantischer Konzepte noch freier
die Klarheit, Schönheit, Symbolik oder den formalen
möglich sind und der Möglichkeitsraum für visuelle
Witz gut gestalteter Logos heran. Die symbolische
Exploration noch größer wird.
und semiotische Ebene bleibt den intelligenten Systemen zumindest für gutes Logodesign noch eine Weile
Mittels sogenannter semantischer Segmentie-
verschlossen. Hierfür bedarf es also weiterhin Gestal-
rung 187 der Bilder, die die neueren GANs auch beherr-
ter:innen, die die vielen Vorschläge des Systems in
schen, ist es zudem möglich, spezifische Bildbereiche
ein sinn- und bedeutungsvolles Markenzeichen trans-
zu manipulieren, ohne den Rest des Bildes zu ver-
ferieren. Stattdessen gestalten intelligente Systeme
ändern. So können Designer:innen nur die Farbe und
die Logos dann automatisch farblich. 191 Designer:in-
das Muster von Kleidungsstücken oder nur die Form
nen können so den Farbraum für fertiggestellte Logos
und Farbe von Schuhen oder nur den Haarschnitt
übersichtlich und schnell erkunden, ohne mühselig
und die Haarfarbe in Personendarstellungen ver-
einzelne Farbvariationen erstellen zu müssen.
ändern. Einige dieser Verfahren sind als sogenannte Neural Filters 188 in Adobe Photoshop verbaut und bereits nutzbar.
186 Patashnik, Or/Wu, Zongze/Shechtman, Eli et al.: „StyleCLIP: Text-Driven Manipulation of StyleGAN Imagery“, https://replicate.com/orpatashnik/styleclip (28.1.2022). 187 Zhu, Zhen/Xu, Zhiliang/You, Ansheng et al.: „Semantically Multi-modal Image Synthesis“, https://github.com/Seanseattle/ SMIS (28.1.2022). 188 Adobe: „Neural Filters overview“, https://helpx.adobe.com/ photoshop/using/neural-filters.html (28.1.2022).
189 Ling, Huan/Kreis, Karsten/Fidler, Sanja et al.: „EditGAN: High-Precision Semantic Image Editing“, https://nv-tlabs.github.io/editGAN (1.2.2022). 190 Oeldorf, Cedric/Spanakis, Gerasimos: „LoGANv2: Conditional Style-Based Logo Generation with Generative Adversarial Networks“, https://arxiv.org/abs/1909.09974 (17.6.2022). Sage, Alexander/Agustsson, Eirikur/Timofte, Radu et al.: „Logo Synthesis and Manipulation with Clustered Generative Adversarial Network“, https://data.vision.ee.ethz.ch/sagea/lld (28.1.2022). 191 Brandmark: „AI Color Wheel“, https://brandmark.io/color-wheel (28.1.2022).
Kapitel 3: Gestaltung mit und für intelligente Systeme
68
Neben Logos können auch Schriftschnitte erzeugt
nung lernt und daraus selbstständig Gestaltungsprin-
werden. Ein Variational-Autoencoder-Netzwerk
zipien ableitet. 194 So kann das System lernen, welche
lernt das Skelett von Glyphen, die es in eine Schab-
Elemente zueinander im Zusammenhang stehen,
lone einpasst, um dann kohärente neue Typen und
und verhindern, dass sich Elemente überlappen oder
Schriftschnitte zu erzeugen. Zudem ist es mit diesem
falsch ausgerichtet sind. Das System hat sowohl die
Verfahren möglich, unvollständige Schriftschnitte zu
gesamte Gestaltungsfläche im Blick als auch die Lo-
vervollständigen. So können Gestalter:innen ganze
gik ihrer Einzelelemente zueinander. Auf diese Weise
Schriftschnitte nur auf Grundlage einiger weniger
bekommen Designer:innen noch mehr Kontrolle über
gefundener Typen generieren und damit auf mehr
die Variationen innerhalb der Layoutgenerierung.
Designelemente zugreifen. Natürlich sind die Bilderzeugungsverfahren nicht Auch komplexere Formen, wie Editorial- und Web-
nur auf zweidimensionale Pixel beschränkt, sondern
site-Layouts
umfassen auch dreidimensionale Formen. So ist es
192
können durch GANs und VAEs gene-
riert und erkundet werden. So können Conditional
möglich, den visuellen Möglichkeitsraum auch für
GANs lernen, die Gestaltungselemente eines Layouts,
dreidimensionale Objekte zu berechnen und zugäng-
wie etwa Bilder, Logos, Buttons oder Headlines, in
lich zu machen. 195 Allerdings sind frühe Systeme nur
einem größeren Zusammenhang zu identifizieren,
in der Lage gewesen, Formen als Gesamtform oder in
und dann daraufhin neue Layouts generieren, die
einzelnen Formencontainern zu erstellen, was wiede-
gewohnte Leserichtungen einhalten und die Bildele-
rum weniger gestalterische Manipulation erlaubt. Se-
mente hierarchisch korrekt gliedern.
Je nach Größe
mantische Segmentierung auch für dreidimensionale
der einzelnen Elemente sortieren sich dann die jewei-
Objekte erlaubt es nun, genau definierte Bereiche im
ligen Elemente sinnvoll zu einer neuen Gesamtge-
3D-Modell zu manipulieren, ohne dabei die restliche
staltung. Retargeting und Resizing von bestehenden
Form zu verändern. 196 Analog zu zweidimensionalen
Layouts werden hierdurch automatisiert möglich.
Bildern gibt es auch ein Style-Transfer-Verfahren für
Designer:innen sparen so Zeit, wenn sie Layouts in
dreidimensionale Objekte. 197 So wird es möglich, ein-
andere Formate übertragen müssen.
heitliche Stile schnell auf viele 3D-Modelle gleichzei-
193
tig zu übertragen. Kombiniert man ein Transformer-Netzwerk mit einem Conditional VAE, ist sogar ein intelligentes
Letztlich können intelligente Systeme nicht nur
System möglich, das sowohl die Kategorien der Ge-
eine Vielzahl von 3D-Objekten erstellen, sondern
staltungselemente als auch ihre räumliche Anord-
auch dabei assistieren, diejenigen auszuwählen, auf
192 Zhao, Tianming/Chen, Chunyang/Liu, Yuanning et al.: „GUIGAN: Learning to Generate GUI Designs Using Generative Adversarial Networks“, https://github.com/GUIDesignResearch/GUIGAN (28.1.2022). 193 Li, Jianan/Yang, Jimei/Zhang, Jianming et al.: „Attribute-Conditioned
194 Guo, Mengxi/Huang, Danqing/Xie, Xiaodong: „The Layout Generation Algorithm of Graphic Design Based on Transformer-CVAE“, https://arxiv.org/abs/2110.06794 (28.1.2022). 195 Kleineberg, Marian/Fey, Matthias/Weichert, Frank: „Adversarial Generation of Continuous Implicit Shape Representations“,
Layout GAN for Automatic Graphic Design“, IEEE Transactions on
https://github.com/marian42/shapegan (28.1.2022).
Visualization and Computer Graphics 27 (2021), S. 4039–4048.
This Chair Does Not Exist: „GAN-generated Chairs“, https://thischairdoesnotexist.com (01.02.2022). 196 Wei, Fangyin/Sizikova, Elena/Sud, Avneesh: „Learning to Infer Semantic Parameters for 3D Shape Editing“, https://ieeexplore.ieee.org/document/9320459 (28.1.2022). 197 Lun, Zhaoliang/Kalogerakis, Evangelos/Wang, Rui et al.: „Functionality Preserving Shape Style Transfer“, ACM Transactions on Graphics 35 (2016), S. 1–14.
Kapitel 3: Gestaltung mit und für intelligente Systeme
69
deren Grundlage neue Objekte generiert werden.
einüben müssen, damit sie von Qualität und Neuig-
Dream Lens
keitsgrad der Entwürfe nicht überfordert sind. Eine
198
ist ein solches System, das Desig-
ner:innen unterstützt, indem es nicht nur 3D-Ent-
Studie 199 unterstreicht, dass die Qualität der Entwür-
würfe nach bestimmten gestalterischen Vorgaben
fe wesentlich dadurch beeinflusst wird, welche tech-
generiert. Es listet die Entwürfe auch nach Passungs-
nischen Systeme genutzt werden und wie diese bei
grad auf und hilft so dabei, diejenigen Entwürfe
der Vorauswahl der Entwürfe unterstützen. Je besser
zu identifizieren, die dann die Grundlage für einen
die Unterstützung ausfällt, umso besser sind auch die
weiteren generativen Gestaltungsdurchlauf des
Entwürfe. Designer:innen können die generierten
Systems sein sollen. Damit ermöglicht das System
Vorschläge aber genauso als erste Studien nutzen, um
den Designer:innen, gezielter große Datenmengen zu
sie als Varianten in Kund:innenworkshops zu disku-
explorieren und schneller die Entwürfe ausfindig zu
tieren, bevor sie finalisiert werden. Weniger erfahre-
machen, die sie favorisieren.
nen Designer:innen ermöglichen die Tools, schneller neue Ideen zu finden und leichter in den Designpro-
Insgesamt bekommen Designer:innen mit und
zess hineinzufinden. Das sprichwörtliche leere weiße
durch die generativen Systeme neue Freiheitsgrade
Blatt wird mit diesen Systemen verhindert.
geschenkt. Zudem wird mit den Systemen erheblich Aufwand und damit Zeit erspart. Dabei erfüllen
Darüber hinaus besteht schon mit diesen Systemen
Designer:innen unterschiedliche Rollen. Sie wählen
das Potenzial, Designprozesse zu automatisieren. So
für und mit diesen Systemen entweder das Trai-
kann ein generatives System beispielsweise einerseits
ningsmaterial aus, wenn sie Bilderzeugungssysteme
viele verschiedene Vorschläge für Layouts machen.
mitentwickeln, oder sie greifen auf vorhandene,
Es kann andererseits aber auch – wenn es eine be-
vortrainierte Netzwerke zurück und wählen dann das
stimmte Schwelle der Qualität erreicht hat – Layouts
Quellmaterial für die Bilderzeugung aus oder bestim-
automatisch an bestimmte Seitengrößen anpassen.
men diejenigen Bildbereiche, die das System iterativ
Den Designer:innen spart ein solch automatisiertes
verändert. Sie legen die Parameter fest, mit denen die
Vorgehen in repetitiven Designprozessen häufig viel
Bilder und Formen generiert werden, und werten die
monotone Arbeit. Für Nutzer:innen kann damit das
Ergebnisse der Systeme kritisch aus, prüfen, welche
Produkterlebnis personalisiert werden, etwa wenn
gestalterische Richtung weiterverfolgt werden soll,
Alibaba für Onlinewerbung Tausende unterschied-
und arbeiten sich auf dieser Basis iterativ zum für das
licher Layouts durch automatisches Retargeting und
Designproblem besten Ergebnis vor.
Resizing individuell ausspielt. 200 Dieser Aspekt der Personalisierung wird im Kapitel „Gestaltung für
Es ist wichtig zu vermerken, dass durch die mas-
intelligente Systeme“ näher ausgeführt und vertieft.
senhaft generierten Designvorschläge eine neue Art von Auswahlverfahren entsteht, das Designer:innen
198 Matejka, Justin/Glueck, Michael/Bradner, Erin et al. „Dream Lens: Exploration and Visualization of Large-Scale Generative Design Datasets“, https://dl.acm.org/doi/10.1145/3173574.3173943 (28.1.2022).
199 Sbai, Othman/Elhoseiny, Mohamed/Bordes, Antoine et al.: „Design Inspiration from Generative Networks“, https://arxiv.org/abs/1804.00921 (1.2.2022). 200 Alibaba Luban: „AI-based Graphic Design Tool“, https://www.alibabacloud. com/blog/alibaba-luban-ai-based-graphic-design-tool_594294 (28.1.2022).
Kapitel 3: Gestaltung mit und für intelligente Systeme
70
3.2.4 Systeme für Low-Fidelity-Prototyping
kann der Ausarbeitungsgrad dann ganz unterschiedlich ausfallen. Manche Systeme geben fertig codier-
Im nun folgenden Prozessschritt erstellen Designer:
te Webseiten aus, andere übernehmen repetitive,
innen erste vorläufige Prototypen, um ihre Design-
ermüdende Aufgaben, wie etwa die Säuberung und
idee auszuprobieren und zu evaluieren. Diese
Vektorisierung von Handzeichnungen.
Low-Fidelity-Prototypen, die noch eine sehr geringe Detailtreue im Vergleich zum finalen Design haben
Die erste Klasse von Systemen verwandelt Hand-
– daher der Name –, haben den Vorteil, dass man sie
zeichnungen und Skizzen der Designer:innen in erste
schnell erstellen und überarbeiten kann. So bekom-
grafische Designlösungen. Mit dem GAN-System
men Designer:innen einen ersten Eindruck, wie die
GauGAN2 201 wird es möglich, auf einer Canvas, der
Lösung konkret aussehen könnte, ohne zu viel Zeit
sogenannten Segmentation-Map, abstrakte Zeich-
zu investieren, falls die Lösung wieder verworfen
nungen anzufertigen, die dann in fotorealistische
werden muss. Aber auch zukünftige Nutzer:innen
Bilder verwandelt werden. Die Map besteht aus
können mit Low-Fidelity-Prototypen interagieren und
zwei Sektionen; die linke Sektion ist die Canvas für
so herausfinden, wie sich das Produkt anfühlt und
die Freihandzeichnungen, die rechte zeigt dann das
ob es leistet, was sie sich wünschen. Letztlich ist das
Ergebnis, das generierte Bild. Die abstrakten Striche
Ziel, in so wenigen Arbeitsschritten wie möglich so
und Formen, die man auf die linke Canvas zeichnet,
schnell wie möglich ein Design zu erschaffen, das in
repräsentieren ausgewählte physische Objekte wie
den wesentlichen Dimensionen einer finalen Lösung
Himmel, Sand, Gras, Zäune oder Häuser. Aus einer
nahekommt. Dabei bedürfen Prototypen immer meh-
Palette im User Interface wählt man mit der Segmen-
rerer Bearbeitungsschritte, da niemand vorher weiß,
tation-Brush also diejenigen Objekte, die dann auf
ob erste Designlösungen auch wirklich wie erwartet
der rechten Seite generiert werden. Zeichnet man auf
funktionieren. Entsprechend vorläufig und iterativ
der linken Seite eine Fläche am unteren Rand mit der
ist das Vorgehen. Je mehr Arbeit vorher investiert
Segmentation-Brush, die Sand repräsentiert, generiert
wurde, indem beispielsweise Prototypen im Vorfeld
das System am unteren Rand der rechten Canvas die
immer wieder überarbeitet oder verworfen wurden,
fotorealistische Darstellung einer Düne. Mit diesem
umso größer ist die Gefahr, zu viel davon in den Pro-
Tool ist es daher möglich, schnell und intuitiv Bilder
totyp investiert zu haben. Intelligente Systeme unter-
zu generieren, die etwa als Concept Art im Game-
stützten die Prototyping-Phase, indem sie die Fidelity,
Design oder Digital-Film-Design nutzbar sind. Schnell
also den Ausarbeitungs- und Detailgrad des Proto-
skizzierte Ideen können somit unmittelbar mit relativ
typs, mit wenig Aufwand erhöhen und letztlich die
hoher Fidelity umgesetzt und erprobt werden.
Zeit reduzieren, die für den Prototyp gebraucht wird. Alle Systeme in dieser Phase benötigen einen gestal-
Eine zweite Art von GANs erlaubt es, Skizzen
terischen Input, also das Ausgangsmaterial für den
und Handzeichnungen, die aus Linien bestehen, in
Prototyp, auf dessen Basis sie dann die vorläufigen
fotorealistische Bilder zu transferieren. 202 Das System
Designlösungen erstellen. Das können Handzeich-
erkennt die Striche als Repräsentation eines Gegen-
nungen und Skizzen sein, aber auch Fotosequenzen,
stands, etwa einer Katze, und kann die Skizze dann
Videos, Texte oder Design-Mockups. Je nach System
zu realistisch anmutenden Katzenbildern verarbeiten. 201 NVIDIA: „GauGAN2 Beta“, http://gaugan.org/gaugan2 (28.1.2022). 202 Wang, Sheng-Yu/Bau, David/Zhu, Jun-Yan: „Sketch Your Own GAN“, https://github.com/peterwang512/GANSketching (28.1.2022).
Kapitel 3: Gestaltung mit und für intelligente Systeme
71
Außerdem kann das System aus zwei Strichzeichnun-
Das System ermöglicht es damit, die generierte drei-
gen den visuellen Möglichkeitsraum zwischen beiden
dimensionale Form von allen Seiten zu betrachten,
Zeichnungen errechnen und darstellen. Damit wird
zu zoomen und neue Blickwinkel zu erkunden. So
es möglich – vorausgesetzt, das Netz ist auf die ent-
können Designer:innen schnell erfassen, ob die Form
sprechenden Bildinhalte trainiert –, sehr intuitiv, frei
so aussieht, wie sie es imaginiert haben, und sie dann
und unmittelbar Storyboards, Concept Art, Konzept-
iterativ überarbeiten und präzisieren.
studien und Low-Fidelity-Prototypen zu erstellen. Ebenfalls mit Handzeichnungen arbeiten Syste Andere Systeme erlauben es, Handzeichnungen
me, 207 die Wireframe-Zeichnungen in fertig gecodete
zu säubern, zu vektorisieren 203 oder zu kolorieren. 204
HTML-Seiten übertragen. Die Systeme erkennen in
Dies automatisiert und erhöht den Ausarbeitungs-
den Handzeichnungen die unterschiedlichen grafisch
grad der Zeichnungen und erspart zeitraubende
vereinfachten Elemente. Ausgekreuzte Rechtecke
Bearbeitungsschritte. Ein System, das Bilderkennung,
bedeuten beispielsweise, dass es sich um einen
Vektorisierung und Kolorierung als interaktives
Platzhalter für ein Bild handelt. Das System setzt
System kombiniert, ist Paper Dreams.
dann automatisch ein Bild ein, das Designer:innen
205
Dort können
Nutzer:innen ganz ohne Vorwissen Zeichnungen an-
unkompliziert mit dem finalen Bild austauschen
fertigen, die dann vom System erkannt, klassifiziert,
können. Überschriften, Fließtext und Eingabefelder
nachbearbeitet und koloriert werden. Mit dem so-
werden ebenso erkannt wie die korrekte Gesamt-
genannten Zufallsrad macht das System Nutzer:innen
anordnung der einzelnen Elemente. Damit wird es
Vorschläge für naheliegende oder weniger nahe-
möglich, selbst aufwendige Arbeitsschritte, wie etwa
liegende Gegenstände, die zu bestehenden Objekten
das Coding von HTML-Prototypen, mit intelligenten
auf der Canvas passen könnten. Divergentes Denken
Systemen zu automatisieren.
und kreative Einfälle sollen damit gefördert werden. Nutzer:innen können alle Zeichnungen und Gegen-
Eine zweite Klasse von Systemen nutzt Fotos als
stände auf der Canvas frei anordnen und so in kurzer
Input, um vorläufige Designlösungen automatisiert
Zeit Storyboards, Level-Konzepte oder Illustrationen
zu erstellen. Das System WarpGAN 208 kann aus
erstellen.
Porträtfotos automatisiert Karikaturen erstellen. Das System erkennt und lernt nicht nur die visuell wich-
Ein weiteres System erstellt aus vektorisierten
tigsten Eigenschaften der porträtierten Personen,
Handzeichnungen dreidimensionale Objekte. 206 Das
sondern kann darauf basierend Karikaturen in be-
System erkennt in den auf einer zweidimensionalen
stimmten Stilen generieren. Es hat gelernt, dass eine
Canvas angeordneten Linien, die oft nur locker ge-
Karikatur dominante Eigenschaften der Person über-
zeichnet wurden, nicht nur eine zweidimensionale,
treiben muss, damit ein grotesker Effekt entsteht.
sondern eine intendierte dreidimensionale Form.
Damit eröffnet sich ein spezielles Anwendungsfeld
203 Simo-Serra, Edgar/Iizuka, Satoshi/Sasaki, Kazuma et al.: „Learning
207 Microsoft: „Sketch2Code“, https://sketch2code.azurewebsites.net (31.1.2022). UIzard: „Welcome your new team member: AI“, https://uizard.io/
to simplify: fully convolutional networks for rough sketch cleanup“,
design-assistant (31.1.2022).
ACM Transactions on Graphics 35 (2016), S. 1–11. 204 Zhang, Lvmin/Li, Chengze/Wong, Tien-Tsin et al.: „Two-stage sketch
208 Shi, Yichun/Deb, Debayan/Jain, Anil: „WarpGAN: Automatic Caricature
colorization“, ACM Transactions on Graphics 37 (2018), S. 1–14. 205 Bernal, Guillermo/Zhou, Lily/Yuen, Erica et al.: „Paper Dreams: Real-Time Human and Machine Collaboration for Visual Story Development“, https://www.media.mit.edu/publications/real-timehuman-and-machine-collaboration-for-visual-story-development (28.1.2022). 206 Gryaditskaya, Yulia/Hähnlein, Felix/Liu, Chenxi et al.: „Lifting freehand concept sketches into 3D“, https://dl.acm.org/doi/10.1145/ 3414685.3417851 (31.1.2022).
Generation“, https://arxiv.org/abs/1811.10100 (31.1.2022).
Kapitel 3: Gestaltung mit und für intelligente Systeme
72
für Illustrator:innen, das gleichzeitig auch darüber
algorithmus errechnet und bestimmt; Voxel und
hinausragt, denn Systeme können jetzt bestimmte
Co. sind dafür nicht mehr nötig. Aus diesem Grund
Bereiche des Gesichts gezielt deformieren und er-
nennt man NeRF-Verfahren auch „implizite neuro-
lauben dadurch einen ganz neuen, experimentellen
nale Repräsentationen“, auf Englisch „Implicit Neural
Zugang zur Illustration, der über die Formensprache
Representations“ oder auch „Neural Scene Represen-
der Karikatur auch hinausgehen kann.
tations“. Das NeRF-Verfahren wurde seit seiner Entstehung 2020 bereits mehrfach überarbeitet und
Die nächste Art intelligenter Systeme in dieser
erweitert. Ursprünglich waren hohe Rechnerkapazi-
zweiten Klasse übersetzt aus einer zweidimensio-
täten notwendig, um dreidimensionale Szenen zu
nalen Fotosequenz die in diesen Fotos enthaltenen
berechnen. Neuere Systeme wie DONeRF 211 oder
Objekte in eine dreidimensionale Szene. Mittels des
PixelNeRF 212 konnten den Rechenaufwand erheblich
Bildsyntheseverfahrens der Neural Radiance Fields,
reduzieren. Das ST-NeRF-Verfahren 213 erlaubt es dar-
NeRF, 209 ist es möglich, zweidimensional abgebildete
über hinaus sogar, einzelne Objekte in einer 3D-Sze-
Formen in den dreidimensionalen Raum zurückzuho-
ne unabhängig von anderen Objekten zu editieren, zu
len. Dazu wird eine Reihe von Fotos benötigt, die die
duplizieren und zu skalieren, ohne dass ein erneuter
zu erstellenden Objekte aus mehreren Perspektiven
Arbeitsschritt für Rotoscoping fällig wird. So kön-
zeigen. Das neuronale Netzwerk errechnet dann für
nen Videos mit Personen aufgenommen und diese
jede mögliche Blickrichtung und für jeden einzel-
Personen dann einzeln vergrößert und mehrfach in
nen Pixel die Volumendichte und den Farbwert. So
genau derselben Videosequenz dargestellt werden.
entsteht eine dreidimensionale Repräsentation, die
Neue Verfahren wie das Light Field Network, LFN, 214
man dann als 3D-Szene frei aus jeder Perspektive
reduzieren den Aufwand für implizite neuronale
anschauen kann. Das NeRF-Verfahren ist dabei kein
Repräsentationen noch einmal signifikant, weil sie
herkömmliches 3D-Verfahren, das 3D-Formen aus
die simulierten Lichtstrahlen, die auf die implizit
Voxel-, Mesh- oder Point-Clouds explizit zusam-
repräsentierten Oberflächen fallen, nur noch einmal
mensetzt. Stattdessen werden mit diesem Verfahren
durch das neuronale Netzwerk berechnen müssen
die Oberflächen im Raum implizit durch das neuro-
und nicht wie die NeRFs mehrere Hundert Male. So
nale Netzwerk repräsentiert. 210 Das heißt, dass die
sinkt nicht nur die benötigte Rechenleistung, auch
Grenze zwischen den Objekten, also ihre sichtbaren
die Zahl der Bilder, die es braucht, um eine 3D-Sze-
Oberflächen, nicht mehr aus lauter einzelnen drei-
ne zu errechnen, sinkt signifikant. Designer:innen
dimensionalen Pixeln zusammengesetzt sind, die
können mit diesen Verfahren 3D-Szenen einfach aus
sich im Raum ausdehnen. Stattdessen werden die
wenigen Fotos erstellen. Sie haben aber auch mehr
Oberflächen durch den neuronalen Klassifizierungs-
Freiheit, wenn sie solche Szenen bearbeiten. So wird
209 Mildenhall, Ben/Srinivasan, Pratul/Tancik, Matthew et al.: „NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis“, https://cacm.acm.org/magazines/2022/1/257450-nerf/fulltext (31.1.2022). 210 Oechsle, Michael/Niemeyer, Michael/Mescheder, Lars et al.: „Learning Implicit Surface Light Fields“, https://arxiv.org/abs/ 2003.12406 (31.1.2022).
211 Neff, Thomas/Stadlbauer, Pascal/Parger, Mathias et al.: „DONeRF: Towards Real-Time Rendering of Compact Neural Radiance Fields using Depth Oracle Networks“, https://depthoraclenerf.github.io (31.1.2022). 212 Yu, Alex/Ye, Vickie/Tancik, Matthew et al.: „pixelNeRF. Neural Radiance Fields from One or Few Images“, https://alexyu.net/pixelnerf (31.1.2022). 213 Zhang, Jiakai/Liu, Xinhang/Ye, Xinyi et al.: „Editable Free-Viewpoint Video using a Layered Neural Representation“, https://jiakai-zhang.github.io/st-nerf (31.1.2022). 214 Sitzmann, Vincent/Rezchikov, Semon/Freeman, William et al.: „Light Field Networks. Neural Scene Representations with Single-Evaluation Rendering“, https://www.vincentsitzmann.com/lfns (31.1.2022).
Kapitel 3: Gestaltung mit und für intelligente Systeme
73
es möglich, reale Schauplätze in den virtuellen Raum
aus Videosequenzen eine zweidimensional angeord-
zu holen, ohne aufwendige Szenen von Hand zu ge-
nete Abfolge von Bildern generieren. 218 Die zeitliche
stalten. Für Digital-Film- und Game-Design sowie für
Abfolge einzelner Videobilder wird durch das System
Anwendungen in der virtuellen Realität können hier
erkannt, die wichtigsten Bilder werden extrahiert
schnell Szenen und Assets für Prototypen entstehen.
und auf einer Canvas angeordnet. Das System ändert auch die Bildausschnitte und vereinheitlicht den Stil.
Vollständig interaktive Videosequenzen erstellt das
So entsteht automatisiert ein Storyboard oder Comic.
System „AI Interactive Graphics“ auf Grundlage eines
Ein ähnliches Verfahren nutzt ein System, 219 das
von Nvidia entwickelten GANs,
mehrere Versionen eines Storyboards erstellt, jeweils
215
das in der Lage ist,
Stadtlandschaften zu generieren, während jemand in
mit verschiedenen Bildaus- und -anschnitten sowie
Echtzeit durch diese Stadtansichten navigiert. Wenn
verschiedenen Bildstilen. In der Frühphase der Film-,
Nutzer:innen beispielsweise auf einer Straße abbie-
Game- und VFX-Entwicklung können diese Storybo-
gen, kreiert das Netzwerk unmittelbar neue passende
ards nützliches Ausgangsmaterial für den iterativen
Ansichten. So werden interaktive Prototypen für
Designprozess sein.
Stadtplanung, Architektur oder Game-DesignAnwendungen möglich.
Storyboards können zudem ganz mit textuellen Eingaben generiert werden. Das intelligente Sys-
Intelligente Systeme können aber auch physische
tem mit dem Namen Neural Storyboard Artist 220
Prototyping-Verfahren unterstützen. So errechnet
generiert Storyboards auf Basis von geschriebenen
ein System
basierend auf Bildern, die ein fertiges
Geschichten. Dafür sucht das System nach passenden
Strickmuster darstellen, den Programmcode für die
Visualisierungen der Geschichte in Bilddatenbanken,
Strickmaschine. Der anstrengende Weg der Codie-
schneidet die gefundenen Bilder zu oder stellt sie in
rung entfällt für Modedesigner:innen hier. Aus leicht
einer Art Collagetechnik zu neuen Bildern zusam-
erstellten Bildern wird schnell ein fertig gestricktes
men. In einem zweiten Schritt fasst das System die
Sample, das man anfassen, anschauen und bewerten
gefundenen Bilder zu einem Storyboard zusammen
kann. Ähnlich funktioniert Codex von OpenAI,
und rendert alle Bilder zu formal kohärenten 3D-Sze-
216
217
das
nen.
Texteingaben in ausführbaren Programmcode verwandelt. So ist es möglich, nur auf Basis von einfach formulierten Aufforderungen komplexen Code für
Für die Game- und Digital-Film-Entwicklung ist
einen Prototyp zu erstellen.
ein Prototyping-System hilfreich, das Live-VideoInput von Schauspieler:innen nutzt und darauf ba-
Auch Videos können zum Input werden in der
sierend einen 3D-Avatar in Echtzeit rendert. 221 Das
Prototyping-Phase. So kann ein intelligentes System
System benötigt durch neuronale Netze keine auf-
215 Alarcon, Nefi: „NVIDIA Invents AI Interactive Graphics“, https://developer.nvidia.com/blog/nvidia-invents-ai-interactivegraphics (31.1.2022). 216 Kaspar, Alexandre/Oh, Tae-Hyun/Makatura, Liane et al.: „Neural Inverse Knitting: From Images to Manufacturing Instructions“, http://deepknitting.csail.mit.edu (31.1.2022). 217 Zaremba, Wojciech/Brockman, Greg: „OpenAI Codex“, https://openai.com/blog/openai-codex (4.2.2022).
218 Pęśko, Maciej/Svystun, Adam/Andruszkiewicz, Paweł et al.: „Comixify: Transform video into a comics“, https://arxiv.org/abs/1812.03473 (31.1.2022). 219 Garcia-Dorado, Ignacio/Getreuer, Pascal/Le, Madison et al.: „Graphic Narrative with Interactive Stylization Design“, https://arxiv.org/abs/ 1712.06654 (31.1.2022). 220 Chen, Shizhe/Liu, Bei/Fu, Jianlong et al.: „Neural Storyboard Artist: Visualizing Stories with Coherent Image Sequences“, https://dl.acm.org/ doi/10.1145/3343031.3350571 (31.1.2022) 221 Cubic Motion: „Siren“, https://cubicmotion.com/case-studies/siren (31.1.2022).
Kapitel 3: Gestaltung mit und für intelligente Systeme
74
wendigen Gesichtsmarkierungen der Schauspieler:in-
in einem Tennisvideo als bewegliche Elemente und
nen mehr, sondern erkennt sehr präzise die Gesichts-
transformiert sie zu interaktiv steuerbaren Sprites.
bewegungen und transferiert sie auf das 3D-Modell.
Man kann die Tennisspieler:innen dann als Video-
So können Features für computergenerierte Charak-
spiel steuern und spielen. Außerdem prognostiziert
tere in der Game-Entwicklung live und in Echtzeit
das System die Wahrscheinlichkeit, mit der bestimm-
getestet und iterativ weiterentwickelt werden.
te Bewegungen der Spieler:innen mit einer bestimmten Ballplatzierung im Spielfeld korrelieren. So sehen
Ein anderes System
222
erkennt in einem einzigen
die Bewegungen realistisch aus und schließen fast
Bild die Pose von Händen und erstellt daraufhin 3D-
nahtlos aneinander an. Mit dem System wird es mög-
Modelle der Hand. Dies kann zur Erprobung von in-
lich, aus Videobildern automatisch einen Game-Pro-
tuitiven Spielsteuerungen in Games genutzt werden
totyp zu erstellen.
oder als Interface für andere Designprototypen. Insgesamt erlauben die intelligenten Systeme Für Prototyping im Game-Design sind abschlie-
Designer:innen für das Prototyping einen einfacheren
ßend zwei Systeme interessant, die durch Analyse
Einstieg, weil sie das Phänomen des weißen Blattes
von Sprites – das sind feststehende zweidimensionale
verhindern. Zudem übernehmen sie zum Teil er-
Spielelemente wie etwa Steine, Wolken oder Spiel-
heblichen Arbeitsaufwand, der oft nicht unter die
charaktere – den Designprozess erleichtern. Das erste
Kategorie kreative Arbeit fällt, wie etwa Reinzeich-
System mit dem klingenden Namen Marionette 223
nung, Vektorisierung oder Kolorierung. Die meisten
erlaubt es, Sprites aus bestehenden Leveldesigns zu
intelligenten Systeme für Prototyping erhöhen den
extrahieren und dann in neuen Leveldesigns einzu-
Ausarbeitungsgrad der ersten Entwürfe, indem sie
setzen. Das System erkennt wiederkehrende Spiel-
Prozesse automatisieren, die bisher nur durch um-
elemente und legt sie in Bibliotheken an. Es erlaubt
fangreiche Recherchen oder Bearbeitungsschritte
auch eine Neukombination der Elemente, also ein
erreicht werden konnten. Damit senken sie das
Redesign des Ausgangsmaterials. Mit Marionette
Risiko, zu viel Zeit in Designprozesse zu investieren,
können aus bestehenden Spielen Elemente extrahiert
die möglicherweise wieder verworfen werden. Sie
und genutzt werden, die vorher aufwendig entnom-
ermöglichen damit gleichzeitig, dass die Wirkung
men, angepasst und eingesetzt werden mussten. Das
und das finale Design durch die Prototypen besser
zweite System
erfahrbar und reflektierbar werden. Einige Systeme
224
erkennt in einfachen nichtinterakti-
ven Videos feststehende zweidimensionale Spielele-
erhöhen gleichzeitig den Grad an Kreativität, wie
mente, Sprites, extrahiert sie und legt sie als interak-
etwa Paper Dreams. Alle Systeme reduzieren also den
tive Elemente eines Games an. Das System wurde mit
Aufwand und damit die Zeit, um zu brauchbaren Pro-
Tennisvideos trainiert, erkennt also die Spieler:innen
totypen zu gelangen, und ermöglichen damit weniger iterative Schritte und letztlich ein besseres Design. Designer:innen sind allerdings weiterhin gefordert,
222 Zimmermann, Christian/Ceylan, Duygu/Yang, Jimei et al.: „FreiHAND: A Dataset for Markerless Capture of Hand Pose and Shape from Single RGB Images“, https://arxiv.org/abs/1909.04349 (4.2.2022). 223 Smirnov, Dmitriy/Fisher, Matthew/Campagnolo, Vitor et al.: „MarioNette: Self-Supervised Sprite Learning“, https://openreview.net/forum?id=3zP6RrQtNa (31.1.2022). 224 Zhang, Haotian/Sciutto, Cristobal/Agrawala, Maneesh et al.: „Vid2Player: Controllable Video Sprites That Behave and Appear Like Professional Tennis Players“, https://dl.acm.org/doi/10.1145/3448978 (31.1.2022).
die automatisiert erstellten Prototypen kritisch zu beurteilen, anzupassen und letztlich zu reflektieren, ob sie tatsächlich bessere Designlösungen sind.
Kapitel 3: Gestaltung mit und für intelligente Systeme
75
3.2.5 Systeme für Designoptimierung und
Gestaltungslösung und deren Wahrnehmung durch
-automatisierung
die Nutzer:innen, wenn Systeme beispielsweise zeigen, welche Designs bei ihnen besonders gut ankom-
In der letzten Designphase werden die Ideen, die mit
men. Der dritte Anwendungsbereich betrifft den Zu-
den Low-Fidelity-Prototypen erprobt und iterativ
sammenhang von Gestaltungsgesetzen und konkreter
verfeinert wurden, final umgesetzt, also optimiert,
Gestaltungslösung, wenn Systeme etwa Vorschläge
reingezeichnet und in nutzbare Produkte transfe-
machen können, wie ein Gesamtarrangement von
riert. Zwei große Klassen von intelligenten Systemen
Möbeln oder Fashion-Items verbessert werden kann.
unterstützen den Designprozess in dieser letzten
Der vierte und letzte Bereich betrifft den Zusam-
Phase. Das sind zum einen Systeme, die optimieren,
menhang von Gestaltung und ihrer Wirkung auf die
und zum anderen Systeme, die automatisieren.
Umwelt, wenn Systeme etwa verdeutlichen, welche Gestaltungslösung weniger Umweltschäden ver-
Die erste Klasse von Systemen überspringt viele
ursacht. Alle vier Bereiche sollen nun im Einzelnen
der bereits vorgestellten Schritte und erlaubt es
anhand einschlägiger Beispiele beleuchtet werden.
Designer:innen, in nur einem einzigen Arbeitsschritt den Raum für mögliche Designlösungen zu erkun-
Im ersten Bereich dieser Systemklasse ist Gestal-
den, detailreiche und hochfunktionale Prototypen zu
tung eine Frage der Optimierung von Produkteigen-
erstellen sowie finale Designs umzusetzen. In dieser
schaften, die sich aus der Funktionalität der Produkte
Klasse optimieren intelligente Systeme die Produkt-
ableiten. Ein System wie Instant CAD 225 erlaubt
performance, indem sie gestalterische Intuition mit
beispielsweise eine direkte und interaktive Manipu-
technischer Expertise kombinieren und so kognitive
lation von dreidimensionalen Entwurfsobjekten. Das
Fähigkeiten der Gestalter:innen erweitern. Allen
System zeigt durch Farbverläufe, welche Bereiche des
Systemen dieser Klasse ist eigen, dass sie Zusammen-
Entwurfs bezogen auf physikalische Gesetze noch
hänge zwischen dem jeweils konkreten Gestaltungs-
nicht optimal gestaltet sind. Parameter für die Bewer-
entwurf und den damit verbundenen Produkteigen-
tung können Designer:innen durch Slider anpassen.
schaften lernen, um sie dann den Designer:innen
So erlaubt das System beispielsweise, Stühle zu ge-
für die Gestaltungsentscheidung zur Verfügung zu
stalten, die für Druck- und Spannungsverteilung oder
stellen. Die verschiedenen Anwendungsbereiche
Deformation optimiert wurden. Das System zeigt
der intelligenten Systeme unterscheiden sich dann
dann diejenigen Bereiche in Rot oder Orange an, die
jeweils danach, welche Produkteigenschaften im
sich höchstwahrscheinlich deformieren oder bei zu
Vordergrund stehen.
hoher Druckbelastung brechen. Interaktiv können Designer:innen die verschiedenen Stuhlbein- und
Der erste Anwendungsbereich betrifft die Funk-
Rückenlehnenlängen erkunden oder die Sitzfläche an-
tionalität des Produkts. In diesem Bereich verdeut-
passen und bekommen in Echtzeit die Farbkartierung
lichen Systeme den Gestaltenden beispielsweise den
für die Parameter Druckbelastung und Deformierung
Zusammenhang von physikalischen Gesetzen und der
angezeigt. So können sie sowohl gestalterische In-
Belastbarkeit des gestalteten Produkts. Der zweite
tuition und ästhetisches Empfinden nutzen als auch
Anwendungsbereich betrifft den Zusammenhang von
die für sie nicht erfahrbaren physikalischen Gesetze
225 Schulz, Adriana/Xu, Jie/Zhu, Bo et al.: „Interactive Design Space Exploration and Optimization for CAD Models“, https://people.csail.mit.edu/aschulz/ optCAD/index.html (1.2.2022).
Kapitel 3: Gestaltung mit und für intelligente Systeme
76
visuell erkunden. Sie sind dadurch in der Lage, die
Vorschläge für optimiertes Design machen, indem es
technischen mit den ästhetischen Anforderungen
durch Pfeile visualisiert, welche Komponenten des
übereinzubringen, ohne dass der Gestaltungsprozess
Roboters verkürzt oder verlängert werden müssen,
unterbrochen oder verändert werden müsste.
damit er sich schneller oder stabiler fortbewegt. Ähnlich funktioniert das System Robo Grammar, 229
Eine Vielzahl von Systemen erlaubt diese Art der
mit dem Designer:innen die Gelenke und Gangarten
Augmentation. Ein System wie Fab Forms
der Roboter für unterschiedlichste Oberflächen und
226
berück-
sichtigt, ob bestimmte computergenerierte, drei-
Terrains anpassen können. Das System hat den Zu-
dimensionale Formen auch wirklich druckbar sind,
sammenhang von Fortbewegung und Roboterdesign
und zeigt nur diejenigen Formen an, die physikali-
gelernt und erlaubt es Designer:innen nun, je nach
schen Gesetzen und damit den Anforderungen des
Terrain und Roboterdesign die funktionalste Form
3D-Druckers genügen. So warnt das System, sobald
und Bewegungsart zu finden.
Designer:innen beispielsweise bestimmte Absätze bei Schuhen gestalten wollen, die dem Gewicht der
Im zweiten Bereich dieser Systemklasse lernen
Nutzer:innen nicht standhalten und brechen könn-
intelligente Systeme den Zusammenhang zwischen
ten. Ein drittes System
Designentwurf und dessen Wirkung auf die Nut-
227
unterstützt optimierend,
wenn Designer:innen vorgefertigte Einzelteile zu
zer:innen. So hat beispielsweise ein System 230 für
Schränken, Tischen oder Regalen gestalten wollen.
Schuhe und Autos eine Reihe von Attributen gelernt,
Das interaktive Interface des Systems inkorporiert
mit denen diese Produkte bezeichnet werden. Das
die technischen Vorgaben für Holzverbindungen,
System erlaubt Designer:innen, gezielt anhand sol-
augmentiert so die kognitiven Fähigkeiten der Desig-
cher Attribute wie „modern“, „sportlich“ oder „luxuri-
nerin oder des Designers und stellt sicher, dass alle
ös“, in den Möglichkeitsraum der Gestaltung vorzu-
technischen Vorgaben eingehalten werden.
stoßen. So können Schuhe sportlicher, komfortabler oder modischer, Autos luxuriöser, muskulöser oder
Ein weiteres intelligentes System assistiert De-
moderner gestaltet werden. Die Designerin oder der
signer:innen beim Entwurf von leicht zu bauenden
Designer wählt anhand der Vorschläge des Systems
Robotern. Das Robogami-System 228 ermöglicht es,
aus, wie sportlich, modern und luxuriös das Produkt
Geometrie und Bewegung der Roboter, die im Print-
am Ende sein soll. Die Wahrnehmung der Nutzer:in-
and-fold-Verfahren gefertigt werden, zu optimieren.
nen muss hier nicht mehr umfangreich getestet
Das System macht, basierend auf dem Aufbau und der
werden, sondern ist bereits in den Entwurfsprozess
Fortbewegungsart des Roboters, nicht nur Prognosen
eingeflossen. Das Wissen der Designer:innen bezüg-
zu seiner Geschwindigkeit und Laufrichtung sowie
lich der Präferenzen der Kundschaft wurde durch das
für die Kosten seiner Herstellung. Es kann auch
intelligente System augmentiert.
226 Shugrina, Maria/Shamir, Ariel/Matusik, Wojciech: „Fab forms: customizable objects for fabrication with validity and geometry caching“, https://dl.acm.org/doi/10.1145/2766994 (1.2.2022). 227 Shamir, Ariel/Schulz, Adriana/Levin, David et al.: „Design and
229 Zhao, Allan/Xu, Jie/Konaković Luković, Mina et al.: „RoboGrammar: Graph Grammar for Terrain-Optimized Robot Design“, https://people.csail.mit.edu/ jiex/papers/robogrammar/index.html (4.2.2022). 230 Yumer, Mehmet Ersin/Chaudhuri, Siddhartha/Hodgins, Jessica et al.:
fabrication by example“, https://dspace.mit.edu/handle/1721.1/
„Semantic shape editing using deformation handles“,
111080 (1.2.2022).
https://dl.acm.org/doi/10.1145/2766908 (1.2.2022).
228 Schulz, Adriana/Sung, Cynthia/Spielberg, Andrew et al.: „Interactive robogami: An end-to-end system for design of robots with ground locomotion“, https://journals.sagepub.com/doi/10.1177/ 0278364917723465 (1.2.2022).
Kapitel 3: Gestaltung mit und für intelligente Systeme
77
Andere Systeme, wie etwa das Designsystem
Andere Systeme prognostizieren Nutzer:innenprä-
der Versandfirma Stitch Fix,
ferenzen im Zusammenhang mit Designentscheidun-
231
prognostizieren die
Erfolgsaussichten für neue Designs auf der Basis von
gen. Das Spektrum umfasst Systeme, 234 die Nutzer:in-
vergangener Nachfrage oder der Kund:innenreaktion.
nenpräferenzen als vieldimensionales Modell von
Die begrenzten Fähigkeiten der Modedesigner:innen,
Kund:innen-Produkt-Beziehungen lernen und dann
erfolgreiche Produkte und ihre Eigenschaften zu
prognostizieren, welche Produkteigenschaften positiv
kennen, werden hier stark erweitert.
oder negativ auf Nutzer:innen wirken. Darüber hinaus umfasst es Systeme, 235 die Saliency-Mapping und
Die Wahrnehmung der Gestaltung durch Nut-
Nutzer:innenpräferenzen zusammenschließen und
zer:innen können intelligente Systeme sehr gezielt
Kartierungen erstellen, die zeigen, welche konkreten
überprüfen und in den Designprozess einbringen. So
Designeigenschaften bestimmte festgelegte Perso-
erlaubt eine Reihe von Systemen,
nengruppen – etwa weibliche, suburbane Nutzerin-
232
die Aufmerksam-
keit für visuelle Gestaltung, die sogenannte Saliency,
nen oder wohlhabende Männer über 40 Jahren – bei
zu prognostizieren. Diese Systeme ermöglichen es,
beispielsweise Automobilen interessant finden. Sie
mittels sogenannter Saliency Maps genau zu sehen,
zeigen aber auch, welche Automobile die besagten
welcher visuelle Bereich beispielsweise einer Website
Nutzerinnen als sportlich, innovativ oder anziehend
die Nutzer:innen am stärksten anzieht. Das System
empfinden. Damit werden heterogene Kund:innen-
ersetzt aufwendige Eye-Tracking-Studien und ermög-
segmentierungen für Designer:innen unmittelbar
licht es so, iterativ und schnell diejenigen Bereiche
erfahrbar und für einzelne Designelemente interpre-
anzupassen, auf die strategisch aufmerksam gemacht
tierbar. Designer:innen können dann etwa im Auto-
werden soll, wie etwa Call-to-Action-Aufrufe oder
mobildesign Features intuitiv verändern und bekom-
wichtige Informationen. Ebenfalls kann ein intelli-
men dann zielgenaues Feedback zu ihrer jeweiligen
gentes System
Nutzer:innengruppe.
233
Bildbereiche gezielt optimieren, um
die Aufmerksamkeit direkt auf sie zu lenken. Der Bildbereich wird subtil in einem fast nicht wahr-
Letztlich zählen auch Systeme 236 dazu, die ver-
nehmbaren Bereich manipuliert, um die Reihenfolge
suchen, die Vorlieben der Nutzer:innen für neue,
der Wahrnehmung von Bildinhalten gezielt zu steu-
überraschende Designs mit einer wiedererkennbaren
ern. So können Designer:innen direkt bestimmen,
Markenidentität in Einklang zu bringen. Designer:in-
welche Bildbereiche von den Betrachter:innen zuerst
nen wird hier geholfen, neue Gestaltungsmöglich-
wahrgenommen werden. Sie müssen nicht mehr
keiten in den engen Bahnen einer Markenidentität
wissen, wie sie das Bild verändern müssen, damit
auszuloten. Sie bekommen Feedback, wie weit ihre
Betrachter:innen zuerst auf einen bestimmten Bild-
Gestaltung als Markenattribute verstanden wird und
bereich schauen; das intelligente System optimiert
bei welchen Designentscheidungen die Automarke
den Bildbereich automatisch.
signifikant weniger erkannt wird.
231 Stitch Fix: „Algorithms Tour. How data science is woven into the fabric of Stitch Fix“, https://algorithms-tour.stitchfix.com (1.2.2022). 232 EyeQuant: „The future is here. Data driven design“, https://www.eyequant.com (1.2.2022). Fosco, Camilo/Casser, Vincent/Bedi, Amish Kumar et al.: „Predicting Visual Importance Across Graphic Design Types“, http://predimportance.mit.edu (1.2.2022). 233 Mejjati, Youssef/Gomez, Celso/Kim, Kwang In et al.: „Look here! A parametric learning based approach to redirect visual attention“, https://alamimejjati.github.io/GazeShiftNet (4.2.2022).
234 Wang, Mingxian/Sha, Zhenghui/Huang, Yun et al.: „Predicting product co-consideration and market competitions for technology-driven product design“, https://doi.org/10.1017/dsj.2018.4 (1.2.2022). 235 Pan, Yanxin/Burnap, Alexander/Hartley, Jeffrey et al.: „Deep Design: Product Aesthetics for Heterogeneous Markets“, https://dl.acm.org/ doi/10.1145/3097983.3098176 (1.2.2022). 236 Burnap, Alexander/Hartley, Jeffrey/Pan, Yanxin et al.: „Balancing design freedom and brand recognition in the evolution of automotive brand styling“, https://doi.org/10.1017/dsj.2016.9 (1.2.2022).
Kapitel 3: Gestaltung mit und für intelligente Systeme
78
In der dritten Abteilung der Systemklasse helfen
und einer verbesserten Gesamtwirkung des Looks ge-
intelligente Systeme, Designprinzipien und -richtli-
lernt. So kennt Fashion++ die Gestaltungsprinzipien
nien optimaler anzuwenden. Das erste Beispielsystem
von kompletten Looks, wertet diese aus und schlägt
assistiert im Interior-Design-Prozess und optimiert
minimale Veränderungen vor, die den Gesamtlook
auf Basis bestimmter Guidelines für Interior-Design
optimieren. Beispielsweise schlägt das System vor,
das Arrangement von Möbeln. So bekommen De-
eine Bluse in den Rock zu stecken, um die modische
signer:innen verbesserte Möbelanordnungen vor-
Gesamtwirkung der Person zu erhöhen.
geschlagen, die menschliche Interaktion fördern oder bestimmte Raumwirkungen betonen. Sie können sich
Zu den Systemen, die Gestaltungsprinzipien
bestimmte Designprinzipien vorgeben lassen und
kennen und auf diese hin optimieren, gehören auch
sich trotzdem einen gewissen Gestaltungsspielraum
Systeme für Grafikdesign, die Font-Pairings, Farb-
bewahren.
kombinationen und Layouts optimieren. Ein intelligentes System, 239 das Font-Pairings aus einer Vielzahl
Zwei weitere Systeme optimieren die Arrange-
von positiven Beispielen gelernt hat, optimiert nun
ments von Fashion-Items. Zum einen hat ein Sys-
im Designprozess die Kombination von Schrift-
tem
schnitten. Die Schwierigkeit, die das System meistert,
237
gelernt, welche Modeartikel miteinander
kombinierbar sind und welche modische Gesamt-
ist, Schriften zu kombinieren, die den jeweils unter-
wirkung damit erzielt wird. Auf dieser Basis kann es
schiedlichen Rollen als Headline und Fließtextschrift
die Kombination von Fashion-Items optimieren und
gerecht werden.
macht Vorschläge, wie man verschiedene Hüte, Blusen, Hosen, Schuhe oder Handtaschen kombinieren
In der Farbwahl unterstützt und optimiert ein
könnte. So kann das System, wenn es einen bestimm-
System 240 Designentwürfe, die wenig stimmige Farb-
ten Artikel, wie etwa eine Hose, als Eingangsdatum
kombinationen aufweisen. Das System hat ebenfalls
erhält, ermitteln, welche anderen Items dazu passen.
aus vielen gut bewerteten Farbkombinationen die
Es kann auch ähnliche Artikel finden und so ganze
Prinzipien guter Kombinationen gelernt, die es nun
Looks zusammenstellen. Darüber hinaus hat das
anwenden und neue passende Kombinationen erstel-
System auch die Wirkung der Artikelkombinationen
len kann.
auf die menschliche Wahrnehmung gelernt und kann Designer:innen beraten, welche Kombinationen die
DesignScape 241 ist ein System, das Layoutentwürfe
Träger:innen kompetenter oder motivierter aussehen
optimiert, indem es, basierend auf einem bestehen-
lassen.
den Entwurf, Elemente neu positioniert, gruppiert oder skaliert. Das System erkennt allerdings keine
Das System Fashion++ 238 hat den Zusammenhang
Bildinhalte, kann deshalb auch nicht entscheiden,
zwischen minimalen Änderungen der Garderobe
ob etwa Bilder inhaltlich stimmig oder zu viele Bild-
237 Vasileva, Mariya/Plummer, Bryan/Dusad, Krishna et al.: „Learning Type-Aware Embeddings for Fashion Compatibility“, https://arxiv.org/abs/1803.09196 (4.2.2022). 238 Hsiao, Wei-Lin/Katsman, Isay/Wu, Chao-Yuan et al.: „Fashion++: Minimal Edits for Outfit Improvement“, https://ai.facebook.com/ blog/building-ai-to-inform-peoples-fashion-choice (4.2.2022).
239 Jiang, Shuhui/Wang, Zhaowen/Hertzmann, Aaron: „Visual Font Pairing“, https://arxiv.org/abs/1811.08015 (4.2.2022). 240 O’Donovan, Peter/Agarwala, Aseem/Hertzmann, Aaron: „Collaborative Filtering of Color Aesthetics“, http://www.dgp.toronto.edu/~donovan/ cfcolor/index.html (4.2.2022). 241 O’Donovan, Peter/Agarwala, Aseem/Hertzmann, Aaron: „DesignScape: Design with Interactive Layout Suggestions“, http://www.dgp.toronto.edu/~donovan/design/index.html (4.2.2022).
Kapitel 3: Gestaltung mit und für intelligente Systeme
79
und Textelemente vorhanden sind. Dies müssen De-
kennt sogenannte Idiome, also Designprinzipien für
signer:innen weiterhin mit ihrer Expertise abwägen.
wirkungsvollen Filmschnitt. Es nutzt sowohl das Filmskript als auch das Filmmaterial selbst und stellt
Im Bereich Game-Design optimiert ein System
anhand der ausgewählten Idiome den optimierten
242
Filmschnitt her.
mittels Reinforcement Learning den Levelaufbau für Racing- und Platform-Games und passt das Design nach Vorgabe des Schwierigkeitsgrads an. Das Wis-
Zum vierten und letzten Bereich dieser System-
sen von Game-Designer:innen darüber, wie schwierig
klasse zählen solche Systeme, die den Gesichtspunkt
ein Level ist, konnte das intelligente System lernen
der Nachhaltigkeit in den Gestaltungsprozess inkor-
und unterstützt daher eher unerfahrene Designer:in-
porieren. Diese Systeme unterstützten Designer:in-
nen. Diese können sich dann ganz auf die Details des
nen, indem sie aufzeigen, welche Designentwürfe
Levels und die visuelle Ausstattung konzentrieren.
eine positivere Wirkung auf Nachhaltigkeit und Umweltschutz haben, etwa in der Architektur, 245 beim
Im Bereich Filmschnitt augmentiert ein System 243
Flugzeugbau 246 oder in der Gestaltung von Bohrtür-
die Fähigkeiten von Designer:innen, Filmtrailer zu
men. 247 Im vierten Kapitel wird ein solch intelligentes
editieren. Das System nutzt sowohl das Filmskript
System noch einmal anhand von Spacemaker in einer
als auch das Filmmaterial und wertet dann die Text-,
Case Study ausführlich dargestellt.
Sprach- und Bildebene aus, um die narrative Struktur des Films und die emotionale Verfasstheit der
Insgesamt erweitern alle optimierenden Systeme
Charaktere zu erkennen. Es hat sogar kausale Be-
die kognitiven Fähigkeiten der Designer:innen und
ziehungen von wichtigen Handlungen und Ereignis-
befähigen sie dadurch, Designentscheidungen noch
sen im Film gelernt. Mittels Unsupervised Learning
genauer an strategischen, designerischen, geschmack-
identifiziert das System wichtige emotionale und
lichen oder physikalischen Vorgaben und Prinzipien
plotbasierte Handlungspunkte und stellt diese als
auszurichten – sei es aus Gesichtspunkten der Wir-
grafische Landkarte dar. Die Punkte auf der Landkar-
kung des Designs auf Wahrnehmung und Geschmack
te repräsentieren dann die wichtigsten Plot-Points.
der Nutzer:innen oder auf die Umwelt, sei es aus Ge-
Das System schlägt dann den Trailer-Schnitt vor,
sichtspunkten der physikalischen Funktionalität des
indem es eine ausgewählte Linie zieht zwischen den
Designs oder aus wirtschaftlichen Erwägungen, sei es
Plot-Points.
für Spielspaß oder für Vorgaben einer wiedererkennbaren Marke. Das Wissen um Wettbewerber, Pro-
Ein weiteres System
244
dukteigenschaften, Designprinzipien und Nutzer:in-
hat verschiedene Stile des
Filmschnitts gelernt und assistiert nun während des
nenverhalten, das Designer:innen entweder nicht
Filmschnitts für dialoggetriebene Szenen. Das System
besitzen oder sich langwierig und mühsam erarbeiten
242 Gisslén, Linus/Eakins, Andy/Gordillo, Camilo: „Adversarial Reinforcement Learning for Procedural Content Generation“, https://arxiv.org/abs/2103.04847 (4.2.2022). 243 Papalampidi, Pinelopi/Keller, Frank/Lapata, Mirella: „Film Trailer Generation via Task Decomposition“, https://arxiv.org/ abs/2111.08774 (4.2.2022). 244 Leake, Mackenzie/Davis, Abe/Truong, Anh et al.: „Computational video editing for dialogue-driven scenes“, https://dl.acm.org/ doi/10.1145/3072959.3073653 (4.2.2022).
245 Digital Blue Foam: „Synthetic Machine Learning: Real-time Spatial Daylight Autonomy Prediction“, https://www.digitalbluefoam.com/whitepapers/ daylight-autonomy (4.2.2022). 246 Bertoni, Alessandro/Hallstedt, Sophie/Dasari, Siva et al.: „Integration of value and sustainability assessment in design space exploration by machine learning: an aerospace application“, https://doi.org/10.1017/dsj.2019.29 (4.2.2022). 247 Mattson, Christopher/Pack, Andrew/Lofthouse, Vicky et al.: „Using a Product’s Sustainability Space as a Design Exploration Tool“, https://doi.org/10.1017/ dsj.2018.6 (4.2.2022).
Kapitel 3: Gestaltung mit und für intelligente Systeme
80
müssen, bauen diese Systeme grundlegend in den Ge-
entfallen, weil Bildmaterial in eine gewünschte
staltungsprozess ein. Sie augmentieren gestalterische
Qualität für die finale Designumsetzung transferiert
Fähigkeiten und erweitern sie so um ein Wissen, das
werden kann.
die Gestaltung funktionaler, erfolgreicher und angenehmer, sprich optimaler macht. Damit ändert sich
Im dreidimensionalen virtuellen Raum überneh-
die Qualität von Gestaltung erheblich.
men intelligente Systeme auch das Texturing von Modellen. Zum einen übernehmen Systeme die automa-
Die zweite große Klasse von Systemen lässt High-
tische Berechnung von fotorealistisch aussehenden
Fidelity-Prototypen und fertige Produkte schneller
Oberflächen. Programme wie Adobe Substance 3D 251
entstehen. Sie besteht im Wesentlichen aus Systemen,
erlauben es mittels Fotogrammetrie, 2D-Fotos in
die Designentscheidungen automatisieren. Das sind
3D-Oberflächen zu überführen und auf 3D-Modelle
vor allem Prozessschritte, die Designer:innen nicht
anzuwenden oder auch eigene Materialien leicht auf
von Hand machen möchten, weil sie ermüdend,
3D-Oberflächen zu transferieren. Zum Teil sind die
zeitaufwendig und wenig kreativ oder einfach nicht
Ergebnisse so realistisch, dass man Fotoshootings für
händisch umsetzbar sind, wie beispielsweise Motion
Produkte nicht mehr benötigt. Der Design-Workflow
Capture, Rotoscoping, Image Inpainting, Image Crop-
wird hier erheblich automatisiert und erleichtert.
ping oder Texturing.
Auch besonders aufwendige und detaillierte Materialien werden mit den intelligenten Systemen leicht
Die erste Abteilung in dieser Klasse sind Syste-
einsetzbar. 252 Zudem simulieren Deep-Learning-
me, die automatisch Bilder bearbeiten. Hier sind
Systeme 253 immer besser und immer naturgetreuer
vor allem die Verfahren Image Inpainting 248, Image
komplexe physikalische Gesetze für Partikel und
Denoising 249 und Image Upscaling oder Image
damit für virtuelle Materialien wie Sand, Wasser oder
Uprezing
halbfeste Stoffe. Aufwendige Vor- und Nachbearbei-
250
zu nennen, die bereits ebenfalls als
neuronale Filter in Adobe Photoshop verfügbar sind.
tungen von 3D-Modellen entfallen hier durch die
Beim Image Inpainting werden Bildbereiche, die
immer komplexeren Simulationen.
nicht oder nicht mehr vorhanden sind, vom System ergänzt. So können ganze Bereiche aufgefüllt oder
Im 3D-Bereich ist neben den Physics Simulations
Gegenstände aus dem Bild retuschiert werden. Mit
vor allem das Motion-Capture-Verfahren ein großes
dem Image Denoising wird das Bildrauschen redu-
Anwendungsgebiet für automatisierende intelligente
ziert. Bilder werden so schärfer und gewinnen an
Systeme. Große Firmen wie Disney haben Systeme
Qualität. Image Upscaling bezieht sich auf die Bild-
wie Medusa oder Anyma 254 entwickelt, die Motion
auflösung, die mittels intelligenter Systeme erhöht
Capture für Gesichter im hochauflösenden Bereich
wird. Mit allen drei Verfahren steigt die Qualität
erlauben, ohne dass Schauspieler:innen mit Tracking-
vorhandener Bilder und aufwendige Recherchen
Dots aufwendig markiert werden müssten. Die 251 Adobe: „The 3D generation is here“, https://www.adobe.com/products/
248 Zeng, Yu/Lin, Zhe/Yang, Jimei et al.: „ProFill: High-Resolution Image Inpainting with Iterative Confidence Feedback and Guided Upsampling“, https://zengxianyu.github.io/iic (4.2.2022). 249 Laine, Samuli/Karras, Tero/Lehtinen, Jaakko et al.: „High-Quality Self-Supervised Deep Image Denoising“, https://arxiv.org/abs/ 1901.10277 (4.2.2022). 250 Salian, Isha: „What Is AI Upscaling?“, https://blogs.nvidia.com/blog/ 2020/02/03/what-is-ai-upscaling (4.2.2022).
substance3d/3d-augmented-reality.html (4.2.2022). 252 Kuznetsov, Alexandr/Mullia, Krishna/Xu, Zexiang: „NeuMIP: Multi-Resolution Neural Materials“, https://arxiv.org/abs/2104.02789 (4.2.2022). 253 Sanchez-Gonzalez, Alvaro/Godwin, Jonathan/Pfaff, Tobias: „Learning to Simulate Complex Physics with Graph Networks“, https://arxiv.org/abs/ 2002.09405 (4.2.2022). 254 Disney Research: „Anyma“, https://studios.disneyresearch.com/anyma (4.2.2022). Disney Research: „Medusa“, https://studios.disneyresearch.com/medusa (4.2.2022).
Kapitel 3: Gestaltung mit und für intelligente Systeme
81
Schauspieler:innen können sich zudem auch frei
entfallen mit einem System wie beispielsweise Jali 260
bewegen und ohne Einschränkung ihren Character
dann. Für das Game-Development bedeutet dies, dass
spielen. Andere Systeme wie Move.ai 255 erlauben
Sprachversionen für viele Märkte gleichzeitig aus-
Motion Capture ohne die rigiden Motion-Capture-
geliefert werden können.
Anzüge und erkennen menschliche Bewegung schon in einfachen Videobildern. Andere Systeme 256 wie-
Im Filmbereich automatisieren intelligente Syste-
derum haben gelernt, wie sich Menschen bewegen,
me aufwendige Prozesse wie Rotoscoping bzw. Chro-
und können typische Bewegungen, wie etwa das
ma Keying. Runway ML 261 beispielsweise bietet die
Hinsetzen, komplett simulieren. Dies eröffnet neue
Möglichkeit, unerwünschte Hintergründe in Videos
Freiheiten bei der Entwicklung von Game-Charak-
automatisch zu entfernen. Damit sparen Filmdesig-
teren. Systeme wie ZRT 257 erlauben es, 3D-Modelle
ner:innen erheblich Zeit im Designprozess.
automatisch zu riggen und zu animieren. Das System übernimmt die zeitintensive Arbeit, all die Bereiche
Im Bereich Modedesign überträgt ein intelligentes
zu definieren, die sich bei einem 3D-Modell bewegen
System 262 automatisch Schnittmuster auf unter-
lassen. In wenigen Stunden überträgt das System
schiedliche Körpergrößen, ohne dafür vordefinierte
alle wesentlichen Eigenschaften auf das Modell, die
Regeln zu benötigen. Das erlaubt, schneller Maß-
vorher aufwendig durch Rigging und Animation
konfektionen zu erstellen und großflächig in den
ausgearbeitet werden mussten. Mittlerweile können
Fast-Fashion-Markt zu bringen. Ein letztes System 263
Deep-Learning-Systeme auch im Bereich Game-
erlaubt das interaktive Editing für die Strickmuster-
Character-Steuerung flüssige und realistische
erstellung. Damit können Strickwaren noch schneller
Bewegungen sowohl für zweibeinige
entworfen, für die Maschine vorbereitet und fertig-
258
wie auch für
gestellt werden.
vierbeinige 259 Spielcharaktere lernen und so Rigging und Animieren der Charaktere automatisieren.
Insgesamt wird deutlich, dass diese Klasse der Ebenfalls für Character-Animation gibt es Syste-
intelligenten Systeme arbeitsintensive und repetitive
me, die sicherstellen, dass Charaktere lippensynchron
Arbeitsschritte im Designprozess automatisiert und
sprechen. Das System kann auf Basis einer Audio-
so erlaubt, schneller fertige Designprototypen herzu-
spur die Lippen der Charaktere mit der Audiodatei
stellen und Designlösungen zu finalisieren.
synchronisieren. Aufwendige Einzelbearbeitungen
255 Move.ai: „High fidelity Motion Capture from video“, https://www.move.ai (4.2.2022). 256 Chao, Yu-Wei/Yang, Jimei/Chen, Weifeng et al.: „Learning to Sit. Synthesizing Human-Chair Interactions via Hierarchical Control“, https://arxiv.org/abs/1908.07423 (4.2.2022). 257 Ziva Dynamics: „ZRT Face Trainer“, https://zivadynamics.com/ zrt-face-trainer (4.2.2022). 258 Holden, Daniel/Komura, Taku/Saito, Jun: „Phase-functioned neural
260 Jali Research: „Rule Based AI + Animation Principles + Human Insight“, http://jaliresearch.com (4.2.2022). 261 RunwayML: „Runway: The fastest way to edit video“, https://runwayml.com (4.2.2022). 262 Wang, Huamin: „Rule-free sewing pattern adjustment with precision and efficiency“, https://dl.acm.org/doi/10.1145/3197517.3201320 (4.2.2022). 263 Kaspar, Alexandre/Wu, Kui/Luo, Yiyue et al.: „Knit sketching: from
networks for character control“, https://dl.acm.org/
cut & sew patterns to machine-knit garments“, https://dl.acm.org/
doi/10.1145/3072959.3073663 (4.4.2022).
doi/10.1145/3450626.3459752 (4.2.2022).
259 Zhang, He/Starke, Sebastian/Komura, Taku et al.: „Mode-adaptive neural networks for quadruped motion control“, https://dl.acm.org/doi/10.1145/3197517.3201366 (4.2.2022).
Kapitel 3: Gestaltung mit und für intelligente Systeme
82
3.2.6 Resultate
In einem letzten Bereich können Designer:innen High-Fidelity-Prototypen mithilfe von intelligenten Systemen sogar testen. So prognostiziert ein Sys-
Sichtbar wird, dass in allen Phasen des Designpro-
tem
zesses intelligente Systeme sinnvoll assistieren,
264
die Reaktion der Nutzer:innen über verschie-
dene Interfaces hinweg und ermöglicht Tests ganz
optimieren und automatisieren. Lernende Systeme
ohne die User:innen. Ein zweites System 265 prüft
erleichtern und beschleunigen den Entwurfsprozess
gestaltete Interfaces und gleicht sie mit bestehenden
und schaffen dadurch neue Freiheitsgrade für Desig-
Designheuristiken ab. Basierend auf diesem Prüf-
ner:innen. Sie verbessern prozedurale Workflows
schritt empfiehlt das System Änderungen im Proto-
und ersetzen anstrengende, zeitaufwendige Design-
typ, der die Usability und damit die User Experience
aufgaben.
verbessert. Statt also selbst aufwendig nach Diskrepanzen in der Gestaltung zu suchen, übernimmt das
Sie ermöglichen aber auch neue Formen des Expe-
System diese Suche für Designer:innen. Das dritte
riments und erhöhen damit den Grad der Kreativität
System 266 erkennt die emotionalen Reaktionen von
der Gestalter:innen erheblich.
User:innen und erlaubt beispielsweise Testdurchläufe für Werbeclips. Auf diese Weise können Designer:in-
Prinzipiell können intelligente Systeme eine
nen erkennen, ob Zuschauende an den richtigen
große Bandbreite von Eingabedaten, wie Gesten,
Stellen emotional eingebunden sind.
Töne, Sprache, Bewegungen oder Bilder, mit unterschiedlichsten Ausgabedaten verknüpfen. So entstehen neue Formen der Interaktion von Gestalter:in und Maschine und neue gestische, sprachliche und mimische Interaktionsparadigmen. 267 In Zukunft werden Interaktion und Gestaltung mit intelligenten Systemen sicher zunehmend multimodaler und natürlicher. Es ist nicht unwahrscheinlich, dass Designer:innen immer mehr mit intelligenten Interfaces sprachlich interagieren und durch Gesten spezifizieren, auf welche Bereiche sich die sprachliche Eingabe bezieht. Im folgenden Kapitel soll die Funktion intelligenter Interfaces daher näher beleuchtet werden. Grundsätzlich wird mit den intelligenten Systemen der Möglichkeitsraum größer, den Designer:innen erkunden können und der ihnen als Inspiration dienen kann. Die Systeme erhöhen die gestalterische
264 Li, Yang/Bengio, Samy/Bailly, Gilles: „Predicting Human
Freiheit, da sie es erlauben, sich von Referenzen in
Performance in Vertical Menu Selection Using Deep Learning“, https://dl.acm.org/doi/10.1145/3173574.3173603 (21.4.2022). 265 Chen, Chun-Fu/Pistoia, Marco/Shi, Conglei et al.: „UI X-Ray: Interactive Mobile UI Testing Based on Computer Vision“, https://dl.acm.org/doi/10.1145/3025171.3025190 (21.4.2022). 266 Affectiva: „Affectiva Media Analytics for Ad Testing“, https://www.affectiva.com/product/affectiva-media-analyticsfor-ad-testing (21.4.2022).
267 Hebron, Patrick: Machine Learning for Designers, Boston: O’Reilly Media 2016, S. 24.
Kapitel 3: Gestaltung mit und für intelligente Systeme
83
der Wirklichkeit zu entkoppeln und Dinge zu visuali-
Gleichzeitig werden auch die Grenzen der ex-
sieren, die es so nicht gibt, und dies in einer Qualität,
plorativen, generativen und optimierenden Systeme
die weit über Low-Fidelity-Prototypen hinausgehen
sichtbar. Intelligente Systeme werden bisher auf Bild-
kann. Natürlich droht damit auch die Gefahr, dass
gegenstände trainiert, die ihren Ursprung in infor-
alle Entwürfe, die mit denselben Algorithmen ge-
matischen Forschungsprojekten haben und nicht in
fertigt wurden, gleich aussehen. Hier deutet sich an,
den Anwendungsgebieten des Designs. Mit anderen
dass Designer:innen die intelligenten Werkzeuge
Worten sind oft nur generative Systeme verfügbar,
teilweise selbst anpassen und gestalten müssen, um
die einige wenige Bildgegenstände wie beispielsweise
zu wirklich überzeugenden Ergebnissen zu kommen.
Gesichter, Katzen oder Autos generieren können. Für
Die Arbeiten Sophia Crespos, die im vierten Kapitel
alle anderen Gegenstände müssen Designer:innen
in einer Case Study vorgestellt werden, sind ein ge-
und Unternehmen ihre Werkzeuge selbst erstellen,
lungenes Beispiel dafür, dass Design, das mit GANs
wollen sie deren volles Potenzial ausschöpfen.
entstanden ist, nicht nach der typischen frühen GANÄsthetik aussehen muss. Es wird auch deutlich, dass Designer:innen nicht mehrheitlich ersetzt, sondern ihre Fähigkeiten erweitert werden. Es bedarf der menschlichen Intelligenz, um die Ergebnisse maschineller Systeme zu evaluieren, kritisch zu reflektieren und im Designprozess sinnvoll einzubinden. Es bedarf aber auch Designer:innen, die Schnittstellenwissen besitzen, wie man Daten strategisch einsetzt. Einen qualitativen Sprung schaffen zudem Systeme, die menschliche Kreativität und Wahrnehmung erweitern und so Informationen liefern, über die Designer:innen nicht ohne Weiteres verfügen. Solche Systeme führen Intelligence Augmentation in den Gestaltungsprozess ein. Damit ändert sich die Qualität von Gestaltung erheblich, denn nun sind die Ergebnisse von Gestaltung nicht mehr nur das Ergebnis einer Kreativität von Menschen, die digitale Tools einsetzen, sondern das Ergebnis eines Co-Designs von Mensch und Maschine.
Kapitel 3: Gestaltung mit und für intelligente Systeme
84
3.3 Gestaltung für intelligente Systeme:
Frage, wie gut eigentlich der Geschmack der Nutzerin
Intelligence Experience
vorhergesagt wird. Das berührt aber auch Fragen der Personalisierung von Kommunikationsmitteln, wie
Statistische Lernverfahren unterstützen nicht nur
etwa die Fotos und Texte, die die Filme und Serien
den Designprozess, sie beeinflussen auch das gestal-
im Netflix-Interface repräsentieren. Die Gestaltung
tete Produkterlebnis, die sogenannte User Experience.
eines solchen Fernseherlebnisses schließt Fragen des
Auch für den Bereich der intelligenten User Expe-
Aufbaus und der Funktionsweise dieses Interfaces
rience fehlt bisher ein umfassender theoretischer
und das Problem ein, wie viel Information Nutzer:in-
Überblick, der es Designer:innen, Designmana-
nen benötigen, um sich für Inhalte zu entscheiden.
ger:innen und Designtheoretiker:innen ermöglicht,
Es endet bei ethischen und rechtlichen Fragen, wie
sich das Feld systematisch zu erschließen. Dieses
legitim es ist, Nutzer:innen mit immer neuen Film-
Forschungsdesiderat zu beheben und ein kohärentes
vorschlägen zum sogenannten Binge-Watching, also
Ordnungsprinzip intelligenter Designerlebnisse zu
zu exzessivem Fernsehgenuss, zu überreden, genauso
skizzieren, wird im folgenden Kapitel erörtert.
wie Fragen des Datenschutzes für die Nutzer:innendaten.
Wenn zukünftige Handlungen, Wünsche, Erfahrungen und Ereignisse maschinell antizipiert werden
Wenn intelligente Systeme in digitale Produkte
können, dann kann man sie auch in digitalen Produk-
Einzug halten, werden sie also zum Designmaterial im
ten einsetzen und so das Produkterlebnis entschei-
Prozess der Gestaltung einer neuen User Experience.
dend bereichern. Das intelligente Fernseherlebnis
Im nun folgenden Kapitel sind daher Fragen zentral,
beispielsweise besteht dann nicht mehr darin, dass
die das Erleben digitaler Produkte betreffen, das sich
sich eine Nutzerin an ein feststehendes Fernsehpro-
durch die Prognosemöglichkeiten des statistischen
gramm anpasst. Es besteht auch nicht vordergründig
Lernens grundlegend verändert. Wie geht man als
darin, dass sie aus einer riesigen Menge digitaler
Designer:in mit den intelligenten Systemen als
Videos zeitlich und räumlich frei auswählen kann.
Designmaterial um und welche Gestaltungsprinzipi-
Stattdessen besteht es darin, dass ein intelligentes
en gelten für dieses Material? Welche Erwartungen
System, das den Geschmack der Nutzerin kennt,
haben Nutzer:innen an intelligente Systeme und wie
die Videos personalisiert vorschlägt. Firmen wie
kann man ihnen gerecht werden? Wie sieht eine ge-
Netflix, Disney oder Apple bieten dieses intelligente
lungene User Experience aus, die Nutzer:innen durch
Fernseherlebnis auf der Basis von Empfehlungs-
Prognosen unterstützt und neue, hilfreiche Formen
algorithmen seit einiger Zeit erfolgreich an. Damit
der Interaktion schafft? Welche Herausforderungen
haben es Designer:innen, die ein solch intelligentes
und Probleme entstehen durch diskriminierende
Produkterlebnis gestalten wollen, mit einer neuen
Systeme für Designer:in und Nutzer:in? Was passiert,
grundlegenden Frage zu tun: Auf welche Weise und
wenn intelligente Systeme nutzer:innenspezifische
mit welchen Daten können intelligente Systeme Nut-
Anpassungen der Interfaces vornehmen können?
zer:innenbedürfnisse befriedigen und ein hilfreiches
Dies sind nur einige der zentralen Fragen, die in die-
und angenehmes Nutzer:innenerlebnis schaffen? Das
sem Kapitel beantwortet werden sollen. Dabei wird
schließt am Beispiel von Netflix Fragen der Empfeh-
eine Unterteilung in vier Unterkapitel vorgenommen:
lungsalgorithmen und ihrer Genauigkeit ein, also die
Das erste beschäftigt sich mit zwei zentralen Eigen-
Kapitel 3: Gestaltung mit und für intelligente Systeme
85
schaften intelligenter Systeme, die für intelligentes
Umweltbewusstsein er hat. Wer die Körpergröße
Produkterleben relevant sind. Das ist zum einen die
eines Menschen kennt, kann seine Kleidergröße vor-
Vorhersage als Moment ganz neuer Produkterlebnis-
hersagen. Sind die Daten noch umfangreicher und
se, zum anderen ist es die Personalisierung der Pro-
geben Aufschluss über Produkte, die jemand in der
dukte. Im Zentrum steht die Frage, wie sich Gestal-
Vergangenheit gekauft oder genutzt hat, kann man
tung und Produkterlebnis verändern, wenn Produkte
mittels statistischer Lernverfahren auch vorhersagen,
Nutzer:innenpräferenzen bis auf eine individuelle
welche Inhalte und Produkte ihn oder sie zukünf-
Ebene vorhersagen können.
tig interessieren werden. Es lassen sich aber auch Wahrscheinlichkeiten berechnen, mit denen Mails als
Das zweite Unterkapitel beschäftigt sich mit Fra-
Spam erkannt werden oder Kontobuchungen mög-
gen, die aufgeworfen werden, wenn die Schnittstelle
liche Kreditkartenbetrüge sind. All diese Prognosen
zu den Nutzer:innen durch intelligente Systeme mehr
sollen das Leben der Nutzer:innen sicherer, leichter
und mehr Daten erkennen und sinnvoll verarbeiten
und zufriedener machen, ihre Bedürfnisse nach Si-
kann. Wenn also Interfaces gesprochene Sprache,
cherheit, Verbundenheit, Übersichtlichkeit, Spaß und
Gesten, Emotionen und Bilder aufnehmen und sogar
mehr befriedigen.
multimodal verwerten können. Wenn also User:innen immer natürlicher mit digitalen Produkten interagie-
Die Fähigkeit der Prognose wird in immer mehr
ren und sich diese Interfaces sogar dynamisch für das
sozialen, beruflichen und privaten Kontexten relevant
Verhalten der Nutzer:innen gestalten lassen.
und mittlerweile werden viele digitale Produkte bereits mit einer mehr oder weniger ausgereiften Form
In einem dritten Kapitel werden die Modi intel-
von intelligentem System ausgestattet. Einigen Pro-
ligenter Produkterlebnisse besprochen und es wird
dukterlebnissen liegen sogar ganz zentral intelligente
erklärt, welche Faktoren für User Experience, kurz
Systeme zugrunde. Die User Experience von intelli-
UX, einschlägig sind. Das letzte Unterkapitel leitet
genten Kartensystemen wie Google Maps beispiels-
Designprinzipien für intelligente User Experience
weise verfügt über viele Millionen Datenpunkte von
anhand einschlägiger Frameworks ab und erarbeitet
Nutzer:innen und kann so unter anderem Verkehrs-
zentrale Bereiche, die es als Designer:in zu beachten
staus vorhersagen. Das System prognostiziert, auf
gilt, will man gute User Experience gestalten.
welcher Straße sich gerade der Verkehr staut, indem es aus den Mobildaten relevante Daten entnimmt und
3.3.1 Vorhersage und Personalisierung als
auswertet. Halten sich viele Mobiltelefone gleich-
zentrale Eigenschaften von Intelligence
zeitig am selben Ort in einem bestimmten Abstand
Experience
über einen bestimmten Zeitraum hinaus auf, erkennt das System mit hoher Wahrscheinlichkeit einen Stau.
Deutlich wurde im Kapitel über statistische Lernver-
Zudem kann es mit einem Farbsystem indizieren,
fahren, dass sie prognostische Fähigkeiten besitzen.
wie gravierend der Verkehrsstau ist und um wie viele
Sie können aus historischen Daten statistisch wahr-
Minuten sich die Fahrt verzögert. Der Nutzen für
scheinliche zukünftige Ereignisse vorhersagen. Wer
User:innen liegt auf der Hand. Sie erkennen nicht
das Alter eines Menschen kennt, kann dann prog-
nur, wo sich der Verkehr ganz konkret staut, sondern
nostizieren, welches Gehalt er verdient oder welches
auch wie lange er dauert und ob sie rechtzeitig zu
Kapitel 3: Gestaltung mit und für intelligente Systeme
86
ihrem Termin kommen. Sie können somit präventiv
schaffen. Vielmehr ist es der Dreiklang aus aktuellem
entscheiden, ob sie mehr Zeit einplanen, ob sie eine
Bedürfnis der Nutzenden, dem Wissen der statisti-
alternative Route nehmen oder Meetings von zu
schen Lernverfahren und ihrer Integration in ein gut
Hause abhalten oder sogar verschieben. In jedem Fall
bedienbares User Interface. Alle drei Ebenen erschaf-
haben sie durch die Stauanzeige mehr Handlungs-
fen zusammen erst das intelligente Produkterlebnis,
optionen und damit mehr Kontrolle bekommen. Ihr
das darüber entscheidet, ob das Produkt als nützlich,
Erlebnis hat sich dadurch verbessert und sie können
unterhaltsam und schön empfunden wird oder als
dank des intelligenten Systems positiv gestimmt blei-
kompliziert, anstrengend und bedrohlich.
ben. Eine Erfahrung, die User:innen dann auch von allen anderen Karten-Apps erwarten.
Unter User Experience versteht man also ein ganzheitliches Produkterlebnis, das sich nicht nur auf
Das Nutzer:innenerlebnis setzt sich also zu-
die Interaktion von Mensch und Maschine mit dem
sammen aus drei Ebenen: erstens der Nützlichkeit
sogenannten User Interface beschränkt, die vor allem
einer solchen Stauwarnung für die Nutzer:innen, die
Regeln der Benutzerfreundlichkeit folgt. User Expe-
wiederum von deren Bedürfnissen abhängt. Zweitens
rience umfasst die psychologische, emotionale und
davon, dass das trainierte Machine-Learning-Modell
soziale Wirkung von Gestaltung über einen bestimm-
verlässlich funktioniert. Dazu muss das Modell ein
ten Zeitraum hinweg, die oft über die Interaktion mit
mehr oder weniger umfangreiches Wissen von der
dem User Interface hinausgeht. 268 Das Konzept der
Domäne haben, in der sich die Nutzer:innen bewe-
User Experience stellt dieses ganzheitliche Produkt-
gen. In diesem Fall ist es das Wissen über die Ver-
erlebnis in den Vordergrund und begreift Design als
kehrslage und darüber, welche Datenpunkte unter
die Herausforderung, ein solches Erlebnis, egal ob
welchen Bedingungen als Stau klassifiziert werden
für physische oder digitale Produkte, so zu gestalten,
können. Dieses Wissen ist oftmals kein starres
dass es die sachlichen, emotionalen, psychologischen
Wissen, sondern entwickelt sich mit und durch die
und sozialen Bedürfnisse der Nutzer:innen best-
Nutzung weiter. Die dritte Ebene betrifft die gestal-
möglich befriedigt. Mit anderen Worten möchte die
tete Schnittstelle, die das intelligente System sinn-
Gestaltung der User Experience sicherstellen, dass sie
voll mit den Nutzer:innen zusammenbringt und ein
sowohl die pragmatischen Ziele der Nutzer:innen –
nützliches oder schönes Erlebnis schafft. Hierzu zählt
wie etwa ein Informationsbedürfnis – als auch ihre
beispielsweise die Art und Weise, einen Stau in der
hedonistischen Ziele – wie etwa ein Kompetenz-
Karte farblich zu markieren und damit die Stauzeit
gefühl oder einen ästhetischen Genuss – erfüllt. 269
intuitiv zu vermitteln.
Gestaltete Erlebnisse, in denen statistische Lernverfahren zentral implementiert sind, sollen Intelligence
Oft wird das Vorhersagevermögen intelligenter
User Experience oder Intelligence Experience – kurz IX –
Systeme als Eigenschaft der Gestaltung selbst ausge-
genannt werden.
drückt; dann wird Design als Predictive Design oder Anticipatory Design bezeichnet. Das ist im Grunde
Ein weiteres Beispiel soll dies bebildern: So kann
nicht genau formuliert, denn es ist nicht die Eigen-
sich ein Nutzer den ganzen Tag gut informiert und
schaft des Designs allein, ein intelligentes Erlebnis zu
kompetent für Gespräche unter Kolleg:innen fühlen,
268 Moser, Christian: User Experience Design, Heidelberg: Springer Vieweg 2012, S. 13. 269 Hassenzahl, Marc: „User experience (UX): towards an experiential perspective on product quality“, https://dl.acm.org/doi/10.1145/1512714.1512717 (21.4.2022).
Kapitel 3: Gestaltung mit und für intelligente Systeme
87
wenn er morgens auf der News-App seiner Wahl die
Im oben zitierten Beispiel liefert der Empfehlungs-
für ihn relevantesten Artikel des Tages vorgeschlagen
algorithmus Inhalte nur für diesen einen Nutzer. Er
bekommt und liest. Entsprechend positiv bestärkt, je-
bekommt nur Nachrichten angezeigt, die mit hoher
den Morgen Zeit mit der App zu verbringen, baut der
Wahrscheinlichkeit auch seinem Informationsbedürf-
Nutzer eine tägliche Routine auf, die er als zeitliche
nis entsprechen. Die IX personalisiert also Erlebnisse,
Investition in die App empfindet und der App des-
die auf die individuellen Präferenzen, Erwartungen
halb immer verbundener wird, je länger er sie nutzt.
und Gewohnheiten des Nutzers abgestimmt sind.
Die IX speist sich also zunächst sowohl aus der direkten Interaktion mit der App und dem befriedigten
Intelligente Systeme können nun je nach Wissen
Informationsbedürfnis als auch aus dem anhaltenden
über Kontext und Nutzer:in verschiedene Bereiche
Gefühl, in sozialen Interaktionen immer kompetent
personalisieren. Soll erstens der Kontext der Nutzung
und informiert zu sein. Dabei hat die App in diesem
personalisiert werden, dann lernen intelligente Sys-
Beispiel nicht mehr nur ein Wissen über die Welt der
teme den Zusammenhang von Nutzer:in und Umwelt
Nachrichten, sondern zugleich auch ein Wissen über
und leiten daraus Nutzungsszenarien ab. Beispiels-
ihren Nutzer und dessen Informationsbedürfnis und
weise kann eine Nutzerin sich den Kalorienverbrauch
kann somit Inhalte zielgenau anpassen. Langweilt
für verschiedene Strecken durch eine Lauf-App vor-
sich der Nutzer nach einem längeren Nutzungszeit-
hersagen lassen. Anhand bestimmter Datenpunkte
raum, kann das System andere Arten von Inhalten
der Strecken, wie Höhenverlauf oder Terrain, sowie
vorschlagen, die der neuen Vorliebe des Nutzers nach
Körpergröße und -gewicht der Läuferin bestimmt das
überraschenden Inhalten stärker entspricht.
intelligente Systeme dann den individuellen Verbrauch. Nutzer:innen kann das wiederum motivieren,
Eine gute IX steht in diesem Fall vor der Heraus-
mehr Kalorien zu verbrauchen und längere Strecken
forderung, die richtige Balance zwischen gewollter
zu laufen, also insgesamt die App länger zu nutzen.
Routine und Überraschung zu liefern. Deutlich wird, dass die Intelligence Experience situativ und subjek-
Sollen zweitens Vorlieben der Nutzer:innen perso-
tiv ist und von den Erwartungen und Erfahrungen
nalisiert werden, lernt das intelligente System den
der Nutzer:innen genauso abhängt wie von ihren
Zusammenhang zwischen den Präferenzen der Nut-
aktuellen Bedürfnissen und der eigentlichen Gestal-
zer:innen und den Inhalten. Das intelligente Fern-
tung des Produkts.
seherlebnis ist ein Beispiel hierfür, denn intelligente Systeme lernen den Zusammenhang von geschauten
In einer wesentlichen Hinsicht verändern die pro-
und bewerteten Filmen sowie dem Geschmack
gnostischen Eigenschaften der statistischen Lernver-
der Nutzer:innen, um dann angemessene Filme zu
fahren das Produkterlebnis also entscheidend. Statt
empfehlen. Der Kontext der Nutzung spielt für die
einfach nur einen zufälligen oder vorher festgelegten
Filmempfehlungen nur eine marginale Rolle und das
Inhalt angezeigt zu bekommen, der für alle Nutzer:in-
System hat keine Kenntnis darüber, in welcher Situa-
nen gleich ist, erlauben es diese Verfahren, jede Art
tion die Zuschauenden ihre Filme schauen.
von Inhalt mehr oder weniger genau auf die Vorlieben und Interessen der Nutzer:innen abzustimmen.
Kapitel 3: Gestaltung mit und für intelligente Systeme
88
Ein dritte Klasse von Systemen für Personalisierung diese Daten dann genutzt werden können, um komkombiniert Wissen über den Kontext und die Nutzer:in-
plexes Verhalten zu erkennen, dann werden Nutzer:
nen. Beispielsweise besitzt ein intelligentes System,
innenschnittstellen zu sogenannten Intelligent User
das Nutzer:innen individuell in ihrem Style beraten
Interfaces.
kann, sowohl Wissen über Modestile als auch Kontextwissen über Modesaison und Anlässe. Zugleich
Im Unterschied zu traditionellen User Interfaces
verknüpft das System Wissen über die Nutzer:innen
sind intelligente User Interfaces in der Lage, über
und ihre stilistischen Vorlieben mit dem Kontextwis-
ihre Nutzer:innen sowie deren Aufgaben und die
sen. Zwischen diesen drei Bereichen lernt das System
Nutzungssituationen, aber auch über die Medien, die
dann relevante Zusammenhänge und kann je nach
sie nutzen, sinnvoll zu schlussfolgern. Damit ist die
Nutzer:in, Stil und Anlass individuelle Modetipps
Aufgabe dieser intelligenten Interfaces auch schon
geben.
deutlich; sie besteht darin, die Interaktion mit Nutzer:innen effektiver, effizienter und natürlicher zu
Insgesamt reduziert IX durch Personalisierung den
machen. 271 Das schaffen intelligente Interfaces, indem
kognitiven Aufwand und wirkt damit Entscheidungs-
sie Modelle erstellen, auswerten und nach ihnen han-
müdigkeit entgegen. Es erweitert aber auch kognitive
deln, die Wissen über Ziel und Kontext einer Aufgabe
Fähigkeiten, die die Nutzer:innen vorher nicht beses-
haben, die mit und durch die Interaktion bewältigt
sen haben oder nur mühsam selbst für sich und ihre
werden soll. Intelligente Interfaces verfügen darüber
Interessen ermitteln müssten. Dass Personalisierung
hinaus auch über ein Verständnis der Aufgabe, die
in digitalen Produkten immer zentraler wird, zeigt
Nutzer:innen erledigen möchten, sowie über die Situ-
beispielsweise der Autohersteller Audi, der Personali-
ation, in der sie sich befinden. Intelligente Interfaces
sierung bereits als leitendes Designprinzip verankert
verstehen nicht nur, wie sich Nutzer:innen verhalten,
hat.
sondern auch wieso sich tatsächliches Verhalten von
270
erwartetem Verhalten unterscheidet. 3.3.2 Intelligente User Interfaces Diese Art von intelligenten Schnittstellen sind in Mit intelligenten Systemen ist es nicht nur möglich,
der Lage, viele unterschiedliche Datenquellen gleich-
Interaktionen und Inhalte zu antizipieren und zu per-
zeitig zu verarbeiten und sinnvoll aufeinander zu
sonalisieren. Intelligente Systeme modifizieren auch
beziehen. So können Menschen mit dem Finger auf
die digitalen Schnittstellen, also die User Interfaces,
einen Gegenstand zeigen und gleichzeitig darüber
durch die User:innen mit digitalen Systemen inter-
sprechen. Diese Art der kontextabhängigen Interak-
agieren. Je umfangreicher Art und Menge der Daten
tion erscheint für Menschen intuitiv und simpel, war
werden, die Interfaces erkennen und sinnvoll ver-
allerdings für Maschinen bisher äußerst schwierig
arbeiten können, umso stärker ändert sich auch
zu bewältigen, in manchen Fällen sogar unmöglich.
die Interaktion mit den Nutzer:innen und damit die
Immer effektivere intelligente Systeme können nun
IX. Wenn natürliche Sprache, Gesten, Bilder und
nicht nur menschliche Gesten und die gesprochene
Videos, Klang und Töne oder sogar Emotionen durch
Sprache erkennen, sondern beides sinnvoll aufein-
Interfaces aufgenommen werden können, wenn
ander beziehen. Die Systeme wissen dann, dass sich
270 Audi: „UX Paradigms“, https://www.audi.com/ci/en/guides/ user-interface/ux-paradigms.html (21.4.2022).
271 Maybury, Mark: „Intelligent user interfaces: an introduction“, https://dl.acm.org/doi/abs/10.1145/291080.291081 (21.4.2022).
Kapitel 3: Gestaltung mit und für intelligente Systeme
89
die gesprochenen Worte auf den gezeigten Gegen-
In Zukunft wird multimodale Interaktion durch
stand beziehen. Ein solches Paradigma der Inter-
eine stärker entwickelte Augmented und Virtual
aktion nennt man multimodal. Die Interaktion mit
Reality sicher immer relevanter und vielleicht sogar
Nutzer:innen findet also in mehr als einem Modus
zum dominierenden Interaktionsparadigma aufstei-
der Interaktion statt, kann also sprachlich, gestisch
gen. Die Vision des Unternehmens Meta, vormals
oder durch Eingabegeräte wie eine Maus stattfinden.
Facebook, für die Interaktion im Metaverse sieht
Je näher die Modi der Interaktion mit intelligenten
vor, dass Nutzer:innen selbst ihre Meta-Universen
Systemen an zwischenmenschliche Interaktionen
gestalten können; und zwar genau auf die multimo-
heranrücken, umso natürlicher wird sie von den
dale Art und Weise, wie es auch mit dem digitalen
Nutzer:innen empfunden.
Ouija-Board erprobt wurde. Nutzer:innen interagieren sprachlich und gestisch mit dem intelligenten
Ein Beispiel für ein solch multimodales intelli-
Interface, in diesem Fall einer VR-Brille. Sie nennen
gentes Interface ist das Projekt „Digital Ouija Board
den Gegenstand, den sie in ihrer VR-Welt erzeugen
for Aircraft Carrier Operations“ 272 des Massachu-
wollen, und zeigen bzw. schauen gleichzeitig auf den
setts Institute of Technology Computer Science &
Bereich, wo sie ihn platzieren wollen. Auf diese Wei-
Artificial Intelligence Laboratory, kurz MIT CSAIL.
se gestalten Nutzer:innen interaktiv und multimodal
Forscher:innen des CSAIL haben ein Interface für
ihre individuellen Welten. 273 An beiden Beispielen,
die militärische Anwendung entwickelt, was sicher
dem Ouija-Board und dem VR-Interface, wird klar,
kritisch gesehen werden muss, sich aber leicht für
dass intelligente Interfaces auch als intelligente
designerische Zwecke imaginieren lässt. Nutzer:innen
Gestaltungswerkzeuge bedeutsam sind, denn sie
können darin bestimmte Gegenstände auf einer Can-
erlauben multimodale Interaktion für Gestaltungs-
vas bewegen, indem sie auf die Gegenstände zeigen
aufgaben.
und dabei sprachliche Befehle geben, wie beispielsweise: „Bewege Gegenstand X auf diese und jene
Eine besondere Herausforderung für intelligente
Fläche!“ Das System antwortet ebenfalls in gespro-
Interfaces sind derzeit Eingabedaten, die die emo-
chener Sprache und bestätigt die Aktion entweder
tionalen Zustände von Nutzer:innen betreffen. Im
oder gibt zurück, dass die Aktion nicht ohne Weiteres
Bereich des sogenannten Affective Computing, der
ausgeführt werden kann. Es schlägt Schritte vor,
auch unter dem Namen Emotional AI bekannt ist,
wie die Aktion ausgeführt werden kann, beispiels-
erkennen und verarbeiten intelligente Interfaces
weise, wenn andere Gegenstände vorher verschoben
Basisemotionen, um dann entsprechend persona-
werden. Dazu zeigt es ebenfalls auf die betreffenden
lisierte Reaktionen des Systems zu erlauben. Zwei
Gegenstände. Das System kennt also sowohl die
fundamentale Probleme stellen sich hier aus Sicht
Aufgaben und Intentionen der Nutzer:innen als auch
der IX; das erste ist ein technisches Problem, das
den Kontext, in dem diese Aufgaben erfüllt werden
zweite ein gestalterisches. Erstens können intelli-
können, also die Anordnungsregeln der Canvas. Es
gente bildbasierte Systeme bisher die vielfältigen
gestattet natürliche Sprache und Gesten und inter-
Arten, Emotionen zu empfinden und auszudrücken,
agiert multimodal mit den Nutzer:innen.
nicht sicher genug erkennen, da die Grundlage für ihre Auswertung in vielerlei Hinsicht unzureichend
272 MIT CSAIL: „Digital Ouija Board for Aircraft Carrier Operations“, http://groups.csail.mit.edu/mug/projects/ouijaboard (21.4.2022).
273 Facebook AI: „Inside the Lab: Building for the metaverse with AI“, https://fb.watch/bmXJ194H08 (21.4.2022).
Kapitel 3: Gestaltung mit und für intelligente Systeme
90
ist. Denn erst wenn man unterstellt, dass Emotionen
schen Gesichtsausdrücken und Emotionen. Es gibt
universell, automatisch und immer gleich ausge-
mittlerweile Bestrebungen, Emotionen differenzierter
drückt werden, könnten intelligente Systeme diese
zu klassifizieren und nicht nur die Grundemotionen
auch korrekt klassifizieren. Diese Vorstellung ist in
zu erkennen. 276 Allerdings lösen auch sie individuelle,
den letzten Jahren in der akademischen Debatte im-
kontextuelle, soziale und kulturelle Komplexität zu-
mer stärker in Zweifel gezogen worden. 274 Emotionen
gunsten einfacher Erkennbarkeit auf. Man ist daher
werden zwar geteilt und sind von Menschen entzif-
längst dazu übergegangen, zusätzliche Daten zu erhe-
ferbar, aber äußerst komplex, kontextuell und sogar
ben, wie etwa durch Biosensoren oder Sentimentana-
individuell. Menschen müssen sich oft noch bei der
lyse der Stimme. 277 Mit den Augmented-Reality- und
Person verbal rückversichern oder benötigen Kon-
Virtual-Reality-Brillen werden diese Biosensoren und
textinformationen, um Gefühle genau bestimmen zu
die Sentimentanalyse zukünftig wahrscheinlich in
können. Aus dem Gesicht allein ist das für Menschen
einem einzigen Interface implementiert sein. Damit
oft nicht zweifelsfrei erkennbar.
wird deutlich, dass Emotionserkennung ein sehr invasives Vorhaben ist und sofort ethische Fragen nach
Zudem müssen Systeme annehmen, dass Gesichts-
den Grenzen der Privatsphäre aufwirft.
ausdrücke immer eindeutig auf eine Grundemotion verweisen. Mit anderen Worten: Wer lacht, der muss
Zweitens besteht – selbst wenn man Emotionen
glücklich sein; wer böse schaut, muss verärgert sein.
korrekt bestimmen könnte und wollte – eine große
Visuelle Erkennungssysteme unterstellen außerdem,
Lücke zwischen korrekt klassifizierter Emotion und
dass man alle emotionalen Zustände mit den Grund-
der gestalterischen Lösung für diese Emotion. Wie
emotionen glücklich, ärgerlich, verängstigt, angeekelt
sollen digitale Produkte reagieren, wenn Nutzer:in-
und traurig erklären kann. Auch diese Vorstellungen
nen desorientiert, gestresst oder verärgert sind? Wel-
sind angesichts komplexer emotionaler Verschrän-
che Informationen benötigen sie dann und in welcher
kungen kritisiert und zurückgewiesen worden. Au-
Form? Welche gestalterischen Bereiche sollen an die
ßerdem können Systeme, die Emotionen erkennen,
Emotionen angepasst werden und auf welche Weise?
oft keine sozialen und kulturellen Kontexte berück-
Wie viel Kontext muss das intelligente Interface
sichtigen, die für die zwischenmenschliche Kommu-
berücksichtigen, wenn Gestaltung auf Emotionen
nikation entscheidend sind, will man das Gegenüber
angepasst wird? All diese Fragen sind derzeit zwar
emotional verstehen.
aufgeworfen, aber noch keineswegs beantwortet. 278
275
Insgesamt sind also Emotio-
nen zu komplex und individuell, als dass sie derzeit
In naher Zukunft werden diese Bereiche sicherlich
für intelligente Systeme wissenschaftlich haltbar
enorm an Interesse gewinnen, versprechen sie doch
klassifizierbar wären. Manche Start-ups versprechen
kundenzentrierten Industrien weitere große Schritte
zwar, dass ihre Algorithmen Emotionen klassifizie-
in Richtung Personalisierung und Zufriedenheit der
ren können. In Wirklichkeit erkennen diese Systeme
Kundschaft.
einen fragwürdigen stereotypen Zusammenhang zwi274 Feldman Barrett, Lisa/Adolphs, Ralph/Marsella, Stacy et al.: „Emotional expressions reconsidered: Challenges to inferring emotion from human facial movements“, https://journals.sagepub.com/doi/full/10.1177/1529100619832930 (21.4.2022). 275 Crawford, Kate: Atlas of AI, New Haven: Yale University Press 2021, S. 158.
276 Vemulapalli, Raviteja/Agarwala, Aseem: „A Compact Embedding for Facial Expression Similarity“, https://arxiv.org/abs/1811.11283 (21.4.2022). 277 Misselhorn, Catrin: Künstliche Intelligenz und Empathie. Vom Leben mit Emotionserkennung, Sexrobotern & Co, Ditzingen: Reclam 2021, S. 30. 278 Loewe, Sebastian: „Making Visual Design Adapt to Emotions and Affect: Thoughts and Research Questions on Emotionally Responsive Visual Design“, in: Engenhart, Marc/Loewe, Sebastian (Hrsg.): Proceedings of the First Conference on Designing with Artificial Intelligence, München: appliedAI 2021, S. 128–140.
Kapitel 3: Gestaltung mit und für intelligente Systeme
91
Mit den intelligenten Interfaces tritt ein weiteres
zerin eine Bewegung vorführt, die ein System dann
Paradigma der Interaktion auf die Tagesordnung,
lernt. Die dritte Methode ermöglicht, konkrete An-
das die IX intelligenter Systeme weiter modifiziert.
weisungen zu geben, die die Maschine dann befolgt.
Nutzer:innen können nicht nur erleben, wie Produk-
Etwa, indem ein Nutzer sagt: „Gehe nach links“ oder
te auf ihre individuellen Bedürfnisse zugeschnitten
„Folge der Straße“. 281 Auf diese Weise lernt das Sys-
sind. Sie können auch das intelligente System ihren
tem komplexe situationsabhängige Verhaltensweisen.
Bedürfnissen gemäß anpassen und somit die Per-
Mit der Interface-Gestaltung für IML steht und fällt
sonalisierung personalisieren. Es ist das Paradigma
auch die erfolgreiche IX solcher interaktiver Systeme.
des sogenannten Interactive Machine Learning, kurz
Immerhin soll ein intuitiver und produktiver Dialog
IML. Der Terminus beschreibt eine Form von Inter-
zwischen Nutzer:in und intelligentem Interface er-
aktion, in der die Nutzer:innen selbst iterativ das Mo-
möglicht werden. Besondere Schwierigkeiten bereitet
dell trainieren und verbessern können, das sie dann
der Umstand, dass Nutzer:innen nicht immer präzise
gleichzeitig nutzen.
und konsistent sind, wenn sie das System instruieren.
279
Interactive Machine Learning
versteht die Nutzer:innen nicht nur als Personen, die
Außerdem besteht eine gewisse Grauzone zwischen
Trainingsdaten richtig labeln. Stattdessen werden die
dem Input der Nutzenden und ihrer Absicht. Hinzu
Nutzer:innen mit IML zu Lehrer:innen der Systeme.
kommt, dass die Interaktion mit einem intelligenten
Durch die Interaktion wird Wissen extrahiert, mit
Interface nicht einer herkömmlichen Interaktion
dem intelligente Systeme verbessert und angepasst
mit starren Informationsstrukturen entspricht. Das
werden können, ohne dass die Nutzer:innen techni-
intelligente System entwickelt sich mit dem Feedback
sches Wissen darüber besitzen müssen.
der Nutzer:innen weiter, allerdings nicht notwendi-
280
gerweise in die Richtung, die diese möchten. 282 Hier In diesem Paradigma der Interaktion gibt es derzeit
müssen Gestalter:innen abwägen, ob IML Sinn ergibt
drei zentrale Verfahren der Interaktion für das inter-
und wie die Interaktion trotz IML einfach und effek-
aktive Training der intelligenten Systeme: die Kritik,
tiv gestaltet werden kann.
die Demonstration und den sogenannten Action Advice, also die Aufforderung, eine Aktion auszu-
Es ist noch einmal festzuhalten, dass mit dem
führen. Kritik bezieht sich auf die direkte Korrektur
intelligenten Interface Interaktionen effektiver,
des Systems durch positives und negatives Feedback.
intuitiver und natürlicher werden und lernende
Nutzer:innen trainieren dann Verhalten, indem sie
Systeme selbst interaktiv an die eigenen Bedarfe
„Gut gemacht“ oder „Das nicht machen“ sagen. Hier
angepasst werden können. Intelligente Interfaces
kann auch eine Sentimentanalyse der Stimme unter-
bieten Gestalter:innen darüber hinaus noch einen
stützen, um positives und negatives Feedback der
weiteren großen gestalterischen Möglichkeitsraum,
Nutzer:innen genauer zu unterscheiden. Die zweite
indem sie erlauben, das Interface-Design selbst zu
Methode ermöglicht es Nutzer:innen, gewünschtes
personalisieren. Je nach Datenlage und Datenquali-
Verhalten zu demonstrieren, etwa wenn eine Nut-
tät, je nach Fähigkeit des Systems, Nutzer:innen,
279 Gillies, Marco/Fiebrink, Rebecca/Tanaka, Atau et al.: „Human-Centred Machine Learning“, https://dl.acm.org/ doi/10.1145/2851581.2856492 (21.4.2022). 280 Ramos, Gonzalo/Suh, Jina/Amershi, Saleema et al.: „Emerging
281 Krening, Samantha/Feigh, Karen: „Interaction Algorithm Effect on Human Experience with Reinforcement Learning“, https://dl.acm.org/doi/10.1145/3277904 (21.4.2022). 282 Dudley, John/Kristensson, Per Ola: „A Review of User Interface Design for
Perspectives in Human-Centered Machine Learning“,
Interactive Machine Learning“, https://dl.acm.org/doi/10.1145/3185517
https://dl.acm.org/doi/10.1145/3290607.3299014 (21.4.2022).
(21.4.2022).
Kapitel 3: Gestaltung mit und für intelligente Systeme
92
Absichten oder Kontexte zu erkennen, kann sich
anders darstellt und die Art und Weise, auf sie zu-
auch das Design des Interfaces sinnvoll verändern.
zugreifen, anpasst. Adaptive Interfaces können also
Intelligente User Interfaces werden so zu Adaptive
alle Elemente der Gestaltung, können Navigation,
User Interfaces oder Flexible User Interfaces, also zu sich
Informationsfluss, Inhalte und Formate dynamisch
dynamisch anpassenden Benutzerschnittstellen. So
und individualisiert anpassen.
kann beispielsweise das Layout einer Webseite an den Geschmack bestimmter Nutzer:innentypen angepasst
Die Idee der flexiblen Gestaltung ist nicht neu. Der
werden. Diese Typen von User:innen oder Personas
schweizerische Designer Karl Gerstner hat diese Idee
können beispielsweise in zwei Kategorien eingeteilt
bereits in den 1960er-Jahren für das Grafikdesign
sein. Erstens in die Gruppe der Zeitungsleser:innen
vorstellig gemacht und in seinem Buch „Programme
und zweitens in die Gruppe der Magazinleser:innen.
entwerfen“ 283 dargelegt, wie flexible Gestaltungssys-
Beide Kategorien ergeben sich aus den Vorlieben der
teme theoretisch gedacht werden müssen. Allerdings
Nutzer:innen. Die Zeitungsleserin bevorzugt Web-
fristete diese Art des Gestaltungsdenkens lange Zeit
seiten, die wie eine Zeitungsseite aufbereitet sind; sie
ein Nischendasein. Im Zeitalter digitaler Gestaltung
möchte Inhalte schnell sichten können und sich dann
nun wird Design parametrisch, das heißt in einzelne
entscheiden, was sie liest. Nutzer:innen aus dieser
Gestaltungsparameter zerleg- und automatisierbar
Kategorie bekommen mit dem Adaptive Interface ein
und damit wirklich flexibel. So wird es möglich, Re-
Website-Layout angezeigt, das Inhalte entsprechend
geln für Design zu definieren, die nicht mehr genau
aufbereitet, also viel Text, relativ kleine Überschriften
das Endergebnis von Gestaltung vorgeben, sondern
und wenig Bilder bietet. Der Nutzer aus der Kategorie
nur die Rahmenbedingungen. Die Entscheidung, wel-
Magazinleser:in bevorzugt den Website-Aufbau ähn-
che Größe beispielsweise eine Überschrift besitzen
lich einer Magazinseite. Er möchte sich inspirieren
und wo sie auf der Canvas angeordnet werden soll,
lassen und wünscht sich häufig wechselnde Inspirati-
wird Algorithmen mit den Gestaltungsparametern
onen. Er bekommt ein Layout angezeigt, das weniger
übergeben. Erst wirklich an Bedeutung gewonnen
Text, große Überschriften und viele Bilder bietet.
hat die Idee der flexiblen Gestaltung, als stationäre
Gestaltung wird mit dem Adaptive-Interface-Design
Rechner als Mainstream-Interfaces abgelöst und End-
nicht lediglich auf das Medienformat angepasst, wie
geräte mobil geworden sind. Jetzt müssen Design-
es noch im Responsive Design der Fall war, sondern
lösungen gleichzeitig auf Mobiltelefonen, Smart-
selbst in Form und Inhalt personalisiert. Responsiv
watches oder Tablets, aber genauso auf digitalen
sind Webseiten, wenn sie Gestaltung auf veränderte
In-Store-Displays, Virtual-Reality-Brillen und hoch-
Seitenverhältnisse dynamisch anpassen, etwa wenn
auflösenden Laptops funktionieren. Aus Sicht der
Endgeräte von einem Hoch- auf ein Querformat
Marke wird es sogar noch komplizierter, denn alle di-
wechseln und sich alle Inhalte als feste formale
gitalen und analogen Nutzer:innenschnittstellen, alle
Elemente neu auf dem Bildschirm ausrichten, jedoch
sogenannten Touchpoints, müssen ein einheitliches
inhaltlich und gestalterisch gleich bleiben. Adaptiv
Markenerlebnis schaffen, das sich zudem noch von
sind Webseiten, wenn die Website mit jeder neuen
anderen Erlebnissen abhebt. Deshalb funktioniert
Nutzerin, jedem neuen Nutzer nicht nur neue Inhalte
ein klassisches Markendesign in einer Welt, in der
personalisiert ausspielt, sondern selbige auch grafisch
ständig neue Touchpoints und Endgeräte entstehen,
283 Gerstner, Karl: Programme entwerfen, Teufen: Niggli 1963.
Kapitel 3: Gestaltung mit und für intelligente Systeme
93
aber auch die Interaktion mit Nutzer:innen durch
Nutzung an. 286 Um Nutzer:innen zu ermöglichen, be-
Sprache und Gesten immer natürlicher wird, nicht
stimmte Informationen schneller zu finden, werden
mehr ohne ein hohes Maß an visueller Flexibilität. 284
häufig genutzte Menüpunkte größer dargestellt und
Um diesem Umstand gerecht zu werden, wurden die
verdrängen weniger genutzte. Ein anderes Projekt
alten Styleguides und Designmanuals zuerst digitali-
passt die Interfaces von Mobiltelefonen in Gefah-
siert und später in Pattern Libraries überführt, also in
rensituationen wie beispielsweise der Autofahrt an.
individuell nutzbare Designbausteine, die ihre Nut-
Durch das adaptive Interface, das Umweltfaktoren,
zungsbedingungen gleich mitlieferten. Als die Idee
Fahrstil und Gerätenutzung erkennt, können Auto-
des Atomic Designs 285 eingeführt wurde, brach man
fahrer:innen während der Fahrt geschützt werden,
auch die Pattern Libraries in immer kleinere Bestand-
obwohl sie ihr Telefon benutzen. 287 Das Interface
teile auseinander und reicherte sie mit Informationen
wechselt dann automatisch in den Fahrtmodus, in-
zu Farben, Icons oder Grids an. Damit schuf man
dem es bestimmten Aktionen Prioritäten zuweist
ein umfangreiches digitales Designsystem, das über
und diese dann visuell hervorhebt, etwa durch höhe-
alle Medien und Touchpoints hinweg einheitliche
re Kontraste oder größere Schrift.
Gestaltungsmöglichkeiten bereitstellte, einheitliche Gestaltungsprinzipien formulierte und gleichzeitig
Interfaces, die sich dynamisch anpassen, schaffen
flexibel an die jeweiligen Interfaces angepasst werden
allerdings auch Probleme. Nutzer:innen können sich
konnte.
nicht darauf verlassen, dass bestimmte Elemente dort sind, wo sie beim letzten Besuch der App noch
Bisher allerdings waren Versuche, Gestaltung
waren, was frustrieren kann. Außerdem ist der
flexibel anzupassen, der Erfahrung, Intuition, tech-
Umfang dessen, was in den Interfaces dynamisch
nischen Expertise und gestalterischen Fantasie der
angepasst werden kann, je nach System sehr unter-
Designer:innen überlassen. Mit den Möglichkeiten
schiedlich und kann deshalb am tatsächlichen Bedarf
intelligenter Systeme können die flexiblen Gestal-
der Nutzer:innen leicht vorbeigehen; vor allem, wenn
tungslösungen nun an einen tatsächlichen Bedarf der
sich diese Bedarfe über einen bestimmten Zeit-
Nutzer:innen angebunden werden. Intelligente Syste-
raum verändern. Um dieses Problem zu beheben,
me verfügen durch ihren Aufbau über ein mehr oder
werden derzeit adaptive Systeme entwickelt, die
weniger detailliertes Verständnis der Nutzenden, das
Reinforcement-Learning einsetzen. Durch diese Art
nun die Grundlage bildet, um Interfaces sinnvoll zu
des Trainings, das Wohlverhalten belohnt und Fehl-
personalisieren. So können sich verschiedene Be-
verhalten bestraft, lernen Systeme, welche Formen
reiche und Elemente des Interfaces anpassen, je nach
der Adaption zu welchem Zeitpunkt gewünscht und
Situation, Nutzungskontext und Nutzer:in. Beispiels-
welche unerwünscht sind. Auf diese Weise verstehen
weise passt sich in den sogenannten Split Adaptive
und beherrschen sie die komplexen Möglichkeiten
Interfaces der Aufbau des Menüs einer Website der
adaptiver Interfaces besser. 288
284 Rädeker, Jochen: „Markengestaltung im Wandel. The Interface
286 Vanderdonckt, Jean/Bouzit, Sara/Calvary, Gaëlle et al.: „Cloud Menus:
Becomes the Brand“, in: Baetzgen, Andreas (Hrsg.): Brand Design.
a Circular Adaptive Menu for Small Screens“, https://dl.acm.org/doi/
Strategien für die digitale Welt. Stuttgart: Schäffer-Poeschel Verlag
abs/10.1145/3172944.3172975 (21.4.2022).
2017, S. 213. 285 Frost, Brad: Atomic Design, Pittsburgh: Brad Frost Web 2016.
287 Khan, Inayat/Khusro, Shah: „Towards the Design of Context-Aware Adaptive User Interfaces to Minimize Drivers’ Distractions“, https://doi.org/10.1155/ 2020/8858886 (21.4.2022). 288 Todi, Kashyap/Bailly, Gilles/Leiva, Luis et al.: „Adapting User Interfaces with Model-based Reinforcement Learning“, https://arxiv.org/abs/2103.06807 (21.4.2022).
Kapitel 3: Gestaltung mit und für intelligente Systeme
94
3.3.3 Faktoren und Modi der Intelligence
Fahrt zu interagieren. Häufige Interaktionen machen
Experience
Sinn, wenn sich die Informationen, über die das System verfügt, häufig signifikant ändern und wenn die
Intelligente Systeme können auf viele verschiedene
Nutzer:innen auch tatsächlich auf diese Änderungen
Arten mit Nutzer:innen interagieren. Dies ist ganz
reagieren. 291
unabhängig davon, welche personalisierten Daten diese Systeme ihnen anbieten. Intelligente Systeme
Der dritte IX-Faktor, der empfundene Wert der
können aufdringlich oder passiv sein und häufig oder
Interaktion, betrifft die Hemmschwelle, die Nutzer:in-
selten interagieren. Sie können für Nutzer:innen
nen empfinden, um überhaupt mit einem intelligen-
mehr oder weniger wertvoll sein und sie können
ten System zu interagieren. Wenn der Nutzungsauf-
mehr oder weniger hohe Kosten für die Nutzer:innen
wand höher liegt als der empfundene Nutzen, wird
verursachen, wenn sie prognostizieren. Alle genann-
es nicht gelingen, Nutzer:innen zu überzeugen, das
ten Faktoren bestimmen die Qualität der IX.
System zu nutzen. Dazu gehört, dass Nutzer:innen
289
nicht nur mitbekommen sollten, dass das intelligen Der erste Faktor ist die Stärke und Eindringlichkeit
te System etwas getan hat, sondern auch, wie das
der Interaktion. Energische Formen der Interaktion
Ergebnis der Interaktion und das gelöste Problem
können Nutzer:innen schlecht ignorieren, passive
positiv zusammenhängen. Nutzer:innen müssen dem
Formen entgehen ihrer Aufmerksamkeit dagegen öf-
System zudem vertrauen und nicht das Gefühl haben,
ter. Die intelligente Staumeldung kann beispielsweise
dass andere Interessen als ihre eigenen im Vorder-
darauf bestehen, dass Nutzer:innen sie zur Kenntnis
grund stehen. 292
nehmen, bevor sie losfahren, indem die App nicht mehr bedienbar ist, bevor die Nachricht nicht be-
Faktor Nummer vier bezieht sich auf die Kosten
stätigt wird. Solch eindringliche Interaktionsformen
der Fehler, die ein intelligentes System zwangsweise
sind sinnvoll, wenn der Nutzen höher liegt als die
macht. Schon kleine Fehlertoleranzen können, wenn
Gefahr, dass das System als zu aufdringlich erscheint
sie massenhaft und wiederholt auftreten, Nutzer:in-
und wenn es mit hoher Wahrscheinlichkeit richtig
nen verwirren und verärgern. Eine gute IX entsteht
vorhersagt. Passive Interaktionsformen sind dann
dann, wenn die Interaktion mit dem System keine zu
effektiv, wenn die Kosten für Fehler hoch sind und
hohen Kosten aus Sicht der Nutzenden verursacht,
die Prognose nicht besonders gut ist.
wenn also der einzelne Fehler nicht schwerer wiegt
290
als der Gesamtnutzen in einem gewissen Zeitraum. Der zweite bestimmende Faktor für die IX ist
Das System kann zwei grundlegende Arten von
die Häufigkeit der Interaktion. Die intelligente App
Fehlern machen, die unterschiedlich wahrgenommen
für Staumeldungen kann entweder an jeder Ampel
werden. Es kann Dinge als wahr prognostizieren, die
Empfehlungen machen, wie beispielsweise: „Wenn
nicht zutreffen, das nennt man False Positives. Es
du jetzt etwas schneller fährst und die Grünphase
kann aber auch Dinge als nicht wahr prognostizieren,
der Ampel schaffst, sparst du drei Minuten Fahrtzeit.“
die jedoch wahr sind, die sogenannten False Negati-
Oder die App ist begrenzt darauf, nur einmal pro
ves. Im Falle der Stau-App kann das bedeuten, dass
289 Hulten, Geoff: Building Intelligent Systems. A Guide to Machine Learning Engineering, New York City: Apress 2018, S. 76. 290 Hulten: Building Intelligent Systems, S. 77.
291 Hulten: Building Intelligent Systems, S. 78 f. 292 Hulten: Building Intelligent Systems, S. 80.
Kapitel 3: Gestaltung mit und für intelligente Systeme
95
Staus aufgelöst sind, obwohl die App den Stau meldet –
Der erste IX-Modus umfasst automatisierte Ak-
False Positive – oder dass es Stau gibt, das System
tionen, die Nutzer:innen nicht kontrollieren oder
aber keinen vorhergesagt hat – False Negative. 293 Die
stoppen können, denn sie laufen einfach automatisch
Wirkung auf das Erleben des intelligenten Systems in
ab. Etwa wenn eine Nutzerin früh ins Auto steigt und
der Gesamtsituation ist daher nicht nur abhängig von
ihre Route automatisch anhand aktueller Stau- und
der Art der Fehler, sondern auch davon, in welchem
Wetterdaten berechnet wird. Dieser Modus der Inter-
Anwendungsbereich sie auftreten. Mag die falsche
aktion ist äußerst energisch, nicht immer offensicht-
Stauprognose zwar unschön sein, ist sie doch ver-
lich für die Nutzer:innen und bedarf einer sehr guten
gleichsweise harmlos im Vergleich zu medizinischen
Qualität der Vorhersage. Außerdem ist es schwierig,
Diagnosen. Je nach Fehler und Situation können
für diesen Modus Trainingsdaten zu bekommen,
Nutzer:innen von verwirrt oder misstrauisch bis hin
da Nutzer:innen nur Feedback geben, wenn Aktionen
zu ablehnend und schaudernd reagieren.
In jedem
schieflaufen. Dinge, die gut laufen, werden nicht
Fall sollten intelligente Systeme ihren Nutzer:innen
von den Nutzer:innen kommentiert und können
zu verstehen geben, wann welche Art von Fehler
daher auch nicht gut als Trainingsdaten verwendet
auftritt, und es erlauben, sich möglichst schnell von
werden. 297
294
diesen Fehlern zu erholen. 295 Der zweite IX-Modus ist der Anstoß oder die Auf Der fünfte und letzte Faktor für IX besteht in der
forderung. Meist initiiert das intelligente System dazu
Qualität intelligenter Systeme. Je besser das System
die Interaktion mit den Nutzer:innen, etwa wenn
vorhersagt, umso eindringlicher kann die Interaktion
die intelligente Verkehrs-App Vorschläge macht, wie
sein. Je schlechter die Qualität, umso zurückhalten-
Nutzer:innen die Zeit während des Staus sinnvoll
der sollten Interaktionen gestaltet werden. Da die
nutzen können. Dieser Modus der Interaktion bedarf
Qualität intelligenter Systeme auf den Daten und
ganz klar der Aufmerksamkeit der Nutzer:innen,
dem trainierten Modell beruht, ist klar, dass mit mehr
ist also sichtbar und nur mäßig eindringlich. In der
und besseren Daten sowie einem besser trainierten
Regel lassen sich Trainingsdaten für diesen Modus
Modell auch die Qualität der Systeme steigt. Vor al-
auch gut akquirieren, da Nutzer:innen oft Feedback
lem wenn intelligente Systeme das erste Mal genutzt
geben, wenn das System anfragt. Das System ver-
werden und oftmals noch nicht voll entwickelt sind,
steht sowohl den Kontext der Interaktion als auch die
ist Vorsicht aus Sicht der IX geboten.
Reaktion der Nutzer:innen und kann lernen, welche
296
Anfragen gewünscht werden. 298 Neben den Faktoren, die die IX beeinflussen, kann man auch die Modi der Interaktion unterscheiden,
Im IX-Modus Nummer drei kann das intelli-
in denen IX stattfindet. Zu ihnen zählen die Auto-
gente System entscheiden, welche Informationen
matisierung von Aktionen, die Aufforderung der
den User:innen präsentiert werden und in welcher
User:innen, die Organisation von Informationen, die
Reihenfolge. Suchen die Nutzer:innen aufgrund
Anmerkung von Elementen mit intelligenten Infor-
von Stauprognosen eine alternative Route, kann die
mationen sowie hybride Formen der vier Modi.
intelligente Verkehrs-App Wegstrecken filtern und als
293 Hulten: Building Intelligent Systems, S. 67.
297 Hulten: Building Intelligent Systems, S. 87 f.
294 Hulten: Building Intelligent Systems, S. 71.
298 Hulten: Building Intelligent Systems, S. 89.
295 Hulten: Building Intelligent Systems, S. 82. 296 Hulten: Building Intelligent Systems, S. 83.
Kapitel 3: Gestaltung mit und für intelligente Systeme
96
Liste mehr oder weniger guter Alternativen präsen-
Im hybriden Modus der Interaktion mit intelligen-
tieren. Bekommt die intelligente Verkehrs-App mit,
ten Systemen können die unterschiedlichen Modi
dass die Nutzer:innen gestresst sind während einer
kombiniert und je nach Situation ausgeführt werden.
Stop-and-go-Phase, kann sie entspannende Musik
Basierend auf der Vorhersagegenauigkeit kann dann
oder Atemübungen vorschlagen. Im Modus der Or-
die Verkehrs-App beispielsweise automatisch eine
ganisation werden also Auswahlmöglichkeiten durch
neue Route wählen, wenn sie sehr sicher ist in ihrer
das System vorgefiltert und angeboten. Dieser Modus
Prognose. Sie kann die Nutzer:innen auch aktiv fra-
ist nicht sehr eindringlich und für die Nutzer:innen
gen, wenn sie nur mäßig sicher ist. Oder die aktuelle
mehr oder weniger gut einsehbar. Trainingsdaten
Route vorhalten, wenn sie nicht wirklich sicher ist,
sind gut zu erhalten, weil das System lernen kann,
ob ein Stau tatsächlich existiert.
mit welchen Vorschlägen die Nutzenden interagie3.3.4 Designprinzipien für Intelligence
ren.299
Experience Der vierte und letzte Modus hilft Nutzer:innen, bessere Entscheidungen zu treffen, indem das intel-
Bisher wurde erläutert, welche zentralen Eigenschaf-
ligente System Teile digitaler Erlebnisse mit Infor-
ten, Faktoren und Modi eine IX im Gegensatz zu
mationen anreichert und so intelligente Interaktionen
anderen digitalen Erlebnissen hat und welche Mög-
ermöglicht. Am Beispiel der intelligenten Verkehrs-
lichkeiten der IX intelligente Interfaces bieten.
App kann das System messen, wie lange ein Nutzer
Allerdings ist damit noch nicht beantwortet, wie
bereits am Steuer sitzt. Auf Basis dieser Information
diese Eigenschaften und Modi nun zielführend ein-
kann die App intelligent intervenieren und subtil
gesetzt werden können und welche Gestaltungsprin-
anzeigen, dass eine Pause nötig ist. Dieser Modus ist
zipien dabei zu beachten sind. Mit anderen Worten:
in der Regel passiv, da die Nutzer:innen nicht aktiv
Wie gestaltet man nun intelligente Erlebnisse für
reagieren müssen. Der Modus ist für die Nutzer:in-
Nutzer:innen?
nen weniger offensichtlich und relativ schwierig zu trainieren. Das System weiß oftmals nicht, ob Nut-
Viele große Techfirmen wie Google,301 Microsoft,302
zer:innen die Anmerkung gesehen, positiv aufgenom-
Meta,303 IBM 304 oder Apple 305, aber auch kleinere
men und ihr Verhalten daraufhin angepasst haben.
Firmen und Institutionen wie Polytopal 306 oder die
300
Interaction Design Foundation 307 haben Ratgeber und Leitfäden erstellt, um Designer:innen dabei zu unterstützen, gute IX zu kreieren. Die wichtigsten 301 Google: „People + AI Guidebook“, https://pair.withgoogle.com/guidebook (21.4.2022). 302 Microsoft: „Guidelines for Human-AI Interaction“, https://www.microsoft.com/en-us/ research/project/guidelines-for-human-ai-interaction (21.4.2022). 303 Meta: „Introducing the Facebook Field Guide to Machine Learning video series“, https://research.facebook.com/blog/2018/05/the-facebook-field-guide-tomachine-learning-video-series (21.4.2022). 304 IBM: „Design for AI“, https://www.ibm.com/design/ai (21.4.2022). 305 Apple Developer: „Human Interface Guidelines. Machine Learning“, https://developer.apple.com/design/human-interface-guidelines/machine-learning/ overview/introduction (21.4.2022). 299 Hulten: Building Intelligent Systems, S. 90 f. 300 Hulten: Building Intelligent Systems, S. 92.
306 Polytopal: „Lingua Franca. A Design Language for Human-Centered AI“, https://linguafranca.polytopal.ai (21.4.2022). 307 Mortensen, Ditte Hvas: „How to manage the users’ expectations when designing smart products“, https://www.interaction-design.org/literature/article/how-tomanage-the-users-expectations-when-designing-smart-products (21.4.2022).
Kapitel 3: Gestaltung mit und für intelligente Systeme
97
Guides wurden für dieses Kapitel ausgewertet und
Ziele der einzelnen Nutzer:innen und ihres jeweiligen
ihre gemeinsamen Prinzipien herausgearbeitet. Dabei
Trainingsstands als auch des Zusammenhangs von
wurde darauf geachtet, nicht zu komplex zu werden,
gelaufener Strecke und Kalorienverbrauch. Zudem ist
sondern niedrigschwellig in die Thematik einzufüh-
es sinnvoll, dass das System auch Informationen über
ren, ohne den Gegenstand zu simplifizieren. Einige
Qualität und Schwierigkeitsgrade der Strecken hat.
der Guides sind sehr umfangreich und es lohnt sich
Sind diese Fragen geklärt, wird auch deutlich, welche
für Designer:innen sicher, diese Quellen im Rahmen
Systeme genutzt werden und welche Daten dafür
der eigenen praktischen Designprojekte heranzu-
gesammelt und erhoben werden müssen. Für die
ziehen und an eigene Ziele anzupassen. Ein sofort
Lauf-App wird also sowohl lineare Regression für die
nutzbares visuelles interaktives Framework für die
Prognose des Kalorienverbrauchs als auch ein Clus-
interdisziplinäre Entwicklung intelligenter Produkte
tering-Algorithmus für die Empfehlungen genutzt.
namens Floom wird in Kapitel 5 vorgestellt. Alle hier
Entsprechend umfangreich müssen Daten erhoben
erarbeiteten Designprinzipien sind dort verständlich
werden. Zudem muss darauf geachtet werden, wer die
und leicht zugänglich in einen umfassenden Innova-
Daten geliefert und gelabelt hat. Wenn beispielsweise
tionsprozess eingearbeitet.
nur erfahrene Läufer:innen den Schwierigkeitsgrad der Laufstrecken bewertet haben, werden Anfän-
Alle oben angesprochenen Ratgeber beginnen mit
ger:innen von den Empfehlungen schnell frustriert
den Nutzer:innen, sind also nutzer:innenzentriert.
sein.
308
Jede gute IX steht und fällt mit einem Nutzer:innenbedürfnis und einem Problem, das zwischen diesem
In einem nächsten Schritt muss entschieden
Bedürfnis und seiner Befriedigung steht. So können
werden, welche Art des Erlebnisses mit den Daten
beispielsweise Nutzer:innen das Bedürfnis besitzen,
gestaltet werden soll. Das System wird hier prinzi-
fit und gesund zu bleiben, und gleichzeitig das Pro-
piell als Entscheidungsfindungssystem begriffen, das
blem haben, dass sie das nicht aus eigenem Antrieb
nicht alle Wünsche gleichzeitig erfüllen kann und
schaffen. Hierfür könnte eine App entwickelt werden,
sogenannte Trade-offs hat, also sich ausschließende
die dieses Problem behebt, indem sie Nutzer:innen
Vor- und Nachteile, die abgewogen werden müssen.
zum Joggen inspiriert und durch Gamification-Aspek-
Hier stellen sich beispielsweise Fragen nach dem
te motiviert dranzubleiben. Zunächst wird geprüft,
Modus der Interaktion, etwa ob Prozesse automatisch
ob überhaupt ein intelligentes Produkt benötigt wird,
ablaufen sollen und Fehler möglicherweise schwere
um Probleme der Nutzer:innen zu lösen. In einem
Folgen haben können, dies den Nutzer:innen jedoch
zweiten Schritt wird überlegt, wie das intelligente
mühselige Entscheidungen abnimmt. Oder es soll
Produkt diese Probleme lösen könnte und welches
eine Interaktion ermöglicht werden, die viel Abstim-
Wissen es von den Nutzer:innen, dem Nutzungskon-
mung mit den Nutzer:innen erfordert und vielleicht
text und der Umwelt im Allgemeinen benötigt. Die
schnell nervt, dafür jedoch gut assistiert. Am Beispiel
Bedürfnisse und Probleme der Nutzer:innen können
der Lauf-App könnte man sich dafür entscheiden,
sich je nach deren Typus, spezifischen Gewohnheiten
dass Nutzer:innen in Bezug auf bestimmte Funktio-
und Handlungen mehr oder weniger stark unter-
nen des intelligenten Systems wenig Mitspracherecht
scheiden. Die App benötigt also ein Verständnis der
bekommen, sobald sie sich entschieden haben, eine
308 In der Designsprache werden dafür auch die Begriffe „User-centered“ oder „Human-centered“ synonym verwendet.
Kapitel 3: Gestaltung mit und für intelligente Systeme
98
intelligente Funktion zu aktivieren. So wird zu jeder
In einem nächsten Schritt wird geschaut, ob die
gelaufenen Strecke automatisch der Kalorienver-
Nutzer:innen bereits vertraut sind mit der Funktions-
brauch angezeigt. Außerdem ist der Gamification-
weise des intelligenten Systems. Am Beispiel der
Aspekt automatisiert. Nutzer:innen bekommen dann
Lauf-App kann das bedeuten, dass sie durch viele
kleine visuelle Belohnungen, wenn sie in einem
ähnliche intelligente Produkte und Empfehlungs-
bestimmten Zeitraum ihren Kalorienverbrauch ge-
systeme bereits an personalisierte Empfehlungen
steigert haben. Die Strecken, die die App vorschlägt,
gewöhnt sind und erwarten, dass diese nach wenigen
basieren auf gelernten Präferenzen, die durch ex-
Versuchen auch wirklich individuell relevante Ergeb-
plizites Feedback angepasst werden. Hier erlaubt das
nisse liefern. In ersten User Testings wird geprüft, ob
Produkt mehr aktive Eingriffsmöglichkeiten, etwa
die Einstellungen und Erwartungen der Nutzer:innen
durch ein Sterne-Ranking-System der gelaufenen
gegenüber dem intelligenten Produkt dem entspre-
Strecken. Implizites Feedback bekommt das System
chen, was es zu leisten vermag. Das mentale Modell,
durch Nutzungsdauer und -häufigkeit der Strecken.
das Nutzer:innen von einem intelligenten Produkt
Zudem sollten die Menge und Qualität der Ergebnisse
wie der Lauf-App haben, also ihr Bewusstsein davon,
gegeneinander abgewogen werden. Sollen Systeme
wie das intelligente Produkt funktioniert, ist relativ
prinzipiell mehr Ergebnisse liefern, dann steigt auch
akkurat. Sie wissen: Je mehr Feedback sie geben,
die Gefahr, mehr Fehler zu produzieren. Sollen nur
desto besser wird die Qualität der Vorschläge. Außer-
die wirklich guten Ergebnisse geliefert werden, dann
dem wissen die Nutzer:innen, wie die User Testings
sinkt auch das Angebot für die Nutzer:innen. Die
herausgefunden haben, dass der Kalorienverbrauch
Lauf-App bietet zunächst viele Strecken an, auch
eine Prognose ist und nicht immer haargenau zu-
auf die Gefahr hin, dass uninteressante Strecken
trifft. Sie haben zu Beginn zwar noch Geduld mit der
dabei sind, denn die Kosten für Streckenvorschläge,
App, wollen aber auch schnell bei ihrem Bedürfnis
die nicht unbedingt der Präferenz der Nutzer:innen
unterstützt werden. Zudem muss geschaut werden,
entsprechen, sind eher gering. Oft werden Nutzer:in-
ob die Ergebnisse und Entscheidungen des Produkts
nen auch von neuen Strecken positiv überrascht. Es
für die Nutzer:innen nachvollziehbar sind oder ver-
muss zudem entschieden werden, ob das intelligente
wirren und misstrauisch machen. Die App vermittelt
System Feedback sammelt und sich stetig verbessert,
Prognosegenauigkeit spielerisch und sie werden
aber dadurch womöglich auch unvorhersehbare Ent-
daher nicht misstrauisch, wenn das System für die-
scheidungen trifft. Oder ob es von vornherein ausrei-
selbe Strecke nicht immer denselben Wert liefert. Sie
chend trainiert und damit vorhersehbar ist, aber sich
wissen, dass sie abhängig von ihrer Tagesform mal
auf wechselnde Nutzer:innenpräferenzen nicht an-
mehr und mal weniger Kalorien verbrauchen, und
passen kann. Im Fall der Lauf-App soll sich die App
tolerieren einen gewissen Spielraum. Da das menta-
nicht weiterentwickeln, da die Empfehlungsalgorith-
le Modell der Nutzer:innen über die Lauf-App also
men auch sich änderndes Nutzer:innenverhalten gut
relativ einfach ist und keine großen Änderungen vor-
nachvollziehen und immer passende Empfehlungen
sieht, verändert sich auch die User Journey nicht. Im
geben können.
besten Fall laufen die Nutzer:innen mit der App und lassen dies zu einer festen Routine werden. Studien haben herausgefunden, dass viele Nutzer:innen an
Kapitel 3: Gestaltung mit und für intelligente Systeme
99
einem bestimmten Punkt versuchen werden, das
das System dies nicht erkennt, kann die Gamification
Produkt als intelligent zu begreifen, und dessen Han-
leicht in nerviges Nörgeln umschlagen. Ein Kontext-
deln als irgendwie intentional nachvollziehen wollen.
fehler, der sich aus einem kulturellen Muster ergibt,
Diese Vorstellungen werden von der App schon früh
könnte auftreten, wenn Personen aus religiösen
zurückgewiesen, indem die App nicht als personifi-
Gründen für eine bestimmte Zeit keinen Sport trei-
zierte künstliche Intelligenz mit beispielsweise einem
ben können. Kontext kann sich also sowohl auf indi-
Vornamen auftritt, sondern sachlich und knapp die
viduelle Präferenzen beziehen als auch auf kulturelle
eigene Funktionsweise kommentiert. Außerdem
Werte. Um die Erwartungen der Nutzer:innen mit
weist die App darauf hin, wenn ihr wichtige Daten
dem Kontextwissen des Systems in Übereinstimmung
nicht zur Verfügung stehen, etwa ob Strecken abends
zu bringen, sollte das intelligente System daraufhin
beleuchtet sind. So werden Erwartungen in die App
geprüft werden, welche Daten es verarbeitet, wenn
bereits früh realistisch gesetzt und späteren Enttäu-
es Annahmen über die Nutzer:innen macht. Es ist
schungen und Misstrauen der Intelligenz gegenüber
zudem hilfreich, Feedback zu ermöglichen, wenn
wird vorgebeugt.
Fehler auftreten. Lehnt eine Nutzerin beispielsweise alle empfohlenen Strecken ab, könnte die Lauf-App
In einem vorletzten Schritt wird entschieden,
Feedback einholen. Die Nutzerin kann dann erklären,
wie das intelligente Produkt mit Fehlern umgehen
dass sie beispielsweise nicht so fit ist und auch die
soll. Zunächst werden die wichtigsten Fehlerquellen
Anfänger:innenstrecken nicht für sie geeignet sind.
identifiziert; das sind Nutzer:innen-, System- und Kontextfehler. Nutzer:innenfehler werden klassi-
In einem letzten Schritt wird geschaut, welche
scherweise aus der Perspektive der Designer:innen
ethischen Grenzen das Produkt haben soll und welche
formuliert, dann nämlich, wenn Nutzer:innen das
rechtlichen Konsequenzen die Nutzung haben könn-
Produkt falsch nutzen, indem sie etwa unerwartete
te. Im Kern steht die Frage, wie das Produkt seine
Eingaben machen. Weil Nutzer:innen immer wieder
Nutzer:innen schützen kann. Ethische Überlegungen
Produkte unvorhergesehen nutzen, sollten alle Fehler,
beziehen sich vor allem darauf, deren Schwächen
die sie dennoch machen, möglichst schadlos rückgän-
nicht auszunutzen, ihnen oder Dritten keinen Scha-
gig zu machen sein. Aus ihrer Sicht sind Fehler des
den zuzufügen, nicht zu diskriminieren, vertrauens-
Produkts Systemfehler und das intelligente Produkt
würdig zu sein sowie Nutzer:innen durch sogenannte
ist dann nicht flexibel und intelligent genug. Beide
Dark Patterns nicht zu etwas zu überreden, was sie
Arten von Fehlern sollten im User Testing geprüft
ursprünglich nicht vorhatten. Die Europäische Union
und behoben werden. Die dritte Kategorie der Fehler
hat viele dieser ethischen Bedenken bereits in ein
ist aus Sicht der IX neu, denn hier handelt es sich
rechtliches Gerüst überführt, das sie in naher Zu-
um Fehler, die entstehen, wenn das Produkt zwar
kunft verabschiedet. 309 Außerdem sollte man sich im
korrekt prognostiziert, aber der Kontext der Prognose
Klaren darüber sein, welche Daten von Nutzer:innen
nicht genau genug bekannt und die Prognose deshalb
erhoben werden und welche Datenschutzbestim-
falsch ist. Am Beispiel der App können Kontext-
mungen hierfür jeweils gelten. Das Produkt sollte
fehler entstehen, wenn Nutzer:innen beispielsweise
letztlich auch Emergenzszenarien unterbinden, also
erkrankt sind und nicht laufen gehen können. Wenn
keine sensiblen Informationen an Dritte preisgeben, 309 European Commission: „Regulatory framework proposal on artificial intelligence“, https://digital-strategy.ec.europa.eu/en/policies/ regulatory-framework-ai (17.6.2022).
Kapitel 3: Gestaltung mit und für intelligente Systeme
Nutzer:in
die erst durch häufige Nutzung entstehen und damit Nachteile und Gefahrenpotenziale bergen. Im Falle der Lauf-App kann dies bedeuten, dass Nutzer:innen mit Übergewicht nicht dadurch diskriminiert werden, dass alle Strecken nur für fitte und schlanke Menschen geeignet sind. Negatives Feedback, das vor allem Nutzer:innen schaden kann, die ein geringes Selbstbewusstsein und schlechtes Selbstbild haben, unterlässt das Produkt. Emergenzszenarien werden vorgebeugt, indem beispielsweise verhindert wird, dass der Wohnort der Nutzer:innen ermittelt werden kann, weil Start- und Endpunkt ihrer Laufstrecken einsehbar sind. Alle besprochenen Punkte, die es bei einer guten IX zu beachten gilt, werden nun noch einmal als IX-Checkliste präsentiert. Diese Checkliste dient als Handreichung im Produktentwicklungs- und Designprozess, um systematisch genau solche Fragen zu stellen und zu beantworten, die eine ausgewogene, nutzer:innenzentrierte Intelligence Experience ermöglichen. Viele der Fragen in der Checkliste sind Designheuristiken, also Prinzipien, die vor der tatsächlichen Umsetzung des Produkts beantwortet und geprüft werden müssen. Wenige Fragen in der Checkliste sind erst durch User Testing wirklich erschöpfend zu beantworten. Die Checkliste ist unterteilt in die zwei Hauptbereiche Nutzer:in und Marke, die dann noch einmal in thematische Unterbereiche analog zum hier besprochenen Kapitel gegliedert sind.
101
N:
Bedürfnisse und Gains Worin besteht der konkrete Mehrwert des intelligenten Produkts für die
1
Stakeholder? Ganz allgemein besteht der Mehrwert für die Endanwender:innen darin, dass ihr privates, soziales oder berufliches Problem gelöst wird. Für Unternehmen besteht er darin, ihrer Kundschaft ein sinnvolles Produkt zu bieten, das einen unternehmerischen Mehrwert generiert. Welches Nutzer:innenproblem löst das intelligente Produkt?
2
Das Nutzer:innenproblem sollte tatsächlich vorhanden und durch ein intelligentes Produkt lösbar sein. Außerdem sollte es businessrelevant sein, das heißt auch zur unternehmerischen Wertschöpfung beitragen. Es gilt zu beachten, dass das intelligente Produkt ein möglichst klar eingegrenztes, domainspezifisches Problem lösen sollte. Je umfangreicher der Kontext und das Wissen über die Aufgabe, umso höher die Chance, dass das intelligente System nicht zufriedenstellend arbeitet. Für welche User-Personas ist das intelligente Produkt relevant?
3
Die Personas sollten sich sinnvoll und klar unterscheiden und müssen zu Beginn des Projekts noch nicht genau feststehen. Sie werden fortlaufend verfeinert. Wie ist das intelligente Produkt in die User Journey eingebunden?
4
Das Produkt muss klar in die bestehende User Journey passen und eine bestehende Unzufriedenheit, einen Bruch in der Journey beheben. Auf welche Weise löst das intelligente Produkt das Nutzer:innenproblem?
5
Das Produkt und die Assistenz sollten das Nutzer:innenproblem auf die einfachste und schnellste Weise lösen. 5
a
Nimmt das intelligente Produkt Aufgaben vollständig durch Automatisierung ab? Wenn ja, wie? Löst das intelligente Produkt das Nutzer:innenproblem durch automatische Prozesse, sollte das intelligente System besonders hohe Prognosequalität besitzen. Außerdem sollte der Nutzen für die User:innen höher sein als die Nachteile bei einem etwaigen Scheitern des Produkts.
5 b
Erweitert das intelligente Produkt die Fähigkeiten der Nutzer:innen durch Augmentierung? Wenn ja, wie? Löst das intelligente Produkt das Nutzer:innenproblem als Assistenzsystem, sollten die Einbindung und der Gestaltungsspielraum der Nutzer:innen und deren Interaktionsprinzipien definiert werden. Das intelligente System muss keine besonders hohe Prognosequalität besitzen, sollte aber Möglichkeiten bieten, sinnvoll mit ihm zu interagieren.
102
6
Wie wird Erfolg bei den Nutzer:innen definiert? Der Erfolg des intelligenten Produkts sollte möglichst klar und relevant aus Sicht der Nutzer:innen formuliert sein. Das intelligente Produkt sollte diesen Nutzen auch tatsächlich liefern können.
N:
Interaktion 7
Welcher Modus der Interaktion bietet sich an? Das Produkt kann energisch mit den Nutzer:innen interagieren oder zurückhaltend. Je nach Genauigkeit der Prognose sollten die Modi der Interaktion gewählt werden.
8
Ist eine direkte, zielgerichtete und interessenbasierte Interaktion möglich? Das Produkt sollte es leicht machen, seine Dienste schnell und unkompliziert abzurufen. Außerdem sollte es das Produkt ermöglichen, seine Dienste leicht und ohne Nachteile zu ignorieren oder abzulehnen. Für automatische Interaktionen sollte das System äußerst gute Prognosen liefern.
9
Wann sehen und verstehen Nutzer:innen die Ergebnisse des intelligenten Produkts? Die Assistenz sollte deutlich machen, was das System zu leisten vermag und wie gut es das kann. Das System sollte zudem deutlich machen, wie das Verhalten der Nutzer:innen die eigenen Ergebnisse und die Wirkungsweise des Systems unmittelbar und in Zukunft beeinflusst.
10
Ist die Interaktion zeit- und kontextspezifisch? Das intelligente Produkt sollte kontextspezifisch sein und nur Informationen zeigen, die spezifisch für den Nutzungskontext sind. Außerdem sollte es Situationen und Zeiten identifizieren, die nicht angemessen für eine Interaktion sind.
11
Besitzt das intelligente Produkt ein Kurzzeitgedächtnis? Das intelligente Produkt sollte es den Nutzer:innen ermöglichen, auf kürzlich gemachte Interaktionen zu verweisen. Das heißt, es sollte erlauben, dem System positive Beispiele für Nutzer:innenerlebnisse zu geben.
12
Welches mentale Modell haben Nutzer:innen von der Interaktion mit dem intelligenten Produkt? Das mentale Modell sollte zeigen, welche Vorstellungen und Erwartungen die Nutzer:innen in Bezug auf das Produkt haben, auf welche Art und Weise das intelligente Produkt funktioniert oder funktionieren sollte und wie das Nutzer:innenverhalten die Ergebnisse des Produkts beeinflusst. Soziale Normen und Konventionen sollten im mentalen Modell berücksichtigt werden. Das intelligente Produkt sollte Erwartungen richtig setzen, wenn es gängigen mentalen Modellen entgegenläuft. Das mentale Modell sollte beim ersten User Testing ermittelt oder über Designheuristiken anderer am Markt durchgesetzter Produkte abgeleitet werden.
103
13
Ist die Interaktion zwischen Nutzer:in und dem intelligenten Produkt antizipierbar und transparent? Nutzer:innen sollten im Vorhinein und mit Sicherheit sagen können, was das intelligente Produkt tun wird und wieso. Erwartungen in die Fähigkeiten intelligenter Systeme sollten immer zurückhaltend gesetzt werden. Zudem erwarten Nutzer:innen, dass intelligente Produkte ein rudimentäres Verständnis von Umgangsregeln haben und diese einhalten.
14
Ist die Interaktion zwischen Nutzer:in und intelligentem Produkt leicht, effizient und vergnüglich? Die Interaktion mit dem intelligenten Produkt sollte dem mentalen Modell der Nutzer:innen nicht widersprechen sowie für Erstnutzer:innen leicht zu verstehen und zu lernen sein. Das Produkt sollte den Nutzen auf einfachste Weise sicherstellen und dabei Freude bereiten.
15
Ist die Interaktion zwischen Nutzer:in und intelligentem Produkt barrierefrei? Die Funktionen des intelligenten Produkts sollten möglichst inklusiv sein und Menschen mit unterschiedlichen Einschränkungen die Nutzung erlauben.
16
Gibt es Best-in-Class Experiences aus anderen Branchen, die vorbildhaft sind? Optional können gute Lösungen auch aus anderen Branchen Inspiration für eine intelligente Produktentwicklung bieten.
N:
Fehler 17
Ist die Interaktion zwischen Nutzer:in und intelligentem Produkt fehlertolerant? Die Interaktion sollte es erlauben, Fehler der Nutzer:innen, Fehler des Systems und Fehler, die sich aus dem Kontext ergeben, anstandslos und effektiv zu beheben. Für Fehler, die nicht behoben werden können, sollte ermittelt werden, wie die Toleranz ihnen gegenüber bei den Nutzer:innen erhöht werden kann.
18
Wie werden Fehler der Nutzenden definiert und gehandhabt? Nutzer:innenfehler sollten vorher genau von System- und Kontextfehlern unterschieden werden. Sie können durch falsche Eingabe oder falschen Gebrauch entstehen. Mögliche Nutzer:innenfehler sollten gut getestet oder durch Designheuristiken abgeleitet sein. Sie sollten immer auch durch die jeweiligen Nutzer:innen rückgängig gemacht werden können.
19
Welche Möglichkeiten bietet das Produkt, wenn es Systemfehler liefert? Intelligente Systeme machen immer Fehler. Es gilt, diese entsprechend zu kommunizieren, sodass die Nutzer:innen nicht verwirrt oder misstrauisch werden. Das intelligente Produkt sollte erlauben, wichtige Fehler zu erkennen und den Nutzer:innen mitzuteilen, dass und mit welcher Wahrscheinlichkeit ein Fehler gemacht wurde. Ist sich das System über die Ziele der Nutzenden nicht sicher, sollte es sich zurückziehen oder seine Funktion je nach Kontext einstellen. Es sollte zudem bei der Funktionsweise und Genauigkeit der Systeme genau
104
abgewogen werden, ob die Systeme viele Ergebnisse liefern mit entsprechend mehr falschen Treffern oder weniger Ergebnisse mit entsprechend weniger Fehlern. 20
Welche Möglichkeiten bietet das Produkt den Nutzer:innen, wenn es Kontextfehler liefert? Für Fehler, die sich aus der Fehlinterpretation von Nutzungskontexten ergeben, sollte das intelligente Produkt erlauben, Feedback für ein Re-Training des Modells zu geben und mögliche Ergebnisse rückgängig zu machen.
21
Wie wirken sich Fehler auf das Vertrauen in das Produkt aus? Kein intelligentes Produkt läuft völlig fehlerfrei. Wenn definiert ist, wie Fehler gehandhabt werden, sollte getestet werden, ob bestimmte Fehler das Vertrauen besonders erschüttern und wie man es gegebenenfalls wieder erhöhen kann.
N:
Transparenz und Vertrauen 22
Welches Vertrauen bringen Nutzer:innengruppen intelligenten Produkten generell entgegen? Hier sollten alle Personas nach dem Grad ihres Vertrauens in intelligente Produkte berücksichtigt werden. Richtgröße für die IX mit intelligenten Produkten sind die skeptischen Nutzer:innen. Wenn sie zufrieden sind, haben auch die Nutzer:innen mit mehr Vertrauen oftmals keine Einwände.
23
Wie gut verstehen Nutzer:innen den Entscheidungsprozess des intelligenten Produkts und wie gut müssen sie ihn verstehen? Das intelligente Produkt sollte auf Anfrage der Nutzer:innen deutlich machen können, wie es zu entsprechenden Ergebnissen gekommen ist oder warum es entsprechend gehandelt hat. In den User Testings sollte herausgefunden werden, wie viel Wissen die Nutzer:innen von der Funktionsweise des Systems tatsächlich verlangen, um Vertrauen zu entwickeln.
24
Welche Gefahren des übermäßigen Vertrauens in Intelligenz gibt es für das Produkt? Das Produkt sollte die Nutzer:innen nicht aktiv oder passiv täuschen in Bezug auf die Sicherheit und Genauigkeit seiner Ergebnisse. Oft sind mentale Modelle und vorgefertigte Einstellungen zu berücksichtigen, wenn es um die Frage übermäßigen Vertrauens geht.
N:
Fairness, Ethik und Rechtliches 25
Welche fairen Regeln der Nutzung sollen definiert werden? Das Produkt sollte fair und ethisch sein und möglichst sehr geringe diskriminatorische Resultate liefern.
105
25
a
Welche möglichen Nachteile und Diskriminierungsszenarien ergeben sich durch das intelligente Produkt? Das Produkt sollte Menschen mit unterschiedlichen Befähigungen, Identitäten, Aussehen und Handlungsweisen einschließen. Es sollte darüber hinaus die Biases in dem verwendeten intelligenten System selbst so weit wie möglich reduzieren oder aktiv bekämpfen.
25
b
Wie wird garantiert, dass das intelligente Produkt sicher ist? Das Produkt sollte kein Risiko für die Gesundheit und die Datensicherheit der Nutzer:innen darstellen.
25
c
Welche Kontrolle über private Daten sollen ermöglicht werden? Das Produkt sollte datenschutzrechtlich konform sein und darüber hinaus die Kontrolle über private Daten in einem vertretbaren Umfang ermöglichen.
25
d
Welche Kontrolle über Funktionen sollen ermöglicht werden? Das Produkt sollte es den Nutzer:innen in gewissem Umfang erlauben, zu bestimmen, was es überwacht und wie es sich verhält.
25
e
Welche Nutzungsszenarien können implizit ungewollte Auskunft über private Daten ermöglichen? Das Produkt sollte Emergenzszenarien unterbinden, also keine sensiblen Informationen an Dritte preisgeben, die erst durch häufige Nutzung entstehen und damit Nachteile und Gefahrenpotenziale bergen; etwa die Bestimmung des Wohnorts durch Einsicht des Starts und Endes von Joggingrouten.
26
Welche DSGVO-Regeln müssen auf jeden Fall vom Produkt beachtet werden? Die intelligente Assistenz sollte DSGVO-konform sein und den Nutzer:innen erlauben, in einem bestimmten Umfang über ihre Daten selbst zu bestimmen. Folgende Fragen sind dabei relevant:
26
26
a
Welche Daten werden von den Nutzer:innen erhoben?
b
Welche Daten werden für das Training des Modells von den Nutzer:innen erhoben?
26
c
Welche Daten gilt es zu schützen und nicht öffentlich zu machen?
26
d
Können User:innen ihre Daten einsehen, löschen oder kontrollieren? Wenn ja, wie?
27
Welche Praktiken aus der EU-Blacklist für schädigende KI-Systeme werden unterstützt? Das intelligente Produkt sollte keinen der aufgeführten Bereiche unterstützen (a bis c) oder entsprechende strenge Auflagen der EU erfüllen (d,e).
106
27
a
Das System begünstigt Verhalten, das körperlichen oder psychischen Schaden zufügt.
27 27
27
b
Das System nutzt Schwächen aufgrund von Alter oder Behinderung aus.
c
Das System erlaubt Social Scoring und Ächtung von Fehlverhalten.
d
Das System erlaubt biometrische Identifizierung in öffentlich zugänglichen Räumen.
e
Das System ist ein Hochrisikosystem, das heißt, es wird beispielsweise eingesetzt bei kritischer Infrastruktur, bei der Bewertung von Bewerber:innen, bei der Bestimmung der Kreditwürdigkeit oder bei Rettungsdiensten und Strafverfolgung.
N:
Feedback und Training 28
Welches implizite oder explizite Feedback erlaubt das intelligente Produkt? Das Produkt sollte die Nutzer:innen ermutigen, detailliertes implizites und/oder explizites Feedback zu geben. Dies ist wichtig, damit das intelligente Produkt korrekt funktioniert und sein System gegebenenfalls später weiter trainiert werden kann. Darüber hinaus sollte es für die Nutzer:innen deutlich, einfach und wohltuend sein, implizites und explizites Feedback zu geben. Deren Bereitschaft, Feedback zu geben, kann durch User Testings ermittelt und verbessert werden.
29
Soll das intelligente Produkt kontinuierlich verbessert werden? Das Produkt sollte in relevanten Zeiträumen trainiert werden, um eine verbesserte oder personalisierte IX zu ermöglichen, die zudem auf tatsächlichem und aktuellem Verhalten basiert. Diese Updates sollten vorsichtig vorgenommen werden und Nutzer:innen nicht durcheinanderbringen. Updates und Änderungen in der Funktionsweise der Produkte sollten deutlich und transparent kommuniziert werden.
107
M:
Marke
1
Welche Markenidentität gilt es zu beachten? Das intelligente Produkt sollte mit der Markenidentität in einem sinnvollen Zusammenhang stehen und positiv auf die Identität einwirken. Beide sollten idealerweise eng miteinander verbunden sein. Besitzt das intelligente Produkt eine dynamische visuelle Gestaltung, sollte geklärt sein, wie durch die Flexibilität hindurch die Markenidentität bewahrt werden kann. Gegebenenfalls müssen Corporate Identity bzw. Corporate Design vorher flexibel gemacht werden und ein Markenkern sowie eine Markenstory für flexible Markenauftritte erarbeitet werden.
2
Welches Markenerlebnis soll entstehen? Die IX sollte mit dem Markenerlebnis in einem sinnvollen Zusammenhang stehen und positiv auf das Markenerlebnis einzahlen. Bei flexibler Gestaltung der visuellen Markenidentität sollte darauf geachtet werden, dass die IX auch als Erlebnis der Marke verstanden wird.
3
Gibt es eine Pattern Library oder ein Designsystem? Das Produkt sollte Designsysteme einbinden, um eine personalisierte Gestaltung zu ermöglichen.
Kapitel 3: Gestaltung mit und für intelligente Systeme
108
3.3.5 Resultate
Die intelligenten Produkte vereinfachen das Leben der Nutzer:innen und nehmen ihnen kognitive
Nützliche und schöne Erlebnisse für intelligente
Last ab. Genauso wird aber auch deutlich, dass die
Systeme zu gestalten, ist keine triviale Aufgabe, denn
Domain, in der intelligente Produkte wirken und Er-
die Möglichkeiten intelligenter Systeme erlauben eine
gebnisse liefern, ein noch sehr eingeschränkter Raum
Vielzahl neuer Erlebnisformen und -modi. Das Ver-
ist und die Nutzer:innen weiterhin entscheiden
sprechen der IX ist es, je nach Situation, je nach Ver-
müssen, ob das intelligente Produkt tatsächlich hilf-
fasstheit und je nach aktuellem Verhalten die Ergeb-
reich ist. Letztlich besteht auch die Gefahr, mit den
nisse der Prognose, aber auch die Gestaltung selbst
intelligenten Produkten von einer Experience Bubble,
an diese Verhaltensweisen und die dahinterliegenden
einer Blase der immer gleichbleibenden Erlebnisse,
Bedürfnisse anzupassen. Damit sind die intelligenten
umschlossen zu werden.311
Systeme aus Sicht der User Experience herkömmlichen Produkten potenziell überlegen. Wenn solche intelligenten Systeme Rückschlüsse auf Aktionen, Ereignisse, Handlungen, Geschmäcker und Emotionen ziehen können, dann ändert sich das Erleben dieser Systeme mit jedem neuen Datum, das sie verarbeiten. Dann ist IX nicht mehr nur eine Frage des einmalig gestalteten Produkts, sondern kann sich permanent an die Nutzer:innen und ihre Präferenzen anpassen. Auf der Ebene der User Experience schaffen intelligente Produkte also ein radikal individuelles Nutzer:innenerlebnis und lösen die Grenze zwischen Nutzung und Gestaltung auf. Im Moment der Nutzung entsteht eigentlich erst das fertige Produkt, die fertige Gestaltung und letztlich das Erlebnis. Diese gesteigerte Expressivität,310 die durch die Potenz intelligenter Systeme entsteht, Nutzer:in, Kontext und Umwelt zu verarbeiten, lässt neue Nutzungsformen und Erlebnisse entstehen. Designer:innen können die Interaktion mit intelligenten Systemen intuitiver und natürlicher machen, müssen aber immer auch damit leben, dass die Prognosen potenziell falsch sind.
310 Hebron: Machine Learning for Designers, S. 26.
311 Bodegraven, Joël van: „How Anticipatory Design Will Challenge Our Relationship with Technology“, https://www.aaai.org/ocs/index.php/ SSS/SSS17/paper/viewFile/15352/14582 (21.4.2022).
Kapitel 3: Gestaltung mit und für intelligente Systeme
109
3.4 Auswirkungen auf Gestaltung und
nen letztlich der Schöpfungskraft berauben 313 oder sie
Gestalter:innen
gleich ganz ersetzen.
Mit den hier diskutierten Möglichkeiten der intelli-
Deutlich wird, dass schon in und mit der Natur
genten Systeme, Gestaltungsprozesse zu automati-
der Ausgangsfragen eine theoretische Perspektive
sieren und zu augmentieren, aber auch die User
vorgegeben ist, die nicht unproblematisch ist, denn
Experience in eine Intelligence Experience zu ver-
die Frage nach der künstlerischen Maschine geht
wandeln, stellen sich neue Herausforderungen und
grundlegend von einem Vergleich mit dem Menschen
Aufgaben für Design und Designer:innen. Zunächst
aus, ohne dass die Vergleichbarkeit nachgewiesen
ergeben sich aus designtheoretischer Sicht neue Ver-
werden müsste. Die Frage impliziert darüber hinaus,
ständnisse von Kreativität, Autorschaft und Design.
dass es sich um einen Wettbewerb der Maschine mit
Es ergeben sich aber auch neue Berufsbilder für
dem Menschen handeln muss, dessen Ausgang dann
Designer:innen. Damit sind nicht nur neue Skills
kritisch reflektiert wird. Ob ihn der Mensch gewinnt
gefragt, sondern auch neue Ausbildungskonzepte.
oder verliert, wird dann subjektiv entschieden. Der
Letztlich wirken die intelligenten Systeme auch auf
vergleichende Wettbewerb, der intelligente Systeme
designerische Wertschöpfungsprozesse und werfen
treiben soll, bleibt weiter unhinterfragt und die be-
neue ethische und rechtliche Fragen auf.
stimmende Signatur der Debatte. Damit verwischt sie jedoch die zentralen Aspekte, wie intelligente
3.4.1 Ein neues Verständnis von Kreativität,
Maschinen mit menschlicher Kreativität verbunden
Autorschaft und Design in Zeiten intelligenter
sind.
Gestaltung? Erstens ist Kreativität gar kein widerspruchsfreiDer Umfang der Aufgaben, den intelligente Systeme
er Gegenstand, der dem Menschen einfach zufällt.
bewältigen, aber auch die Breite des inferierten Wis-
Jeder Mensch soll zwar von Natur aus kreativ sein,
sens haben kritische Kommentator:innen veranlasst
allerdings muss das durch methodische Tricks und
zu fragen, ob künstliche Intelligenz überhaupt kreativ
Kniffe erst hergestellt werden. Kreativität muss
sein und Neues erschaffen kann. Man fragte darüber
immer in „systematisch angeleitete, häufig profes-
hinaus, ob solche lernenden Systeme als Designer
sionell betriebene und institutionell abgestützte
und Künstler bezeichnet werden können und ob
Strategien“ 314 überführt werden, damit sie dauerhaft
sie echte Werke erschaffen. Die Debatten, in denen
hervorgebracht werden kann. Dort, wo solche Trai-
diese Fragen beantwortet wurden, verliefen oft sehr
ningsmethoden für neue Einfälle wie beispielsweise
einseitig. Entweder sind die intelligenten Systeme
Brainstorming angewendet werden, kann natürlich
wahlweise als nicht wirklich kreativ zurückgewiesen
auch eine Maschine tätig werden, indem sie genauso
worden, weil sie grundlegende Regeln des Designs
methodisch vorgeht. Denn versteht man Kreativität
nicht beherrschen, 312 oder sie sind als Bedrohung ge-
als methodisches Vorgehen und nicht als zufällige
fasst worden, da sie Designer:innen und Künstler:in-
Inspiration, dann können auch intelligente Systeme
312 Meier, Anika/Rossner, Manuel: „‚I Don’t Experience the Meaning of Creativity in the Same Way Humans Do‘: Künstliche Intelligenz und Kreativität“, in: Engenhart, Marc/Loewe, Sebastian (Hrsg.): Proceedings of the First Conference on Designing with Artificial Intelligence, München: appliedAI 2021, S. 90
313 Volland, Holger: Die kreative Macht der Maschinen. Warum Künstliche Intelligenzen bestimmen, was wir morgen fühlen und denken, Weinheim: Beltz 2018, S. 85. 314 Bröckling, Ulrich: „Über Kreativität. Ein Brainstorming“, in: Menke, Christoph/Juliane Rebentisch (Hrsg.): Kreation und Depression. Freiheit im gegenwärtigen Kapitalismus, Berlin: Kadmos 2010, S. 93.
Kapitel 3: Gestaltung mit und für intelligente Systeme
110
kreativ sein, das heißt Neues, Unerwartetes und
siert und verbraucht. Im Markt ist sie ständig gefragt,
Wertvolles erschaffen.
da der Vorsprung durch innovative Ideen durch die
315
Dieser Vorstellung folgend
kann in Bezug auf intelligente Systeme zwischen
Konkurrenz dauerhaft infrage gestellt ist. Kreativi-
drei unterschiedlichen Arten von Kreativität unter-
tät wird so zum Imperativ und muss einen radikalen
schieden werden. Das ist neben der kombinatori-
Vergleich bestehen, sie muss mehr vorhanden sein als
schen Kreativität, die Altes zu Neuem kombiniert,
beim Konkurrenten, sie muss bessere und verwert-
die exploratorische Kreativität, die mit bestehenden
barere Ideen produzieren.318 Längst reicht die kreative
Gestaltungsregeln neue Ausdrucksformen findet. Das
Potenz eines einzelnen Menschen für dieses ökono-
ist aber auch die transformationale Kreativität, die
mische Kampfprogramm nicht mehr aus. Keine archi-
Gestaltungsregeln bricht und zu ganz unerwarteten
tektonische, soziale oder technologische Intervention
Lösungen kommt. 316 Fasst man Kreativität also in
in Arbeitsabläufe ist klein genug, um nicht der kriti-
dieser funktionalistischen Perspektive, wird sie als
schen Frage ausgesetzt zu sein, ob sie die Kreativität
exklusive menschliche Eigenschaft, die der Maschine
fördert. Kreativität muss mit elaborierten Methoden
diametral gegenübersteht, fragwürdig.
hervorgerufen und in Teams praktiziert werden, die sich ständig in Innovation Labs austauschen. Das
Zweitens sind selbst die ausgeklügeltsten Maschi-
Innovation Lab ist darüber sogar zum unternehmeri-
nen, die Kunst oder Design erzeugen, immer noch
schen Mainstream und kulturellen Topos geworden.
menschengemacht. Menschen haben sich vorge-
Auch hier ist Kreativität keine abgeschottete mensch-
nommen, eine solche Maschine zu erzeugen und sie
liche Fähigkeit, sondern ökonomisch hergerichtete
kreative Aufgaben erfüllen zu lassen. Es ist eine Ver-
Ressource.
wechslung, intelligente Systeme, nur weil sie kreative Aufgaben automatisieren, auch als eigenständige
Statt den illegitimen Vergleich der Maschine mit
kreative Entitäten zu begreifen, die mit einem krea-
dem Menschen zu führen und in Zerrbilder abzu-
tiven Willen begabt sind. Die Maschine bleibt bloße
gleiten, liegt es doch nahe, über intelligente Systeme
ausführende Kraft eines menschlichen schöpferi-
als besondere Werkzeuge nachzudenken und zu
schen Willens, sie ist nicht Ursprung desselben.
überlegen, wie sie Menschen als solche unterstützen
317
Die Vorstellung der Kreativität als das überlegene
können. Daher liegt die Frage nahe: Wieso versteht
Schöpfungspotenzial einer Maschine ist also eben-
man intelligente Systeme nicht als kognitive oder
falls ein Zerrbild.
kreative Orthesen des Menschen? 319 Die Orthese ist im Gegensatz zur Prothese nicht Ersatz für abhandenge-
Drittens ist Kreativität gar keine unschuldige Sache
kommene Gliedmaßen oder – im Fall der Kreativität –
im Sinne eines einfachen privaten Vergnügens und
verloren gegangene Fähigkeiten, sondern ein Zusatz,
die Vorstellung der Kreativität als unterhaltsames
eine Vorrichtung, die strukturelle und funktionelle
menschliches Tun erscheint merkwürdig romantisch.
Eigenschaften erweitert und ganz neue Fähigkeiten
Kreativität ist in der Konkurrenzgesellschaft vielmehr
erlaubt. In dieser Perspektive werden Designer:innen
längst flächendeckend zur ökonomischen Ressource
durch das intelligente Werkzeug befähigt, kognitiv
geworden und als diese wird sie permanent mobili-
komplexe Sachverhalte in einer einzigen Gestaltungs-
315 Boden, Margaret: AI. Its Nature and Future, Oxford: Oxford University Press 2016, S. 68 f.
318 Bröckling: Über Kreativität, S. 94. 319 Ford, Kenneth/Hayes, Patrick/Glymour, Clark: „Cognitive Orthoses:
316 Boden: AI, S. 68 f.
Toward Human-Centered AI“, https://ojs.aaai.org/index.php/aimagazine/
317 Hertzmann, Aaron: „Computers Do Not Make Art, People Do“,
article/view/2629 (21.4.2022).
Communications of the ACM 63 (2020), S. 47.
Kapitel 3: Gestaltung mit und für intelligente Systeme
111
entscheidung zusammenzuführen. In dieser Pers-
Zunächst kommt Rittel auf die Leistungen des
pektive ist die alte dramatische Gegenüberstellung
Computers für die Architektur und damit im weites-
von Mensch und Maschine zugunsten einer neuen
ten Sinn für die Gestaltung selbst zu sprechen. Aus
orthetischen Form von Zusammenarbeit aufgelöst.
seiner Sicht hängt das, was Computer für Desig-
Auch die Vorstellung von autonomen Schöpfer:innen,
ner:innen zu leisten vermögen, vom „Verständnis
die mit den intelligenten Werkzeugen verbunden
ihrer Probleme und der Algorithmisierbarkeit dieses
werden, ist in dieser Perspektive zugunsten einer Ko-
Verständnisses ab.“ 320 Der Computer hat nach Rittel
Autorschaft revidiert, die den Blick auf neue Formen
die Notwendigkeit der Algorithmisierbarkeit in die
der kreativen Interaktion freigibt.
Gestaltung gebracht. Gestalterische Probleme müssen in diskrete, zeitlich begrenzte Handlungsfolgen
Was bedeuten die Veränderungen, die durch die
übertragen werden, die von einer binär arbeitenden
intelligenten Systeme ins Reich der Gestaltung ein-
Rechenmaschine ausgeführt werden können. In
ziehen, nun für das theoretische Verständnis von
dieser Hinsicht hat sich auch mit der Einführung
Design? Nicht erst seit es wirkungsvolle und mas-
intelligenter Systeme nichts Wesentliches verändert.
senhaft einsetzbare künstlich-intelligente Systeme
Allerdings – und das ist nichts Geringes – hat sich
gibt, wurde Gestaltung durch Technologie überformt
der Umfang der Probleme, die algorithmisierbar sind,
und verändert. Schon einmal gab es ein – zumindest
enorm erweitert. Mit der intelligenten Bild-, Sprach-
aus Sicht der Designer:innen – ähnlich gravierendes
und Emotionserkennung kann der Computer reich-
Ereignis. Es war die Einführung des Heimcompu-
haltige neue Datenquellen sinnvoll verarbeiten. Mit
ters, der in den 1980er-Jahren zum Massenprodukt
immer elaborierteren Verfahren der Datenanalyse
und damit auch zum verfügbaren Designwerkzeug
kann der Computer zudem aus immer mehr Daten
wurde. Der Designtheoretiker Horst Rittel setzt sich
immer schneller sinnvolle Schlüsse ziehen.
in seinem wegweisenden Artikel „Architekten und Computer“ von 1984 nicht nur mit angemessenen
Entsprechend sehen die vier Anwendungsgebie-
und unangemessenen Vorstellungen des computer-
te aus, die Rittel für computergestützte Gestaltung
basierten Designs auseinander und zieht dadurch
identifiziert. Die ersten drei Anwendungsgebiete
aufschlussreiche Parallelen zur Diskussion um
lesen sich so, als seien sie direkt der Debatte um KI-
künstliche Intelligenz in der Gestaltung. Er macht die
gestützte Arbeitsprozesse entnommen. Der Architekt
intelligente Gestaltung oder Architekturmaschine,
möchte „schneller, verläßlicher, billiger erledigen
wie sie damals genannt wurde, in seinem Aufsatz
lassen, was er ohnehin tut“, er möchte „Tätigkeiten
explizit zum Thema seiner gestaltungstheoretischen
übertragen, die er nur ungern und mühsam ausführt“,
Betrachtungen. Damit bietet der Aufsatz eine be-
und er möchte „Dinge tun lassen, die er eigentlich tun
sonders fruchtbare designtheoretische Folie, vor der
möchte, aber gewöhnlich nicht ausführt, weil sie zu
intelligente Gestaltung im Folgenden nun theoretisch
aufwendig, zeitraubend wären, oder weil er vergessen
reflektiert werden soll.
hat oder nicht weiß, wie man sie ausführt.“ 321 Diese Anwendungsgebiete berühren im Kern die Automa-
320 Rittel, Horst: „Architekten und Computer“, in: Reuter, Wolf/Jonas, Wolfgang (Hrsg.): Thinking Design. Transdisziplinäre Konzepte für Planer und Entwerfer, Basel: Birkhäuser 2013, S. 187. 321 Rittel: Architekten und Computer, S. 187.
Kapitel 3: Gestaltung mit und für intelligente Systeme
112
tisierung von Gestaltung und sie sind für die Ge-
zweiten grundlegenden Artikel zur Entwicklung des
staltung mit und für intelligente Systemen ebenfalls
Planungsprozesses wie folgt aus:
gültig. „Varietät zu erzeugen, Ideen zu haben, ist die In einem vierten Anwendungsbereich, der heu-
leichteste Sache der Welt; sogar ein Computer
te mit Augmentierung gestalterischer Fähigkeiten
wäre in der Lage, dabei zu helfen. Jedoch kann er
verbunden ist, kann der Designer laut Rittel „neue
im zweiten Teil, bei der Reduktion von Varietät,
Aspekte in seine Arbeit einbringen, die erst durch
überhaupt nichts beitragen, da dies im wesentli-
diese Technik praktisch ermöglicht werden“. 322 Rittel
chen ein Bewertungsvorgang ist.“ 324
sieht sogar in Form des Ideals der Augmentierung den Einsatz von intelligenten Systemen voraus,
Genau bei diesen divergierenden Bewertungsvor-
wenn er formuliert:
gängen im Designprozess können nun intelligente Systeme assistieren. Der Designprozess wird hier zu
„Entwerfen am Bildschirm, vom schematischen
einem maschinell augmentierten Prozess erweitert.
Konzept bis zur Werkzeichnung, mit der Möglich-
Auch Rittel wehrt sich dann gegen die Vorstellung
keit zur sofortigen Kontrolle durch perspektivi-
einer menschenähnlichen Intelligenz, die den Gestal-
sche Darstellungen, wobei ständig die Konsistenz
tenden gefährlich wird:
der Entscheidungen überwacht wird, die Konsequenzen von Änderungen automatisch durch
„Dieses Golem-Ideal von der künstlichen Intelligenz
alle Teile und womöglich noch im Hintergrund
ist populär, stößt aber – zum Glück – auf grund-
alle möglichen Programme mitlaufen, die Statik,
sätzliche theoretische Hemmnisse. Die andere,
Bauvorschriften, Kosten, u. dgl. überprüfen – das
bescheidenere Strategie zielt auf die Entwick-
wäre das Ideal.“
lung ‚intellektueller Prothesen‘, von Denkzeugen,
323
Dieses Ideal autonomer Gestaltung wird nun sukzes-
welche die natürliche Intelligenz ver[s]täten und unterstützen.“ 325 [ Herv. i.O.]
sive durch intelligente Designwerkzeuge eingelöst. Im Entwurfsprozess selber werden verschiedene Da-
Mit dem Golem-Ideal meint Rittel die Vorstellung
ten genutzt, um für Designer:innen eine intuitive und
von künstlicher Intelligenz als Dienerin ohne Geist
visuelle Entscheidungsgrundlage zu ermöglichen,
oder als Schöpferin ohne Bewusstsein. Diesem Bild
ohne dass physikalische Gesetze oder Vorschriften
der Designautomatisierung als großer Verdrängerin
ausgeblendet und missachtet werden müssten. Damit
menschlicher Kreativität tritt er entgegen. Rittel
entsteht durch intelligente Systeme im Innovations-,
schlägt vor, intelligente Systeme als kreative Orthe-
Planungs- und Designprozess etwas grundlegend
sen zu verstehen, als Denkwerkzeuge oder wie er
Neues. Die intelligenten Werkzeuge können nun bei
sich ausdrückt, als Denkzeuge. Gemeint ist hier er-
Entscheidungen helfen, die vorher Algorithmen und
neut, dass intelligente Systeme, indem sie mensch-
Designer:innen nicht oder nur sehr schwer fällen
liche Fähigkeiten erweitern, Designer:innen zu neuen
konnten. Rittel drückt diesen Umstand in einem
Formen der Gestaltung verhelfen.
322 Rittel: Architekten und Computer, S. 187. 323 Rittel: Architekten und Computer, S. 189.
324 Rittel, Horst: „Zur Planungskrise: Systemanalyse der ersten und zweiten Generation“, in: Reuter, Wolf (Hrsg.): Planen, Entwerfen, Design, Ausgewählte Schriften zur Theorie und Methodik, Stuttgart: Kohlhammer 1992, S. 55. 325 Rittel: Architekten und Computer, S. 195.
Kapitel 3: Gestaltung mit und für intelligente Systeme
113
Auf der anderen Seite – der Seite der Intelligence
es Bernhard Bürdek noch vor Kurzem ausdrückte. 328
Experience – erlauben intelligente Systeme, „komple-
Allerdings nicht weil die mathematischen Bestim-
xere situative Handlungstypologien und -modelle“
mungen, die die Informationsästhetik verlangte, heute
zu erstellen, die sich zu „realweltlichen Interak-
formulier- und kalkulierbar geworden sind. Vielmehr
tionskontexten“ ausweiten.
erreichen die intelligenten Systeme das informations-
326
Mit anderen Worten:
Intelligente Systeme bilden immer mehr die vielen
ästhetische Ideal auf anderem Wege. Sie erlauben es,
Facetten der Nutzer:innen, ihrer Vorstellungswelten
den statistisch relevanten Zusammenhang zwischen
und Handlungsweisen ab, indem sie mit und durch
ästhetischer Form und sowohl massenhaft auftre-
die Daten, die die realweltlichen Interaktionskontexte
tendem als auch individuellem Geschmacksurteil
liefern, immer genauere Modelle dieser Nutzungswei-
zu lernen. Die Informationsästhetik wird insofern
sen bekommen. Das Ideal partizipatorischer Gestaltung,
revidiert, als dass die künstliche Intelligenz das Äs-
die Nutzer:innen in ihren individuellen Handlungs-
thetische nicht mehr als objektive Eigenschaft in den
mustern und Nutzungserfahrungen zu identifizieren
ästhetischen Gegenständen selbst findet, aber doch
und einzubeziehen, wird vom intelligenten System
sehr wohl einen objektiven Zusammenhang zwischen
zumindest theoretisch und wohl bald auch praktisch
ästhetischem Genuss und gestaltetem Gegenstand
eingelöst.
durch mathematische Methoden ermitteln kann.
Ein weiteres längst aufgegebenes Ideal rationaler
3.4.2 Neue Herausforderungen und Fähigkeiten
Gestaltung bekommt mit der Potenz intelligenter
für Designer:innen
Systeme neue Bedeutung. Informationästhetische Ansätze im Design, die vor allem mit dem Namen
Designer:innen müssen schon heute eine breite Palet-
Max Bense verbunden sind und an der HFG Ulm ge-
te von Kompetenzen besitzen, um in ihrem Job erfolg-
lehrt wurden, kommen nun in neuer Weise zu ihrem
reich arbeiten zu können. Sie müssen analytische
Recht. Diese informationästhetischen Ansätze haben
genauso wie kreative Fähigkeiten besitzen, sie müs-
versucht, „das Ästhetische messbar zu machen“.327
sen geschult sein im Umgang mit neuen Technologien
Das gestaltete Objekt selbst sollte durch mathema-
und sie müssen ein tiefes empathisches Wissen ihrer
tisch genau abgeleitete ästhetische Gesetze bestimmt
Zielgruppen haben.329 Mit den intelligenten Systemen
und der Grad seiner ästhetischen Qualität rational
werden einige dieser Kompetenzen wichtiger und es
bestimmbar werden. Gesucht wurde eine exakte
kommen neue hinzu. Es werden allerdings auch alte
Methode der objektiven Beschreibung ästhetischer
Kompetenzen entwertet und bisher als zentral wahr-
Objekte. Dieses Unterfangen musste aufgegeben
genommene Gestaltungsbereiche werden sukzessive
werden, weil es nicht gelang, ästhetische Wirkung in
an intelligente Systeme abgegeben. Auch das war
mathematische Gesetze zu überführen. Im Lichte in-
schon in den 1980er-Jahren so, als der Computer ein-
telligenter Systeme erscheint das Ideal rationaler Ge-
geführt wurde, und es ist sicher nicht das letzte Mal,
staltung heute jedoch nicht mehr so „exotisch“, wie
dass sich das, was wir unter Design verstehen, durch
326 Mareis, Claudia: „Wer gestaltet die Gestaltung? Zur ambivalenten Verfassung von partizipatorischem Design“, in: Mareis, Claudia/
328 Bürdek: Design, S. 129. 329 Godau, Marion: „Design-Kompetenz“, in: Erlhoff, Michael/Marshall,
Held, Matthias/Joost, Gesche (Hrsg.): Wer gestaltet die Gestaltung?
Tim (Hrsg.): Wörterbuch Design. Begriffliche Perspektiven des Design,
Praxis, Theorie und Geschichte des partizipatorischen Designs,
Basel: Birkhäuser Verlag 2008, S. 94.
Bielefeld: transcript Verlag 2013, S. 15. 327 Bürdek, Bernhard: Design. Geschichte, Theorie und Praxis der Gestaltung, Basel: Birkhäuser 2015, S. 129.
Kapitel 3: Gestaltung mit und für intelligente Systeme
114
technologische Entwicklungen anpasst und verän-
Zudem werden sie sich Skills aneignen müssen, die
dert. In seinem Artikel „Architekten und Computer“
sicherstellen, dass die Nutzer:innenbedürfnisse auch
zitiert Horst Rittel 1984 einen US-Kongressabge-
in den intelligenten Systemen berücksichtigt werden.
ordneten, der prognostiziert, dass 80 Prozent der
Dazu müssen sie grundsätzlich verstehen, wie sich
Architekt:innen im Jahre 2000 ihren Job verlieren
die Nutzer:innenbedürfnisse in die Datenbedürfnisse
werden.330 Ähnlich dramatisch wird die Lage für das
der intelligenten Systeme übersetzen lassen und dann
Design heute wahrgenommen. Ein unvoreingenom-
vom intelligenten Produkt bedient werden. Hier soll-
mener Blick auf die historische Entwicklung verrät,
ten Designer:innen statistische Lernverfahren und
dass der Computer den Berufsstand jedoch nicht
deren Trainingsgrundlagen grundlegend verstehen,
so umfassend wie angenommen entwertet hat. Das
wollen sie wirklich hilfreiche nutzer:innenzentrierte
Werkzeug hat Designer:innen schlicht produktiver
Produkte und Tools entwickeln. Es sind aber auch
und kreativer gemacht und ihre Aufgabenbereiche
Prototyping-Skills von Nutzen, mit denen erforscht
enorm erweitert.
wird, wie Nutzer:innen mit intelligenten Produkten interagieren.332 Drittens werden Designer:innen Skills
Wenn intelligente Werkzeuge immer mehr Aufga-
entwickeln müssen, mit denen verstanden werden
ben automatisiert übernehmen können, die vormals
kann, wie Nutzer:innen intelligente Systeme generell
Designer:innen womöglich in repetitiver Art und
wahrnehmen. Sie müssen in der Lage sein, gestalte-
Weise ausgeführt haben, dann werden solche Skills
rische Lösungen an der Schnittstelle zur Psychologie
wichtiger, mit denen Designprobleme ergründet
zu entwickeln, und damit Nutzer:innen erlauben zu
werden. Horst Rittel spricht in diesem Zusammen-
verstehen, wie diese Lösungen produktiv und hilf-
hang von der gestaltenden Person als „Hebamme für
reich für sie sind. 333 Das schließt ein, mögliche Wi-
Probleme“.331 Das heißt also, dass Designer:innen in
derstände der Nutzer:innen zu erkennen und ihnen
einer sich immer schneller verändernden Welt damit
frühzeitig zu begegnen.334
beauftragt sind, Nutzer:innen noch besser zu verstehen, um noch schneller und gründlicher ihre Proble-
Um dies leisten zu können, müssen Designer:innen
me und die dahinterliegenden Bedürfnisse zu identi-
den Designprozess als sogenannten Triple-Loop für
fizieren. Dazu müssen Gestalter:innen immer stärker
nutzer:innenzentriertes statistisches Lernen reflek-
ethnografische Fähigkeiten ausbilden. Sie werden
tieren lernen.335 Beim Triple-Loop handelt es sich um
also noch stärker als bisher zu Fürsprecher:innen
ein theoretisches Modell, das die Wahrnehmung der
von Nutzer:innenbedürfnissen in interdisziplinären
Designer:innen im Designprozess als kognitive Feed-
Teams.
backschleifen beschreibt, durch die der Designentwurf und seine Qualität reflektiert werden können.
332 Dory, Mike/DelliCarpini, Mindy: „Simulating Intelligence. Techniques for prototyping machine learning systems across products and features“, https://design.google/library/simulating-intelligence (21.4.2022). 330 Rittel: Architekten und Computer, S. 190. 331 Rittel: Zur Planungskrise, S. 52.
333 Qian Yang: „Unremarkable AI: Towards AI That Co-lives and Co-evolves with Users“, in: Engenhart, Marc/Loewe, Sebastian (Hrsg.): Proceedings of the First Conference on Designing with Artificial Intelligence, München: appliedAI 2021, S. 75. 334 Daugherty, Paul/Wilson, James: Human + Machine. Reimagining Work in the Age of AI, Boston: Harvard Business Review Press 2018, S. 191. 335 Seidel, Stefan/Berente, Nicholas/Lindberg, Aron et al.: „Autonomous Tools and Design. A Triple-Loop Approach to Human-Machine Learning“, https://dl.acm.org/doi/10.1145/3210753 (21.4.2022).
Kapitel 3: Gestaltung mit und für intelligente Systeme
115
Designer:innen beherrschen bisher zwei der drei
prüfen, ob die individuell eingestellten Parameter für
Feedbackschleifen, die im Designprozess angewendet
Bildgenerierung mittels GAN zu dem gewünschten
werden sollten. Die erste Feedbackschleife betrifft
Ergebnis führen. Mit der Evaluierung, der zweiten Fä-
das Designartefakt selbst; Designer:innen reflektieren
higkeit, überprüfen Designer:innen das gestalterische
anhand des Entwurfs, wie er geändert und angepasst
Gesamtergebnis. Sie überprüfen hier nicht mehr nur
werden muss. Diese Art der Reflexion wird schon in
einzelne Gestaltungsparameter, sondern Hypothesen
der Designausbildung trainiert. Die zweite kognitive
zum Designprozess mit intelligenten Werkzeugen
Feedbackschleife betrifft die vielen möglichen Arten
insgesamt, etwa wenn sie prüfen, ob ein bestimmtes
des Vorgehens im Designprozess. Designer:innen
GAN-Modell überhaupt das richtige Werkzeug ist für
reflektieren in einer Art Metaebene der Gestaltung,
das gewünschte Ergebnis. Mit dem dritten Skill, dem
ob ihr Designprozess, ihre Zielvorstellungen und
sogenannten „Adjustment“, vermitteln Designer:in-
Denkmuster zum Designproblem passen oder ver-
nen ihr mentales Modell, also ihre Vorstellung davon,
ändert und angepasst werden müssen. In der dritten
wie ein bestimmtes intelligentes Werkzeug funk-
Feedbackschleife, die neu ist und mit dem statisti-
tioniert, mit dem mentalen Modell des intelligenten
schen Lernen hinzukommt, müssen Designer:innen
Werkzeugs, also der tatsächlichen Wirkungsweise des
reflektieren, wie ihre eigenen Vorstellungen und
Werkzeugs. Sie können also vom Ergebnis rückschlie-
mentalen Modelle vom Designprozess mit dem
ßen auf ihr mentales Modell und überlegen, ob es
mentalen Modell des intelligenten Werkzeugs kor-
weiter angepasst werden muss. Sie können aber auch
respondieren. Mit anderen Worten: Designer:innen
auf das mentale Modell des Werkzeugs rückschließen
müssen verstehen, was mit den intelligenten Werk-
und überlegen, ob dieses angepasst werden muss.337
zeugen tatsächlich möglich ist, aber auch reflektieren können, welche richtigen oder falschen Vorstellungen
Genau zu verstehen, wie intelligente Systeme
sie haben, wie die intelligenten Werkzeuge funktio-
funktionieren, welche Fähigkeiten und Grenzen sie
nieren. Sie müssen alle drei Vorstellungsebenen als
haben, wird durch die intelligente Befragung ermög-
Elemente eines interaktiven Systems richtig zusam-
licht.338 Mit diesem sogenannten Fusion-Skill können
menbringen, um letztlich das zu erreichen, was sie
Designer:innen lernen, intelligente Systeme besser zu
gestalten möchten.336
verstehen und zu nutzen, indem sie gezielte Fragen nach Aufbau, Wirkungsweise und Anwendungsfällen
In diesem Zusammenspiel von Designer:in und
der Systeme stellen. Intelligente Befragung umfasst
intelligentem Werkzeug werden drei dezidiert neue
aber auch zu wissen, wann Ergebnisse der Systeme
Fähigkeiten verlangt. Die erste, „Framing“ genannt,
Sinn machen und wann nicht. Dies setzt ein entspre-
bezeichnet das Vermögen von Designer:innen, auf
chend gutes Verständnis der jeweiligen Lernverfahren
Basis eines grundlegenden Verständnisses des intelli-
und Daten voraus.
genten Tools Hypothesen aufzustellen, wie Input und Output des Werkzeugs zusammenhängen. Mit dem
Letztlich ist ein System immer nur so intelligent,
Framing wird also eine Erwartung an das intelligente
wie das Modell und die Daten, die es verarbeitet.
Werkzeug auf der Ebene einzelner Designschritte
Designer:innen müssen nicht immer mit komplexen
formuliert und überprüft, etwa wenn Designer:innen
intelligenten Werkzeugen arbeiten, sondern können
336 Seidel/Berente/Lindberg et al.: Autonomous Tools and Design, S. 52.
337 Seidel/Berente/Lindberg et al.: Autonomous Tools and Design, S. 56. 338 Daugherty/Wilson: Human + Machine, S. 193.
Kapitel 3: Gestaltung mit und für intelligente Systeme
116
auch zuständig sein, intelligente Systeme in Produkte
machen, und verhindern, dass diese als dumme Feh-
zu integrieren, die nur einen sehr begrenzten Hori-
ler wahrgenommen werden.
zont haben. An einem Beispiel soll dies verdeutlicht werden. So prognostiziert beispielsweise die bereits
Auf der Ebene der Datenbedürfnisse intelligenter
erwähnte Pricing-Plattform von Airbnb mittels ein-
Systeme sollten Designer:innen nicht nur wissen,
facher linearer Regression einen idealen Preis für jede
welche Daten zu welcher IX führen, sondern auch
spezifische Location und jeden individuellen Tag im
bestimmen können, welche zukünftige IX überhaupt
Jahr. Für sich genommen ist diese Preisvorhersage
in den Daten versteckt liegt, um die Potenziale für
kein allzu komplexes Rätsel. Massenweise genutzt al-
Nutzer:innenbedürfnisse noch besser auszuschöpfen.
lerdings entsteht sowohl für die Airbnb-Vermieter:in-
Mit anderen Worten: Designer:innen sollten in der
nen als auch die Nutzer:innen ein enorm hilfreiches
Lage sein, die wesentlichen Leistungen der Daten für
Erlebnis, denn die Airbnb-Wohnungen sind aus Sicht
die Nutzer:innen aus den Daten selbst herauslesen zu
der Nutzer:innen jederzeit erschwinglich und aus
können. Designer:innen benötigen dafür die soge-
Sicht der Vermieter:innen dauerhaft nachgefragt. Da-
nannte Data Literacy, die Schriftkundigkeit in Bezug
mit entsteht durch ein einfaches Lernverfahren wie
auf Daten, und damit die Fähigkeit, Data Stories zu
die lineare Regression eine komplexe IX, die in der
erzählen. Data Storytelling bezeichnet im Kern das
Gesamtwirkung mehr ist als die Summe der einzel-
Vermögen, Daten als ein zusammenhängendes Narra-
nen Prognosen. Es sind ineinandergreifende, sich
tiv mit Anfang, Mitte und Ende zu begreifen.341 In der
bedingende positive Erfahrungen. Hier ist eine we-
Regel wird Data Storytelling als Instrument genutzt,
sentliche Fähigkeit von Designer:innen, die Vorstel-
um strategisch-ökonomische Entscheidungen zu
lungskraft zu entwickeln, wie sogar sehr beschränkte
treffen. Als Designer:innen-Skill ist Data Storytel-
intelligente Systeme, die vielleicht nicht viel mehr
ling die Grundlage, um User Stories in den Daten zu
machen, als ein einziges Datum zu prognostizieren,
entdecken und damit neue Einsichten in die Welt der
sinnvoll eingesetzt werden können, um ein komple-
Nutzenden zu generieren.
xes Nutzer:innenerlebnis zu erschaffen. Mit anderen Worten müssen Designer:innen wissen, was auch
Beispielsweise kann man innerhalb einer Be-
ein „dummes“ System leisten kann, wenn man es
ratungsfirma beobachten, dass viele Angestellte das
skaliert.
Firmenauto nutzen, obwohl sie sagen, dass sie aus
339
Umweltgründen lieber mit der Bahn fahren wür Wollen Designer:innen eine gelungene IX erzeu-
den. Schaut man sich an, wo die Kund:innen der
gen, müssen sie einen weiteren Fusion-Skill besitzen,
Beratungsfirma sitzen und zu welchen Zeiten die
die sogenannte Judgment Integration.
Berater:innen reisen, stellt man schnell fest, dass die
340
Damit ist die
Fähigkeit gemeint zu wissen, wann intelligente Sys-
öffentlichen Verkehrsmittel nicht ausreichen, um
teme menschliches Urteilsvermögen benötigen, etwa
schnell und sicher am selben Tag anzukommen. Die
wenn Klassifizierungsalgorithmen Menschen als Tie-
Berater:innen müssen mindestens noch ein Auto
re erkennen. Designer:innen können mit diesem Skill
mieten, um ihre Kund:innen zu erreichen. Der eigene
frühzeitig sehen, wann intelligente Produkte Fehler
Wunsch, umweltfreundlich zu reisen, kollidiert hier
339 Verganti/Vendraminelli/Iansiti: Innovation and Design, S. 221. 340 Daugherty/Wilson: Human + Machine, S. 191.
341 Stackpole, Beth: „The next chapter in analytics: data storytelling“, https://mitsloan.mit.edu/ideas-made-to-matter/next-chapter-analyticsdata-storytelling (21.4.2022).
Kapitel 3: Gestaltung mit und für intelligente Systeme
117
deutlich mit dem Bedürfnis, sicher und bequem bei
eröffnen und so erproben, welche möglicherweise ne-
den Kund:innen anzukommen und abzureisen. Die
gativen Folgen intelligente Systeme für Mensch und
Daten zeigen diesen Bruch und damit den Konflikt
Natur haben.344 Beispielsweise hat die Designerin und
der Protagonist:innen. Eine Lösung könnte dann bei-
Developerin Nicole He mit dem „True Love Tinder
spielsweise sein, Fahrgemeinschaften innerhalb der
Robot“ ein Szenario entworfen, in dem Entscheidun-
Firma zu bilden.
gen darüber, mit welcher Person man sich romantisch verbindet, einem intelligenten System überlassen
Data Storytelling sollte nicht mit Datenvisuali-
werden. Die Rede ist nicht von den Partner:inne-
sierung verwechselt werden. Natürlich können und
nempfehlungen, die auf Tinder ohnehin schon durch
sollten die Geschichten in den Daten auch so visu-
intelligente Systeme erstellt werden, sondern von der
alisiert werden, dass sie schnell sichtbar und damit
individuellen Entscheidung für oder gegen einzelne
einfach zugänglich werden. Hierfür sind Designer:in-
Kandidat:innen. Der Tinder-Bot liest über Sensoren
nen durch Information Design, das mit Namen wie
die biologischen Zustände seiner Nutzer:innen, wäh-
Edward Tufte oder experimentellen Forschungspro-
rend diese ihre zukünftigen Partner:innen anschauen,
jekten wie „Dear Data“
und entscheidet dann selbstständig, wer zusammen-
342
von Stefanie Posavec und
Giorgia Lupi verbunden ist, schon gut aufgestellt.
passt. Der Tinder-Bot wischt also stellvertretend für
Data Storytelling kommt allerdings vor der Visuali-
die Nutzer:innen nach links oder rechts. So kreiert
sierung der Geschichte und das Zweite setzt das Erste
Nicole He ein Szenario, in dem intelligente Systeme
voraus.
jeden subjektiven Impuls bei der Partner:innenwahl ersetzen und auf Basis vermeintlich objektiver Daten
Ein weiterer, wenn auch eher seltener Skill im
sehr private Entscheidungen fällen. Das kritische
Bereich Datenschriftkundigkeit bezieht sich auf
Design wirft hier Fragen auf, die das Mitspracherecht
den Umstand, dass Designer:innen Trainer:innen
der Nutzer:innen bei wichtigen Entscheidungen be-
intelligenter Systeme werden. Hier ist die Fähigkeit
treffen, aber auch, ob es nicht durchaus konsequent
zentral, gute Trainingsdaten zu akquirieren. Daten
ist, auch diese Entscheidungen zu automatisieren. Ein
sollten vollständig, akkurat, konsistent und zeitge-
zweiter Bereich des Critical Designs formuliert nicht
mäß sein.343 Designer:innen sollten zudem verstehen,
nur hypothetische Szenarien, sondern interveniert
welche Bias möglicherweise in den Daten stecken,
direkt und ganz praktisch in bestehende Konflikte, die
obwohl sie als gute Trainingsdaten gelten.
intelligente Systeme verursachen. So haben Designer:innen und Data Scientists beispielsweise grafische
Der letzte Skill für Designer:innen besteht in der
Darstellungen entwickelt, sogenannte Adversarial
Fähigkeit, kritisch den gesellschaftlichen, ethischen,
Patches, die es schaffen, intelligente Bilderkennun-
politischen und ökonomischen Impact intelligenter
gen auszutricksen. Die Forscher:innen haben diese
Systeme mit den Mitteln des Speculative oder Critical
Patches auf T-Shirts gedruckt und Menschen, die
Designs zu reflektieren. In Zukunftsszenarien können
diese T-Shirts tragen, werden von Überwachungs-
Designer:innen einen Möglichkeitsraum für zu-
systemen nicht mehr als Menschen erkannt; aber nur
künftige Entwicklungen und Anwendungskontexte
so lange, bis das Überwachungssystem überarbeitet
342 Posavec, Stefanie/Lupi, Giorgia: „Dear Data“, http://www.dear-data.com/theproject (21.4.2022). 343 Hebron: Machine Learning for Designers, S. 47.
344 Churchill, Elizabeth/van Allen, Philip/Kuniavsky, Mike: „Special Topic: Designing AI. Introduction“, https://interactions.acm.org/archive/view/ november-december-2018/introduction19 (21.4.2022).
Kapitel 3: Gestaltung mit und für intelligente Systeme
118
und verbessert wird.345 Dann beginnt der Wettlauf
aber auch praktische Projektstudien, in denen dieses
von Neuem. Die Implikationen sind deutlich, wenn
Wissen erprobt und experimentell erweitert werden
man bedenkt, dass der Großteil der Überwachungs-
kann. Letztlich entscheidet sich am pädagogischen
technologie im öffentlichen und halböffentlichen
Konzept und Selbstverständnis der Hochschulen, ob
Raum ohne Wissen und Zustimmung der Menschen
und wie intelligente Systeme in das Curriculum ein-
geschieht, die sich in diesen Räumen aufhalten.
fließen; ob als Schwerpunkt für höhere Semester oder als allgemeine Kompetenz für alle Studierenden.
3.4.3 Neue Bereiche in der Designausbildung Sicher ist, dass man schon in wenigen Jahren, wie Die Frage, wie man Gestaltung mit und für intelli-
das Horst Rittel seinerzeit für den Computer voraus-
gente Systeme unterrichtet, hängt eng mit der Ge-
gesagt hat, die erforderlichen Kenntnisse für Gestal-
staltung der Ausbildung selbst zusammen. Allein in
tung mit und für intelligente Systeme voraussetzen
Deutschland sind die Hochschulen in Bezug auf ihre
kann, wie jetzt den Umgang mit dem Computer. Für
Designausbildung oft recht unterschiedlich ausge-
Designer:innen wird schon in naher Zukunft eine
richtet. Bieten manche Design- und Fachhochschulen
Reihe proprietärer intelligenter Werkzeuge ganz
eine Spezialisierung auf bestimmte Bereiche und
selbstverständlich sein, die sie in ihrer Ausbildung
Themen, etwa Entwurf oder Technologie, an, wollen
und Praxis kennen und beherrschen lernen. Ein
andere ein integriertes Studium des Designs und
kleinerer Teil der Designer:innen wird sicherlich
sofort einsetzbare Allround-Designer:innen ausbil-
auch geschult werden, selbst intelligente Werkzeuge
den.
für ihre Zwecke zu erstellen. Die Infrastruktur und
346
Genauso unterschiedlich ist das methodische
Verständnis der Ausbildung. Manche Hochschulen
den offenen Zugang zu Daten und Algorithmen gibt
schaffen offene, interdisziplinäre und projektbasierte
es bereits. Sie werden zukünftig sicher noch einmal
Strukturen, andere pflegen die Disziplinengrenzen
stark ausgeweitet werden und ein spannendes Feld
und fördern Spezialist:innen.
für Gestalter:innen werden, die selbst oder im Team
347
intelligente Werkzeuge entwickeln. Klar ist, dass an beiden Polen „konzeptuelle, strategische, theoretische, fähigkeitsbezogene oder ma-
Gerade deshalb ist derzeit die Frage interessant,
nagementbezogene Bestandteile“
wie genau man in der Designausbildung theoretisch
348
gelehrt werden;
dazu gehört natürlich auch Technologiekompetenz.
und praktisch an statistisches Lernen und intelligente
Mit der Umwälzung der Gestaltung durch statistische
Systeme heranführt. Im Rahmen der Bund-Länder-
Lernverfahren werden die technologiebezogenen
Förderinitiative „Künstliche Intelligenz in der Hoch-
Bestandteile wichtiger. Dies setzt ein grundlegendes
schulbildung“ wird speziell für das Design das Ver-
Verständnis der Wirkungsweise, Reichweite und
bundvorhaben „KITeGG – KI greifbar machen und
Anwendungsgebiete solcher Lernverfahren voraus,
begreifen: Technologie und Gesellschaft verbinden
345 Xu, Kaidi/Zhang, Gaoyuan/Liu, Sijia: „Adversarial T-shirt! Evading Person Detectors in A Physical World“, https://arxiv.org/abs/1910.11099 (21.4.2022). 346 Erlhoff, Michael/Marshall, Tim: „Design-Kompetenz“, in: Erlhoff, Michael/ Marshall, Tim (Hrsg.): Wörterbuch Design. Begriffliche Perspektiven des Design, Basel: Birkhäuser Verlag 2008, S. 32. 347 Erlhoff/Marshall: Design-Kompetenz, S. 33. 348 Erlhoff/Marshall: Design-Kompetenz, S. 28.
Kapitel 3: Gestaltung mit und für intelligente Systeme
119
durch Gestaltung“ 349 gefördert, welches sich dezi-
dass sie internationale Menschenrechte achten und
diert mit Fragen der Designausbildung für und mit
fördern. Zweitens sollte das wichtigste Kriterium für
intelligenten Systemen auseinandersetzt. Erforscht
die Gestaltung intelligenter Produkte das Wohlbefin-
und erprobt werden soll in den kommenden Jahren,
den der Nutzer:innen sein. Drittens sollten Produkte
wie man Studierenden vermittelt, diese Systeme ziel-
so gestaltet sein, dass Nutzer:innen ihre Daten leicht
gerichtet und „reflektiert als Material und Werkzeuge
einsehen und teilen können sowie die volle Kontrolle
der Gestaltung“
über ihre Identität haben. Viertens sollten intelligente
350
einzusetzen.
Produkte praktisch überprüft werden, ob sie tatsäch3.4.4 Neue rechtliche und ethische Fragen
lich gut funktionieren und keinen Schaden anrichten. Fünftens sollte die Grundlage für Entscheidungen,
Mit neuen Überwachungs- und Auswertungsmög-
die intelligente Systeme fällen, transparent sein.
lichkeiten durch intelligente Systeme, mit Echokam-
Sechstens sollte das algorithmische Grundprinzip für
mern in digitalen Erlebnisräumen, den sogenannten
die Systeme so aufgebaut sein, dass Entscheidungen
Experience-Bubbles und Nudging, den subtilen Me-
unzweideutig nachvollzogen werden können. Sieben-
thoden der Verhaltensbeeinflussung, aber auch mit
tens sollten intelligente Produkte so gestaltet werden,
automatisierten Gestaltungswerkzeugen und Bildge-
dass Missbrauch und Risiken möglichst verhindert
nerierung auf Knopfdruck stellen sich neue ethische
werden. Abschließend sollten, achtens, zukünftige
und rechtliche Fragen für Designer:innen.
Nutzer:innen informiert werden, wie sie das Produkt so nutzen, dass es sicher und effektiv funktioniert.
Im Bereich der Ethik stehen Designer:innen vor
Gerade wegen der Natur dieser Prinzipien als mora-
der Aufgabe, sich gegenüber vulnerablen Nutzer:in-
lische Imperative, die zwar von sich aus unbegrenzt
nengruppen zu sensibilisieren, mögliche Bias der
gelten sollen, denen aber gleichzeitig immer erst mit
Algorithmen zu erkennen und zu minimieren sowie
solchen Geboten zur Geltung verholfen werden muss,
möglicherweise diskriminierende Szenarien zu
besteht unter Expert:innen der Zweifel, ob eine solche
antizipieren. Designer:innen sollten dafür Aspekte
ethische KI in den kommenden Jahren überhaupt eine
der Sicherheit, Fairness, Inklusion, Gesundheit und
zentrale Rolle spielen wird.353
Privatsphäre der Nutzer:innen beachten, wenn sie intelligente Produkte entwickeln.351 Aus Sicht einer
Der Bereich der rechtlichen Fragen ist etwas kom-
verantwortungsvollen und fairen Produktentwick-
plizierter und für Designer:innen in der Regel weni-
lung ergeben sich folgende acht Handlungsprinzipien
ger vertraut. Hier haben es Designer:innen sowohl
für ethische KI, die die Global Initiative on Ethics
mit Schutzrechten von Urheber:innen zu tun als auch
of Autonomous and Intelligent Systems des Berufs-
mit rechtlichen Vorgaben der Europäischen Union in
verbandes der Ingenieure, IEEE,352 erarbeitet hat und
Bezug auf bestimmte gefährliche Anwendungsszena-
die auf die Arbeit von Designer:innen übertragbar ist.
rien intelligenter Systeme.
Erstens sollten intelligente Produkte so gestaltet sein, 349 Hochschule Mainz: „KI-Verbundvorhaben“, https://www.hs-mainz.de/news/ki-verbundvorhaben (21.4.2022). 350 KISD: „KI greifbar machen und begreifen“, https://kisd.de/
353 Rainie, Lee/Anderson, Janna/Vogels, Emily: „Experts Doubt Ethical AI Design Will Be Broadly Adopted as the Norm Within the Next Decade“, https://www.pewresearch.org/internet/2021/06/16/experts-doubt-
projects/ki-greifbar-machen-und-begreifen-technologie-und-
ethical-ai-design-will-be-broadly-adopted-as-the-norm-within-the-
gesellschaft-verbinden-durch-gestaltung-kitegg (21.4.2022).
next-decade (21.4.2022).
351 Ethics For Designers: „Design needs ethics“, https://www.ethicsfordesigners.com (21.4.2022). 352 IEEE: „Ethically Aligned Design“, https://ethicsinaction.ieee.org (21.4.2022).
Kapitel 3: Gestaltung mit und für intelligente Systeme
120
Die zentrale rechtliche Frage, vor die Designer:in-
scher Leistung bezeichnet, der in einem Werk steckt.
nen gestellt sind, lautet: „Wem gehört das Werk?“
Bei einer Fotografie spricht man aus rechtlicher Sicht
Denn von dieser Frage hängt ab, ob Designer:innen
von einer geringen Schöpfungshöhe, weil „nur“ der
mit Werken, die sie mit intelligenten Werkzeugen
Auslöser gedrückt werden musste, trotzdem jedoch
erstellt haben, Geld verdienen und davon als profes-
Kameraeinstellungen oder Bildausschnitt gezielt ge-
sionelle Designer:innen leben können. Dabei macht
wählt wurden. Fotografien sind also urheberrechtlich
das Recht einen wesentlichen Unterschied zwischen
geschützt. Anders sieht es bei den Werken aus, die
den Werkzeugen, deren Schöpfer:innen zunächst ein-
automatisch von einem GAN per Knopfdruck erstellt
mal selbst Schutzrechte genießen, und den Werken
werden, wie etwa auf der Website „This Person Does
selbst, die mit den Werkzeugen gestaltet werden. In
Not Exist“.355 In diesem Fall ist der Beitrag der De-
der Regel sind Softwareprodukte entweder durch
signer:innen an dem Werk so gering, dass man nicht
Lizenzen geschützt oder können nicht ohne vertrag-
von einer Schöpfungshöhe ausgehen kann und damit
liche Zustimmung genutzt werden. In beiden Fällen
das Werk und die Designer:innen keine Schutzrechte
sollten sich Designer:innen darüber informieren,
genießen. Bei Werken, die ein GAN erstellt, die aber
welche Nutzungsbedingungen in diesen Lizenzen
mehr Eingabemöglichkeiten und schöpferische Mit-
und Verträgen formuliert wurden. Viele Bauteile für
wirkung verlangen, kann auch schon eine Schöp-
intelligente Systeme, ihre Trainingsdaten oder Algo-
fungshöhe erreicht sein, die dem Werk Schutzrechte
rithmen sind oftmals Open Source über Plattformen
garantiert. In jedem Fall sollten sich Designer:innen
wie Github oder „Papers With Code“ verfügbar. Nicht
absichern, indem sie klären, welche Rechtslage gilt,
immer ist dort auch klar ersichtlich, welche Lizenzen
wenn sie solche Werke kommerziell nutzen.
gelten und welche Vorgaben daraus folgen, wollen Designer:innen diese offenen Ressourcen nutzen.
Abschließend wird es wohl schon in naher Zu-
Einen kurze Übersicht, welche Open-Source-Lizen-
kunft einen verbindlichen rechtlichen Rahmen für
zen es gibt und welche Dinge es dort zu beachten
KI-Anwendungen geben, der derzeit von der Euro-
gibt, finden Designer:innen beispielsweise auf der
päischen Kommission ausgearbeitet wird.356 Ähnlich
Website „The Legal Side of Open Source“.354
wie bei den DSGVO-Regeln werden in der KI-Verordnung rechtliche Vorgaben für intelligente Syste-
Auf der Seite der Werke sollten Designer:innen
me gemacht, die ein besonderes Risiko für Mensch,
wissen, dass auch die Erzeugnisse, die sie nutzen und
Umwelt und Gesellschaft managen oder darstellen.
weiterverarbeiten, Schutzrechte genießen. Dabei ist
Designer:innen sollten diese Regeln zumindest im
der Maßstab, ob etwas urheberrechtlich geschützt ist
Ausgangspunkt ihrer Schutzfunktion verstehen und
oder nicht, die sogenannte Schöpfungshöhe der Wer-
auf intelligente Produkte anwenden können.357
ke. Damit wird so etwas wie der Grad an schöpferi-
354 Open Source Guides: „The Legal Side of Open Source“, https://opensource.guide/legal (21.4.2022).
355 This Person Does Not Exist. 356 Europäische Kommission: „Neue Vorschriften für künstliche Intelligenz – Fragen und Antworten“, https://ec.europa.eu/commission/presscorner/ detail/de/QANDA_21_1683 (21.4.2022). 357 Die wichtigsten Punkte der bevorstehenden Regelung wurden bereits in die Designprinzipien im Kapitel 3.3.4 und in das Innovation Framework Floom in Kapitel 5 aufgenommen.
Kapitel 3: Gestaltung mit und für intelligente Systeme
121
3.4.5 Neue Wertschöpfung mit und Strategien
getestet. Diese Gitterstruktur war mit herkömmli-
für intelligente Produkte
chen Verfahren nicht herstellbar, konnte aber mittels 3D-Druck gefertigt werden. Aus designstrategischer
Mit intelligenten Werkzeugen und intelligenten Pro-
Sicht vorteilhaft, konnten unterschiedliche Varianten
dukten wird die Wertschöpfung, die mit und durch
in geringen Stückzahlen und kürzerer Zeit gefertigt
Design erzielt werden kann, erheblich verändert. Auf
werden. Dies alles erlaubte auf der Nutzer:innenseite
der Ebene der Designprozesse tragen intelligente
ein völlig neues Sporterlebnis. Es veränderte aber
Werkzeuge zur Produkt- und Prozessoptimierung
auch auf der Unternehmensseite interne Abläufe im
bei, die vorher nicht ohne Weiteres möglich war.
Product-Lifecycle-Management, indem bestimmte
Designer:innen können durch intelligente Werkzeuge
Schritte im Designprozess durch die Software weg-
technische Expertise gewinnen, die sie vorher nicht
fielen oder ergänzt wurden.
hatten. Außerdem bekommen sie auf Knopfdruck eine Vielzahl ausgeklügelter Varianten geliefert und
Nicht nur auf der Ebene der Werkzeuge, auch auf
zeitaufwendige einfache Arbeitsschritte werden auto-
der Ebene der intelligenten Produkte werden tradierte
matisiert. Damit gewinnt nicht nur das Designpro-
Geschäftsmodelle modifiziert oder ganz infrage ge-
dukt an Qualität, es werden sogar Produkte möglich,
stellt. Daten und ihre intelligente Verarbeitung sind
die vorher gar nicht denkbar waren. Der Designpro-
hier die wesentliche Grundlage für Intelligence Expe-
zess selbst wird durch intelligente Werkzeuge also
rience und damit oft für ganz neue Geschäftsmodelle,
verkürzt und effektiviert. Verbindet man intelligente
egal ob im Bereich der privaten Nutzer:innen oder
generative Werkzeuge mit einem additiven Verfah-
im Geschäftskundenbereich, dem sogenannten B2B.
ren wie dem 3D-Druck, können Produkte entstehen,
Ein Beispiel aus dem B2B-Bereich soll dies erhellen:
die mit herkömmlichen Herstellungsverfahren nicht
So sind Maschinenhersteller, die bislang ihre teuren
möglich waren und die gleichzeitig auch an den
Maschinen an Unternehmen verkauft und für jede
Geschmack und die Bedürfnisse von Nutzer:innen-
Reparatur Rechnungen gestellt haben, durch Predictive
gruppen individuell angepasst werden können. Damit
Maintenance, das intelligente Wartungsverfahren, vor
werden traditionelle Wertschöpfungsketten ein
große Veränderungen gestellt. Maschinenbauer sind
ganzes Stück weit umgeformt und durcheinanderge-
durch intelligente Schadensprognosen in der Lage
bracht.
vorherzusehen, wann eine Maschine kaputtgeht
358
Beispielsweise hat die Firma Under Armour
einen Schuh entworfen, der durch seine Gitterstruk-
und an welcher Stelle – das ist der Teil „Predictive“
tur in der Sohle erstmals für viele unterschiedliche
in „Predictive Maintenance“. Damit können die Her-
Sportarten nutzbar ist.
steller nun einen Service für ihre Kunden offerieren,
359
Die Gitterstruktur wurde
mit intelligenter Software der Firma Autodesk er-
der die bald schadhaften Teile der Maschine austau-
rechnet und dann durch verschiedene Sportler:innen
scht, noch bevor sie kaputtgehen – das ist der Teil
358 Wunner, Felix/Krüger, Tino/Gierse, Bernd: „How AI-driven generative design disrupts traditional value chains“, https://www.accenture.com/ us-en/blogs/industry-digitization/how-ai-driven-generative-designdisrupts-traditional-value-chains (21.4.2022). 359 Autodesk: „Under Armour. Changing the game with generative design and additive manufacturing“, https://fom.autodesk.com/customerinnovation-spotlight/p/8 (21.4.2022).
Kapitel 3: Gestaltung mit und für intelligente Systeme
122
„Maintenance“ in „Predictive Maintenance“. Somit
lich wettbewerbsfähig sein möchte. Dann bietet sich
bekommen die Industriekunden der Maschinen-
intelligente Prozessoptimierung an.360 Hier können
bauer ein völlig neues Kund:innenerlebnis, denn
dann im Bereich der Gestaltung intelligente Gestal-
die Maschine geht nicht mehr kaputt und läuft
tungswerkzeuge Designprozesse automatisieren und
ununterbrochen weiter. Sie trägt also effektiver zur
so durch Effektivierung zur Wertschöpfung beitragen,
Wertschöpfung der Kund:innen bei, denn die stellen
etwa durch intelligente Werkzeuge wie Autodesks
selbst Produkte mit diesen Maschinen her. Wird die
Fusion 360 oder generative Systeme wie Spacema-
Reparatur vorhersagbar, dann fällt auch ihr Preis.
ker.361 Fokussiert man als Unternehmen stattdessen
Ingenieur:innen müssen nicht mehr sofort einsatz-
auf Innovation als treibende Kraft im Wettbewerb,
bereit gehalten werden im Falle einer ausgefallenen
dann bietet es sich an, intelligente Produkte zu ent-
Maschine. Gehen Maschinen nicht mehr unvorher-
wickeln. In diesem Fall muss die KI-Strategie sicher-
gesehen kaputt, wird also die Wartung der Maschi-
stellen, dass hochwertige Daten am besten exklusiv
nen preiswerter und es lohnt sich nicht mehr, teure
zur Verfügung stehen, und abgleichen, welcher Wett-
Reparaturservices anzubieten. Durch Predictive
bewerber möglicherweise mit disruptiven intelligen-
Maintenance verändert sich also letztlich auch das
ten Produkten in die eigene Branche einfällt. Zum
ganze Geschäftsmodell, denn nun ist es lukrativer
anderen sollte die KI-Strategie in Abstimmung mit
für die Maschinenbauer, ihre Maschinen zu vermie-
der übergeordneten Unternehmensstrategie klären,
ten und Predictive Maintenance als Service in das
welches datengetriebene Geschäftsmodell angestrebt
Abonnement einzupreisen. Im Nebeneffekt bleiben
wird.362 In der Designstrategie sollte vor allem die
wartungsbezogene vermietete Produkte länger in Ge-
Nutzer:innenseite und das ganzheitliche Erlebnis mit
brauch, was wiederum dem Umweltschutz dient.
der KI-Strategie zusammengehen. Ohne eine entsprechende Grundlage und ein Wissen darum, welche
Es wird deutlich, dass die Wirkungen, die in-
Bedürfnisse und Probleme potenzielle Nutzer:innen
telligente Werkzeuge und Produkte auf Nutzer:in-
haben und wie diese Bedürfnisse mit entsprechenden
nenerlebnisse und Geschäftsmodelle haben, auch
datengetriebenen Anwendungen befriedigt werden
unternehmens- und designstrategische Modifika-
können, ohne ein Wissen darum, welche Werte die
tionen nach sich ziehen müssen. Die übergeordnete
Marke oder das Unternehmen einheitlich kommuni-
Unternehmensstrategie muss sich mit einer neu zu
zieren wollen, ohne ein Verständnis darüber, welche
schaffenden KI-Strategie und einer überarbeiteten
Erlebnisse über welche Touchpoints hinweg durch
Designstrategie an einem gemeinsamen strategischen
intelligente Produkte auf welche Weise erzeugt
Horizont ausrichten. Das schließt sowohl die Wett-
werden sollen, ohne diese designstrategischen Über-
bewerber- als auch die Daten- und Nutzer:innenseite
legungen sollten keine Innovations- und Entwick-
ein. Aus unternehmensstrategischer Sicht ist es
lungsprozesse für intelligente Produkte angestoßen
wichtig zu entscheiden, ob man als Wettbewerber in
oder umgesetzt werden.363
einem Markt operiert, auf dem man vor allem preis360 Hartmann, Philipp/Liebl, Andreas/Waldmann, Alexander et al.: „Applying AI. The elements of a comprehensive AI strategy“, https://www.appliedai.de/hub/ elements-of-a-comprehensive-ai-strategy (21.4.2022). 361 Beide Beispiele werden in Kapitel 4 bzw. 5 vorgestellt. 362 Hartmann/Liebl/Waldmann et al.: Applying AI. 363 Auch hier bietet das interaktive Innovation Framework Floom im Kapitel 5 eine gute Grundlage, denn es bindet diese designstrategischen Überlegungen bereits von Grund auf in den Innovationsprozess ein.
Kapitel 3: Gestaltung mit und für intelligente Systeme
Letztlich ermöglichen intelligente digitale Produkte Personalisierung in einer noch nie dagewesenen Dimension. Diese Anpassung an Vorlieben und Wünsche der Nutzer:innen kann bei einem digitalen Geschäftsmodell einen hohen Grad an Differenzierung herstellen, bei sehr geringen Grenzkosten für einzelne neue Nutzer:innen. Allerdings müssen Unternehmen genau überlegen, wie das Nutzer:innenerlebnis auf ihr Markenkonto einzahlt. Das Risiko, dass über die neuen Möglichkeiten der IX die Differenzierungsvorsprünge der Marke hinterrücks wieder nivelliert werden, ist groß. Für eine gut ausbalancierte, strategisch sinnvolle IX werden deshalb zukünftig ausgereifte IX-Prozesse, -Methoden und -Expert:innen benötigt.
123
4. Anwendungsfälle intelligenter Systeme im Designprozess
Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess
4.1 Einleitung Als Zwischenschritt in die Praxis wird das folgende Kapitel anhand exemplarischer Fallstudien, sogenannter Case Studies, beleuchten, wie intelligente Systeme in angewandte Designlösungen integriert werden können. Die insgesamt sechs Case Studies aus den Bereichen Kommunikationsdesign, Modedesign, Interface-Design, Medienkunst, Architektur und Interaktionsdesign sollen vermitteln, wie intelligente Systeme konzeptionell gedacht und praktisch umgesetzt werden können. Die Cases wurden aufgrund ihrer hohen konzeptionellen, technologischen und designerischen Qualität ausgewählt. Sie zeigen, wie Designer:innen, Designmanager:innen und Informatiker:innen vorgegangen sind, um zu hochwertigen Ergebnissen zu kommen, was sie inspiriert hat und wie sie die intelligenten Systeme verwendet haben. Sie zeigen aber auch, wie Designer:innen im Team mit Informatiker:innen gearbeitet und welche Herausforderungen sich dabei gestellt haben. Die Cases reflektieren zudem Probleme und experimentelle Ideen, die zur Realisation der Cases beigetragen und teilweise auch zu unvorhergesehenen Ergebnissen geführt haben. Zur Sprache kommen aber auch gestalterische Werte und ethische Betrachtungen, die im Design mit künstlicher Intelligenz notwendig sind. In den Case Studies soll letztlich auch deutlich werden, warum Daten und deren Qualität wichtig sind und wie sie die intelligenten Systeme und ihre Formgebung beeinflussen. Um die Projekte detailliert aus der Designperspektive zu untersuchen, wurden mit allen Projektbeteiligten mündliche Gespräche geführt, in denen sie ihre Ideen, Konzepte und Designaufgaben darlegten. Diese Interviews flossen hauptsächlich in die Case Studies ein, die so einen tieferen Einblick in die Projekte ermöglichen sollen. Letztlich können sie so auch Leser:innen inspirieren, selbst mit intelligenten Systemen zu gestalten.
125
Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess
Abb. 4.1: Digitale Medien der DHL Group
Abb. 4.2: DHL Layout Creator
126
Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess
127
4.2 Kommunikationsdesign:
ziiert zu werden. Ein solches Design stört daher die
DHL Layout Creator von Strichpunkt
klare Unternehmenskommunikation eher, als dass es sie unterstützt.
Täglich entstehen bei Unternehmen wie DHL neben Designlösungen, die von professionellen Designer:in-
Die Stuttgarter Designagentur Strichpunkt er-
nen gestaltet werden, auch solche, die von ungeschul-
kannte für ihren Kunden DHL dieses Problem und
ten Mitarbeiter:innen angefertigt werden. Letztere
überlegte, wie ungeschulte Mitarbeiter:innen ge-
gestalten beispielsweise digitale Mitteilungen oder
stalten können, ohne dass sie ein umfangreiches
Plakate für interne Veranstaltungen. Über eine halbe
Regelwerk beherrschen. Mitarbeiter:innen sollten im
Million Mitarbeitende beschäftigt die DPDHL Group
Gestaltungsprozess unterstützt werden, ohne um-
und die wenigsten von ihnen sind professionelle
fassend und zeitaufwendig geschult zu werden. Im
Gestalter:innen. Von Designprofis gestaltete Design-
Falle seines Auftrags für die DHL Group sollte Strich-
arbeiten konkurrieren daher im Unternehmen mit
punkt ein umfassendes Corporate Design entwickeln,
solchen ungeschulter Mitarbeiter:innen und vermi-
welches weltweit einsetzbar ist und die visuelle
schen sich so zu einem Gesamtbild mit höchst unter-
Erscheinung des Unternehmens grundlegend verbes-
schiedlicher Qualität. Problematisch wird es, wenn
sert. Da DHL überdurchschnittlich groß ist, versuchte
die ungeschulten Mitarbeiter:innen nicht wissen,
Strichpunkt, neben dem klassischen Erscheinungsbild
dass es Regeln für die Unternehmensgestaltung gibt,
auch maschinell intelligente Methoden und Lösungen
oder nicht wissen, wie sie diese anwenden können.
zu finden, die den Mitarbeiter:innen in Designfragen assistieren können.
Um das Erscheinungsbild eines Unternehmens klar erkennbar zu halten, benötigen Unternehmen
Das Strichpunkt-Projektteam bekam den Titel Sim-
ein Regelwerk, das sogenannte Corporate Manual.
plification Team und bestand sowohl aus Kommuni-
Durch Designprofis wird in diesen Manuals präzise
kationsdesigner:innen als auch aus dem Informatiker
erklärt und visualisiert, welche Schrift beispielsweise
Andreas Stiegler. Er wurde beauftragt, die Kompe-
zu verwenden ist, welche Farben dem Unternehmen
tenzen der Designer:innen durch technologisches
zugeordnet sind oder wie eine Präsentation gestaltet
und konzeptionelles Fachwissen zu unterstützen. Das
wird, denn konsequente Gestaltung ist für Unterneh-
Simplification Team stellte nicht nur Gestaltungsre-
men, die im Markt erkennbar bleiben wollen, oberste
geln auf, wie sie in einem klassischen Corporate De-
Priorität. Was aber, wenn ein klassisches Corporate-
sign Manual dargelegt werden. Es überlegte auch, wie
Design-Handbuch vielen Mitarbeiter:innen nicht
intelligente Systeme bei den passenden Bild-, Farb-
bekannt ist? Was, wenn es zur Verfügung steht, aber
und Formkompositionen unterstützen und vermitteln
als Nachschlagewerk im Alltag zu kompliziert er-
können. Es sollte also die Frage beantwortet werden,
scheint? Was, wenn sich die Mitarbeiter:innen bisher
wie diese Regeln gegebenenfalls in einer anderen
mit Design nicht auseinandergesetzt haben? Oft
Form als in einem klassischen Manual vermittelt
führen diese Probleme dazu, dass Mitarbeiter:innen
und durch softwarebasierte Werkzeuge interpretiert
ohne ein Manual und damit ohne Regeln gestalten.
werden können. Die Antwort darauf war die hilfrei-
Das durch sie gefertigte Design droht damit, weder
che digitale Designassistenz, die man den DHL Layout
stringent zu sein noch mit dem Unternehmen asso-
Creator taufte.
Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess
128
Dieser Service ist als ein digitaler, browserbasierter Assistent weltweit online verfügbar. Er kann verschiedene Entwurfsschritte in einem Layout für unterschiedliche Medien der Unternehmenskommunikation automatisieren. In wenigen Entwurfsschritten können Texte und Bilder ausgewählt werden, die der Creator je nach individuellen Vorgaben zu Kompositionsvariationen verarbeitet. Diese werden dann in einem zweiten Schritt durch die DHL-Mitarbeiter:innen ausgewählt und durch das Tool zu einer hochwertigen Designlösung weiterverarbeitet. Diese finalen Entwürfe können dann geteilt, ausgedruckt
Abb. 4.3: DHL Layout Creator, Auswahl einer Medienart
oder für spätere Anpassungen archiviert werden. Die DHL-Mitarbeiter:innen können jederzeit in den Gestaltungsprozess eingreifen und Texte, Bilder und Kompositionen auf Basis der gelungensten Varianten anpassen. Bringen die DHL-Mitarbeiter:innen bereits Designkompetenzen mit, verbessern sie den Entwurf direkt aus ihrer Kompetenz, haben sie diese Kompetenz nicht, übernimmt der Layout Creator Entscheidungen nach seinem Regelwerk. Am Ende des assistierten Gestaltungsprozesses übernehmen die Mitarbeitenden die Rolle von Kurator:innen und wählen die finalen Ergebnisse aus. Für unerfahrene Mitarbeiter:innen, die mit Design bisher keine Erfahrung gemacht haben, entsteht so ein wertvoller
Abb. 4.4: DHL Layout Creator, Formatwahl der Werbeanzeige
Lernprozess für Designkompetenz. Um eine gute Interaktion zwischen DHL-Mitarbeiter:in und System zu ermöglichen, musste der Layout Creator so gestaltet werden, dass er leicht und intuitiv zu bedienen ist und den Designprozess in nachvollziehbaren Schritten begleitet. Zusätzlich musste das System jederzeit und in mehreren Sprachen verfügbar sein und den Mitarbeiter:innen Spaß machen. Letztlich sollte der DHL Layout Creator eine weltweit gleichbleibende, auf Corporate-Design-Regeln basierende Unternehmenskommunikation durch das gesamte Unternehmen hinweg ermöglichen und ge-
Abb. 4.5: DHL Layout Creator, Einfügen von Inhalt
Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess
129
währleisten. Er sollte damit täglich erstelltes Kommu-
daher geklärt werden, wie ein neuronales Netz-
nikationsdesign auf ein neues Qualitätslevel heben,
werk eine solche gestalterische Vorgabe bewertet
das positiv und professionell als Corporate Commu-
und lernt. Während der Entwicklung des Systems
nication wirkt.
wurden die Antworten so lange neu überprüft, bis ein Qualitätsstandard erreicht wurde, mit dem das
Um überhaupt Design automatisiert erstellen zu
Tool zum Beispiel eine Komposition aus Überschrift,
können, musste das Team um Stiegler die Corporate-
Bild und Text überzeugend darstellen konnte. Teil-
Design-Regeln für das intelligente System begreifbar
weise wurde dem Team auch klar, dass beispielsweise
machen. Dazu musste das gesamte Team eine neue
grundsätzliche Unterscheidungen in Formate wie
Perspektive einnehmen, denn normalerweise haben
etwa Jobanzeige oder Kampagne vom intelligenten
Designer:innen Gestaltungsregeln durch ihre Berufs-
System nicht berücksichtigt werden können. Diese
ausbildung und -erfahrung verinnerlicht und folgen
Entscheidungen wie auch die finale Bewertung des
diesen intuitiv. Die Gestaltungsregeln liegen also
Entwurfs blieben klar bei den DHL-Mitarbeiter:in-
weder explizit formuliert vor, noch können sie von
nen. Das Team legte so fest, in welchen Anteilen das
einem intelligenten System dann auch so verstanden
intelligente System hilfreich assistieren kann und in
und verwendet werden. Deshalb mussten die Desig-
welchen Anteilen die Mitarbeiter:innen mitwirken
ner:innen im Team Regeln für gute Gestaltung erar-
müssen. Insgesamt stellte das Team sicher, dass das
beiten. Stiegler half ihnen, diese Regeln klar, logisch,
intelligente System die gewünschte Designqualität
reduziert und präzise zu beschreiben. Dazu mussten
auch erzielen kann. Als alle relevanten Designre-
die Designer:innen Gestaltungsregeln und -metho-
geln übersetzt in klare Handlungsanweisungen für
den schrittweise formulieren und transkribieren. Sie
das intelligente System vorlagen, konnte Stiegler als
nutzten kleine Schaubilder, kurze Texte und Beschrei-
Informatiker das System trainieren.
bungen, um zu formulieren, wie Bild, Typografie und Inhalt in eine passende Komposition übersetzt
Den Kern des intelligenten Systems bildet ein
werden sollen. Das Team erfasste dabei Gestaltungs-
sogenanntes Reasoning System, das im Grunde ein
parameter der Corporate-Design-Regeln, wie etwa
neuronales Netzwerk ist. Das System kann beispiels-
Farb- und Flächenkomposition, in ihren Beziehungen
weise im Layout passende Bilder vorschlagen oder
zueinander. Es stellte sich beispielsweise die Frage,
unterschiedliche Layoutkompositionen vergleichen
welche formalen gestalterischen Bedingungen im
und kompositorischen Regeln folgend passende
Corporate Design gelten, um eine bestimmte Design-
Variationen ermitteln. Es ist damit in der Lage, ge-
qualität in einem bestimmten Medium zu erzeugen.
stalterische Lösungen zu finden, die wirklich zu den
Diese Fragen diskutierte das Team unter der ständi-
Corporate-Design-Vorgaben passen. Fabian Hammans,
gen Beratung von Stiegler und übersetzte Schritt für
Creative Director im Simplification Team, fasst zu-
Schritt Gestaltungsregeln in Softwareregeln.
sammen, dass der DHL Layout Creator grundlegend für die Auswahl der besten Ergebnisse verantwort-
Das intelligente System bekam Antworten auf die
lich ist, die DHL-Mitarbeiter:innen dagegen für
Fragen, wie beispielsweise ein Bild im Hochformat
die Botschaft und Auswahl der visuellen Kommuni-
neben einem linksbündigen Satz richtig angeordnet
kation.
werden kann. Es musste im Simplification Team
Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess
130
Auf Grundlage des Reasoning Systems entwickelte das Simplification Team automatisierbare Designfunktionen. Um sie zu realisieren, nutzte Stiegler unterschiedliche vortrainierte neuronale Netze. Eines der implementierten Netze ist auf Bilderkennung trainiert, um passende Bildmotive aus dem DHL-Archiv zu finden und im Layout anzubieten. Ein weiteres Netzwerk wurde auf Positionen im Format, die sogenannten Form- und Kompositionsvarianten, trainiert, um weitere unterschiedlichste Layoutkompositionen zu erzeugen. Abschließend prüft innerhalb des Reasoning Systems ein generatives bewertendes
Abb. 4.6: DHL Layout Creator, Bildintegration
Modul die Designentwürfe und vergibt Punkte an die passendsten Ergebnisse. Diese Ergebnisse, die dann die größtmögliche Deckung zu formalen Gestaltungsregeln des Corporate Designs aufweisen, werden in naheliegendsten Varianten durch den DHL Layout Creator empfohlen. Da das Reasoning System innerhalb einer Browserumgebung funktionieren muss, war ein Großteil der Arbeit Stieglers die Entwicklung der sogenannten Strichpunkt-Markup-Language, kurz SML. Die SML basiert auf JavaScript und stellt damit sicher, dass eine Vielzahl von Internetbrowsern das System interpretieren kann. Es erlaubt zudem, dass trainierte
Abb. 4.7: DHL Layout Creator, Fokussieren wichtiger Bilddetails
neuronale Netze eingebunden und schnell verarbeitet werden können. Die SML hat ermöglicht, dass das gesamte System aus neuronalen Netzen und dem generativ bewertenden Modul ohne Wartezeiten zwischen allen Schnittstellen läuft. Der DHL Layout Creator ist zudem Teil des in mehreren Sprachen zur Verfügung stehenden Onlineangebotes für Unternehmenskommunikation, des sogenannten DHL Brand Hubs. Im Brand Hub, einer Art digitaler Bibliothek, können Benutzer:innen auf vielfältige Medien zugreifen. Der Hub ist ein Medienarchiv und ermöglicht, dass alle im Hub abgelegten Medien, wie etwa Fotografien, dem DHL Layout
Abb. 4.8: DHL Layout Creator, Auswahl eines Vorschlages aus unterschiedlichen Gestaltungsvarianten
Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess
131
Verständnis ihrer Praxis und lernten Designprozesse auch als algorithmische Prozesse kennen. Den Designer:innen im Simplification Team wurde klar, welche Übersetzung sie auch zukünftig leisten müssen, damit die Zusammenarbeit mit Informatiker:innen zu optimalen Assistenzsystemen führt. Normalerweise sind Weiterbildungen und Workshops erforderlich, um ein solches Bewusstsein zu schaffen. Auch Stiegler als Informatiker formulierte, dass er erst während dieses Projektes erkannte, wie viele logische Prozesse Abb. 4.9: Startseite des DHL Brand Hub
in Gestaltung enthalten sind. Er erkannte, wie gut sich diese in automatisierte Schrittfolgen überführen lassen und wie wertvoll gutes Design für Unterneh-
Creator zur Verfügung stehen. Zudem lässt sich das
men und die Interaktion mit der Kundschaft ist. Aus
Archiv weltweit abrufen, ständig erweitern und
seiner Sicht ist es erstaunlich, was mit Design alles
aktualisieren.
möglich ist, welche weitreichende Wirkkraft es hat
und wie viel Spaß gute Gestaltung machen kann.
Auf die Frage, ob so ein Automat die Arbeit von
Mit dem Layout Creator hat DHL seine visuelle
Designer:innen gefährdet, bejaht Stiegler entschlos-
Identität und interne Designkompetenz erweitert.
sen. Er ist überzeugt, dass der Layout Creator den
Das System assistiert den einzelnen Mitarbeiter:in-
Designer:innen genau die Arbeit wegnimmt, die
nen, unterstützt sie in ihrer individuellen Kompetenz
ihnen nur bedingt Spaß macht, also Formadaptionen
und stellt eine grundlegende visuelle Qualität des
mit immer gleichen Elementen und Arbeitsschritten.
DHL-Designs sicher. Alle Mitarbeiter:innen können
Aus seiner Sicht ist das letztlich nicht das kreative
damit mit gutem Gewissen und ohne Barrieren, mit
Moment der Gestaltung. Stiegler betont, dass durch
Motivation und Freude zur visuellen Kommunikation
kluge Zusammenarbeit von Designer:innen mit
und dem Branding des Unternehmens beitragen. Da
intelligenten Systemen am Ende ein Freiraum für die
der Service auch bei vollem Einsatz keine Wartezei-
Designer:innen für die eigentlich kreativen Arbeiten
ten verursacht, gelingt eine gute Intelligence Expe-
entsteht.
rience. In der Anwendung des DHL Layout Creators steigt letztlich die gestalterische Gesamtkompetenz
In der Projektarbeit stellte sich heraus, dass der
der Mitarbeiter:innen, die ganz nebenbei lernen, gute
Umgang der Designer:innen mit statistischem Lernen
und passende Entwürfe einzuschätzen und auszu-
dazu führte, dass sie ihr gestalterisches Vokabular
wählen. Der DHL Layout Creator besitzt damit auch
erweiterten. Da sie Gestaltung für das intelligen-
die Fähigkeit, ein kollektives gestalterisches Bewusst-
te System aufbereiten, präzisieren und übersetzen
sein durch alle Unternehmenshierarchien hindurch
mussten, erweiterte sich auch ihr Blick auf die eigene
auszubilden. Damit kann eine kollektive Corporate
Gestaltungsarbeit. Sie entdeckten auf neue Art,
Behaviour entstehen, die alle Mitarbeiter:innen dazu
welche Gestaltungsprinzipien für Corporate Design
anleitet, gutes Design wertzuschätzen.
essenziell sind. Zudem entwickelten sie durch den Austausch mit der Informatik ein interdisziplinäres
Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess
Abb. 4.10: Neural Zoo: Entangled, Detail
132
Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess
133
4.3 Medienkunst:
und aufregend, werden nach einiger Zeit gewöhn-
Neural Zoo und Artificial Remnants von
lich und vergehen dann am Ende und machen neuen
Sofia Crespo
Formen Platz. Sie sind einem konstanten, sich immer bewegenden Kreislauf der Natur unterzogen. Crespo
Die Arbeiten der portugiesischen Künstlerin und
ist überzeugt, dass es in diesem Kreislauf immer ein
Designerin Sofia Crespo verbinden Grafikdesign und
gestalterisches Moment gibt, das man noch nie zuvor
Medienkunst mit darstellenden Künsten zu einer Art
erlebt hat, dem sie dann nachgeht und dem sie ihre
neuer, bewegter Fotografie. Ihre Arbeiten können
Aufmerksamkeit schenkt. Ihre Arbeiten erzeugen
fotografisch, filmisch oder skulptural sein. Sie werfen
damit Parallelen zur Natur, ohne sie direkt nachzuah-
beispielsweise Fragen auf, was Evolution ist und ob
men.
Menschen in diese eingreifen können oder sollen. Crespo kommt aus der Fotografie und verbindet in ihren Arbeiten ihr fotografisches Wissen mit dem Interesse für natürliche Umgebungen und organische Prozesse. Sie nutzt intelligente Systeme, um von der Natur inspirierte Formen zu generieren und so die analoge Fotografie zu erweitern. Sie erkannte, dass neuronale Netzwerke sich mit natürlichen Lernprozessen vergleichen lassen und quasinatürliche Gestaltungsprozesse ermöglichen. So konnte sie eine neue, experimentelle Bildsprache entwickeln, die die Grenzen dessen, was Fotografie ist, erweitert. Sie hat aber gleichzeitig auch einen Gestaltungsprozess entwickelt, der aus ihrer Sicht erfrischend ist und Freude bereitet. Aus Crespos Sicht war die Fotografie bisher nicht in der Lage, die abgelichtete Situation über die
Abb. 4.11: Neural Zoo: Synthetic Optimism Ecosystem, Detail
eigentliche Belichtung hinaus zu manipulieren, zu bearbeiten und weiterzuentwickeln. Sie hat des-
Dadurch entsteht bei den Betrachter:innen das Ge-
halb versucht, den evolutionären Schaffensprozess
fühl, dass sie dem Leben bei der Entstehung zusehen,
in das Medium Fotografie selbst zu übertragen und
ohne dass es echtes Leben ist. Diese falsche Mimi-
einen dynamischen Prozess zu entwickeln, der sich
kry, die als synthetisches Leben einen ganz eigenen
selbstständig erweitert. Sie nutzt dazu generative
Realismus entfaltet, ist zentral für Crespos Arbeit.
neuronale Netze und entwickelt mit ihnen eine Ge-
Sie schafft es, die Essenz des Lebens durch künstliche
staltungsmethode, die eine neue, unbekannte Arten-
neuronale Netze herauszuarbeiten und den Betrach-
und Formenvielfalt visualisiert. Diese Bildästhetik
ter:innen als quasinatürliches Artefakt vorzuführen.
beschreibt Crespo als Blick auf eine Natur, die sich
Dieser Widerspruch zwischen künstlichen Bildver-
ständig verändert. Erst sind die Formen ganz neu
fahren und natürlicher Darstellung ist als Moment
Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess
134
ihrer Gestaltung gleichzeitig auch der Grund für die
Alle Bilder wurden dann zu einem Trainingsdaten-
Faszination, die von den neuronalen Fotografien aus-
satz zusammengefügt, mit dem Crespo ihr neuronales
geht. In ihren Serien Neural Zoo und Artificial Rem-
Netzwerk trainierte. Betrachtet man Crespos Arbei-
nants erstellt sie in diesem Geiste Farb- und Formva-
ten, wird klar, welche grundlegend hohe fotografische
rianten in unterschiedlichen Medien, wie Fotografie,
Qualität die Ursprungsdaten haben mussten. Die
Animation und Skulptur.
Ergebnisse von Neural Zoo zeigen in ihrer hochaufgelösten Detailqualität, wie gut das von Crepso ge-
Alle Werke hat Crespo mit einem von ihr selbst
sammelte Trainingsmaterial für die neuronalen Netze
entwickelten intelligenten System erzeugt. Für das
zusammengestellt wurde und wie intensiv die Netze
Training benötigte sie detailliertes hochaufgelöstes
Bilddetails lernten.
Bildmaterial, das ihrem künstlerischen Bildkonzept und ihrem Qualitätsanspruch entsprach. Für die
Crespos intelligentes System funktioniert mit
Serie Neural Zoo wurden die Trainingsdaten aus
mehreren Convolutional Neural Networks, CNNs.364
Fotografien von Tieren, Pflanzen oder Lebensräumen
Die CNNs liefern neue Varianten der Bilder, mit
zusammengestellt. Zum einen fotografierte sie selbst
denen sie trainiert wurden; aus vielen Fotos von
etwa im Zoo und nutzte dafür teilweise auch Verfah-
Papageienflügeln wurden neue, noch nicht gesehene
ren wie die Mikroskopie. Zum anderen recherchierte
Flügel erzeugt. Diese neuen Varianten erweitern den
sie in öffentlichen Bilddatenbanken und nutzte offene
ursprünglichen Datensatz, den Crespo als Fotografien
Bildquellen.
bereitgestellt hat, hin zu neuen Formvariationen, die die künstliche mit der realen Welt verschmelzen lassen. Im Trainingsprozess des CNN entstehen also hybride Bilder, die nicht mehr mit den Originalbildern identisch sind. Crespo überprüft in ihrem Designprozess diese generativ entstandenen Variationen, indem sie während des Trainings zu verschiedenen Zeitpunkten die Trainingszwischenstände erkundet. Dafür exportiert sie die Bilder, die das CNN generiert hat, und selektiert sie anhand ihrer künstlerischen Kriterien. Sie steuert darin beispielsweise Bilddetails oder Kombinationen von Bildanteilen durch Filter wie etwa Vertrical Edge Detection oder Algorithmen wie k-Means und bestimmt so, welche Bildergebnisse durch das CNN weiter zu verfolgen sind. Im statistischen Lernen und den Berechnungen der neuronalen Netze spricht man in so einem Schritt auch von einer
Abb. 4.12: Optisches Mikroskop von Crespo zur Untersuchung von Details potenzieller Artefakte
Reduzierung der Dimensionalität der Ergebnisse,
364 In Kapitel 2.5 sind der Aufbau und die Funktionsweise dieser Netzwerke ausführlich erklärt.
Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess
Abb. 4.13: Neural Zoo: Free Will, Detail
135
Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess
136
einer sogenannten Dimensionality Reduction. Hier
Neben den zweidimensionalen Darstellungen in
nutzt man Algorithmen wie die sogenannte Feature
Bildern, den Animationen, entstehen bei Crespo
Extraction, mit der intelligente Systeme selbststän-
auch dreidimensionale Objekte in der Serie Artificial
dig im Unsupervised-Learning-Verfahren gewisse
Remnants.
Eigenschaften von Bildern erkennen. Das können beispielsweise alle Bilder sein, die einem Papagei
Um die kleinen Skulpturen zu erzeugen, musste
ähneln. Diese Bilder werden dann gesammelt und als
Crespo nach den Bildvariationen einen weiteren Ge-
Gruppe exportiert, um dann daran weiterzuarbeiten.
staltungsprozess anschließen, der nicht mit statis-
Mit dieser Methode, das intelligente System durch
tischem Lernen verbunden ist. Auf Basis der zwei-
Filter zu führen und zu überwachen, findet Crespo
dimensionalen Bildergebnisse aus den neuronalen
ihre gewünschten Bildergebnisse.
Netzen modellierte Crespo dreidimensionale
Abb. 4.14: Neural Zoo: Realisation, Detail
Abb. 4.15: 3D-Skulpturenarrangement der Artificial Remnants
In dieser Kollaboration zwischen Designer:in und
Skulpturen in einer 3D-Software, um sie im virtu-
System haben Designer:innen eine besondere Gestal-
ellen Raum zu nutzen oder mit einem 3D-Drucker
tungsfunktion. Sie steuern unfertige und dynamische
auszudrucken und im realen Raum auszustellen. Mit
Gestaltungsprozesse. Crespo hat früher als klassische
den Artificial Remnants erweitert Crespo also ihre
Fotografin nur das Bild gestaltet, heute gestaltet sie
Serie Neural Zoo in den dreidimensionalen Raum.
den Bildgebungsprozess des gesamten Systems. Erst
Als konzeptionellen Hintergrund nennt sie, dass in
ganz zum Schluss sucht sie die passenden Ergebnisse
der echten Natur nur dreidimensionale Objekte zu
als Kuratorin der Bildgenerierung aus.
finden sind. Auf diese Weise versucht die Designerin,
Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess
Abb. 4.16: Detail eines Objektes der Artificial Remnants in virtueller interaktiver Umgebung mit User Interface aus Zahlen, welche Anteile des Objektes interaktiv erkunden lassen
137
Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess
138
Abb. 4.17: Ausstellungsarrangement mehrerer Objekte der Artificial Remnants in realer und virtueller interaktiver Umgebung, Detail
noch einmal ihr Konzept eines synthetischen Lebens
telligenten Systems lassen sich dynamisch trainieren
zu verdeutlichen und den Betrachtenden näherzu-
und in neue Ergebnisse überführen. Alle Ergebnisse
bringen. In den Ausstellungen dieser Objekte baut
sind zu jeder Zeit modulierbar, bis die Gestalter:innen
sie szenografisch eine Brücke zwischen artifiziellen
entscheiden, dass der Prozess mit den intelligenten
Objekten und echten, berührbaren Objekten.
Systemen beendet ist und das gewünschte Ergebnis vorliegt.
Sofia Crespo erklärt, dass der Einsatz von statistischem Lernen in gestalterischen Prozessen unbedingt
Um einen solchen dynamischen Gestaltungspro-
und zuallererst ein nachvollziehbares Konzept er-
zess besser zu verstehen, kann man sich folgende
fordert. In dieses Konzept werden die gestalterischen
beiden Konzepte kontrastiv vorstellen. Im ersten Fall
Zwischenschritte der Formfindung dann integriert.
soll ein Frosch fotografiert werden, der vor einem
Ergebnisse sollten sich während der Berechnung, des
blauen Himmel springt. In so einem klassischen sta-
Trainings der generativen Netze, überwachen lassen.
tischen Prozess des Fotografierens stehen alle Bild-
Ohne ein vorbereitetes Konzept verlieren sich Gestal-
motive fest, aber auch die Kameraperspektive, die
ter:innen schnell in den vielfältigen Möglichkeiten
Bildeinstellung und Belichtungszeit. Im zweiten
und Funktionen intelligenter Systeme und gelangen
Fall soll der Frosch mit einem neuronalen Netzwerk
nicht zum gewünschten Ergebnis. Der klassische me-
generiert werden. Dazu müssen Trainingsbilder dem
dienbasierte Entwurfsprozess, den man zum Beispiel
Bildkonzept folgend zusammengestellt werden. In so
auch in der Fotografie oder im Grafikdesign findet,
einem neuronalen Prozess des Generierens stehen die
wird in ihrem Designprozess zu einem dynamischen
Kameraperspektive, die Bildeinstellung und Belich-
Prozess, denn alle Anteile können sich darin ver-
tungszeit nicht endgültig fest. Es entstehen immer
ändern. Nahezu alle gestalterischen Anteile eines in-
neue Kompositionen in einem dynamischen Design-
Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess
prozess. Designer:innen haben in einem dynamischen Gestaltungsprozess die Aufgabe, neuronale Netze zu steuern und die darin angebotenen Ergebnisse kuratorisch auszuwählen, ob sie relevant für ihr künstlerisches Konzept sind. Es stellen sich grundlegende Fragen, was zum Beispiel überhaupt ein ästhetisch ansprechender Frosch ist und wie dieser sich in einem dynamischen Prozess in einer Bildkomposition noch als ästhetisch ansprechender Frosch darstellt. Laut Crespo schult die Auseinandersetzung mit Fragen natürlicher Formgebung Designer:innen in der Fähigkeit, präzise semantische Klassifizierungen in ungewöhnlichen Bildkompositionen zu erkennen und zu bewerten. Mit dieser Fähigkeit können sie auch bei anderen Bildmotiven schneller erkennen, wie kraftvoll die visuelle Kommunikation ist. Um ihre Bildergebnisse zu steuern, nutzt Crespo von ihr zusammengestellte sogenannte Aesthetic Presets. Diese Aesthetic Presets legen zum Beispiel fest, dass nur diejenigen Abbildungen relevant sind, die einen blauen Himmel besitzen. Eine solche Gestaltung mit Aesthetic Presets verstärkt die kuratorische Fähigkeit noch einmal, besonders kraftvolle Kompositionen zu generieren. Letztlich werden durch intelligente Systeme konventionelle Designprozesse verändert. Sofia Crespo erklärt, dass Designer:innen im klassischen Designprozess bei jedem Schritt kontrollieren, was sie gestalten möchten. Intelligente Systeme nun verändern dies aus ihrer Sicht nachhaltig, da die Art und Weise, wie man als Gestalter:in vorgeht, durch die dynamischen Prozesse unvorhersehbarer und unkontrollierbarer geworden sind. Trotzdem betrachtet sie ihre neuen Gestaltungswerkzeuge als kreativ und den Gestaltungsprozess als inspirierend.
139
Kapitel 4. Anwendungsfälle intelligenter Systeme im Designprozess
Abb. 4.18: Visualisierung des latenten Datenraums
140
Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess
141
4.4 Interface-Design:
tensiven und aufwendigen Arbeitsschritten zwischen
Einstein Designer von Salesforce
den Verantwortlichen verbessert wird. In dieser Kette müssen sich Projektmanager:innen, Designer:innen
Der digitale Handel von Produkten und Dienstleis-
und Entwickler:innen häufig abstimmen, was wiede-
tungen hat sich in den letzten Jahrzehnten zu einem
rum erhebliche Ressourcen verschlingt. Insbesondere
schnell wachsenden Markt entwickelt. Kaum ein
für Gestalter:innen sind die Arbeitsschritte kräfte-
anderer Absatzweg nimmt in einer solchen Ge-
raubend und mühsam, denn das Redesign setzt sich
schwindigkeit in Volumen und Vielfältigkeit der dort
meistens aus kleinteiligen Designanpassungen aller
angebotenen Produkte und Services zu. Wie in jedem
Elemente im Screendesign zusammen. Hier konzen-
schnell wachsenden System drängen immer mehr
trieren sich die Designaufgaben vorwiegend darauf,
Anbieter in den digitalen Markt um ihre Produkte
Elemente des Screendesigns neu zu arrangieren,
weltweit anzubieten. Um Kaufentscheidungen zu
was oftmals wenig kreative Designarbeit erfordert.
unterstützen und die Kund:innenbindung zu stärken,
Selbst wenn Designer:innen dann das UI neu gestal-
arbeiten Unternehmen beständig daran, ihre User
tet haben, verändert es oft die Produktpräsentation
Journeys, User Interfaces (UI) und damit die gesamte
nur oberflächlich und nimmt keinen Bezug auf die
User Experience zu verbessern.
persönlichen Bedürfnisse der Käufer:innen. Wird das UI adäquat personalisiert, bietet das die Möglichkeit,
Salesforce ist ein Unternehmen, das sich auf An-
Werte und Bedürfnisse der Käufer:innen nachhaltig
wendungen spezialisiert hat, die Kund:innenbezie-
zu berücksichtigen. Solche oft auch veränderlichen
hungen in webbasierten digitalen Medien stärken.
Bedürfnisse berücksichtigt Salesforce mit seiner
Dabei sammelt Salesforce über seine Plattform
Plattform und einem intelligenten System, das das
Salesforce 360 365 im Auftrag seiner Businesskunden
Unternehmen Einstein Designer getauft hat. Für
Daten über das Surfverhalten ihrer Endverbrau-
Millionen von Kund:innen im E-Commerce erlaubt
cher:innen. Die gesammelten Daten lassen sich
es eine datenbasierte Prognose des Kund:innenver-
analysieren, statistisch auswerten und als grafische
haltens und personalisiert dann datenvalidiert die
Schaubilder visualisieren. Sie lassen sich so für Mar-
User Interfaces. Einstein Designer ist Teil des Sales-
keting, Vertrieb und Kundenservice auswerten und
force-eigenen Forschungsprojekts Deep Learning UX,
bieten die Grundlage für neue Strategien. Aufgrund
kurz DLUX. Ursprünglich wollte DLUX ein intelli-
der Datenlage ist somit nachvollziehbar, in welchen
gentes System entwickeln, das den elektronischen
Bereichen ein UI, verbessert werden kann. So lassen
Geschäftsverkehr nachhaltig optimieren kann. Die
sich Interfaces optimieren, individualisiert anpassen
ersten Recherchen ergaben allerdings, dass nicht der
und die gesamte User Experience lässt sich ver-
elektronische Geschäftsverkehr die meisten Ressour-
bessern. Beispielsweise kann das System erkennen,
cen verschlang und die höchsten Kosten verursachte,
dass zu viele Buttons, die auf einen Kauf hinweisen,
sondern der Bereich der Gestaltung, insbesondere
potenzielle Käufer:innen abschrecken. Ist ein UI
das UI. Sönke Rohde, verantwortlicher Designer und
zu kompliziert, sinkt seine Qualität und damit die
Projektmanager bei Salesforce DLUX, erklärt, dass
Kund:innenbindung. Klassischerweise werden UIs
Einstein Designer sich grundlegend um eine Unter-
optimiert, indem das Redesign im Regelfall in zeitin-
stützung der Gestaltung der UIs kümmern sollte.
365 Salesforce: „Customer 360“, https://www.salesforce.com/de/ products (21.4.2022).
Kapitel 4. Anwendungsfälle intelligenter Systeme im Designprozess
142
Das Team von Salesforce DLUX stellte sich zu
UI bildet also unter dem Strich automatisiert die Inte-
Beginn die Frage, ob es überhaupt möglich ist, ein
ressen der Nutzer:innen ab und eröffnet ihnen durch
intelligentes System wie Einstein Designer zu ent-
die Personalisierung ein neues Produkterlebnis. Da
wickeln, das sich explizit um die UI-Gestaltung
die Interfaces mit Daten personalisiert werden, die
kümmern kann. Auch wurde die Frage gestellt, ob
auch Änderungen im Verhalten der Kund:innen
ein intelligentes System trainierbar wäre und als
jederzeit nachvollziehen können, bleiben sie aktuell
webbasierter Service schnell genug arbeiten kann.
und relevant.
Das System sollte grundlegende Muster der Benutzer:innen aus ihrem digitalen Verhalten ableiten und das Design daran anpassen. Es sollte ein intelligentes System sein, das mit automatisierten Designvorschlägen die Kund:innenbindung glaubwürdig stärkt. Es stellte sich heraus, dass es möglich war, so ein System aufzubauen und zu betreiben. Einstein Designer ist tatsächlich in der Lage, zeitaufwendige und intuitive Anpassungen der UIs zu automatisieren, indem es Designvarianten erstellt, die genau auf die Bedürfnisse der Kund:innen angepasst sind. Wie sich herausstellt, sind auch die Daten von Salesforce 360 sehr gut geeignet, da sie das zielgruppenspezifische und individuelle Surfverhalten der Kund:innen erfassen. Sie werden mit Einstein Designer ausgewertet und in Gestaltungsvariablen der UIs übersetzt. Diese Variablen sind sozusagen
Abb. 4.19: 1-Klick-Personalisierung einer UI mit Einstein Designer, Detail
die grafischen Grundelemente des Screendesigns. Klickt eine Benutzerin beispielsweise mehrfach
Um personalisierte Entwürfe des Interface-Designs
auf eine Schaltfläche, die eine Produktfotografie im
zu erstellen, benötigt Einstein Designer Verfahren
UI vergrößert, bilden die Daten diese Information
des statistischen Lernens. DLUX nutzt dazu als
ab. Einstein Designer kann dann vorschlagen, wie
Basismodul, ähnlich wie Sofia Crespo, ein selbst
Designer:innen das Produktfoto skalieren oder die
erstelltes und trainiertes Convolutional Neural Net-
Schaltflächen repositionieren sollten, um Kund:innen
work. Das CNN lernte den Aufbau, die Elemente und
zu gefallen. Diese Änderungen werden nicht für alle
die spezifischen Gestaltungsvarianten einer Viel-
Kund:innen vorgenommen, sondern nur für solche,
zahl von Screendesigns. Als Trainingsdaten dienten
die eine größere Produktansicht favorisieren. Ein-
dem CNN Webseiten von etwa 1.000 erfolgreichen
stein Designer kann aber auch Produktbewertungen
Fortune-500-Firmen und Unicorn-Start-ups. Das
oder Preisangaben im Screendesign anpassen, indem
Salesforce-Team ging davon aus, dass die erfolgrei-
die entsprechenden grafischen Elemente so arrangiert
chen Firmen auch ein hochwertiges und erfolgreiches
werden, dass beides prominenter zu sehen ist. Das
Webdesign haben. Die Screendesigns der Websei-
Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess
Abb. 4.20: Farbspektrum als Datenvisualisierung aus der Analyse hunderter gestalteter Internetseiten
143
Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess
Abb. 4.21: Visualisierung typografischer Beziehungen ausgewählter Internetauftritte
144
Oben Abb. 4.22: Visualisierung typografischer Beziehungen Unten Abb. 4.23: Darstellung der Farbanteile einer Internetseite
ten wurden nach Parametern wie Farbe, Typografie
Werkzeugen, um die versteckten gestalterischen Be-
und Komposition analysiert und auf Ähnlichkeiten
ziehungen der Webseiten zugänglich zu machen. Mit
und Unterschiede hin klassifiziert. Damit entstand
seinen sogenannten Slice-Visualisierungen konnte
nichts Geringeres als eine Bauanleitung für ge-
gezeigt werden, wie die Webseiten Farben einsetzten.
lungenes Webdesign. Allerdings war es schwierig,
Dabei zeigte sich, dass nicht nur die Farbpalette rele-
die Beziehungen der Gestaltungselemente, die das
vant war, sondern auch wie viel Raum die Farben auf
CNN gelernt hatte, auch transparent nachzuvoll-
der Website einnahmen und in welchem Verhältnis
ziehen. Hier kam Moritz Stefaner
als Experte für
sie zueinander angeordnet und gewichtet waren. Zu-
Datenvisualisierung ins Spiel. Stefaner visualisierte
sätzlich entwickelte Stefaner ein Visualisierungstool,
gestalterische Parameter wie Farbwahl, Typografie,
dass es Designer:innen erlaubt, mit einer gewählten
Bilder und Komposition, indem er Bildwolken er-
Grundfarbe stimmige Farbkombinationen zu erkun-
schuf, die ähnliche Elemente visuell nah beieinander
den. Damit konnte das Team um Rohde wiederum
gruppierten. Man konnte nun die Gestaltungsregeln
bisher unbekannte Zusammenhänge entdecken und
der Webseiten transparent nachvollziehen und sehen,
Gestaltungsregeln für erfolgreiches Screendesign
wie sie bestimmte Elemente in unterschiedlichen
erkunden. Zusammenhänge wie Schriftgröße und
Größen positionieren und welche formalen Bezie-
Abbildungsgröße wurden als abgebildete Beziehun-
hungen diese bildlichen und typografischen Elemente
gen der einzelnen Datensätze lesbar und verständlich
zueinander haben. Stefaner nutzte eine Reihe von
illustriert. Durch die Visualisierungen entstand ein
366
366 Stefaner, Moritz: „Deep Learning UX“, https://truth-and-beauty.net/ projects/sf-dlux (21.4.2022).
Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess
145
Abb. 4.24: Statistik verwendeter Schriftgrößen
Abb. 4.25: Clustering der Ähnlichkeiten in der Gestaltung analysierter UIs
Informationsdesign, das als Grundlage diente, um mit
schaften der Zeichen auch die inhaltliche Bedeutung
den DLUX-Softwareentwickler:innen solche Para-
dieser Zeichen. Das System war nach dem Training
meter zu finden, die einem intelligenten System im
in der Lage, anhand der Größe und Farbe des But-
Supervised-Learning-Verfahren beigebracht werden
tons zu bestimmen, ob er mit einem Kaufabschluss
konnten. Ziel war es, ein System zu erschaffen, dass
verbunden ist. Es konnte zudem prognostizieren,
nicht nur das bekannte Webdesign generieren, son-
welche Stelle im Screendesign die beste ist für diesen
dern auch den gesamten Möglichkeitsraum abbilden
Button. Das intelligente System hatte also gelernt,
und damit neue Screendesigns erschaffen kann.
wie erfolgreiches Webdesign funktioniert und wie
Die neuronalen Netze analysierten nicht nur visu-
man die Elemente in den Interfaces arrangieren muss,
elle Gestaltungsparameter, sondern zusätzlich auch
um erfolgreiches Webdesign zu erschaffen.
sogenannte semantische Informationen des Screendesigns. Dies ist beispielsweise bei einem Button
DLUX führte dann die neuronalen Netze in ihrem
relevant. Das System erkennt nicht nur, dass es sich
System Einstein Designer zusammen. Das intelli-
um ein farbiges Rechteck handelt, sondern um einen
gente System war damit in der Lage, verbesserte
Knopf, der mit einer bestimmten Aktion verknüpft
Neukompositionen von Interfaces vorzuschlagen.
ist. Im Fall eines Buttons kann dies etwa ein Kauf-
Es konnte unzählige Designvariationen errechnen
abschluss oder ein Newsletter-Abonnement sein. Das
und als mehrdimensionalen Möglichkeitsraum den
neuronale Netz lernt also neben den visuellen Eigen-
Designer:innen ausgeben. Stellt man sich diese
Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess
146
Designvariationen als Schwarm von vielen einzel-
und hilft Designer:innen der Salesforce-Unterneh-
nen Punkten vor, in dem jeder Punkt eine mögliche
menskunden, bessere Gestaltungsentscheidungen zu
Kombination der Designelemente mit beispielsweise
treffen. Alle von Einstein Designer bereitgestellten
einem Button repräsentiert, dann wird klar, wie
Designanpassungen lassen sich in der Bearbeitung
hilfreich dieser Möglichkeitsraum ist. So kann das
live testen. Mögliche Varianten können, als Vorschau
System beispielsweise mögliche Button-Designs so
simuliert, damit vorab überprüft werden. Damit kann
im Schwarm anordnen, dass die häufig angeklickten
auch die Designkompetenz der Nutzer:innen des Sys-
Schaltflächen gruppiert sind. Ein anderer Schwarm
tems einfließen und damit die Kompetenzen, die in
wiederum zeigt nur kompositorische Ähnlichkeiten.
den vielen Unternehmen, die Salesforce als Kunden
Eine dritte Datengruppe kann dann die Schnittmenge
hat, bereits existieren. Alle Vorschläge von Einstein
aus dem ersten und zweiten Schwarm zeigen und
Designer lassen sich entweder durch einzelne Desig-
den Designer:innen so erlauben, die beste Position
ner:innen überprüfen oder auch in größeren Teams
für häufig geklickte Buttons in der Gesamtkomposi-
diskutieren.
tion zu erkunden. Einstein Designer ermöglicht es nachzuvollziehen, wie ein Button positioniert und
Es wird deutlich, dass ein System wie Einstein De-
skaliert werden muss, damit er besser funktioniert.
signer den gesamten Arbeitsablauf für das Screende-
Die Ergebnisse können dann noch mittels linearer
sign beschleunigt. Die Mitarbeiter:innen der Unter-
Regression verfeinert werden. Das Verfahren wählt
nehmen können auf Grundlage strategischer Ziele des
aus der Menge an Designvarianten diejenigen aus, die
Unternehmens Designvorschläge überprüfen, über-
in einem linearen Zusammenhang stehen. Stellt man
arbeiten und einbinden. Auch für Mitarbeiter:innen,
sich den Möglichkeitsraum als zweidimensionalen
die keine umfassenden Designkompetenzen haben,
Schwarm von einzelnen Punkten vor, dann sucht die
eignet sich dieses System. Die ursprüngliche Vermu-
lineare Regression nur diejenigen Designvarianten
tung, dass Anwender:innen mit einem intelligenten
aus, die auf einer Gerade liegen. In der praktischen
Modul wie Einstein Designer überfordert wären, hat
Anwendung könnte das bedeuten, dass beispielsweise
sich laut Salesforce nicht bestätigt. Anwender:innen
nur solche Designvarianten ausgewählt werden, in
waren sehr interessiert an einem intelligenten System
denen Produktfotos besonders groß dargestellt wer-
und wollten mithilfe von Einstein Designer heraus-
den. Mittels linearer Regression werden also gezielt
finden, welche personalisierten Designvarianten am
bestimmte gestalterische Merkmale fokussiert und
besten mit ihrer Zielgruppe funktionieren. Sie hatten
andere damit aussortiert.
großes Interesse auszuprobieren, welchen positiven wie negativen Einfluss Designanpassungen auf Nut-
Am Ende des Eingrenzungsprozesses wählen
zer:innen haben können.
Designer:innen dann die relevanteste Designvariante aus. Der Vorschlag wird durch das System dann
Laut Salesforce DLUX steigt schon durch kleintei-
automatisch in das zu verbessernde Screendesign
lige Veränderungen im Design die Wirksamkeit eines
integriert. Sönke Rohde versteht Einstein Designer
UI enorm. Beispielsweise kann ein Button schon
als intelligente Datenlinse, die genau erkennt, welche
personalisiert werden, indem seine Ecken abgerundet
Anpassungen im Design zu beachten sind. Diese
werden und seine Farbe verändert wird. Im handge-
Datenlinse, die optimierbare Designelemente hervor-
machten Designprozess werden diese kleinen Details
hebt und passende Varianten vorschlägt, unterstützt
oftmals nicht beachtet, da sie aus Sicht von Desig-
Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess
ner:innen als formale Details keine relevante kreative Entscheidung benötigen. Aus Sicht von Salesforce sind solche Details jedoch wichtige Bestandteile eines personalisierten Designs. Im Unterschied zu Designer:innen kann ein System wie Einstein Designer auch wenig kreative, aber relevante Änderungen erkennen und vorschlagen. An dieser Stelle wird deutlich, was die Vorzüge eines intelligenten Assistenzsystems für Design im Kern sind. Das System ersetzt designerische Intuition durch statistisch quantifizierbare Daten und schafft so relevante Designlösungen, die Designer:innen – zumindest in Bereichen, die nur minimale Anpassungen betreffen – nicht in diesem Umfang und dieser Präzision leisten könnten. Sönke Rohde fiel im Laufe der Entwicklung von Einstein Designer sogar auf, dass die gestalterische Intuition und Expertise auch ganz an den Bedürfnissen der Nutzer:innen vorbeigehen können. Während des Trainings der neuronalen Netze stellt Rohde erstaunt fest, dass Nutzer:innen statistisch betrachtet komplett andere Schriftgrößen im UI bevorzugen, als es die Designer:innen unter Beachtung typografischer Grundregeln im Screendesign umgesetzt hatten. Damit ist infrage gestellt, ob klassische Regeln für gute Typografie Interfaces in digitalen Medien wirklich verbessern können. Ein Grund könnte sein, dass Nutzer:innen viel zu unterschiedliche Präferenzen haben, als dass sie durch ein starres Set an Regeln abgebildet werden können. Einstein Designer ermöglicht es nun, für einzelne Nutzer:innen personalisiertes Design anzubieten, das gleichzeitig immer die geschmacklichen Vorlieben der Nutzer:innen trifft und damit eine bessere Intelligence Experience erlaubt.
147
Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess
Abb. 4.26: Aktiver Pangolin Dress, Detail
148
Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess
149
4.5 Modedesign:
werden 32 integrierte Servomotoren genutzt, die be-
Pangolin Dress von Anouk Wipprecht
wegbare Teile des Kleids steuern. Hinzu kommen 32 Neopixel-LED-Lichtelemente, mit denen die Gehirn-
Längst ist Kleidung nicht mehr nur sachliches Be-
aktivitäten zusätzlich in Lichtsignale verwandelt wer-
dürfnis, den eigenen Körper vor Umwelteinflüssen
den. Alle Teile des Pangolin Dress wurden in einem
zu schützen. Mode soll in modernen Gesellschaften
selektiven Laser-Sintering-Verfahren hergestellt. Dies
genauso die eigene Identität und spezifische Grup-
ist eine Art Druckverfahren für dreidimensionale Ob-
penzugehörigkeit vermitteln. Längst hat sich eine
jekte, bei dem ein Laser Schicht für Schicht Formen
hochmoderne Industrie um dieses Bedürfnis ge-
aus einem sandartigen Material härtet und ausschnei-
bildet, die gemäß den Regeln der Maximierung des
det. Konzeptuell möchte Wipprecht mit dem Pangolin
eigenen Gewinns in schnellen Zyklen immer neue
Dress eine Symbiose aus Mode, visueller Choreografie
Angebote für einen gesättigten Markt erschafft. Die
und Persönlichkeit der Trägerin schaffen. Der Dress
niederländische Fashion-Tech-Designerin Anouk
soll die Persönlichkeit und Stimmung der Trägerin
Wipprecht möchte dieser Massenmode eine Mode
aufnehmen, indem statistische Lernverfahren deren
entgegensetzen, die den individuellen Körper ihrer
emotionale Muster lernen.
Trägerinnen wahrnehmen und erkennen kann. Mode soll in Wipprechts Sicht mit den Trägerinnen inter-
Im klassischen Modedesign sind Entwurfsme-
agieren. Sie verbindet in ihren Arbeiten Modedesign,
thoden wie Handzeichnungen, Schnittmuster und
Produktdesign, Kommunikationsdesign, Animations-
Formanpassungen an einer Modepuppe notwendig.
gestaltung und Engineering.
Bei Wipprecht erweitert sich dieser klassische Modedesign-Prozess. Sie bezieht intelligente Technologie
Schon während ihres Modedesign-Studiums
und technisch hergestellte Bauteile genauso in den
interessierte sich Wipprecht für den Bereich der
Prozess ein wie Lichtanimationen und kinetische
Robotik. An der Schnittstelle von Technologie und
Elemente. Aus ihrer Sicht hängen alle klassischen
Modedesign experimentierte sie mit Prototypen, die
und neuen Bestandteile im Designprozess wesentlich
Technologie als Material benutzen und die Persön-
zusammen. Die Programmierung der Software gehört
lichkeit der Tragenden in das Design integrieren.
für sie genauso zum Gestaltungsprozess wie desig-
Wipprecht wollte eine Mode schaffen, die Menschen
nerische Änderungen in der Formgebung. Beispiels-
mit ihrer Identität verbindet, ihnen zuhört und hilft,
weise werden die Bewegungen des Exoskeletts durch
sich individuell auszudrücken. Der Pangolin Dress
einen Servomotor gesteuert. Tauscht man diesen Mo-
ist ein solches Kleid, das die Fähigkeit besitzt, eine
tor aus, etwa weil ein leichteres Modell verfügbar ist,
emphatische Stimmung oder einen emotionalen Zu-
dann ändert sich das gesamte Design des Entwurfs.
stand der Trägerin durch ein intelligentes System zu
Durch die technologisch bedingte Veränderung müs-
verarbeiten.
sen dann Hardware, Software und Design im Sinne des Designkonzepts angepasst werden. Auch andere
Das intelligente System im Kleid verarbeitet elek-
Elemente wie Kabel, Halbleiter, Chips oder LEDs be-
trische Gehirnaktivitäten der Trägerin und steuert
einflussen so die Formgebung grundlegend. Schwe-
dadurch ein dreidimensionales Exoskelett, das so den
re Bauteile müssen körpernah angebracht werden,
Körper der Trägerin künstlich erweitern soll. Dazu
leichte Bauteile können flexibler genutzt werden. Für
Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess
150
Wipprecht ist die Flexibilität der Kabel und Gelenke
liegen sie als Bildinformationen vor und können
genauso wichtig wie die Flexibilität der benutzten
durch intelligente Bilderkennungsalgorithmen ana-
Textilien. Auch die Animationen der LEDs gehören
lysiert und ausgewertet werden. Bei einem Erwach-
für die Designerin zum Gestaltungsprozess dazu.
senen in Ruhezustand stellt sich die Gehirnaktivität
In diesen Animationen legt sie fest, wie die LEDs
als regelmäßig wiederkehrende, weich oszillierende
leuchten müssen, wenn die Trägerin eine bestimmte
Welle dar. Man nennt diese Welle auch Alphawelle.
Stimmung hat.
Ist die Person aufgeregt, zeigt das EEG eine schnelle, unregelmäßige Alphawelle. Durch eine Vielzahl von
Um die Wirkungsweise des Pangolin Dress zu ver-
Elektroden kann eine hochaufgelöste detailgenaue
stehen, beginnt man am besten mit dem Brain-Com-
Alphawelle visualisiert werden, was wiederum dem
puter Interface, dem BCI. Über diese Schnittstelle
Bilderkennungsalgorithmus hilft, die Wellenmus-
messen insgesamt 1.024 Elektroden feinste neuronale
ter besser zu identifizieren. So kann das Netz auch
Aktivitäten als elektrische Signale und leiten sie dann
geringe Stimmungsschwankungen in den kaum
an einen sogenannten Analog-to-digital-Konverter
veränderten Alphawellen erkennen. Um die Wellen-
oder AD-Konverter weiter. Durch den Konverter
darstellungen zu klassifizieren, nutzte Wipprecht ein
werden die elektrischen Signale, die das BCI analog
neuronales Netz. In Kooperation mit der Johannes
erfasst, in digitale Daten umgewandelt.
Kepler Universität Linz und der g.tec medical engineering Gmbh, einem Unternehmen aus der Medizintechnologie, gelang es ihr, dieses Netz zu trainieren. In einem weiteren Schritt wurden die erkannten Muster mit bestimmten gestalterischen Zuständen des Kleides verknüpft. Für bestimmte Stimmungsmuster ändert der Dress mechanische und optische Eigenschaften und visualisiert so in seinem Verhalten, seiner Form und Farbe die emotionale Stimmung der Trägerin. Um ein professionelles intelligentes System zu erstellen, mussten die Spezialist:innen von g.tec eine eigene neuronale Architektur aufbauen, die unterschiedliche Funktionen des Pangolin Dress steuert. Ein wichtiger Baustein war ein intelligentes Preprocessing-Verfahren, das eingehende Daten in relevante und irrelevante Daten vorsortiert. Dadurch
Abb. 4.27: Anbringen der Elektroden an der Kopfhaut
konnte die Komplexität des in Echtzeit eingehenden Datenstroms reduziert werden. Springt die Trägerin
Die konvertierten Daten werden dann mittels Elek-
des Kleids beispielsweise über drei Treppenstufen,
troenzephalografie, kurz EEG, in grafische Daten
misst der Dress zwar eine hohe Gehirnaktivität und
übersetzt und so in Wellenform visualisiert. Damit
damit eine starke EEG-Welle. Allerdings entschied
Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess
Abb. 4.28: Gehirn-Computer-Schnittstelle mit Anschlüssen zum EEG und zu den Hardwaremodulen für das Training des intelligenten Systems
151
Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess
152
Wipprecht konzeptionell, dass eine solche Bewe-
die Trägerinnen von einem spürbaren Tragegefühl; sie
gung keine relevante Reaktion des Kleids auslösen
hatten das Gefühl, einen erweiterten Körper zu ha-
soll. Im Preprocessing-Schritt wird für eine solche
ben. Durch die Interaktion von Trägerin und Interface
Datensituation ausgeschlossen, dass das System die
konnte der Dress beides verbinden und so ein neues
Daten weiterverarbeitet. Im zweiten Schritt führen
Gefühl in der Umwelt erzeugen. Wipprecht beschreibt
Klassifizierungsalgorithmen eine Datenanalyse durch,
dieses Phänomen als etwas, was sich wie Superkräfte
indem sie die Daten nach ähnlichen Strukturen oder
für die Trägerin anfühlt. Da diese Interaktion nonver-
Mustern sortieren. Die sogenannte Feature Extrac-
bal ist, könnte man sie auch als synthetische Körper-
tion sorgt dafür, dass nur solche Daten ausgegeben
sprache beschreiben.
werden, die besondere Features besitzen. Ein Feature kann beispielsweise eine fröhliche Stimmung der Trägerin und die dazugehörige EEG-Wellenform sein. Das Basistraining der neuronalen Netze wurde mit vielen Tausenden Daten unterschiedlicher Gehirnaktivitäten aus den Archiven von g.tec ermöglicht. Als das Team die ersten Tests an Trägerinnen durchführte, entsprach das Ergebnis noch nicht Wipprechts konzeptionellen Vorgaben. Ihr Konzept sah vor, dass intelligente Mode den individuellen Körper der Trägerin so genau wie möglich wahrnehmen und interpretieren kann. Oft waren die Stimmungen der Trägerinnen noch nicht genau genug klassifiziert worden und der Dress wirkte unglaubwürdig. Damit das intelligente System des Pangolin Dress präzise erkennen konnte, welche Stimmung seine Trägerinnen hatten, musste es auf die jeweilige Trägerin individuell kalibriert werden. Die Trägerinnen waren in ihren
Abb. 4.29: Kalibrierung des intelligenten Systems
Alphawellen zu unterschiedlich, um trotz des Basistrainings gut genug erkannt zu werden. Nur mit einer
Ein Modedesign, wie Wipprecht es erzeugt, beein-
zusätzlich durchgeführten Kalibrierung der neuro-
flusst die soziale Kommunikation der Träger:innen
nalen Netze war es dem Team möglich, den Pangolin
mit ihrer Umgebung in ungewohnter Art und Weise.
Dress auf eine Trägerin zu personalisieren und damit
Aufgeregtes Zittern und rot leuchtende LEDs signa-
zufriedenstellende Ergebnisse zu erzielen. Für die
lisieren den Betrachtenden unmittelbare Gefahr, ein
Kalibrierung wurden die Trägerinnen angewiesen,
Gefühl, das normalerweise nicht häufig mit Mode
sich in einzelne Stimmungen zu versetzen. In einem
in Verbindung gebracht wird. Natürlich ist soziale
zweiten Schritt konnten die unterschiedlichen Stim-
Kommunikation auch kulturabhängig und der Dress
mungen den individuellen EEG-Signalen in weniger
wird sicher in anderen Kulturkreisen als dem west-
als fünf Minuten Trainingszeit zugeordnet werden.
europäischen anders gesehen. Intelligente Systeme
Nach der Kalibrierung des Pangolin Dress sprachen
erlauben nicht nur, Stimmungen zu kalibrieren,
Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess
153
sondern gegebenenfalls auch die Animationen des
möglichkeiten für die Mode. Sie erzeugen eine Mode,
Kleides in seiner kulturellen Wirkung anzupassen.
die eine persönliche Angelegenheit, eine erweiterte
Denkt man abschließend darüber nach, dass sich sta-
Körpersprache ist.
tistisches Lernen in leichte und portable Materialien integrieren lässt, eröffnen sich vielfältige Gestaltungs-
Abb. 4.30: Finales, trainiertes intelligentes und im Pangolin Dress integriertes System, getragen von einem Model, Detail
Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess
154
4.6 Architectural Design:
nicht hell genug sind, dies aber mit hohen Kosten ver-
Spacemaker von Autodesk
bunden ist, wird dies gegebenenfalls durch die Bauherrin abgelehnt. In einer solchen Situation können
In der Architektur durchläuft der gestalterische Ent-
die Architekt:innen möglicherweise nicht beweisen,
wurf in der Planungsphase bis zum finalen Bauauf-
dass die Sonneneinstrahlung nicht ausreicht, und eine
trag eine Reihe komplexer gestalterischer und design-
notwendige Neuplanung für bessere Lichtverhältnis-
strategischer Schritte. Die Planung beginnt mit einer
se ist damit schwierig. Auch bei der Lärmbelästigung
Ausschreibung oder einem Auftrag, gefolgt von einer
muss gestalterische Intuition nachweisbar sein, etwa
Ideenfindungsphase. Während die gestalterische Idee
bei geplanten Fassadendetails, die Lärm reduzieren
ausformuliert wird, werden für die Prototypen Bau-
können. Können Architekt:innen ihre Intuition nicht
kosten berechnet sowie Konstruktionen, Materialien,
belegen, werden die Mehrkosten oft nicht freigege-
Oberflächen und Baukörper überprüft. Hinzu kommt
ben. Solche Probleme des Entwurfs zu erkennen und
eine Reihe anderer Faktoren, die es zu beachten gilt,
dem Projektteam direkt mit möglichen Lösungen
wie etwa städtische Rahmenbedingungen, vorhan-
vorzustellen ist jedoch für gutes Bauen grundlegend
dene Infrastruktur oder Flussläufe, Zufahrtswege
notwendig.
und Verkehrsaufkommen, die den Planungs- und Bauprozess enorm komplex machen. Will die Archi-
Spacemaker ist eine Software, die vor Kurzem von
tektur zudem noch sozial sein und gesellschaftliche
der Firma Autodesk aufgekauft wurde und Archi-
Werte verwirklichen oder umweltfreundlich sein und
tekt:innen bereits in frühen Planungsphasen assis-
beispielsweise die natürliche Sonneneinstrahlung
tiert. Spacemaker kann unterschiedliche Rahmenbe-
nutzen, wird der Planungsprozess sogar noch kom-
dingungen mittels statistischen Lernens quantitativ
plizierter. Architekt:innen, die alle Bedingungen im
validieren und so gut fundiert berücksichtigen. So
Entwurf mitdenken wollen, sind schnell überfordert.
lassen sich Parameter für Planungsentscheidungen
Eine umfassende Analyse der unzähligen Rahmenbe-
direkt in der Software überprüfen und in anstehende
dingungen eines Baus ist kostenintensiv, kompliziert
Entscheidungen einbinden. Die intelligente Software
und kräftezehrend. Entwerfende Architekt:innen
berücksichtigt die Zusammenarbeit von Projektmana-
werden daher in Projekten oft mit dem Umstand
ger:innen, Architekt:in und Bauherr:innen. Das Ent-
konfrontiert, dass ihre kreativen Ideen durch feh-
wicklungsteam beschreibt Spacemaker als Designtool
lende Budgets, fehlende Zeit oder Ressourcen nicht
für alle an architektonischen Entwurfs- und Pla-
konsequent diskutiert, geprüft und validiert werden.
nungsprozessen beteiligten Personen. Es wird nicht
Für eine Projektfreigabe ist es darüber hinaus not-
als spezialisiertes Designtool nur für Designer:innen
wendig, dass Bauherr:innen den Architekt:innen und
verstanden. Präsentationen und visuelle Darstellun-
ihren Berechnungen vertrauen. Fehlt jedoch die Zeit,
gen können direkt und ohne kompliziertes Interface
dieses Vertrauen im Team aufzubauen oder Vorschlä-
im Team dargestellt und diskutiert werden.
ge durch komplizierte externe Gutachten zu belegen, können Entwürfe schnell verworfen werden. Erkennt
Spacemaker bietet im Kern seines intelligenten Sys-
ein Architekt beispielsweise aus Erfahrung, dass ein
tems unterschiedliche Analysemodule, die in Echtzeit
entworfenes Gebäudeensemble neu zu planen ist,
Rahmenbedingungen für den Entwurf überprüfen.
weil die Innenhöfe für die vorgesehene Begrünung
Diese Module sind also Prüf- und Planungshilfen der
Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess
155 Mikroklimaanalyse
Tageslichtanalyse (Ablenkungswinkel) Umgebungsanalyse
Blick-, Sichtanalyse
Tageslichtanalyse (vertikal)
Geräuschanalyse
Windanalyse
Sonnenanalyse
Gebäudeanalyse Abb. 4.31: Kollektion der Analysemodule von Spacemaker
Architekt:innen und umfassen Bereiche wie Tages-
den Macher:innen von Spacemaker, jedes noch so
lichtanalysen, Mikroklimaanalysen, Umgebungsana-
kleine Detail des Designprozesses zu verstehen und
lysen, Windanalysen oder Geräuschanalysen. Ar-
in der Software zu berücksichtigen. Hatte man erst
chitekt:innen können die Module entweder für ein
einmal den gesamten Entwurfsprozess mit seinen
Architekturdetail oder für ein gesamtes Gebäudeen-
Entwurfsschritten als Daten erhoben, konnten alle
semble anwenden. Sie können beispielsweise Wetter-
Rahmenbedingungen, wie etwa Topografie, natür-
daten im Windanalysemodul nutzen, um die Intuition
liche Einflüsse oder das urbane Umfeld, übersichtlich
zu überprüfen, ob ein bestimmtes Gebäudeareal zu
abgebildet werden. Auf dieser Grundlage konnte ein
wenig belüftet wird.
umfassendes Verständnis von Architekturplanung erarbeitet werden, das dann einem intelligenten System
Carl Christensen, Mitgründer und CTO von Space-
beigebracht wurde. Das Spacemaker-Team diskutierte
maker, weist darauf hin, dass die oft unsichtbaren Be-
zunächst, welchen Planungsprozessen überhaupt mit
dingungen der Architektur, wie etwa Belüftung oder
einem intelligenten System assistiert werden konnten
Tageslichteinstrahlung, selbige grundlegend verän-
und für welche Prozesse Daten vorhanden waren, die
dern können, wenn sie einfach für den Entwurf nutz-
sich dafür eigneten. Waren Daten in ausreichendem
bar werden. Spacemaker will einen Design-Work-
Umfang und ausreichender Qualität vorhanden, prüf-
flow ermöglichen, der Architektur an alle örtlichen
te das Team, welches Analysemodul damit konkret
Gegebenheiten anpassen kann. Spacemaker hat daher
entwickelt werden kann.
den gesamten Gestaltungsprozess in der Architektur umfassend analysiert. Dazu gehören klassische Kons-
Alle Analysemodule – dazu gehören wie gesagt
truktions- und Entwurfsprozesse sowie die Projektie-
Tageslichtanalysen, Mikroklimaanalysen, Umge-
rung von Architektur und Bauplanung. Wichtig war
bungsanalysen, Windanalysen oder Geräuschanaly-
Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess
156
sen – funktionieren auf Basis eines deterministischen
letztlich die virtuellen Entwürfe der Baukörper für
Modells. Deterministisch heißt in diesem Fall, dass
tatsächlich vorhandene Umgebungsbedingungen
das intelligente System immer ein Richtig und Falsch
realistisch simuliert werden. Damit lässt sich dann
kennt, denn entweder sind architektonische Planun-
natürlich auch überprüfen, welche Bedingungen mit
gen, wie etwa statische Berechnungen, richtig oder
dem Entwurf erfüllt werden und wie er für spezifi-
falsch, entweder trägt das Haus oder es stürzt ein.
sche Bedingungen optimiert werden kann. An einem
Das System bildet dies ab, prüft eingehende Daten
Beispiel soll dies noch einmal exemplifiziert werden.
und sortiert sie in richtig oder falsch. Technolo-
In diesem Fall arbeitet eine Architektin an einem
gisch beschreibt man ein solches deterministisches
Gebäudeensemble und ihr fällt dabei auf, dass sie
Verfahren als einmal definierte Zustände, die, auch
wahrscheinlich auch die Geräuschbelastung durch
wenn sie in anderen Anwendungsfällen reproduziert
eine nahe liegende Straße beachten muss. Sie ver-
werden, immer gleich bleiben. Beispielsweise besitzt
mutet, dass die Straße erhebliche Lärmbelästigung
ein bestimmter Ziegel immer dieselben gleichbleiben-
verursacht. Um diese Vermutung sachlich zu belegen,
den Eigenschaften und eine Wand aus diesen Ziegeln
nutzt sie das Lärmanalysemodul von Spacemaker. Sie
hat immer ein identisches Gewicht und identische
wählt einen Fassadenausschnitt, für den das Modul
statische Eigenschaften, egal wo sie eingezogen wird.
die Lärmbelästigung ermittelt. Das Modul zeigt die
Damit kann sie für bestimmte Planungsszenarien
Belästigung grafisch an, indem es die errechneten
funktional sein und tragen oder dysfunktional sein
Dezibel als Heatmap über den Fassadenentwurf legt;
und die statischen Vorgaben nicht erfüllen. Mit
hohe Lärmpegel werden rot angezeigt, mittlere Pegel
den einzelnen deterministischen Verfahren können
gelb und niedrige Pegel in der Farbe Grün. 367 Zusätz-
Szenarien so in komplexen Zusammenhängen be-
lich kann sich die Nutzerin den genauen Dezibel-
rechnet werden, indem neuronale Netze lernen, wie
Zahlenwert anzeigen lassen, indem sie einfach auf
diese deterministischen Zusammenhänge mit- und
ein Fassadendetail im Entwurf klickt. Problematische
aufeinander wirken. Spacemaker nutzt dazu eine
Bereiche werden damit intuitiv identifizierbar und
ganze Breite unterschiedlicher neuronaler Netze, die
können so iterativ optimiert werden.
unterschiedlich Szenarien simulieren und in Gestaltungsprozessen assistieren. Generative Adversarial
Die norwegische Developerfirma Steen & Strøm
Networks sind für generative Formvariationen von
and Storebrand hat Spacemaker für eines der wich-
Gebäudeensembles zuständig. Deep Convolutional
tigsten urbanen Entwicklungsprojekte in Norwegens
Neural Networks passen Baukörper beispielsweise an
Hauptstadt Oslo genutzt. In dem Projekt namens
konkrete topografische Vorgaben an, die als Rahmen-
„Økern Sentrum“, das fast eine Viertelmillion Quad-
bedingungen berücksichtigt werden müssen. Re-
ratmeter Projektierungsfläche besaß, analysierte man
current Neural Networks wiederum analysieren die
mit Spacemaker die lautesten Bereiche in der Fassa-
Entwürfe mit veränderlichen Rahmenbedingungen,
dengestaltung mit dem Lärmanalysemodul und konn-
wie etwa Windverhältnisse und deren Auswirkung
te die Fassade so optimieren, dass der Lärm um zehn
auf die Fassaden, und nutzen in diesem Fall Wetter-
Prozent reduziert werden konnte. Mit dem Modul für
daten. Mit diesen intelligenten Systemen können
Tageslichtanalysen konnten zudem die am wenigs-
367 Spacemaker: „Analysis you can trust, noise analysis“, https://www.spacemakerai.com/resources/analysis-hub#Noise (21.4.2022).
Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess
157
Abb. 4.32: Blick auf die architektonische Umgebung des Økern Sentrum in Oslo
Abb. 4.33: Tageslichtanalyse vor Optimierung der Ist-Situation
Abb. 4.34: Tageslichtanalyse nach der Umgestaltung
Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess
158
Abb. 4.35: Geräusch- und Schallanalyse des Økern Sentrum in Oslo
ten mit Tageslicht versorgten Areale um 50 Prozent
auch für spätere Projekte zur Verfügung und in we-
reduziert werden.
nigen Schritten kann so ein Leistungsverzeichnis für
368
Bemerkenswert ist, dass diese
Analysen im laufenden Entwurfs- und Planungspro-
neue Ausschreibungen erstellt werden. BIM struktu-
zess durchgeführt, geprüft, diskutiert und behoben
riert die vielfältigen Daten, um beispielsweise ein be-
werden konnten.
stimmtes Konstruktionsbauteil über seinen gesamten Lebenszyklus hinweg verfolgen zu können – von der
Um die Datenqualität seiner Analysemodule zu ge-
Planung über den Entwurf bis hin zum Bau und Be-
währleisten, bekommt Spacemaker eine Vielzahl qua-
trieb.369 Das Softwareunternehmen Autodesk, zu dem
litativer Daten aus einer Cloud. Dazu muss man ver-
Spacemaker gehört, sammelt diese relevanten BIM-
stehen, dass Spacemaker zu einer in der Architektur
Daten in einer zentralen, cloudbasierten Lösung und
weit verbreiteten Gruppe der digitalen Entwurfsum-
stellt sie Spacemaker für seine komplexen Planungs-,
gebungen gehört, die Building Information Modeling,
Konstruktions- und Bauprozesse zur Verfügung.
kurz BIM, genannt werden. Eine solche BIM-Software wie Spacemaker ermöglicht optimierte Arbeits-
Letztlich ist es für Spacemaker auch enorm wich-
methoden und damit hochwertige Ergebnisse in der
tig, dass die Ergebnisse der intelligenten Analyse-
Architekturplanung. Mit der BIM-Software können
module eine realistische Nähe zum Entwurf behalten
alle mit der Bauplanung verbundenen digitalen
und Architekt:innen sie damit nachvollziehen kön-
Informationen an einem zentralen Ort gespeichert
nen. Platziert beispielsweise ein Architekt im Ent-
werden. Die Software katalogisiert beispielsweise im
wurf einen Kubus, den das intelligente System dann
Entwurfsprozess alle verwendeten Konstruktions-
validiert und optimiert, um Material und Kosten zu
bauteile als vollständige Liste. Diese Liste steht dann
sparen, muss der Architekt jederzeit nachvollziehen
368 Spacemaker: „Customers & Partners, How Steen & Strøm and Storebrand use Spacemaker for site development“, https://www.spacemakerai.com/blog/how-steen-strom-andstorebrand-use-spacemaker-for-site-development (21.4.2022).
369
Autodesk: „Überblick“, https://www.autodesk.de/solutions/bim (21.4.2022).
Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess
159
Abb. 4.36: User Interface von Spacemaker während des Einsatzes der Geräuschanalyse
können, wie und wieso das System den Entwurf mo-
Team diskutieren oder vor Kundinnen präsentieren
difiziert hat. Kann er das nicht, wird er den Entwurf
können. Alle Beteiligten im Architektur- und Pla-
aus gestalterischer Sicht schwer akzeptieren können.
nungsprozess werden so befähigt, informierte und
Carl Christensen zufolge achtet Spacemaker streng
fundierte Entscheidungen zu treffen, die den Pla-
darauf, dass das intelligente System keine intranspa-
nungsprozess damit zu einem ko-kreativen, inspirie-
renten Ergebnisse produziert. Aus Sicht des intelli-
renden, vitalen und informierten Prozess machen.
genten Systems stellen komplexe und schwer nachvollziehbare Ergebnisse kein Problem dar, aus Sicht der Anwender:innen des Systems schon. Zudem hat Spacemaker entschieden, nicht automatisch Ergebnisse anzubieten. Vielmehr rufen Architekt:innen die Analysemodule nur dann auf, wenn sie im Entwurfsprozess unterstützt werden möchten. Håvard Haukeland, selbst Architekt und einer der Gründer von Spacemaker, ergänzt, dass das Tool nicht nur eine Lösung als bestes Ergebnis anbietet, sondern eine Auswahl der besten Varianten zum aktuellen Planungsstand in der jeweiligen Planungsphase. Damit bekommen die Architekt:innen nicht nur nachvollziehbare, sondern auch optimierte Designvorschläge, die sie direkt in ihr Projekt einbinden, mit dem
Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess
Abb. 4.37: Blick ins SALT Research Archive Istanbul
160
Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess
161
4.7 Interaktionsdesign:
Archive Dreaming des türkischen Medienkünstlers
Archive Dreaming von Refik Anadol
Refik Anadol vermittelt spielerisch, wie mit unüberschaubar großen Datenarchiven umgegangen werden
Archive und Museen werden zunehmend digitaler
kann. Die Installation in einem wenige Quadratmeter
und Ausstellungsstücke virtuell zugänglich. Täg-
großen Raum nutzt ein intelligentes System, das tat-
lich wachsen aber nicht nur die kulturellen Archive,
sächlich vorhandene Daten aus dem Archiv des Salt-
sondern auch die kommerziellen, akademischen und
Research-Instituts in Istanbul nutzt. Die Nutzer:in-
privaten. Forschung, Handwerk und Industrie entwi-
nen der interaktiven Installation können in insgesamt
ckeln immer bessere Werkzeuge für digitale Arbeits-
1,7 Millionen Einzeldokumenten recherchieren. Das
prozesse und produzieren immer mehr Daten, die
intelligente System bereitet die Daten visuell so auf,
archiviert, konserviert, gefunden und verarbeitet wer-
dass die Nutzer:innen sie erkunden können, inspiriert
den müssen. Im Privaten bewahrt man die wenigsten
werden und neue Perspektiven auf die Daten und
Erinnerungen, wie etwa Kinderzeichnungen oder alte
ihre komplexen Zusammenhänge bekommen. Durch
Fotoabzüge, analog auf. Die meisten Erinnerungsstü-
verschiedene Interaktions- und Datenvisualisierungs-
cke, Erlebnisse und Erfahrungen sind längst digitali-
methoden bekommen sie einen neuen Zugang zu
siert und in der Cloud gespeichert. Die archivierten
Erinnerung, Geschichte und Kultur und damit einen
Daten steigen nicht nur in der Menge, sondern auch
Blick auf die museale Wahrnehmung des 21. Jahrhun-
in ihrer Komplexität, sie nehmen also nicht nur
derts. Hier wird das gesamte Archiv in seiner hoch-
quantitativ, sondern auch qualitativ zu. Damit stellen
komplexen Ausformung individuell und interaktiv
die archivierten Daten eine enorme Herausforderung
zugänglich gemacht. Hierzu zählen Aufzeichnungen
dar. Sie sind von sich aus passiv, sie erzählen keine
über das soziale Leben in der Türkei, die türkische
Geschichte oder geben keine neuen Erkenntnisse
Wirtschaftsgeschichte oder die Entwicklung des ur-
aktiv preis. Sie müssen daher gesucht, gruppiert und
banen Städtebaus in Istanbul. Hierzu zählt aber auch
in sinnvolle Zusammenhänge gebracht, synthetisiert
die Geschichte des Mittelmeerraums ab dem späten
und verstanden werden. Nur so können Daten neue
19. Jahrhundert. Hinzu kommen kunsthistorische
Geschichten erzählen, neue Wirkzusammenhänge
Artefakte aus den 1950er-Jahren sowie Architektur-
preisgeben und helfen, neue Anwendungen für sie zu
und Designgeschichte des 20. Jahrhunderts, die alle in
finden. Viele digitale Werkzeuge zur Datenverarbei-
dem digitalen Datenarchiv vorliegen.370
tung, die bis vor Kurzem noch für eine übersichtliche Zahl an Daten ausgereicht haben, können heute mit
Um diese riesige Datenmenge zu nutzen, hat Refik
den komplexen Anforderungen nicht mehr Schritt
Anadol zunächst statische und dynamische Daten
halten. Nicht nur wird es schwierig, bestimmte
unterschieden. Statische Daten sind solche, die sich
Datenverbindungen zu finden, es ist oft noch nicht
nach dem Eintrag ins Archiv nicht mehr ändern und
einmal klar, dass sie existieren. Um also kulturelle,
als Datensatz feststehen. Im Unterschied dazu können
kommerzielle oder private Datenarchive wirklich um-
sich dynamische Daten auch nach der Aufzeichnung
fassend nutzen und für Menschen jeglicher Bildung
noch ändern und müssen laufend aktualisiert werden.
und Sprache zugänglich machen zu können, bedarf es
Der Eintrag einer Autorin im Archiv besteht dann
intelligenter Systeme.
also aus einem statischen Teil, dem Namen der Au370 Salt Research: „About“, https://saltresearch.org/primo_library/libweb/ static_htmls/salt/info_about_en_US.jsp (21.4.2022).
Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess
Abb. 4.38: Interaktion mit dem intelligenten System von Archive Dreaming über ein digitales Tablet
Abb. 4.39: Konzeptionszeichnung der Szenografie mit beschreibenden Details der Funktion
162
Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess
163
torin, der sich nicht ändert, sowie dem dynamischen
ren, musste Anadol eine Vielzahl von Designfragen
Teil, denn mit jedem neu veröffentlichten Buch der
klären. Es mussten technische Fragen geklärt werden,
Autorin ändert sich der Datensatz der Publikationen.
beispielsweise welche Rechenleistung überhaupt
Beide Datenklassen, statische und dynamische, hat
welche Art der Partikelvisualisierung zulässt und wie
Anadol nun in unterschiedlichen Echtzeitanimatio-
diese Partikel kinetisch simuliert werden sollten; aber
nen mit dem intelligenten System visualisiert. Sie
auch welches synthetische Material für die Oberflä-
erlauben dadurch einen intuitiven visuellen Zugang
che der Partikel gewählt wird. Wichtige gestalterische
zu den Daten, der an die natürliche menschliche
Fragen waren dann, wie die einzelnen Datenformate
Wahrnehmung angebunden ist. Anadol spricht in
in der Partikelformation visualisiert und wie diese
dieser Hinsicht auch von seinem künstlerischen Ma-
Partikel animiert werden sollten, damit sie eine
terial, das er wie Pigment auf die digitale Oberfläche
immersive User Experience erschaffen. Dazu gehörten
aufträgt, und den Datenvisualisierungen als einem
auch Fragen danach, welche Größe die Visualisierun-
malerischen Vorgang.
gen haben müssen und wie sie ausgeleuchtet werden müssen, damit sie gut erkennbar sind.
Herz der Installation ist eine begehbare immersive Kapsel, die den Benutzer:innen mittels Tablet-Inter-
Um diese Fragen zu beantworten, entwickelte
face die interaktive Steuerung der Archive-Drea-
Anadol ein eigenes Designkonzept, das er „Aesthetics
ming-Installation erlaubt. Berühren sie das Interface
of Probability“, kurz AoP, taufte und in dem er for-
und bewegen ein Fadenkreuz über das Tablet, ändert
mulierte, wie sich etwa Partikel verhalten, wenn sie
sich auch das Screendesign auf der 360-Grad-Pro-
bestimmte Daten abbilden. In den AoP gibt Anadol
jektionsfläche in Echtzeit. So entsteht der Eindruck,
dynamische Vorgaben für Texturen, Materialien,
dass man als Nutzer:in diese Datenvisualisierung
Licht- und Schattenverhältnisse, Farben, Formen,
direkt steuert und durch die Interaktion erschafft. Die
kinetische Bedingungen wie Trägheit, Masse und
Projektionen stellen die Daten als dreidimensionale
Gravitation. Dabei sind die Vorgaben nicht strikt zu
Partikelwolken in unterschiedlichen Ordnungen und
verstehen, sondern definieren Bereiche, in denen bei-
Informationsebenen dar. Zudem ist es aufgrund ver-
spielsweise Farben oder Geschwindigkeiten der Par-
schiedener Navigations- und Suchmethoden möglich,
tikel verwendet werden sollen. In den unterschied-
zu anderen Projektions- und Darstellungsformen,
lichen Datenvisualisierungen von Archive Dreaming
wie etwa Datenskulpturen oder zweidimensionalen
werden beispielsweise ausgewählte Dokumente
Dokumentabbildungen, zu wechseln, die schriftliche
gruppiert, die aus kugelförmigen Punkten bestehen.
Detailinformationen bereitstellen. Laut Anadol fühlt
Das intelligente System greift dabei auf die AoP-
sich die Installation wie eine Reise durch ein Daten-
Designregeln zu, um zu ermitteln, dass und wie Do-
universum an. Die immersive Wirkung von Archive
kumente als Punkte visualisiert und animiert werden.
Dreaming entsteht durch die szenografische Raum-
Die AoP formulieren auch konkrete grafische Regeln.
gestaltung. Die Projektionen umfassen den gesamten
Wenn Archive Dreaming etwa Beziehungen zwischen
Raum und erzeugen so den Eindruck eines eigenen
Datenartefakten visualisiert, beschreiben die AoP,
kontinuierlichen Raums und damit die Illusion eines
wie zwei Datenpunkte miteinander verbunden wer-
unendlichen Raumgefüges auf wenigen Quadratme-
den. Durch Linien wird dann eine Datenarchitektur
tern. Um die Daten zu animieren und zu visualisie-
erstellt, die Anadol Datenskulptur nennt.
Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess
Abb. 4.40: Visualisierung der Daten mit t-SNE als abstrakte dreidimensionale Datenskulptur
164
Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess
Abb. 4.41: Visualisierung der Daten mit ihren echten Abbildungen als gruppierte Cluster in einer zweidimensionalen Darstellung
165
Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess
166
Abb. 4.42: Zweidimensionale Darstellung als Projektion, Detail
Anadol nutzt 3D-Software wie Unity, Unreal oder
das gesamte Archiv des Salt-Research-Instituts nach
Houdini als Gestaltungswerkzeuge, um die Daten-
bisher unbekannten Mustern durchsuchen und diese
visualisierungen zu erzeugen. Die Render Engines
vergleichen, konnte dann die interaktive Visuali-
der 3D-Software können Daten in visuelle Formen
sierung stattfinden. Dafür wurde ein Convolutional
und Materialien übersetzen und dann animieren. Die
Neural Network trainiert, das in wenigen Sekunden
Daten werden über API-Schnittstellen in die 3D-Soft-
alle Dokumente des Archivs beispielsweise nach
ware eingelesen und dann mittels AoP-Designregeln
Bildinhalten gruppierte. Die klassifizierten Bilder,
in virtuelle dreidimensionale Formen mit entspre-
Zeichnungen und Kunstwerke übergab Anadol
chenden Lichtverhältnissen und Oberflächenmateria-
einem Generative Adversarial Network, GAN. Das
lien übersetzt. In den Augen des Künstlers entsteht
GAN analysierte visuelle Muster, um gestalterische
in diesem Prozess zunächst ein synthetisches Skelett,
Parameter zu kennzeichnen und alle im Archiv ent-
das dann Muskulatur und Haut bekommt. Letztere
haltenen Bilddaten zu kontextualisieren. Nachdem
erschafft die 3D-Software nach den AoP-Designre-
das GAN trainiert war, konnte das gesamte System
geln in Echtzeit immer wieder neu. In der Installa-
beispielsweise alle Fotografien eines bestimmten his-
tion rechnen die Render Engines Formen, Texturen
torischen Zeitabschnitts ausgeben und in festgelegten
und Animationsverhalten jeweils mit jeder Aktuali-
Ordnungen visualisieren.
sierung neu. Beispielsweise rendert die 3D-Software eingespielte Daten in Form von drei Kugeln. Wird
Das System nutzte zur Visualisierung Algorithmen
das Datenarchiv dynamisch aktualisiert, rendert das
wie beispielsweise t-SNE, eine statistische Methode,
System automatisch in Echtzeit dann vier Kugeln.
die die hochdimensionalen, durch KNN klassifizierten Daten in zwei- und dreidimensionale Darstellun-
Refik Anadol wurde bei der Entwicklung durch
gen transferiert. So werden die komplexen Zusam-
Spezialist:innen von Google AMI 371 unterstützt. Auf
menhänge der Daten visuell schnell und intuitiv in
Basis neuronaler Netze, die mittels KNN-Verfahren
sogenannten Datenclustern zugänglich gemacht.
371 Google AMI: „About“, https://ami.withgoogle.com (21.4.2022).
Kapitel 4: Anwendungsfälle intelligenter Systeme im Designprozess
167
Abb. 4.43: Animation der aktiven Feature Extraction aus dem Datenmaterial, Detail
Auch die t-SNE-Diagramme werden in den Render
viert, indem sie mit mehrdimensionaler Hyperkom-
Engines nach AoP-Regeln visualisiert.
plexität von Wissen umgehen lernt. In dieses Wissen, das oft auch als Erbe der Menschheit bezeichnet wird,
Um alle Möglichkeiten eines intelligenten Systems
können Nutzer:innen mithilfe intelligenter Systeme
auszuschöpfen, integrierte Anadol auch eine experi-
eintauchen, um sich einzeln oder zusammen mit
mentelle Methode, das sogenannte Perplexity Experi-
anderen weiterzubilden.
ment. Dieses Modul findet die größten Unterschiede in solchen Daten, die normalerweise nicht gefunden werden, da sie fast nicht vergleichbar sind. Damit sollte den klassischen wissenschaftlichen Recherchen eine weitere Dimension hinzugefügt werden. Das Perplexity Experiment ist eine Methode, die Informationen nicht wie üblich nach empirisch relevanten Details auffindet, sondern unmögliche, unpassende und unvorstellbare Kontextualisierungen herstellt. Damit können Nutzer:innen von Archive Dreaming ganz neue Kontexte und Zusammenhänge entdecken und herstellen. Mit dem Perplexity Experiment war dann Archive Dreaming als interaktive Installation aus Sicht des Künstlers vollständig, denn es bot die Möglichkeit, das Unmögliche hervorzubringen. Anadol selbst sieht sein Werk als gestaltete Architektur des Wissens, die ein persönliches Wissensego relati-
5. Mit intelligenten Systemen gestalten – ein praktischer Einstieg
Kapitel 5: Mit intelligenten Systemen gestalten – ein praktischer Einstieg
5.1 Einleitung
169
Da ein Buch nur begrenzten Raum hat, praktisches Wissen zu vermitteln, vermag dieses Kapitel unmög-
Designer:innen sind nicht nur theoretisch an einem
lich zu leisten, einzelne Programme zu erklären und
Gegenstand interessiert; ihn praktisch zu erkunden
praktisch in sie einzuführen. Zudem ist das Buch
und zu beherrschen ist wesentlich für ihren Berufs-
als statisches Medium sicher nicht das geeignetste,
stand. Das folgende Kapitel soll nun das theoreti-
um Schritt für Schritt durch einen komplizierten
sche Wissen in ein anwendbares transferieren und
Gestaltungsprozess zu führen. Dafür bieten sich
somit einen ersten praktischen Start in das weite
Online-Tutorials an, die es im Internet bereits in sehr
Feld der Gestaltung mit und für intelligente Systeme
guter Qualität und oft frei verfügbar gibt. Wo es sich
ermöglichen. Es ist klar, dass man als Gestalter:in
anbietet, verweisen die einzelnen Kapitel auf diese
dort starten muss, wo es das eigene theoretische
weiterführenden Ressourcen im Netz. Außerdem
und praktische Verständnis, die eigenen Qualifikatio-
können Designer:innen auf der Internetseite zum
nen und Vorlieben zulassen. Deshalb ist das Kapi-
Buch, unter www.designundki.de, weitere intelligen-
tel so aufgebaut, dass es für viele unterschiedliche
te Tools und Websites, die hier nicht genauer vorge-
Qualifikationen Einstiegsmöglichkeiten bietet, um
stellt werden können, übersichtlich einsehen und von
intelligente Systeme in die eigene Praxis zu integ-
dort aus weiter erkunden. Die kuratierte Liste soll
rieren. Ziel war es, Designer:innen möglichst nicht
den Einstieg erleichtern und inspirieren, mit Neugier
zu überfordern oder zu langweilen. Die Leser:innen
neue Werkzeuge und Anwendungen zu entdecken.
können nun selbst entscheiden, welcher Einstieg für sie der passendste ist. Die einzelnen Kapitel bauen nicht aufeinander auf, sondern sind für sich getrennte Anlaufpunkte, die nach Komplexitätsstufen geordnet wurden. Das Spektrum reicht hier von einfachen Szenariostudien für intelligente Systeme und vorläufige experimentelle Tools über Werkzeuge, die mit und ohne Programmierkenntnisse genutzt werden können, bis hin zu komplexen Entwicklungsprozessen in interdisziplinären Teams. Dabei zielt das Kapitel auch darauf ab, Designer:innen neugierig zu machen und die Lust zu wecken, das Feld weiter zu erkunden.
Kapitel 5: Mit intelligenten Systemen gestalten – ein praktischer Einstieg
170
5.2 Needs: Was Designer:innen tatsächlich
einige mit Büchern oder Fachartikeln weiterbilden.
möchten
Die überwiegende Mehrheit der Teilnehmer:innen steht der künstlichen Intelligenz also nicht ablehnend
Einstiegspunkte für viele verschiedene Designer:in-
gegenüber, sondern sieht praktischen Bedarf, hilf-
nen zu bieten birgt natürlich ein gewisses Risiko,
reiche intelligente Assistenz begleitend in Design-
da sie oft sehr unterschiedliche Expertisen haben.
prozesse zu integrieren. Interessant wird es sicher,
Zunächst soll daher die Frage beantwortet werden,
wenn Designer:innen die Bereiche identifizieren,
welchen Bedarf an praktischem Wissen es unter
in denen intelligente Werkzeuge aus ihrer Sicht am
Designer:innen in Agenturen, Unternehmen und als
sinnvollsten eingesetzt werden können. Mit den
Freelancer:innen überhaupt gibt. Dazu haben die
Systemen sollen erstens wiederkehrende, zeitaufwen-
Autoren im Winter 2021/22 eine kurze Bedarfsstudie
dige Arbeitsschritte automatisiert werden, etwa um
durchgeführt, an der sich freischaffende Designer:in-
zwei- in dreidimensionale Entwürfe zu konvertieren.
nen sowie Designschaffende aus Agenturen und
Zweitens sollen sie eingesetzt werden, um Design-
Unternehmen beteiligt haben. Die meisten Designer:
variationen, etwa im Logo- oder Interface-Design,
innen stammten aus den Bereichen Kommunikations-
zu erstellen. Auch im Bereich Research sehen die
und Grafikdesign, Interface- und UX-Design oder
Teilnehmer:innen Anwendungsgebiete, etwa wenn
Produktdesign. Einige Teilnehmer:innen waren im
Persona-Profile und Moodboards erstellt oder Bilder
Designmanagement und strategischen Design tätig.
recherchiert werden müssen. Einige Teilnehmer:in-
Obwohl die Ergebnisse der Studie nicht repräsentativ
nen möchten, dass intelligente Systeme in der Bau-
sind, zeigen sie Trends und Themen, die hier kurz
teil- und Fertigungsoptimierung eingesetzt werden.
vorgestellt werden sollen.
Andere sehen KI-Anwendungen auch im Nutzer:innentesting. Insgesamt verorten die Designer:innen
Die meisten Designer:innen haben laut eigenem
intelligente Systeme also in allen Phasen des Design-
Bekunden keine profunden Kenntnisse bezüglich
prozesses, der durch die Systeme insgesamt erleich-
künstlicher Intelligenz im Design. Fast alle wünschen
tert werden soll. Darüber hinaus formulieren sie die
sich daher, mehr über Anwendungen von künstlicher
Erwartungen, dass die Ergebnisse der intelligenten
Intelligenz im Design zu erfahren. Eine Mehrheit der
Systeme eine hohe Designqualität haben und schnell
Designer:innen hat sich im vergangenen Jahr zwar
weiter genutzt werden können, sodass sie die auto-
schon mit dem Thema KI und Design auseinander-
matisch generierten Ergebnisse nicht detailliert über-
gesetzt, möchte sich aber auch im kommenden Jahr
prüfen müssen. Intelligente Systeme sollten leicht
praktisch zu diesem Thema weiterbilden. Als wich-
lern-, einsetz- und integrierbar sein, den Designpro-
tigste Medien, mit denen sich die Teilnehmer:innen
zess unterstützen, verständliche, überraschende und
weitergebildet haben, werden Fachkonferenzen und
inspirierende Ergebnisse liefern sowie sich individu-
-literatur, Video-Tutorials und eigene Forschungspro-
ell anpassen lassen.
jekte genannt. Zukünftig wünschen sich die meisten Designer:innen praktische Formate der Weiterbil-
Mit diesem kurzen Blick auf den Bedarf der pro-
dung, hauptsächlich Webinare, Workshops, Tutorials
fessionellen Gestalter:innen wird deutlich, dass keine
und Schulungen. Aber auch theoretisch wollen sich
Themen- und Anwendungsgebiete als praktische In-
Kapitel 5: Mit intelligenten Systemen gestalten – ein praktischer Einstieg
171
teressengebiete ausgeschlossen werden können. Mit
net, weil er keine technischen Kenntnisse voraussetzt
anderen Worten: Es gibt keinen klaren Fokus auf spe-
und intuitiv nutzbar ist. Ideen und Einfälle können
zifische Systeme, der aus der Studie hervorgeht. Das
in diesem Format frei entwickelt und vertieft werden.
heißt im Umkehrschluss, dass alle folgenden Kapitel
Beispielsweise spekuliert der Hub in einem Beitrag
zur praktischen Anwendung intelligenter Systeme in
über die Möglichkeiten sogenannter Conversatio-
irgendeiner Form auch auf Interesse stoßen sollten.
nal Bots, auch bekannt als Sprachassistenten. Die „Eavesdrop Modules“ 372 sind zwei Bots in Form von
5.3 Storys: Erste Gedankenexperimente für
quadratischen Boxen, ähnlich den Aufbewahrungs-
intelligente Systeme
boxen für kabellose Kopfhörer. Beide Bots führen als intelligente Systeme Gespräche miteinander. Die
Wie nähert man sich als Designer:in neuen, noch
Nutzer:innen können diesen Gesprächen lauschen,
nicht erlernten Technologien und Werkzeugen, ohne
aber nicht direkt interagieren und Teil des Gesprächs
dass man einen Workshop mit überwiegend techno-
werden. Damit sollen die Bots als privater Audio-
logischen Inhalten besuchen muss? Neue Techno-
hintergrund einsame Menschen bereichern. Die
logien und ihre Anwendungsgebiete zu verstehen
Gesprächsinhalte der Bots basieren auf vergangenen
beginnt meistens in der Fiktion. Gesucht wird im
Gesprächen. Je nachdem, wie sich die Nutzer:in-
spekulativen Möglichkeitsraum nach einem freien,
nen in ihrem Umfeld verhalten, wird bestimmt,
aber spannenden Anwendungsszenario für die Tech-
welche Stimmung und Gefühle die Bot-Gespräche
nologie. Bei den Zukunftsszenarien handelt es sich
induzieren. Schon heute funktionieren intelligente
unter anderem um eine spekulative Designmethode,
Sprachassistenten im Hausgebrauch mit Methoden
die Denkbares und Undenkbares zu einem kreativen
statistischer Lernverfahren. Rein technisch ist so
Gedankenexperiment zusammenschließt.
eine Bot-Konversation mit Transformer-Netzwerken wie GPT-3 also nicht unmöglich, wenn auch nicht
Ein Beispiel für freie kreative Spekulation in Zu-
sehr ausgereift. Die Eavesdrop Modules erweitern
kunftsszenarien ist der Unthinkable Hub. Der Hub
diese bestehende Funktion hin zu einem spekulati-
entwickelt spekulative Szenarien und beschreibt
ven Anwendungsszenario, das surrealistisch und für
die Funktionen der darin enthaltenen Produkte und
heutige Verhältnisse unsinnig anmutet. Der Unthin-
intelligenten Systeme in Textform. Meist sind es
kable Hub bedient auf diese Weise die Neugier nach
spekulative Designprodukte, die in ihrer zukünftigen
aktuellen Technologien und deren Möglichkeiten und
Nutzungsweise gezeigt und durch Bilder prototypisch
fasst die Technik frei von informatischer Bildung und
illustriert werden. Im Hub steht nicht so sehr im
Machbarkeitsstudien in kreativen Story- und Gestal-
Vordergrund, ob diese Designprodukte technisch rea-
tungsarbeiten. So werden mögliche zukünftige An-
lisierbar sind, sondern welche Gedanken durch ihre
wendungsszenarien bestehender Technologien, aber
Beschreibung angeregt werden. Der Hub untersucht
auch ganz neue Technologien imaginierbar. Letztlich
textlich und bildlich, welche neuen Ideen, Konzepte
dient dies dann dazu, gegenwärtige Use-Cases und
und Lösungen für Technologien wie beispielsweise
Entwicklungen zu inspirieren und sich so mit der
künstliche Intelligenz möglich sind. Als literarisches
Technologie vertraut zu machen.
Medium ist er für Gestalter:innen besonders geeig372 The Unthinkable Hub: „UTH.1 – Evesdrop Modules“, https://mirror.xyz/0x12d7CCC2454111af7039E27Af42b919893d4cCA2/ 7lFar7DSLZTcWj3kCsk5jiGCiJfWoMWTTjebaoTTtgo (21.4.2022).
Kapitel 5: Mit intelligenten Systemen gestalten – ein praktischer Einstieg
5.4 Tools: Praktische Werkzeuge und
172
5.4.1 Tools 1: Experimentelle Werkzeuge
ihre Anwendungsgebiete Experimentelle Werkzeuge, das hat das Kapitel 3.2 gezeigt, erlauben durch glückliche Zufälle, durch unbestimmtes Ausprobieren und freies Spiel, zu neuen Ideen und Lösungsansätzen zu gelangen. Die erste Art der intelligenten Werkzeuge, die hier vorgestellt werden soll, hat den Vorteil, dass man sie leicht nutzen kann. Sie sind intuitiv bedienbar und inspirieren in ihrem spielerischen Gebrauch. Sie haben aber auch den Nachteil, dass die entstandenen Entwürfe den Charakter des Vorläufigen oft nicht ablegen. Sie werden deshalb sehr früh im Designprozess eingesetzt. Für Gestalter:innen, die ein erstes mentales Modell von den intelligenten Gestaltungswerkzeugen bekommen möchten, eignen sich diese experimentellen Werkzeuge gut. Zwei Beispiele wurden ausgewählt, um diese Werkzeugklasse zu bebildern. Das erste Beispiel ist der Open Type Font Generator 373, der Gesichtserkennung mit Typografie zusammenschließt. Der OTF war Teil der Sonderausstellung „ABC. Avantgarde – Bauhaus – Corporate Design“ des Gutenberg-Museums in Mainz. Der browserbasierte Generator erkennt die Gesichter der Nutzerinnen und übersetzt diese in Schriftschnitte. Nutzerinnen können ihre individuellen Schriftschnitte entwickeln, indem sie den Kopf neigen, den Mund öffnen oder andere Mimiken machen. Im ersten Schritt bestimmt das System anhand des gesamten Gesichts die Basisanatomie der Schrift, ihren Duktus. Im zweiten Schritt wird die Strichstärke der Schrift durch den Abstand zwischen Augenbrauen und Augen bestimmt. Ob die Schriftart zu einer Grotesk- oder Antiqua-Schrift wird, hängt vom Alter der Benutzenden ab, und ob eine Schrift gespiegelt wird, davon, ob die Nutzenden traurig schauen. Schriftgestaltung findet hier also in einem experi373 Bauhauslabor: „OTFG“, https://otf.bauhauslabor.de/#/generate (21.4.2022).
Kapitel 5: Mit intelligenten Systemen gestalten – ein praktischer Einstieg
173
mentellen, nicht genau kontrollierbaren Setting statt.
5.4.2 Tools 2: Professionelle Werkzeuge und
Zufällige Gesichtsausdrücke und Eigenschaften der
Stand-alone-Lösungen
Personen führen zu gewünschten oder unerwünschten, in jedem Fall unvorhergesehenen Ergebnissen.
Neben den experimentellen Werkzeugen, die oft
Das zweite Beispiel, StyleClip , erlaubt es, mit Text-
direkt aus Forschungsvorhaben oder Designprojekten
eingaben Bilder zu generieren. Designer:innen geben
entstanden und in wenig ausgereiften Anwendungen
dem Style-GAN-System ein Ausgangsbild und eine
nutzbar sind, gibt es professionelle Tools, die statis-
dazu passende Bildbeschreibung. In einem zweiten
tische Lernverfahren einsetzen. Diese Tools werden
Textfeld beschreiben sie das gewünschte Bild, das das
oftmals von großen Firmen konzipiert, getestet und
System dann auf Basis des Ausgangsbilds und dessen
weiterentwickelt. Der Vorteil dieser Tools ist, dass
Beschreibung generiert. So kann das Ausgangsbild
sie das experimentelle Moment mit einem profes-
eines jungen Mannes mit der Beschreibung „junger
sionellen verbinden, denn diese Tools lassen sich in
Mann“ versehen werden und das Zielbild mit „alter
den eigenen Design-Workflow integrieren, ohne dass
Mann“. Aus dem Bild des jungen Mannes wird dann
Designer:innen fürchten müssen, dass es das Tool
ein älterer Herr, der aussieht wie die gealterte Version
morgen schon nicht mehr gibt oder es veraltet ist.
373
des jungen Mannes. Man kann das Zielbild für den jungen Mann aber auch als „junge Frau“ bezeichnen
Zum Beispiel bietet Adobe 375 seit einiger Zeit
und das Style-GAN eine entsprechende Darstellung
mit seinen Neural Filters die Möglichkeit, Fotos mit
generieren lassen. Entsprechend interessant sieht es
statistischen Lernverfahren zu manipulieren. Basis
dann aus, wenn das Männergesicht weiblich wird.
der Filter sind neuronale Netze, die Bildgenerierung
Durch unterschiedlich präzise, umfangreiche und
und Style-Transfer beherrschen. So kann ein Filter
abwegige Bildbeschreibungen können neue und
namens SuperZoom mittels Uprez-Verfahren niedrig
überraschende Ergebnisse erzielt werden. Es können
aufgelöste in hochaufgelöste Bilder verwandeln. Hier
auch die generierten Ergebnisse als Ausgangsbilder
können Gestalter:innen ihren Workload reduzieren
verwendet werden und so überraschende Bildfolgen
und damit ihren Workflow bereichern, weil nun auch
erzeugt werden. Auch hier sind die Resultate nicht
niedrig auflösende Bilder verfügbar werden. Andere
vorhersehbar und nur begrenzt kontrollierbar. In
Filter unterdrücken Bildrauschen, kolorieren automa-
jedem Fall macht es Spaß, diese Tools zu nutzen, und
tisch oder retuschieren Bildartefakte. Ein spezieller
sorgt für Inspiration.
Filter namens Smart Portrait lässt es zu, Porträtfotos so zu manipulieren, dass Menschen darin dann beispielsweise lächeln, obwohl sie das im Ausgangsbild nicht getan haben. Das zweite Beispiel ist im Industriedesign bereits sehr gut bekannt. Die Firma Autodesk entwickelte mit Fusion 360 376 eine Softwarelösung, die in der Formgebung assistiert, indem sie automatisiert viele
374 Replicate: „StyleClip“, https://replicate.com/orpatashnik/ styleclip (21.4.2022).
375 Adobe: „Liste von Neural Filters und FAQ“, https://helpx.adobe.com/de/ photoshop/using/neural-filters-list-and-faq.html (21.4.2022). 376 Autodesk: „Fusion 360“, https://www.autodesk.de/products/fusion-360 (21.6.2022).
Kapitel 5: Mit intelligenten Systemen gestalten – ein praktischer Einstieg
174
verschiedene 3D-Objekte generiert, die nach be-
5.4.3 Tools 3: Anwendungen ohne Coding-
stimmten Kriterien optimiert sind. So können sich
Kenntnisse gestalten
Industriedesigner:innen Varianten von beispielsweise Tischen generieren lassen, die besonders stabil oder
Experimentelle und professionelle Tools sind immer
leicht sind.
auch auf einen bestimmten Anwendungsbereich beschränkt. Oftmals möchten Designer:innen jedoch
Im dritten Beispiel unterstützt die Firma Brand-
abseits der festen Wege neues Terrain erkunden und
mark Grafikdesigner:innen in ihrem Workflow,
müssen dazu eigene intelligente Anwendungen ge-
indem sie Werkzeuge bietet, die bestimmte repetiti-
stalten. Dies heißt, sie müssen neue Wirkungsweisen
ve Designprozesse übernehmen. Mit dem AI Color
von intelligenten Systemen kennenlernen, erproben
Wheel 377 können Designer:innen beispielsweise in
und in einer spezifischen Anwendung ausformulie-
kürzester Zeit eine riesige Anzahl Farbvariationen er-
ren. Hierzu können sie Tools benutzen, die es ihnen
stellen lassen, die sie dann weiter verfeinern können.
ermöglichen, unkompliziert statistische Lernverfah-
Das Color Wheel ermöglicht Designer:innen damit,
ren auch ohne Programmierkenntnisse zu nutzen. Sie
den Möglichkeitsraum für Farbvarianten schnell und
können auf eine große Bandbreite an vortrainierten
umfassend zu erkunden, was normalerweise nur
Modelle zurückgreifen und diese dann mit den eige-
sehr mühevoll und zeitaufwendig durchzuführen
nen Daten an ihre Zwecke anpassen. Damit gewinnen
ist. Daneben bietet Brandmark das Tool Logo Rank,
Designer:innen konzeptionelle und gestalterische
das Logoentwürfe analysiert und bewertet. Das Tool
Freiheit, denn sie sind nun nicht mehr beschränkt auf
wurde mit über einer Million hochwertiger Logos
bestehende Lösungen. Hierfür wurden zwei zentrale
trainiert und vergleicht diese nun mit dem Entwurf
Softwarelösungen ausgewählt, die es erlauben, An-
der Designer:innen. Bewertet wird dieser anhand
wendungen durch No-Coding-Methoden zu entwi-
visueller Parameter wie Komposition, Klarheit und
ckeln. Die Bandbreite der zur Verfügung stehenden
Ordnung. Natürlich entscheidet dieses Tool nicht
Modelle und Verfahren variiert je nach Lösung
final über den Logoentwurf, bietet jedoch nützliche
teilweise erheblich. In vielen Fällen unterstützen die
Hilfestellungen im frühen Designprozess.
Lösungen bild-, objekt- und textbasierte Modelle, die dann auch kombiniert werden können.
Das letzte Beispiel unterstützt den Design-Workflow in der Phase des Prototypings. Die Firma
Das erste Beispiel, Teachable Machine 379, erlaubt
Vizcom 378 erlaubt mit ihrem intelligenten Werkzeug
es, ein neuronales Netzwerk mit Bildern, Livevideos
beispielsweise, Handzeichnungen in fertige Darstel-
oder Tönen zu trainieren. Die Nutzer:innen können
lungen zu übertragen. Produktstudien von Möbeln
dann entscheiden, welche Zusammenhänge das Netz-
oder Formstudien von Automobilkarosserien werden
werk lernt. So kann das Netzwerk beispielsweise
mittels GAN-System zu fertig ausgearbeiteten Ent-
trainiert werden, das Bild eines Apfels zu erkennen
würfen.
und daraufhin ein GIF abzuspielen. Es kann aber auch eine Audiodatei eines Apfelbisses für den Apfel abspielen. Teachable Machine benutzt das Verfah-
377 Brandmark: „AI Color Wheel“, https://brandmark.io/ color-wheel (21.4.2022). 378 Vizcom: „AI creative tools for artists and designers“, https://www.vizcom.co (21.4.2022).
379 Teachable Machine: „Teachable Machine“, https://teachablemachine.withgoogle.com (21.4.2022).
Kapitel 5: Mit intelligenten Systemen gestalten – ein praktischer Einstieg
175
ren des sogenannten Transfer Learning, was nichts
das von Style Transfer, Bildgenerierung und GANs
anderes bedeutet, als dass fertig trainierte neuro-
über Kolorierungstools und Objektanalyse bis hin zu
nale Netze mit einigen wenigen Beispielbildern, die
Textentwicklung reicht. Alle neuronalen Netze sind
Designer:innen zur Verfügung stellen, auch diese neu
vortrainiert, was den Vorteil hat, dass Designer:innen
gelernten Bilder gut erkennen. Der Vorteil von Tea-
schnell neue Bilder und Texte generieren können. Es
chable Machine ist also, dass die Software nur relativ
hat aber auch den Nachteil, dass alle Ergebnisse vom
wenige Trainingsbeispiele benötigt, um gut zu funk-
Training des Netzes abhängig sind und damit nur
tionieren. Der Nachteil ist, dass die Modelle oft nicht
einen bestimmten visuellen Radius erlauben. Desig-
gut übertragbar sind auf andere Nutzer:innen, weil
ner:innen müssen mit diesem Tool damit leben, dass
sie für ganz bestimmte Gesichter, Hintergründe und
sie nicht die volle Kontrolle über die Ergebnisse der
Farben gelernt haben. Die Funktionen von Teachable
Netze haben und oftmals gestalterische Lösungen nur
Machine können erweitert werden, setzen dann aber
vorläufigen Charakter haben. Das ML-Lab von Run-
Programmierkenntnisse im Programm P5.js voraus.
wayML ist in gewisser Weise also eine Art Spielwiese für Designer:innen, die es erlaubt, in wenigen Ta-
, ermöglicht es eben-
gen zu überzeugenden Ergebnissen zu kommen. Das
falls in einem einfachen Web-Interface, ein neurona-
Interface ist übersichtlich gestaltet und kann intuitiv
les Netzwerk mit eigenen Bildern zu trainieren. Das
bedient werden. Obwohl RunwayML ein gewisses
heißt auch hier, dass zwischen beliebigen visuellen
Grundwissen über intelligente Systeme voraussetzt,
Eingabedaten und Ausgabedaten ein Zusammen-
werden alle Modelle und ihre Funktionsweise in
hang trainiert werden kann. Das intelligente System
kurzen Texten und Videos erklärt und Nutzer:innen
kann dann beispielsweise erkennen, ob jemand einen
bekommen darüber hinaus auch Online-Tutorials zur
Schluck Wasser trinkt, und das als „trinken“ klassi-
Verfügung gestellt.
Das zweite Beispiel, Lobe.ai
380
fizieren. Lobe.ai vereinfacht durch das intuitive Interface stark, solche Zusammenhänge zu trainieren. Das trainierte Modell kann dann direkt genutzt oder weiterverwendet werden, etwa wenn Developer:innen das Modell in eine App integrieren. Dies ist dann im Kapitel „Tools 5“ näher ausgeführt. Das dritte und letzte Beispiel, RunwayML 381, erlaubt in seinem ML-Lab in der Desktopversion des Programms viel mehr als nur das Transfer Learning mit Bilderkennungsalgorithmen. Es stellt Designer:innen eine große Bibliothek intelligenter Systeme zur Verfügung, die sie individuell nutzen, trainieren und anpassen können. Das ML-Lab bietet ein kategorisiertes Verzeichnis der Modelle, die genutzt werden können,
380 Lobe.ai: „Train apps to identify plants“, https://www.lobe.ai (21.4.2022). 381 RunwayML: „ML Lab“, https://help.runwayml.com/hc/en-us/ categories/1500001962941-ML-Lab (21.4.2022).
Kapitel 5: Mit intelligenten Systemen gestalten – ein praktischer Einstieg
176
5.4.4 Tools 4: Intelligente Anwendungen
Eine zweite, unter Designer:innen weit weniger
selbst programmieren
verbreitete Programmiersprache ist Python. Sie wird allerdings fast ausschließlich unter Data Scientists
Wollen Designer:innen einen weiteren Grad an
verwendet, um statistische Lernverfahren von Grund
Freiheit im Umgang mit intelligenten Systemen ge-
auf zu trainieren und zu implementieren. Sie bietet
winnen, müssen sie selbst programmieren. Die Viel-
den großen Vorteil, dass viele Forschungsprojekte
falt der Programmiersprachen bietet zwei einstei-
fertigen Code in Python zur Verfügung stellen, den
ger:innenfreundliche Sprachen an, die sinnvoll für
man dann selber nutzen kann. Außerdem ist sie ver-
eigene Projekte mit Lernverfahren eingesetzt werden
ständlich und klar strukturiert. Einen einfachen Ein-
können.
stieg in Python ohne intelligente Systeme bietet das Manual „Python for Designers“ 386 des italienischen
Die erste Programmiersprache ist die Nachfolgerin
Grafikdesigners Roberto Arista. Dort werden nicht
der unter Gestalter:innen womöglich gut bekannten
nur die Elemente des Python-Codes erklärt, sondern
Sprache Processing. P5.js 382 oder kurz P5 ist die auf
es wird auch der DrawBot vorgestellt. Dieser erlaubt,
JavaScript basierende Version von Processing und er-
weil er eine spezielle Bibliothek für Visualisierung
laubt damit, selbst programmierte Anwendungen ein-
einbindet, auch visuelle Anwendungen zu program-
fach in Webbrowser einzubinden. P5 hat den Vorteil,
mieren. Ohne diese Bibliothek sind visuelle Darstel-
dass es Designer:innen eine große Menge nützlicher
lungen nicht ohne Weiteres in Python möglich. So
Befehle zur Verfügung stellt und ihnen damit erlaubt,
können sich Designer:innen schnell und einfach mit
schnell interaktiv gestalten zu können. Zu P5 gibt
den Grundlagen der Programmiersprache vertraut
es einige gute Online-Tutorials , die den Einstieg
machen. In einem zweiten Schritt können sie dann
noch einmal erleichtern. Interessant ist nun, dass P5
auch Programmcode anderer Forscher:innen und
über eine spezielle Bibliothek verfügt, die eine Reihe
Gestalter:innen nutzen, um ihn in eigene gestalteri-
von intelligenten Systemen umfasst. Die Bibliothek
sche Projekte einzubinden. Eine hilfreiche Seite ist
mit dem Namen ML5.js 384, oder kurz ML5, erlaubt es,
das Google Co-Lab , das erlaubt, Python-Code direkt
diese vortrainierten Systeme direkt in P5 einzubinden
im Browser mittels sogenannter virtueller Notebooks
und zu nutzen. So können beispielsweise Bilderken-
ausführen zu lassen. Zum einen stellen einige For-
nungsalgorithmen als Input genutzt werden, um
scher:innen und Designer:innen 388 ihre Notebooks
interessante interaktive Anwendungen zu schaffen.
direkt in Co-Lab zur Verfügung. Designer:innen kön-
ML5 erlaubt aber auch, Posen zu erkennen, und
nen den Code dann einfach nutzen und selber anpas-
verfügt über Style Transfer, GANs und sogar KNN-
sen. Zum anderen werden viele eher experimentelle
Algorithmen, die im Kapitel 2.5 genauer beschrieben
Forschungsergebnisse zu intelligenten Systemen über
sind. Auch für diese Bibliothek gibt es sehr gute
Open-Source-Bibliotheken wie GitHub oder Papers
Online-Tutorials, beispielsweise der unterhaltsame
With Code geteilt, die Designer:innen mit Python-
„Beginner’s Guide to Machine Learning with ml5.js“ 385
Kenntnissen dann in Co-Lab importieren und frei
von Dan Shiffman, der Lust machen kann, selbst zu
nutzen können.
383
programmieren. 382 P5.js: „Hello!“, https://p5js.org (21.4.2022). 383 Processing with AI: „Starting with p5.js“, https://processing-with-ai.gitlab.io/part2/programming (21.4.2022). 384 ML5: „Friendly Machine Learning for the Web“, https://ml5js.org (21.4.2022). 385 The Coding Train: „A Beginner‘s Guide to Machine Learning with ml5.js“, https://www.youtube.com/watch?v=jmznx0Q1fP0 (21.4.2022).
386 Python for Designers: „Welcome to Python for Designers“, https://pythonfordesigners.com (21.4.2022). 387 Google Research: „Willkommen bei Colaboratory“, https://colab.research.google.com (21.4.2022). 388 Kogan, Gene: „Machine Learning for Art“, https://ml4a.net (21.4.2022).
Kapitel 5: Mit intelligenten Systemen gestalten – ein praktischer Einstieg
177
5.4.5 Tools 5: Intelligente Anwendungen
Für kleinere Projekte können sich Designer:innen
interdisziplinär erarbeiten
mit Data Scientists und Developer:innen zu Miniteams zusammenschließen und bereits bestehende
Designer:innen, die in größeren Unternehmen ar-
Modelle nutzen, um neue Use-Cases zu erproben.
beiten, sind meist in agile, interdisziplinäre Teams
Sie können aber auch mit eigenen Trainingsdaten
eingebunden. Dort sind neben den Projektmana-
frei zugängliche Modelle trainieren und ganz neue
ger:innen und Scrum-Mastern auch Data Scientists
Anwendungsfälle schaffen. Für größere, komplexe
und Entwickler:innen in das Team eingebunden. Da-
kommerzielle Projekte stellt sich die Frage nach
mit eröffnen sich für die Designer:innen neue Mög-
einer schrittweisen Entwicklung neuer intelligenter
lichkeiten, gemeinsam intelligente Anwendungen zu
Anwendungen und damit nach einem Innovation
entwickeln. Sie müssen hier nicht über tiefes techni-
Framework für intelligente Produkte, die im folgen-
sches Wissen oder Programmierkenntnisse verfügen.
den letzten Kapitel beantwortet werden soll.
Sie können sich darauf verlassen, dass Data Scientists die notwendigen Daten sammeln und aufbereiten, die Modelle aussuchen und das intelligente System trainieren. Die Developer:innen binden dann auf Grundlage gestalterischer Vorgaben, wie etwa Wireframes, diese Modelle in beispielsweise eine Webanwendung ein, um letztlich einen funktionierenden Prototyp zu kreieren. Voraussetzung dafür, dass diese Zusammenarbeit gelingt, ist das Wissen der Designer:innen darüber, wie intelligente Systeme funktionieren und angewendet werden und es das Kapitel 2 darlegt. Wichtig sind aber auch Kenntnisse darüber, wie diese Systeme eine Intelligence Experience erzeugen, wie dies in Kapitel 3 beschrieben wurde. Nur so kann das Team sicherstellen, dass ein wirklicher konzeptioneller Austausch stattfinden kann. Designer:innen sollten, wie bei allen Projekten, von Beginn an in das Projekt einbezogen werden. Das Simplification Team von Strichpunkt aus der Case Study im Kapitel 4 beispielsweise tauschte sich schon früh untereinander aus. So verstand der Informatiker Andreas Stiegler das Problem besser, Designregeln in einen Algorithmus zu übersetzen, und die Gestalter:innen wurden mit algorithmischem Denken vertraut gemacht.
Kapitel 5: Mit intelligenten Systemen gestalten – ein praktischer Einstieg
178
5.5 Floom: Ein visuelles, interaktives Innovation
Möchten Designer:innen intelligente Anwendungen
Framework für nutzer:innenzentriertes Machine
und Produkte selbst entwickeln, stehen viele von
Learning in interdisziplinären Teams
ihnen vor dem Problem, dass sie es mit einer komplexen interdisziplinären Aufgabe zu tun haben.
Autoren:
Denn wenn sie nicht das Wissen und die Fähigkeiten
Niclas Bauermeister (MHP)
haben, selbst Daten zu akquirieren, Modelle zu trai-
Marcel Tobien (MHP)
nieren und diese dann in eine App oder eine Website
Sebastian Löwe (MD.H)
einzubinden, dann müssen sie mit Data Scientists, Developer:innen und Businessexpert:innen in einem Team zusammenarbeiten. Diese Teams arbeiten in modernen Unternehmen und Beratungen meist agil und bestehen daher noch zusätzlich aus einem Project-Owner und einem Scrum-Master. Spätestens in diesen agilen Teams müssen Designer:innen mit vielen unterschiedlichen Rollen interagieren und Schnittstellenwissen besitzen, um effizient zu kommunizieren und gemeinsam nützliche und erfolgreiche intelligente Anwendungen zu schaffen. Bisher konnten Innovationsteams bei der Entwicklung von digitalen Produkten auf verschiedene klassische und agile Innovationsmethoden und -prozesse zurückgreifen. Allerdings ist es überraschend, dass trotz der Vielzahl an Methoden und Prozessen noch keine disziplinenübergreifenden Produktentwicklungsprozesse in einem ganzheitlichen Innovation Framework definiert wurden. Für intelligente Produkte gibt es sogar überhaupt kein entsprechendes Framework. Dort, wo diese Frameworks skizziert wurden, schaffen sie oft nicht den Übergang von der theoretischen Reflexion in ein konkret anwendbares und für die unternehmenseigenen Arbeitsabläufe adaptierbares Framework. Oftmals arbeiten Teams trotz ihrer interdisziplinären Zusammensetzung auch noch in einzelnen voneinander getrennten Silos, also voneinander getrennten Kompetenzbereichen. Entsprechend fehlen in den Innovationsprozessen der gegenseitige
Kapitel 5: Mit intelligenten Systemen gestalten – ein praktischer Einstieg
179
Austausch, die gemeinsame Synchronisation und der
Projektablauf insgesamt werden dadurch schlechter
Wissenstransfer über die eigene Fachrichtung hinaus.
nachvollziehbar und an die Teammitglieder kom-
Innovationsprozesse werden viel zu häufig nicht
munizierbar. Damit können die Erwartungen an die
bereichsübergreifend konzipiert und durchgeführt.
Teammitglieder in Bezug auf Umfang und Dauer der
So können mögliche Optimierungspotenziale nicht
jeweiligen Aufgaben schlechter abgeschätzt werden
ausgeschöpft werden, da sie in einzelnen Fachrich-
und entsprechend unrealistisch formuliert sein.
tungen untergehen oder nur in den jeweiligen Silos optimiert werden. Implikationen und Synergieeffekte
Es fehlt oft auch ein gemeinsames Grundlagen-
für andere Fachbereiche, die im Innovationsprozess
wissen, denn jede Fachrichtung erarbeitet und teilt
beteiligt sind, können so ebenfalls nicht berücksich-
eigene Ressourcen nur in den Silos ihrer jeweiligen
tigt werden.
Disziplin. Wiederkehrende Projektschritte und gemeinsam genutzte Ressourcen wie Personas und
Durch die bestehende Silostruktur in Innova-
User Journeys sollten vom gesamten Team erarbei-
tionsprozessen werden oft auch zentrale Vorgänge,
tet werden, um eine nahtlose Zusammenarbeit zu
wie etwa die Problemfindung und -definition, auf
ermöglichen. Insgesamt fühlt sich die Projektarbeit
einzelne Fachrichtungen verteilt, nach dem Motto:
daher sehr technisch und wenig kreativ gestaltbar an.
„Die Designer:innen machen das dann schon.“ Prob-
Hinzu kommt, dass durch fehlende Transparenz
lemlösungen werden häufig fachspezifisch definiert
aktuelle Arbeitsstände und Projektfortschritte vor
und nicht aus allen Fachrichtungen gemeinsam ent-
Stakeholdern nur mit erheblichem zusätzlichem
wickelt. Entsprechend insular ist das grundlegende
Zeitaufwand präsentiert werden können. Zeitaufwen-
Methodenwissen der Teammitglieder in Bezug auf
dig und kompliziert ist es auch, neue Mitglieder ins
Design-Thinking-Methoden, nutzer:innenzentrierte
Projekt einzuarbeiten.
Methoden oder gemeinsam definierte und etablierte Designprinzipien. Diese sind jedoch Ausdruck einer
Aus Sicht des Teamgefühls und -zusammenhalts
nutzer:innenzentrierten Gesamtsicht- und -arbeits-
wird deutlich, dass sie nicht aus der gemeinsamen
weise und sollten von allen Mitgliedern gekannt und
vernetzten Arbeit entstehen können, sondern durch
geteilt sein.
zwischenmenschliches Engagement der Mitglieder untereinander hergestellt werden müssen. Fehler
Insgesamt fehlt also ein gemeinsam geteilter
oder Rückschläge werden zudem nicht als Team
Arbeitsbereich für interdisziplinäre, agile Innova-
abgefangen, sondern auf einzelne Fachrichtungen
tionsprozesse, noch dazu für intelligente Produkte.
abgeschoben, was wiederum negativ auf das gesamte
Dies hat Konsequenzen für die Transparenz von
Teamgefühl wirkt. Zudem werden Teams oft nicht
Projektablauf und -ressourcen und für die Frage,
aus Expert:innen der verschiedenen beteiligten Fach-
wie man erarbeitetes Projektwissen teilen kann.
richtungen zusammengestellt.
In puncto Transparenz fehlt durch die Silostruktur des Innovationsprozesses eine gemeinsame
Durch dieses kurze Schlaglicht auf die reale Praxis
Wissensbasis bezüglich der Anforderungen an die
interdisziplinärer Innovationsprozesse ist deutlich
Teams und ihre konkreten Arbeitspakete. Einzelne
geworden, dass es einen dringenden Innovations-
Entscheidungen der Teammitglieder, aber auch der
bedarf dieser Prozesse selbst gibt. Wir haben daher
Kapitel 5: Mit intelligenten Systemen gestalten – ein praktischer Einstieg
180
Abb. 5.1: Detailansicht des interaktiven Innovation Frameworks
mit der Beratungsfirma MHP – A Porsche Company
führt dann sehr konkret durch alle Schritte, die
ein ganzheitliches Innovation Framework konzipiert,
notwendig sind, um die Idee in einem interdiszipli-
entworfen und iterativ ausgearbeitet, das die oben
nären, agilen Team umzusetzen. Das Framework ist
genannten Defizite behebt. Da es als interaktives vi-
als interaktives grafisches Framework konzipiert, das
suelles Framework den Innovationsprozess, den Flow,
entweder so genutzt werden kann, wie wir es für den
durch eine Reihe wichtiger Stationen und Räume
Beratungskontext entwickelt haben. Es ist gleichzei-
begleitet, firmiert es unter dem Namen Floom, ein
tig als Baukastensystem konzipiert und kann auch auf
Akronym aus Flow und Room.
andere Kontexte übertragen und adaptiert werden. Alle Teammitglieder werden als Avatare grafisch re-
Floom konzentriert sich auf Innovationsprojekte
präsentiert und interaktiv durch den Innovationspro-
für intelligente Produkte und Anwendungen mit
zess geführt. Der Prozess selbst ist als Reihe von auf-
Kund:innen im Beratungskontext, kann aber auch auf
einanderfolgenden Räumen konzipiert, durch die sich
unternehmensinterne Innovationsprozesse angepasst
die Avatare hindurchbewegen. So ist immer für jeden
werden. Es setzt innovationsstrategische Überlegun-
intuitiv ersichtlich, wo sich die jeweiligen Team-
gen, wie sie in Kapitel 3.4.5 angesprochen wurden,
mitglieder befinden und welche Aufgabe sie gerade
bereits voraus, beantwortet also grundlegende stra-
bearbeiten. Jede Disziplin im Team – Designer:innen,
tegische Fragen nicht. Es geht von einer bestehenden
Entwickler:innen, Data Scientists, Businessexpert:in-
Innovationsidee aus, die ein konkretes Anwendungs-
nen, Project-Owner und Scrum-Master – ist farblich
gebiet für intelligente Systeme formuliert. Diese so-
kodiert und folgt ihrer Farbe; gemeinsame Arbeits-
genannte Business-Hypothese der Kund:innen wird
aufgaben als Gesamtteam sind besonders gekenn-
dann geprüft, ob und wie sie umsetzbar ist. Floom
zeichnet und finden in Gruppenräumen statt. Jeder
Kapitel 5: Mit intelligenten Systemen gestalten – ein praktischer Einstieg
181
Raum hat spezielle Aufgabenstellungen, die erfüllt
Floom kann auf www.designundki.de herunterge-
werden sollten, bevor die Avatare fortfahren kön-
laden und genutzt werden. Dort findet sich auch eine
nen. Zusätzlich zu den Aufgaben bekommt das Team
Liste weiterer hilfreicher Ressourcen und Anwen-
Hilfestellungen mit weiterführenden Quellen und
dungen für den Start in das Thema Design mit und
Lösungsanforderungen, um das Wissen aller Fach-
für intelligente Systeme.
kompetenzen zu nutzen. Alle Ergebnisse werden auf interaktiven Whiteboards in den Räumen erarbeitet und festgehalten. Besonders wichtige Ergebnisse, die den Charakter einer Arbeitsvoraussetzung für andere Mitglieder haben, werden durch Floom verlässlich geteilt. Auch gemeinsames Wissen und methodische Grundlagen wie Design Thinking können so im gesamten Team zirkulieren. Die Arbeitsergebnisse der einzelnen Phasen werden damit für das ganze Team zu einer einzigen „Source of Truth“, also einer gemeinsamen Arbeits- und Wissensbasis über alle Phasen des Frameworks hinweg. Durch den Aufbau der Räume ist der Projektablauf in klare Phasen eingeteilt und damit inhaltlich gut strukturiert. Durch die deutlich definierten Aufgabenbereiche und Verantwortlichkeiten wird der komplexe Prozess insgesamt übersichtlicher und transparenter. Einzelne Entscheidungen der Mitglieder werden nachvollziehbar und das interdisziplinäre Verständnis wird insgesamt gefördert. Scrum-Master nutzen Floom als Orientierung und Hilfestellung, um das Projektgeschehen transparenter zu gestalten, interne Kommunikation und Wissenstransfer zu fördern und damit eine positive, produktive Teamdynamik zu erzeugen. Project-Owner als Gesamtverantwortliche für das Produkt stellen mit Floom sicher, dass die richtigen Prioritäten gesetzt sind, verwalten den Project-Backlog und halten mit dem Team die Product-Vision fest. Zudem hilft das Framework, Projektergebnisse relevanten Stakeholdern zu kommunizieren und Vorgehensweisen des Teams zu begründen.
Literaturverzeichnis
Literaturverzeichnis
Adlin, Tamara/Pruitt, John: The Essential Persona Lifecycle. Your Guide to Building and Using Personas, Burlington: Elsevier 2010. Adobe: „Liste von Neural Filters und FAQ“, https://helpx.adobe.com/de/photoshop/using/neural-filters-list-and-faq.html. Adobe: „Neural Filters overview“, https://helpx.adobe.com/photoshop/using/neural-filters.html. Adobe: „The 3D generation is here“, https://www.adobe.com/products/substance3d/3d-augmented-reality.html Adobe Creative Cloud: „#ConceptCanvas. Adobe MAX 2016“, https://www.youtube.com/watch?v=Yyj6oWkAI0I. Affectiva: „Affectiva Media Analytics for Ad Testing“, https://www.affectiva.com/product/affectiva-media-analytics-for-ad-testing. Aggarwal, Charu: Data Mining. The Textbook, Cham: Springer International Switzerland 2015. Ajitsaria, Abhinav: „Build a Recommendation Engine With Collaborative Filtering. Real Python“, https://realpython.com/build-recommendation-engine-collaborativefiltering. Alarcon, Nefi: „NVIDIA Invents AI Interactive Graphics“, https://developer.nvidia.com/blog/nvidia-invents-ai-interactive-graphics. AlBahar, Badour/Lu, Jingwan/Yang, Jimei et al.: „Pose with Style: Detail-Preserving Pose-Guided Image Synthesis with Conditional StyleGAN“, https://arxiv.org/abs/2109.06166. Algorithmic Justice League: „Research“, https://www.ajl.org. Alibaba Luban: „AI-based Graphic Design Tool“, https://www.alibabacloud.com/blog/alibaba-luban-ai-based-graphic-designtool_594294. Alpaydin, Ethem: Machine Learning, Cambridge: MIT Press 2016. An, Jisun/Kwak, Haewoon/Jung, Soon-gyo et al.: „Customer segmentation using online platforms: isolating behavioral and demographic segments for persona creation via aggregated user data“, Social Network Analysis and Mining 8 (2018). Anger, Gerhard: „Drop That Intelligence and Get on with It!“, in: Engenhart, Marc/ Loewe, Sebastian (Hrsg.): Proceedings of the First Conference on Designing with Artificial Intelligence, München: appliedAI 2021, S. 64–69. Angwin, Julia/Larson, Jeff/Mattu, Surya et al.: „Machine Bias“, https://www.propublica.org/article/machine-bias-risk-assessments-in-criminalsentencing. Antipov, Grigory/Baccouche, Moez/Dugelay, Jean-Luc: „Face Aging With Conditional Generative Adversarial Networks“, https://arxiv.org/abs/1702.01983.
183
Literaturverzeichnis
Apple Developer: „Human Interface Guidelines. Machine Learning“, https://developer.apple.com/design/human-interface-guidelines/machine-learning/ overview/introduction. Applied AI: „Ethical use of AI“, https://www.appliedai.de/hub/ethical-use-of-ai. Audi: „UX Paradigms“, https://www.audi.com/ci/en/guides/user-interface/ ux-paradigms.html. Autodesk: „Fusion 360“, https://www.autodesk.de/products/fusion-360. Autodesk: „Überblick“, https://www.autodesk.de/solutions/bim. Autodesk: „Under Armour. Changing the game with generative design and additive manufacturing“, https://fom.autodesk.com/customer-innovation-spotlight/p/8. Bauer, Harald/Richter, Gérard/Wüllenweber, Jan et al.: „Smartening up with Artificial Intelligence. What’s in it for Germany and its Industrial Sector?“, https://www.mckinsey.com/~/media/mckinsey/industries/semiconductors/ our%20insights/smartening%20up%20with%20artificial%20intelligence/ smartening-up-with-artificial-intelligence.ashx. Bauhauslabor: „OTFG“, https://otf.bauhauslabor.de/#/generate. Bernal, Guillermo/Zhou, Lily/Yuen, Erica et al.: „Paper Dreams: Real-Time Human and Machine Collaboration for Visual Story Development“, https://www.media.mit.edu/ publications/real-time-human-and-machine-collaboration-for-visual-story-development. Bertoni, Alessandro/Hallstedt, Sophie/Dasari, Siva et al.: „Integration of value and sustainability assessment in design space exploration by machine learning: an aerospace application“, https://doi.org/10.1017/dsj.2019.29. Betancourt, Michel: Force Magnifier. The Cultural Impacts of Artificial Intelligence, Cabin John: Wild Side Press 2020. Bodegraven, Joël van: „How Anticipatory Design Will Challenge Our Relationship with Technology“, https://www.aaai.org/ocs/index.php/SSS/SSS17/paper/ viewFile/15352/14582. Boden, Margaret: AI. Its Nature and Future, Oxford: Oxford University Press 2016. Böhm, Markus: „Google trennt sich von KI-Forscherin. ‚Das Ausmaß der Respektlosigkeit ist unglaublich‘“, https://www.spiegel.de/netzwelt/web/google-warum-ist-kiforscherin-timnit-gebru-nicht-mehr-im-unternehmen-a-79c1daba-caf1-4d7e-b0196389274c9409. Bostrom, Nick: Superintelligence: Paths, Dangers, Strategies, Oxford: Oxford University Press 2014. Bramer, Max: Principles of Data Mining, London: Springer-Verlag 2016. Brandmark: „AI Color Wheel“, https://brandmark.io/color-wheel.
184
Literaturverzeichnis
Breland, Ali: „How white engineers built racist code – and why it‘s dangerous for black people“, https://www.theguardian.com/technology/2017/dec/04/ racist-facial-recognition-white-coders-black-people-police. Breuer, Klaus: Computerspiele programmieren. Künstliche Intelligenz für künstliche Gehirne, München: Oldenbourg 2012. Bröckling, Ulrich: „Über Kreativität. Ein Brainstorming“, in: Menke, Christoph/Rebentisch, Juliane (Hrsg.): Kreation und Depression. Freiheit im gegenwärtigen Kapitalismus, Berlin: Kadmos 2010, S. 89–97. Brown, Tom/Mann, Benjamin/Ryder, Nick et al.: „Language Models are Few-Shot Learners“, https://arxiv.org/abs/2005.14165. Brownlee, Jason: „Understand the Impact of Learning Rate on Neural Network Performance“, https://machinelearningmastery.com/understand-the-dynamics-of-learningrate-on-deep-learning-neural-networks. Bughin, Jacques/Seong, Jeongmin/Manyika, James et al.: „Notes from the AI frontier: Modeling the impact of AI on the world economy“, https://www.mckinsey.com/~/ media/McKinsey/Featured%20Insights/Artificial%20Intelligence/ Notes%20from%20the%20frontier%20Modeling%20the%20impact%20of%20AI%20 on%20the%20world%20economy/MGI-Notes-from-the-AI-frontier-Modeling-the-impact-of-AI-on-the-world-economy-September-2018.pdf. Buolamwini, Joy/Gebru, Timnit: „Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification“, Proceedings of Machine Learning Research 81 (2018), S. 77–91. Buranyi, Stephen: „Rise of the racist robots – how AI is learning all our worst impulses“, https://www.theguardian.com/inequality/2017/aug/08/rise-of-the-racist-robots-howai-is-learning-all-our-worst-impulses. Bürdek, Bernhard: Design Geschichte, Theorie und Praxis der Gestaltung, Basel: Birkhäuser 2015. Burkov, Andriy: The Hundred-Page Machine Learning Book, Eigenpublikation 2019. Burnap, Alexander/Hartley, Jeffrey/Pan, Yanxin et al.: „Balancing design freedom and brand recognition in the evolution of automotive brand styling“, https://doi.org/10.1017/ dsj.2016.9. Camburn, Bradley/Arlitt, Ryan/Anderson, David et al.: „Computer-aided mind map generation via crowdsourcing and machine learning“, Research in Engineering Design 31 (2020), S. 383–409. Camburn, Bradley/He, Yuejun/Raviselvam, Sujithra et al.: „Evaluating Crowdsourced Design Concepts With Machine Learning“, https://doi.org/10.1115/DETC2019-97285. Cartwright, Amber: „Invisible Design: Co-designing with machines“, https://medium.com/swlh/invisible-design-co-designing-with-machines-aea62a1e0f6d.
185
Literaturverzeichnis
Chao, Yu-Wei/Yang, Jimei/Chen, Weifeng et al.: „Learning to Sit. Synthesizing Human-Chair Interactions via Hierarchical Control“, https://arxiv.org/abs/1908.07423. Chen, Chun-Fu/Pistoia, Marco/Shi, Conglei et al.: „UI X-Ray: Interactive Mobile UI Testing Based on Computer Vision“, https://dl.acm.org/doi/10.1145/3025171.3025190. Chen, Jieshan/Chen, Chunyang/Xing, Zhenchang et al.: „Wireframe-Based UI Design Search Through Image Autoencoder“, https://arxiv.org/abs/2103.07085. Chen, Shizhe/Liu, Bei/Fu, Jianlong et al.: „Neural Storyboard Artist: Visualizing Stories with Coherent Image Sequences“, https://dl.acm.org/doi/10.1145/3343031.3350571. Chen, Shu-Yu/Su, Wanchao/Gao, Lin et al.: „DeepFaceDrawing: Deep Generation of Face Images from Sketches“, http://geometrylearning.com/DeepFaceDrawing. Choi, Yunjey/Uh, Youngjung/Yoo, Jaejun et al: „StarGAN v2: Diverse Image Synthesis for Multiple Domains“, https://github.com/clovaai/stargan-v2. Churchill, Elizabeth/van Allen, Philip/Kuniavsky, Mike: „Special Topic: Designing AI. Introduction“, https://interactions.acm.org/archive/view/november-december-2018/ introduction19. Cinelytic: „Leading the AI Revolution in the Entertainment Industry“, https://www.cinelytic.com/about. Cole, Samantha: „Deepfake of Boris Johnson Wants to Warn You About Deepfakes“, https://www.vice.com/en/article/8xwjkp/deepfake-of-boris-johnson-wants-towarn-you-about-deepfakes. Crawford, Kate: Atlas of AI, New Haven: Yale University Press 2021. Cubic Motion: „Siren“, https://cubicmotion.com/case-studies/siren. Cuthbertson, Anthony: „Elon Musk claims AI will overtake humans in less than five years“, https://www.independent.co.uk/life-style/gadgets-and-tech/news/elon-muskartificial-intelligence-ai-singularity-a9640196.html. D’Arco, Mario/Lo Presti, Letizia/Marino, Vittoria et al.: Embracing AI and Big Data in customer journey mapping. From literature review to a theoretical framework, Innovative Marketing, 15 (2019), S. 102¬–115. Daugherty, Paul/Wilson, James: Human + Machine. Reimagining Work in the Age of AI, Boston: Harvard Business Review Press 2018. Daumé, Hal: A Course in Machine Learning, Eigenpublikation 2017. Deshpande, Adit: „A Beginner‘s Guide To Understanding Convolutional Neural Networks“, https://adeshpande3.github.io/adeshpande3.github.io/ A-Beginner‘s-Guide-To-Understanding-Convolutional-Neural-Networks. Diagne, Cyril: „Runway Palette“, https://experiments.withgoogle.com/ business-of-fashion.
186
Literaturverzeichnis
Digital Blue Foam: „Synthetic Machine Learning: Real-time Spatial Daylight Autonomy Prediction“, https://www.digitalbluefoam.com/whitepapers/daylight-autonomy. Disney Research: „Anyma“, https://studios.disneyresearch.com/anyma. Disney Research: „Medusa“, https://studios.disneyresearch.com/medusa. Dory, Mike/DelliCarpini, Mindy: „Simulating Intelligence. Techniques for prototyping machine learning systems across products and features“, https://design.google/ library/simulating-intelligence. Dudley, John/Kristensson, Per Ola: „A Review of User Interface Design for Interactive Machine Learning“, https://dl.acm.org/doi/10.1145/3185517. Epley, Nicholas/Waytz, Adam/Cacioppo, John: „On seeing human: a three-factor theory of anthropomorphism“, https://pubmed.ncbi.nlm.nih.gov/17907867. Erlhoff, Michael/Marshall, Tim: „Design-Kompetenz“, in: Erlhoff, Michael/Marshall, Tim (Hrsg.): Wörterbuch Design. Begriffliche Perspektiven des Design, Basel: Birkhäuser Verlag 2008, S. 28–33. Ertel, Wolfgang: Introduction to Artificial Intelligence, London: Springer-Verlag 2017. Ethics For Designers: „Design needs ethics“, https://www.ethicsfordesigners.com. Europäische Kommission: „Neue Vorschriften für künstliche Intelligenz – Fragen und Antworten“, https://ec.europa.eu/commission/presscorner/detail/de/QANDA_21_1683. Experiments with Google: „Runway Palette“, https://experiments.withgoogle.com/ business-of-fashion. EyeQuant: „The future is here. Data driven design“, https://www.eyequant.com. Facebook AI: „Inside the Lab: Building for the metaverse with AI“, https://fb.watch/bmXJ194H08. Feldman Barrett, Lisa/Adolphs, Ralph/Marsella, Stacy et al.: „Emotional expressions reconsidered: Challenges to inferring emotion from human facial movements“, https://journals.sagepub.com/doi/full/10.1177/1529100619832930. Fiebrink, Rebecca: „How Design Changes Machine Learning. How Machine Learning Changes Design“, in: Engenhart, Marc/Loewe, Sebastian (Hrsg.): Proceedings of the First Conference on Designing with Artificial Intelligence, München: appliedAI 2021. Fokken, Silke: „Neuer Ärger um Abschlussnoten – und Belege für Noteninflation“, https://www.spiegel.de/panorama/bildung/corona-in-grossbritannien-neueraerger-um-abschlussnoten-und-belege-fuer-noteninflation-a-4eddf750-d51e488e-a8e8-d10cdcc3bcf1. Fontjoy: „Projector“, https://fontjoy.com/projector. Ford, Kenneth/Hayes, Patrick/Glymour, Clark: „Cognitive Orthoses: Toward HumanCentered AI“, https://ojs.aaai.org/index.php/aimagazine/article/view/2629. Fosco, Camilo/Casser, Vincent/Bedi, Amish Kumar et al.: „Predicting Visual Importance Across Graphic Design Types“, http://predimportance.mit.edu.
187
Literaturverzeichnis
Foster, George: „That‘s Not Bruce Willis In A Russian Phone Commercial, That‘s Another Deepfake“, https://www.thegamer.com/bruce-willis-deepfake. Frost, Brad: Atomic Design, Pittsburgh: Brad Frost Web 2016. Galeon, Dom: „Softbank CEO: The Singularity Will Happen by 2047“, https://futurism.com/softbank-ceo-the-singularity-will-happen-by-2047. Garcia-Dorado, Ignacio/Getreuer, Pascal/Le, Madison et al.: „Graphic Narrative with Interactive Stylization Design“, https://arxiv.org/abs/1712.06654. Gatys, Leon/Ecker, Alexander/Bethge, Matthias: „A Neural Algorithm of Artistic Style“, https://arxiv.org/abs/1508.06576. Georgiev, Georgi/Georgiev, Danko: „Enhancing user creativity: Semantic measures for idea generation“, Knowledge-Based Systems 151 (2018), S. 1–15. Gerstner, Karl: Programme entwerfen, Teufen: Niggli 1963. Gillies, Marco/Fiebrink, Rebecca/Tanaka, Atau et al.: „Human-Centred Machine Learning“, https://dl.acm.org/doi/10.1145/2851581.2856492. Gisslén, Linus/Eakins, Andy/Gordillo, Camilo: „Adversarial Reinforcement Learning for Procedural Content Generation“, https://arxiv.org/abs/2103.04847. Godau, Marion: „Design-Kompetenz“, in: Erlhoff, Michael/Marshall, Tim (Hrsg.): Wörterbuch Design. Begriffliche Perspektiven des Design, Basel: Birkhäuser Verlag 2008, S. 94–96. Goodfellow, Ian/Bengio, Yoshua/Courville, Aaron: Deep Learning, Cambridge: MIT Press 2016. Goodfellow, Ian/Pouget-Abadie, Jean/Mirza, Mehdi et al.: „Generative Adversarial Nets“, https://arxiv.org/abs/1406.2661. Google Developers: „Fairness: Types of Bias“, https://developers.google.com/ machine-learning/crash-course/fairness/types-of-bias. Google People and AI Research: „What-If Tool“, https://pair-code.github.io/ what-if-tool. Google People and AI Research: „Hidden Bias“, https://pair.withgoogle.com/ explorables/hidden-bias. Google People and AI Research: „People + AI Guidebook“, https://pair.withgoogle.com/ guidebook. Google Research: „Willkommen bei Colaboratory“, https://colab.research.google.com. GPT-3: „A robot wrote this entire article. Are you scared yet, human?“, https://www.theguardian.com/commentisfree/2020/sep/08/robot-wrotethis-article-gpt-3.
188
Literaturverzeichnis
Graves, Alex/Wayne, Greg/Reynolds, Malcolm et al.: „Hybrid computing using a neural network with dynamic external memory“, https://www.nature.com/articles/nature20101. Grover, Prince: „Various Implementations of Collaborative Filtering“, https://towardsdatascience.com/various-implementations-of-collaborativefiltering-100385c6dfe0. Gründel, Marleen: „So macht Künstliche Intelligenz Unternehmen profitabler“, https://www.manager-magazin.de/unternehmen/kuenstliche-intelligenz-machtunternehmen-laut-zew-studie-profitabler-und-innovativer-a-f7bb26a6-0d4e4954-aea7-9f0e342c2435. Gryaditskaya, Yulia/Hähnlein, Felix/Liu, Chenxi et al.: „Lifting freehand concept sketches into 3D“, https://dl.acm.org/doi/10.1145/3414685.3417851. Guo, Mengxi/Huang, Danqing/Xie, Xiaodong: „The Layout Generation Algorithm of Graphic Design Based on Transformer-CVAE“, https://arxiv.org/abs/2110.06794. Gupta, Prashant: „Decision Trees in Machine Learning“, https://towardsdatascience.com/ decision-trees-in-machine-learning-641b9c4e8052. Hamilton, Mark/Fu, Stephanie/Lu Mindren et al.: „MosAIc: Finding Artistic Connections across Culture with Conditional Image Retrieval“, https://microsoft.github.io/art/app. Hartmann, Philipp/Liebl, Andreas/Waldmann, Alexander et al.: „Applying AI. The elements of a comprehensive AI strategy“, https://www.appliedai.de/hub/elements-ofa-comprehensive-ai-strategy. Hassenzahl, Marc: „User experience (UX): towards an experiential perspective on product quality“, https://dl.acm.org/doi/10.1145/1512714.1512717. He, Kaiming/Gkioxari, Georgia/Dollár, Piotr et al.: „Mask R-CNN“, https://ieeexplore.ieee.org/document/8237584. He, Zecheng/Sunkara, Srinivas/Zang, Xiaoxue et al.: „ActionBert: Leveraging User Actions for Semantic Understanding of User Interfaces“, https://arxiv.org/abs/2012.12350. Hebron, Patrick: Machine Learning for Designers, Boston: O’Reilly Media 2016. Hellström, Thomas/Dignum, Virginia/Bensch, Suna: „Bias in Machine Learning – What is it Good for?“, http://ceur-ws.org/Vol-2659. Hertzmann, Aaron: „Computers Do Not Make Art, People Do“, Communications of the ACM, 63 (2020), S. 45–48. Hochreiter, Sepp/Schmidhuber, Jürgen: „Long Short-Term Memory“, https://doi.org/10.1162/neco.1997.9.8.1735. Hochschule Mainz: „KI-Verbundvorhaben“, https://www.hs-mainz.de/news/ ki-verbundvorhaben. Holden, Daniel/Komura, Taku/Saito, Jun: „Phase-functioned neural networks for character control“, https://dl.acm.org/doi/10.1145/3072959.3073663.
189
Literaturverzeichnis
Howard, Thomas.J./Culley, Stephen.J./Dekoninck, Elies: „Describing the creative design process by the integration of engineering design and cognitive psychology literature“, https://www.sciencedirect.com/science/article/pii/S0142694X08000173. Hsiao, Wei-Lin/Katsman, Isay/Wu, Chao-Yuan et al.: „Fashion++: Minimal Edits for Outfit Improvement“, https://ai.facebook.com/blog/building-ai-to-inform-peoples-fashionchoice. Hulten, Geoff: Building Intelligent Systems. A Guide to Machine Learning Engineering, New York City: Apress 2018. IBM: „Design for AI“, https://www.ibm.com/design/ai. IBM: „What is social media analytics?“, https://www.ibm.com/topics/social-mediaanalytics. IDEO: „Fontmap“, http://fontmap.ideo.com. IEEE: „Ethically Aligned Design“, https://ethicsinaction.ieee.org. Igual, Laura/Seguí, Santi: Introduction to Data Science, Cham: Springer 2017. Isola, Phillip/Zhu, Jun-Yan/Efros, Alexei et al.: „Image-to-Image Translation with Conditional Adversarial Networks“, https://arxiv.org/abs/1611.07004. Jali Research: „Rule Based AI + Animation Principles + Human Insight“, http://jaliresearch.com. James, Gareth/Witten, Daniela/Hastie, Trevor et al.: An Introduction to Statistical Learning, New York: Springer Science+Business Media 2017. Jansen, Bernard/Salminen, Joni/Jung, Soon-gyo et al.: Data-driven Personas, San Rafael: Morgan and Claypool 2021. Jiang, Shuhui/Wang, Zhaowen/Hertzmann, Aaron: „Visual Font Pairing“, https://arxiv.org/abs/1811.08015. Karimi, Pegah/Davis, Nicholas/Maher, Mary Lou et al.: „Relating Cognitive Models of Design Creativity to the Similarity of Sketches Generated by an AI Partner“, in: Dow, Steven/Maher, Mary Lou (Hrsg.): Proceedings of the 2019 ACM Conference on Creativity and Cognition, Association for Computing Machinery, New York: Association for Computing Machinery 2019, S. 259–270. Karras, Tero/Aittala, Miika/Hellsten, Janne et al.: „Training Generative Adversarial Networks with Limited Data“, https://arxiv.org/abs/2006.06676. Karras, Tero/Aittala, Miika/Laine, Samuli et al.: „Alias-Free Generative Adversarial Networks (StyleGAN3)“, https://nvlabs.github.io/stylegan3. Kaspar, Alexandre/Oh, Tae-Hyun/Makatura, Liane et al: „Neural Inverse Knitting: From Images to Manufacturing Instructions“, http://deepknitting.csail.mit.edu. Kaspar, Alexandre/Wu, Kui/Luo, Yiyue et al.: „Knit sketching: from cut & sew patterns to machine-knit garments“, https://dl.acm.org/doi/10.1145/3450626.3459752.
190
Literaturverzeichnis
Khan, Inayat/Khusro, Shah: „Towards the Design of Context-Aware Adaptive User Interfaces to Minimize Drivers’ Distractions“, https://doi.org/10.1155/2020/8858886. Kima, Jingoog/Mahera, Mary Lou/Siddiquia, Safat: „Studying the Impact of AI-based Inspiration on Human Ideation in a Co-Creative Design System“, http://ceur-ws.org/ Vol-2903/IUI21WS-HAIGEN-7.pdf. KISD: „KI greifbar machen und begreifen“, https://kisd.de/projects/ki-greifbar-machenund-begreifen-technologie-und-gesellschaft-verbinden-durch-gestaltung-kitegg. Kleineberg, Marian/Fey, Matthias/Weichert, Frank: „Adversarial Generation of Continuous Implicit Shape Representations“, https://github.com/marian42/shapegan. Koch, Janin: „Design implications for Designing with a Collaborative AI“, https://research.aalto.fi/en/publications/design-implications-for-designing-with-acollaborative-ai. Kogan, Gene: „Machine Learning for Art“, https://ml4a.net. Krening, Samantha/Feigh, Karen: „Interaction Algorithm Effect on Human Experience with Reinforcement Learning“, https://dl.acm.org/doi/10.1145/3277904. Krizhevsky, Alex/Sutskever, Ilya/Hinton, Geoffrey: „ImageNet classification with deep convolutional neural networks“, https://doi.org/10.1145/3065386. Kubat, Miroslav: An Introduction to Machine Learning, London: Springer-Verlag 2017. Kuckartz, Udo/Rädiker, Stefan/Ebert, Thomas et al.: Statistik. Eine verständliche Einführung, Wiesbaden: VS Verlag 2010. Kurzweil, Ray: The Singularity Is Near, New York: Penguin Random House 2006. Kuznetsov, Alexandr/Mullia, Krishna/Xu, Zexiang: „NeuMIP: Multi-Resolution Neural Materials“, https://arxiv.org/abs/2104.02789. Laine, Samuli/Karras, Tero/Lehtinen, Jaakko et al.: „High-Quality Self-Supervised Deep Image Denoising“, https://arxiv.org/abs/1901.10277. Leake, Mackenzie/Davis, Abe/Truong, Anh et al.: „Computational video editing for dialogue-driven scenes“, https://dl.acm.org/doi/10.1145/3072959.3073653. LeCun, Yann/Misra, Ishan: „Self-supervised learning: The dark matter of intelligence“, https://ai.facebook.com/blog/self-supervised-learning-the-dark-matter-of-intelligence. Lewrick, Michael/Leifer, Larry/Link, Patrick: Das Design Thinking Playbook, München: Vahlen 2017. Lewrick, Michael/Leifer, Larry/Link, Patrick: Design Thinking Toolbox, Hoboken: Wiley 2020. Li, Jianan/Yang, Jimei/Zhang, Jianming et al.: „Attribute-Conditioned Layout GAN for Automatic Graphic Design“, IEEE Transactions on Visualization and Computer Graphics 27 (2021), S. 4039–4048.
191
Literaturverzeichnis
Ling, Huan/Kreis, Karsten/Fidler, Sanja et al.: „EditGAN: High-Precision Semantic Image Editing“, https://nv-tlabs.github.io/editGAN. Lobe.ai: „Train apps to identify plants“, https://www.lobe.ai. Loewe, Sebastian: „Making Visual Design Adapt to Emotions and Affect: Thoughts and Research Questions on Emotionally Responsive Visual Design“, in: Engenhart, Marc/ Loewe, Sebastian (Hrsg.): Proceedings of the First Conference on Designing with Artificial Intelligence, München: appliedAI 2021, S. 128–140. Loewe, Sebastian: „We Generated P5-Code Based on Text Inputs with OpenAI’s GPT-3 and This Could Show the Future of Designer-Machine Co-Creation“, https://sebastian-loewe.medium.com/we-generated-p5-code-based-on-text-inputswith-openais-gpt-3-and-this-could-show-the-future-of-db2ae41efc8d. Long, Jonathan/Shelhamer, Evan/Darrell, Trevor: „Fully Convolutional Networks for Semantic Segmentation“, https://arxiv.org/abs/1411.4038. Lun, Zhaoliang/Kalogerakis, Evangelos/Wang, Rui et al.: „Functionality Preserving Shape Style Transfer“, ACM Transactions on Graphics 35 (2016), S. 1–14. Lynch, Jennifer: „Face Off: Law Enforcement Use of Face Recognition Technology“, https://www.eff.org/wp/law-enforcement-use-face-recognition. Mahroum, Sami: „How an AI utopia would work“, https://www.weforum.org/ agenda/2019/07/how-an-ai-utopia-would-work. Mainzer, Klaus: Gehirn, Computer, Komplexität. Berlin, Heidelberg: Springer Verlag 1997. Mao, Hongzi/Alizadeh, Mohammad/Menache, Ishai et al.: „Resource Management with Deep Reinforcement Learning“, https://dl.acm.org/doi/10.1145/3005745.3005750. Mareis, Claudia: „Wer gestaltet die Gestaltung? Zur ambivalenten Verfassung von partizipatorischem Design“, in: Mareis, Claudia/Held, Matthias/Joost, Gesche (Hrsg.): Wer gestaltet die Gestaltung? Praxis, Theorie und Geschichte des partizipatorischen Designs, Bielefeld: transcript Verlag 2013, S. 9–22. Martins, Tiago/Nuno Correia, João/Rebelo, Sérgio: „Portraits of No One“, https://cdv.dei.uc.pt/portraits-of-no-one. Matejka, Justin/Glueck, Michael/Bradner, Erin et al.: „Dream Lens: Exploration and Visualization of Large-Scale Generative Design Datasets“, https://dl.acm.org/ doi/10.1145/3173574.3173943. Matloff, Norman: From Linear Models to Machine Learning. Regression and Classification, with R Examples, Oxfordshire: Taylor & Francis 2017. Mattson, Christopher/Pack, Andrew/Lofthouse, Vicky et al.: „Using a Product’s Sustainability Space as a Design Exploration Tool“, https://doi.org/10.1017/dsj.2018.6. Mauritshuis: „The Next Rembrandt“, https://www.nextrembrandt.com. Maybury, Mark: „Intelligent user interfaces: an introduction“, https://dl.acm.org/doi/ abs/10.1145/291080.291081.
192
Literaturverzeichnis
McCormack, Jon/Lomas, Andy: „Understanding Aesthetic Evaluation using Deep Learning“, https://arxiv.org/abs/2004.06874. Meier, Anika/Rossner, Manuel: „‚I Don’t Experience the Meaning of Creativity in the Same Way Humans Do‘: Künstliche Intelligenz und Kreativität“, in: Engenhart, Marc/ Loewe, Sebastian (Hrsg.): Proceedings of the First Conference on Designing with Artificial Intelligence, München: appliedAI 2021, S. 80–91. Mejjati, Youssef/Gomez, Celso/Kim, Kwang In et al.: „Look here! A parametric learning based approach to redirect visual attention“, https://alamimejjati.github.io/GazeShiftNet. Meta: „Introducing the Facebook Field Guide to Machine Learning video series“, https://research.facebook.com/blog/2018/05/the-facebook-field-guide-to-machinelearning-video-series. Microsoft: „Guidelines for Human-AI Interaction“, https://www.microsoft.com/en-us/ research/project/guidelines-for-human-ai-interaction. Microsoft: „Sketch2Code“, https://sketch2code.azurewebsites.net. Mildenhall, Ben/Srinivasan, Pratul/Tancik, Matthew et al.: „NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis“, https://cacm.acm.org/ magazines/2022/1/257450-nerf/fulltext. Mirza, Mehdi/Osindero, Simon: „Conditional Generative Adversarial Nets“, https://arxiv.org/abs/1411.1784. Misselhorn, Catrin: Künstliche Intelligenz und Empathie. Vom Leben mit Emotionserkennung, Sexrobotern & Co, Ditzingen: Reclam 2021. MIT CSAIL: „Digital Ouija Board for Aircraft Carrier Operations“, http://groups.csail.mit.edu/mug/projects/ouijaboard. MIT Media Lab: „Detect DeepFakes: How to counteract misinformation created by AI“, https://www.media.mit.edu/projects/detect-fakes/overview. ML5: „Friendly Machine Learning for the Web“, https://ml5js.org. Mordvintsev, Alexander/Olah, Christopher/Tyka, Mike: „Inceptionism: Going Deeper into Neural Networks“, https://ai.googleblog.com/2015/06/inceptionism-going-deeperinto-neural.html. Mortensen, Ditte Hvas: „How to manage the users’ expectations when designing smart products“, https://www.interaction-design.org/literature/article/how-to-manage-theusers-expectations-when-designing-smart-products. Moser, Christian: User Experience Design, Heidelberg: Springer Vieweg 2012. Move.ai: „High fidelity Motion Capture from video“, https://www.move.ai. Myers West, Sarah/Whittaker, Meredith/Crawford, Kate: Discriminating Systems. Gender, Race, and Power in AI, New York: AI Institute Now 2019.
193
Literaturverzeichnis
Neff, Thomas/Stadlbauer, Pascal/Parger, Mathias et al.: „DONeRF: Towards Real-Time Rendering of Compact Neural Radiance Fields using Depth Oracle Networks“, https://depthoraclenerf.github.io. Neuburg, Klaus/Quadflieg, Sven/Nestler, Simon: „Will Artificial Intelligence Make Designers Obsolete?“, in: Engenhart, Marc/Loewe, Sebastian (Hrsg.): Proceedings of the First Conference on Designing with Artificial Intelligence, München: appliedAI 2021, S. 80–85. NVIDIA: „GauGAN2 Beta“, http://gaugan.org/gaugan2. O‘Donovan, Peter/Agarwala, Aseem/Hertzmann, Aaron: „Collaborative Filtering of Color Aesthetics“, http://www.dgp.toronto.edu/~donovan/cfcolor/index.html. O‘Donovan, Peter/Agarwala, Aseem/Hertzmann, Aaron: „DesignScape: Design with Interactive Layout Suggestions“, http://www.dgp.toronto.edu/~donovan/design/ index.html. Oechsle, Michael/Niemeyer, Michael/Mescheder, Lars et al.: „Learning Implicit Surface Light Fields“, https://arxiv.org/abs/2003.12406. Oeldorf, Cedric/Spanakis, Gerasimos: „LoGANv2: Conditional Style-Based Logo Generation with Generative Adversarial Networks“, https://arxiv.org/abs/1909.09974. Open AI: „CLIP: Connecting Text and Images“, https://openai.com/blog/clip. Open AI: „DALL·E 2 is a new AI system that can create realistic images and art from a description in natural language“, https://openai.com/dall-e-2. Open Source Guides: „The Legal Side of Open Source“, https://opensource.guide/legal. Oppenheim, Maya: „Amazon scraps ‚sexist AI‘ recruitment tool“, https://www.independent.co.uk/life-style/gadgets-and-tech/amazon-ai-sexistrecruitment-tool-algorithm-a8579161.html. Otte, Ralf: Künstliche Intelligenz für Dummies, Weinheim: Wiley VCH 2019. P5.js: „Hello!“, https://p5js.org. Pan, Yanxin/Burnap, Alexander/Hartley, Jeffrey et al.: „Deep Design: Product Aesthetics for Heterogeneous Markets“, https://dl.acm.org/doi/10.1145/3097983.3098176. Pang, Yingxue/Lin, Jianxin/Qin, Tao et al.: „Image-to-Image Translation: Methods and Applications“, https://arxiv.org/abs/2101.08629. Papalampidi, Pinelopi/Keller, Frank/Lapata, Mirella: „Film Trailer Generation via Task Decomposition“, https://arxiv.org/abs/2111.08774. Patashnik, Or/Wu, Zongze/Shechtman, Eli et al.: „StyleCLIP: Text-Driven Manipulation of StyleGAN Imagery“, https://replicate.com/orpatashnik/styleclip. Pęśko, Maciej/Svystun, Adam/Andruszkiewicz, Paweł et al.: „Comixify: Transform video into a comics“, https://arxiv.org/abs/1812.03473.
194
Literaturverzeichnis
Playform: „No Code AI for Creative People“, https://create.playform.io. Plenke, Max: „The Reason This ‚ Racist Soap Dispenser‘ Doesn‘t Work on Black Skin“, https://www.mic.com/articles/124899/the-reason-this-racist-soap-dispenser-doesnt-work-on-black-skin. Polytopal: „Lingua Franca. A Design Language for Human-Centered AI“, https://linguafranca.polytopal.ai. Posavec, Stefanie/Lupi, Giorgia: „Dear Data“, http://www.dear-data.com/theproject. Processing with AI: „Starting with p5.js“, https://processing-with-ai.gitlab.io/part2/ programming. Python for Designers: „Welcome to Python for Designers“, https://pythonfordesigners.com. Quiñonero Candela, Joaquin: „Facebook and the Technical University of Munich Announce New Independent TUM Institute for Ethics in Artificial Intelligence“, https://about.fb.com/news/2019/01/tum-institute-for-ethics-in-ai. Rädeker, Jochen: „Markengestaltung im Wandel. The Interface Becomes the Brand“, in: Baetzgen, Andreas (Hrsg.): Brand Design. Strategien für die digitale Welt, Stuttgart: Schäffer-Poeschel Verlag, S. 211–230. Rae, Jack/Potapenko, Anna/Jayakumar, Siddhant et al.: „Compressive Transformers for Long-Range Sequence Modelling“, https://arxiv.org/abs/1911.05507. Rainie, Lee/Anderson, Janna/Vogels, Emily: „Experts Doubt Ethical AI Design Will Be Broadly Adopted as the Norm Within the Next Decade“, https://www.pewresearch.org/ internet/2021/06/16/experts-doubt-ethical-ai-design-will-be-broadly-adopted-asthe-norm-within-the-next-decade. Rammer, Christian: Auf Künstliche Intelligenz kommt es an. Beitrag von KI zur Innovationsleistung und Performance der deutschen Wirtschaft, Berlin: Bundesministerium für Wirtschaft und Energie 2020. Ramos, Gonzalo/Suh, Jina/Amershi, Saleema et al.: „Emerging Perspectives in HumanCentered Machine Learning“, https://dl.acm.org/doi/10.1145/3290607.3299014. Rashid, Tariq: Neuronale Netze selbst programmieren, Heidelberg: dpunkt.verlag 2017. Replicate: „StyleClip“, https://replicate.com/orpatashnik/styleclip. Rittel, Horst: „Architekten und Computer“, in: Reuter, Wolf/Jonas, Wolfgang (Hrsg.): Thinking Design. Transdisziplinäre Konzepte für Planer und Entwerfer, Basel: Birkhäuser 2013, S. 185–195. Rittel, Horst: „Zur Planungskrise: Systemanalyse der ersten und zweiten Generation“, in: Reuter, Wolf (Hrsg.): Planen, Entwerfen, Design, Ausgewählte Schriften zur Theorie und Methodik, Stuttgart: Kohlhammer 1992, S. 37–59. Ronneberger, Olaf/Fischer, Philip/Brox, Thomas: „U-Net: Convolutional Networks for Biomedical Image Segmentation“, https://doi.org/10.1007/978-3-319-24574-4_28.
195
Literaturverzeichnis
Rössler, Andreas/Cozzolino, Davide/Verdoliva, Luisa et al.: „aceForensics++: Learning to Detect Manipulated Facial Images“, http://www.niessnerlab.org/projects/ roessler2019faceforensicspp.html. Rothkopf, Joshua: „Deepfake Technology Enters the Documentary World“, https://www.nytimes.com/2020/07/01/movies/deepfakes-documentary-welcometo-chechnya.html. Ruder, Sebastian: „An overview of gradient descent optimization algorithms“, https://arxiv.org/abs/1609.04747. RunwayML: „ML Lab“, https://help.runwayml.com/hc/en-us/categories/ 1500001962941-ML-Lab. RunwayML: „Runway: The fastest way to edit video“, https://runwayml.com. Rustler, Florian: Denkwerkzeuge. Thinking Tools for Creativity and Innovation, St. Gallen: Midas 2018, S. 178 ff. Sage, Alexander/Agustsson, Eirikur/Timofte, Radu et al.: „Logo Synthesis and Manipulation with Clustered Generative Adverserial Network“, https://data.vision.ee.ethz.ch/sagea/lld. Saito, Shunsuke/Simon, Tomas/Saragih, Jason et al.: „PIFuHD: Multi-Level Pixel-Aligned Implicit Function for High-Resolution 3D Human Digitization“, https://shunsukesaito.github.io/PIFuHD. Salesforce: „Customer 360“, https://www.salesforce.com/de/products. Salian, Isha: „What Is AI Upscaling?“, https://blogs.nvidia.com/blog/2020/02/ 03/what-is-ai-upscaling. Salminen, Joni/Guan, Kathleen/Jung, Soon-Gyo et al.: „A Survey of 15 Years of Data-Driven Persona Development“, International Journal of Human–Computer Interaction 37 (2021), S. 1685–1708. Salminen, Joni/Jung, Soon-gyo/Jansen, Bernard: „The Future of Data-driven Personas. A Marriage of Online Analytics Numbers and Human Attributes“, in: Filipe, Joaquim/Smialek, Michal/Brodsky, Alexander et al. (Hrsg.): Proceedings of the 21st International Conference on Enterprise Information Systems, Setúbal: Scitepress 2019, S. 608–615. Salt Research: „About“, https://saltresearch.org/primo_library/libweb/static_htmls/ salt/info_about_en_US.jsp. Sanchez-Gonzalez, Alvaro/Godwin, Jonathan/Pfaff, Tobias: „Learning to Simulate Complex Physics with Graph Networks“, https://arxiv.org/abs/2002.09405. Sarwar, Badrul/Karypis, George/Konstan, Joseph/Riedl, John: „Item-based collaborative filtering recommendation algorithms“, https://dl.acm.org/doi/10.1145/371920.372071. Sbai, Othman/Elhoseiny, Mohamed/Bordes, Antoine et al.: „Design Inspiration from Generative Networks“, https://arxiv.org/abs/1804.00921.
196
Literaturverzeichnis
Schneider, Sven/Fischer, Jan-Ruben/König, Reinhard: „Rethinking Automated Layout Design: Developing a Creative Evolutionary Design Method for the Layout Problems in Architecture and Urban Design“, in: Gero, John (Hrsg.): Design Computing and Cognition 10, Berlin, Heidelberg: Springer Science+Business Media 2011, S. 367–386. Schulz, Adriana/Sung, Cynthia/Spielberg, Andrew et al.: „Interactive robogami: An end-to-end system for design of robots with ground locomotion“, https://journals.sagepub.com/doi/10.1177/0278364917723465. Schulz, Adriana/Xu, Jie/Zhu, Bo et al.: „Interactive Design Space Exploration and Optimization for CAD Models“, https://people.csail.mit.edu/aschulz/optCAD/index.html. Seidel, Stefan/Berente, Nicholas/Lindberg, Aron et al.: „Autonomous Tools and Design. A Triple-Loop Approach to Human-Machine Learning“, https://dl.acm.org/ doi/10.1145/3210753. Shamir, Ariel/Schulz, Adriana/Levin, David et al.: „Design and fabrication by example“, https://dspace.mit.edu/handle/1721.1/111080. Shen, Xi/Efros, Alexei/Aubry, Mathieu: „Discovering Visual Patterns in Art Collections with Spatially-consistent Feature Learning“, http://imagine.enpc.fr/~shenx/ArtMiner. Shi, Yichun/Deb, Debayan/Jain, Anil: „WarpGAN: Automatic Caricature Generation“, https://arxiv.org/abs/1811.10100. Shugrina, Maria/Shamir, Ariel/Matusik, Wojciech: „Fab forms: customizable objects for fabrication with validity and geometry caching“, https://dl.acm.org/doi/10.1145/2766994. Simo-Serra, Edgar/Iizuka, Satoshi/Sasaki, Kazuma et al.: „Learning to simplify: fully convolutional networks for rough sketch cleanup“, ACM Transactions on Graphics 35 (2016), S. 1–11. Sitzmann, Vincent/Rezchikov, Semon/Freeman, William et al.: „Light Field Networks. Neural Scene Representations with Single-Evaluation Rendering“, https://www.vincentsitzmann.com/lfns. Skansi, Sandro: Introduction to Deep Learning. From Logical Calculus to Artificial Intelligence, Cham: Springer Nature 2018. Skiena, Steven: The Data Science Design Manual, Cham: Springer Nature 2017. Smirnov, Dmitriy/Fisher, Matthew/Campagnolo, Vitor et al.: „MarioNette: Self-Supervised Sprite Learning“, https://openreview.net/forum?id=3zP6RrQtNa. Spacemaker: „Analysis you can trust, noise analysis“, https://www.spacemakerai.com/ resources/analysis-hub#Noise. Spacemaker: „Customers & Partners, How Steen & Strøm and Storebrand use Spacemaker for site development“, https://www.spacemakerai.com/blog/how-steen-strom-andstorebrand-use-spacemaker-for-site-development. Stackpole, Beth: „The next chapter in analytics. data storytelling“, https://mitsloan.mit.edu/ideas-made-to-matter/next-chapter-analytics-datastorytelling.
197
Literaturverzeichnis
Stefaner, Moritz: „Deep Learning UX“, https://truth-and-beauty.net/projects/sf-dlux. Stitch Fix: „Algorithms Tour. How data science is woven into the fabric of Stitch Fix“, https://algorithms-tour.stitchfix.com. Syverson, Ben: „The Rules of Brainstorming Change When Artificial Intelligence Gets Involved. Here’s How“, https://www.ideo.com/blog/the-rules-of-brainstormingchange-when-ai-gets-involved-heres-how. Teachable Machine: „Teachable Machine“, https://teachablemachine.withgoogle.com. The Asimov Institute: „The Neural Network Zoo“, https://www.asimovinstitute.org/ neural-network-zoo. The Coding Train: „A Beginner‘s Guide to Machine Learning with ml5.js“, https://www.youtube.com/watch?v=jmznx0Q1fP0. The Unthinkable Hub: „UTH.1 – Evesdrop Modules“, https://mirror.xyz/0x12d7CCC2454111af7039E27Af42b919893d4cCA2/ 7lFar7DSLZTcWj3kCsk5jiGCiJfWoMWTTjebaoTTtgo. This Artwork Does Not Exist: „This Artwork Does Not Exist“, https://thisartworkdoesnotexist.com. This Chair Does Not Exist: „GAN-generated Chairs“, https://thischairdoesnotexist.com. This Person Does Not Exist: „Random Face Generator“, https://this-person-does-notexist.com/en. Todi, Kashyap/Bailly, Gilles/Leiva, Luis et al.: „Adapting User Interfaces with Modelbased Reinforcement Learning“, https://arxiv.org/abs/2103.06807. Truscheit, Karin: „Durch Tauschen zum Täter“, Frankfurter Allgemeine Zeitung, 8.3.2021, S. 7. UIzard: „Welcome your new team member: AI“, https://uizard.io/design-assistant. Vanderdonckt, Jean/Bouzit, Sara/Calvary, Gaëlle et al.: „Cloud Menus: a Circular Adaptive Menu for Small Screens“, https://dl.acm.org/doi/abs/10.1145/3172944.3172975. Vasileva, Mariya/Plummer, Bryan/Dusad, Krishna et al.: „Learning Type-Aware Embeddings for Fashion Compatibility“, https://arxiv.org/abs/1803.09196. Vemulapalli, Raviteja/Agarwala, Aseem: „A Compact Embedding for Facial Expression Similarity“, https://arxiv.org/abs/1811.11283. Verganti, Roberto/Vendraminelli, Luca/Iansiti, Marco: „Innovation and Design in the Age of Artificial Intelligence“, Journal of Product Innovation Management 37 (2020), S. 212–227. Vincent, James: „A never-ending stream of AI art goes up for auction“, https://www.theverge.com/2019/3/5/18251267/ai-art-gans-mario-klingemannauction-sothebys-technology. Vincent, James: „Google ‚fixed‘ its racist algorithm by removing gorillas from its image-labeling tech“, https://www.theverge.com/2018/1/12/16882408/ google-racist-gorillas-photo-recognition-algorithm-ai.
198
Literaturverzeichnis
Vincent, James: „The problem with AI ethics“, https://www.theverge. com/2019/4/3/18293410/ai-artificial-intelligence-ethics-boards-chartersproblem-big-tech. Vizcom: „AI creative tools for artists and designers“, https://www.vizcom.co. Volland, Holger: Die kreative Macht der Maschinen. Warum Künstliche Intelligenzen bestimmen, was wir morgen fühlen und denken, Weinheim: Beltz 2018. Wagner, Ben: „Ethics as an Escape from Regulation. From Ethics-Washing to EthicsShopping“, in: Bayamlioglu, Emre/Baraliuc, Irina/Janssens, Liisa et al. (Hrsg.): Being Profiled. Cogitas Ergo Sum. 10 Years of Profiling the European Citizen, Amsterdam: Amsterdam University Press 2018. Walch, Kathleen: „Rethinking Weak Vs. Strong AI“, https://www.forbes.com/sites/ cognitiveworld/2019/10/04/rethinking-weak-vs-strong-ai/?sh=3238e57b6da3. Wang, Huamin: „Rule-free sewing pattern adjustment with precision and efficiency“, https://dl.acm.org/doi/10.1145/3197517.3201320. Wang, Mingxian/Sha, Zhenghui/Huang, Yun et al.: „Predicting product co-consideration and market competitions for technology-driven product design“, https://doi.org/10.1017/dsj.2018.4. Wang, Sheng-Yu/Bau, David/Zhu, Jun-Yan: „Sketch Your Own GAN“, https://github.com/peterwang512/GANSketching. Wei, Fangyin/Sizikova, Elena/Sud, Avneesh: „Learning to Infer Semantic Parameters for 3D Shape Editing“, https://ieeexplore.ieee.org/document/9320459. Will Robots Take My Job: „Will Robots Take My Job?“, https://willrobotstakemyjob.com. Wille, Matt: „South Korean chatbot Lee Luda killed off for spewing hate“, https://www.inputmag.com/culture/south-korean-chatbot-lee-luda-killed-off-forspewing-hate. Wladawsky-Berger, Irving: „The Impact of Artificial Intelligence on the World Economy“, https://www.wsj.com/articles/the-impact-of-artificial-intelligence-on-the-world-economy-1542398991. Wu, Jiajun/Zhang, Chengkai/Xue, Tianfan et al.: „Learning a Probabilistic Latent Space of Object Shapes via 3D Generative-Adversarial Modeling“, https://arxiv.org/ abs/1610.07584. Wunner, Felix/Krüger, Tino/Gierse, Bernd: „How AI-driven generative design disrupts traditional value chains“, https://www.accenture.com/us-en/blogs/industry-digitization/ how-ai-driven-generative-design-disrupts-traditional-value-chains. Xu, Catherina/Doshi, Tulsee: „Fairness Indicators: Scalable Infrastructure for Fair ML Systems“, https://ai.googleblog.com/2019/12/fairness-indicators-scalable.html. Xu, Kaidi/Zhang, Gaoyuan/Liu, Sijia: „Adversarial T-shirt! Evading Person Detectors in A Physical World“, https://arxiv.org/abs/1910.11099.
199
Literaturverzeichnis
Yang, Qian: „Unremarkable AI: Towards AI That Co-lives and Co-evolves with Users“, in: Engenhart, Marc/Loewe, Sebastian (Hrsg.): Proceedings of the First Conference on Designing with Artificial Intelligence, München: appliedAI 2021, S. 70–76. Yi, Li/Guibas, Leonidas/Hertzmann, Aaron et al.: „Learning Hierarchical Shape Segmentation and Labeling from Online Repositories“, https://cs.stanford.edu/~ericyi/ project_page/hier_seg/index.html. Yu, Alex/Ye, Vickie/Tancik, Matthew et al.: „pixelNeRF. Neural Radiance Fields from One or Few Images“, https://alexyu.net/pixelnerf. Yu, Jiahui/Lin, Zhe/Yang, Jimei et al.: „Generative Image Inpainting with Contextual Attention“, https://arxiv.org/abs/1801.07892. Yumer, Mehmet Ersin/Chaudhuri, Siddhartha/Hodgins, Jessica et al.: „Semantic shape editing using deformation handles“, https://dl.acm.org/doi/10.1145/2766908. Zaremba, Wojciech/Brockman, Greg: „OpenAI Codex“, https://openai.com/blog/ openai-codex. Zeng, Yu/Lin, Zhe/Yang, Jimei et al.: „ProFill: High-Resolution Image Inpainting with Iterative Confidence Feedback and Guided Upsampling“, https://zengxianyu.github.io/iic. Zhang, Haotian/Sciutto, Cristobal/Agrawala, Maneesh et al.: „Vid2Player: Controllable Video Sprites That Behave and Appear Like Professional Tennis Players“, https://dl.acm.org/doi/10.1145/3448978. Zhang, He/Starke, Sebastian/Komura, Taku et al.: „Mode-adaptive neural networks for quadruped motion control“, https://dl.acm.org/doi/10.1145/3197517.3201366. Zhang, Jiakai/Liu, Xinhang/Ye, Xinyi et al.: „Editable Free-Viewpoint Video using a Layered Neural Representation“, https://jiakai-zhang.github.io/st-nerf. Zhang, Lymin/Li, Chengze/Wong, Tien-Tsin et al. „Two-stage sketch colorization“, ACM Transactions on Graphics 37 (2018), S. 1–14. Zhao, Allan/Xu, Jie/Konaković Luković, Mina et al.: „RoboGrammar: Graph Grammar for Terrain-Optimized Robot Design“, https://people.csail.mit.edu/jiex/papers/ robogrammar/index.html. Zhao, Tianming/Chen, Chunyang/Liu, Yuanning et al.: „GUIGAN: Learning to Generate GUI Designs Using Generative Adversarial Networks“, https://github.com/ GUIDesignResearch/GUIGAN. Zhu, Zhen/Xu, Zhiliang/You, Ansheng et al.: „Semantically Multi-modal Image Synthesis“, https://github.com/Seanseattle/SMIS. Zimmermann, Christian/Ceylan, Duygu/Yang, Jimei et al.: „FreiHAND: A Dataset for Markerless Capture of Hand Pose and Shape from Single RGB Images“, https://arxiv.org/abs/1909.04349. Ziva Dynamics: „ZRT Face Trainer“, https://zivadynamics.com/zrt-face-trainer.
200
Abbildungsverzeichnis
Abbildungsverzeichnis
Abb. 2.1, Marc Engenhart, Sebastian Löwe: „Lineare Regression“, grafisches Schaubild © Engenhart ° Design Studio, 2022. Abb. 2.2, Marc Engenhart, Sebastian Löwe: „Entscheidungsbaumalgorithmus“, grafisches Schaubild © Engenhart ° Design Studio, 2022. Abb. 2.3, Marc Engenhart, Sebastian Löwe: „Berechnung der Ähnlichkeit durch KNN-Algorithmen“, grafisches Schaubild © Engenhart ° Design Studio, 2022. Abb. 2.4, Marc Engenhart, Sebastian Löwe: „Prinzip eines künstlichen neuronalen Netzes“, grafisches Schaubild © Engenhart ° Design Studio, 2022. Abb. 2.5, Marc Engenhart, Sebastian Löwe: „Detail der Funktion eines Neurons in der verstecken Schicht“, grafisches Schaubild © Engenhart ° Design Studio, 2022. Abb. 2.6, Marc Engenhart, Sebastian Löwe: „Übersicht eines künstllich neuronalen Netzes welches einen von Hand geschriebenen Buchstaben erkennen kann“, grafisches Schaubild © Engenhart ° Design Studio, 2022. Abb. 2.7, Marc Engenhart, Sebastian Löwe: „Übersicht eines vollständigen Convolutional Neural Network, CNN“, grafisches Schaubild © Engenhart ° Design Studio, 2022. Abb. 3.1, Marc Engenhart, Sebastian Löwe: „Taxonomie der intelligenten Gestaltungssysteme“, grafisches Schaubild © Engenhart ° Design Studio, 2022. Abb. 4.1, Strichpunkt Design: „Digitale Medien der DHL Group“, mit freundlicher Genehmigung von Fabian Hammans, Strichpunkt Design © Strichpunkt Design, 2021. Abb. 4.2, Strichpunkt Design: „DHL Layout Creator“, Gestaltungsbeispiel User Interface der Startseite, mit freundlicher Genehmigung von Fabian Hammans, Strichpunkt Design © Strichpunkt Design, 2021. Abb. 4.3, Strichpunkt Design: „DHL Layout Creator“, Gestaltungsbeispiel User Interface zur Auswahl einer Medienart, mit freundlicher Genehmigung von Fabian Hammans, Strichpunkt Design © Strichpunkt Design, 2021. Abb. 4.4, Strichpunkt Design: „DHL Layout Creator“, Gestaltungsbeispiel User Interface zur Formatauswahl einer Werbeanzeige, mit freundlicher Genehmigung von Fabian Hammans, Strichpunkt Design © Strichpunkt Design, 2021. Abb. 4.5, Strichpunkt Design: „DHL Layout Creator“, Gestaltungsbeispiel User Interface, Einfügen von Inhalt für eine Werbeanzeige, mit freundlicher Genehmigung von Fabian Hammans, Strichpunkt Design © Strichpunkt Design, 2021. Abb. 4.6, Strichpunkt Design: „DHL Layout Creator“, Gestaltungsbeispiel User Interface, Bildintegration in eine Werbeanzeige, mit freundlicher Genehmigung von Fabian Hammans, Strichpunkt Design © Strichpunkt Design, 2021. Abb. 4.7, Strichpunkt Design: „DHL Layout Creator“, Gestaltungsbeispiel User Interface, Fokussieren wichtiger Bildinhalte in einer Werbeanzeige, mit freundlicher Genehmigung von Fabian Hammans, Strichpunkt Design © Strichpunkt Design, 2021.
202
Abbildungsverzeichnis
Abb. 4.8, Strichpunkt Design: „DHL Layout Creator“, Gestaltungsbeispiel User Interface, Auswahl eines Vorschlages aus unterschiedlichen Gestaltungsvarianten der Werbeanzeige, mit freundlicher Genehmigung von Fabian Hammans, Strichpunkt Design © Strichpunkt Design, 2021. Abb. 4.9, Strichpunkt Design: „DHL Layout Creator“, User Interface des DHL Brand Hub, mit freundlicher Genehmigung von Fabian Hammans, Strichpunkt Design © Strichpunkt Design, 2021. Abb. 4.10, Sofia Crespo: „Neural Zoo: Entangled“, Acryl-Digitaldruck, Neural Zoo Collection, mit freundlicher Genehmigung der Künstlerin © Sofia Crespo, 2018/2019. Abb. 4.11, Sofia Crespo: „Neural Zoo: Synthetic Optimism Ecosystem“, Acryl-Digitaldruck, Neural Zoo Collection, mit freundlicher Genehmigung der Künstlerin © Sofia Crespo, 2018/2019. Abb. 4.12, Sofia Crespo: „Microscope“, Fotografie der Künstlerin zur Dokumentation ihres Schaffenprozesses, https://www.instagram.com/p/ CK4L48CF4w5, mit freundlicher Genehmigung der Künstlerin © Sofia Crespo, 2021. Abb. 4.13, Sofia Crespo: „Neural Zoo: Free Will“, Acryl-Digitaldruck, Neural Zoo Collection, mit freundlicher Genehmigung der Künstlerin © Sofia Crespo, 2018/2019. Abb. 4.14, Sofia Crespo: „Neural Zoo: Realisation“, Acryl-Digitaldruck, Neural Zoo Collection, mit freundlicher Genehmigung der Künstlerin © Sofia Crespo, 2018/2019. Abb. 4.15, Sofia Crespo: „Artificial Remnants“, 3D-gedruckte Skulpturen auf AcrylPlatte, Polylactide (PLA), Artificial Remnants Collection, mit freundlicher Genehmigung der Künstlerin © Sofia Crespo, 2019. Abb. 4.16, Sofia Crespo: „Artificial Remnants“, Objekt als 3D-Netz-Rendering, Artificial Remnants Collection, https://artificialremnants.com, mit freundlicher Genehmigung der Künstlerin © Sofia Crespo, 2019. Abb. 4.17, Sofia Crespo: „Neural Zoo: Artificial Remnants“, Bildschirm, Tisch, interaktive Oberfläche und Gestaltung, Artificial Remnants Collection, Ausstellungsansicht, Retune, Berlin, mit freundlicher Genehmigung der Künstlerin © Sofia Crespo, 2019. Abb. 4.18, Moritz Stefaner: „Salesforce Einstein Designer“, Visualisierung des latenten Raumes aller analysierten visuellen Details, mit freundlicher Genehmigung des Designers © Moritz Stefaner, 2020. Abb. 4.19, Sönke Rohde: „Salesforce Einstein Designer. 1-Click personalisation. Powered by Deeplearning UX“, Detail aus der Übersicht zur Funktion von Einstein Designer anhand eines Beispiels, mit freundlicher Genehmigung des Designers © Sönke Rohde, Salesforce, 2020. Abb. 4.20, Moritz Stefaner: „Salesforce Einstein Designer“, Farbkreis aus der Analyse von Farbspektren vorliegender Internetseiten, mit freundlicher Genehmigung des Designers © Moritz Stefaner, 2020.
203
Abbildungsverzeichnis
Abb. 4.21, Moritz Stefaner: „Salesforce Einstein Designer“, Visualisierung typografischer Beziehungen ausgewählter Internetauftritte, mit freundlicher Genehmigung des Designers © Moritz Stefaner, 2020. Abb. 4.22, Moritz Stefaner: „Salesforce Einstein Designer“, Visualisierung typografischer Beziehungen ausgewählter Internetauftritte, mit freundlicher Genehmigung des Designers © Moritz Stefaner, 2020. Abb. 4.23, Moritz Stefaner: „Salesforce Einstein Designer“, Visualisierung der Farbanteile eines Internetauftrittes, mit freundlicher Genehmigung des Designers © Moritz Stefaner, 2020. Abb. 4.24, Sönke Rohde: „Salesforce Einstein Designer“, Statistik verwendeter Schrifgrößen, mit freundlicher Genehmigung des Designers © Sönke Rohde, Salesforce, 2020. Abb. 4.25, Sönke Rohde: „Salesforce Einstein Designer“, Visualisierung von Gruppen von ähnlichen Layouts analysierter Internetauftritte mit der Methode des Clustering, mit freundlicher Genehmigung des Designers © Sönke Rohde, Salesforce, 2020. Abb. 4.26, Anouk Wipprecht: „Pangolin Dress“, Detailansicht, in Lasersinternverfahren gedruckte Objekte, Gewebematerialien, Servomotoren, Neopixel-LEDs an einem Model installiert, mit freundlicher Genehmigung der Designerin © Anouk Wipprecht, 2020. Abb. 4.27, Anouk Wipprecht: „Pangolin Dress“, Gehirn-Computer-Schnittstelle, Anbringen der Elektroden an der Kopfhaut der Träger:in, mit freundlicher Genehmigung der Designerin © Anouk Wipprecht, 2020. Abb. 4.28, Anouk Wipprecht: „Pangolin Dress“, Gehirn-Computer-Schnittstelle mit Anschlüssen zum EEG und zu den Hardwaremodulen, mit freundlicher Genehmigung der Designerin © Anouk Wipprecht, 2020. Abb. 4.29, Anouk Wipprecht: „Pangolin Dress“, Gehirn-Computer-Schnittstelle bei der Kalibrierung des neuronalen Netzes, mit freundlicher Genehmigung der Designerin © Anouk Wipprecht, 2020. Abb. 4.30, Anouk Wipprecht: „Pangolin Dress“, final kalibrierter, von einem Model getragener Pangolin Dress mit integriertem intelligenten System, mit freundlicher Genehmigung der Designerin © Anouk Wipprecht, 2020. Abb. 4.31, Autodesk Spacemaker: „Spacemaker Software“, Kollektion der Analysemodule, https://www.spacemakerai.com/resources/analysis-hub, mit freundlicher Genehmigung von Maria Dantz, Spacemaker © Autodesk Spacemaker, 2021. Abb. 4.32, Autodesk Spacemaker: „Økern Sentrum project, ØKERN aerial“, Simulation des Gebäudeensembles, Bildmaterial/Rendering von A-lab, mit freundlicher Genehmigung von Maria Dantz, Spacemaker © A-lab, Autodesk Spacemaker, Steen & Strøm and Storebrand, 2021. Abb. 4.33, Autodesk Spacemaker: „Økern Sentrum project“, User Interface des Analysewerkzeugs Tageslichtanalyse, https://aec.autodesk.com/spacemaker-steenstrom-storebrand/p/1, mit freundlicher Genehmigung von Maria Dantz, Spacemaker © Autodesk Spacemaker, Steen & Strøm and Storebrand, 2021.
204
Abbildungsverzeichnis
Abb. 4.34, Autodesk Spacemaker: „Økern Sentrum project“, User Interface des Analysewerkzeugs Tageslichtanalyse, https://aec.autodesk.com/spacemakersteen-strom-storebrand/p/1, mit freundlicher Genehmigung von Maria Dantz, Spacemaker © Autodesk Spacemaker, Steen & Strøm and Storebrand, 2021. Abb. 4.35, Autodesk Spacemaker: „Spacemaker Software“, User Interface mit dem Analysewerkzeug Geräusche und Schall, mit freundlicher Genehmigung von Maria Dantz, Spacemaker © Autodesk Spacemaker, 2021. Abb. 4.36, Autodesk Spacemaker: „Spacemaker Software“, User Interface des Analysewerkzeugs Geräusch und Schall, Økern Sentrum project, https://aec.autodesk.com/ spacemaker-steen-strom-storebrand/p/1, mit freundlicher Genehmigung von Maria Dantz, Spacemaker © Autodesk Spacemaker, 2021. Abb. 4.37, Refik Anadol Studio: „Archive Dreaming“, Fotografie der räumlichen Gegebenheiten des SALT Research Archive Istanbul, mit freundlicher Genehmigung von Refik Anadol Studio © Refik Anadol Studio, 2017. Abb. 4.38, Refik Anadol Studio: „Archive Dreaming“, Fotografie zur Dokumentation, stehende Person, die mit dem intelligenten System über ein Tablet interagiert, https://refikanadol.com/works/archive-dreaming/, mit freundlicher Genehmigung von Refik Anadol Studio © Refik Anadol Studio, 2017. Abb. 4.39, Refik Anadol Studio: „Archive Dreaming“, digitale Zeichnung zur Konzeption aller notwendigen szenografischen und baulichen wie technischen Details, mit freundlicher Genehmigung von Refik Anadol Studio © Refik Anadol Studio, 2017. Abb. 4.40, Refik Anadol Studio: „Archive Dreaming“, Detail einer auf Grundlage des t-SNE-Algorithmus gerenderten 3D-Datenskulptur, mit freundlicher Genehmigung von Refik Anadol Studio © Refik Anadol Studio, 2017. Abb. 4.41, Refik Anadol Studio: „Archive Dreaming“, Visualisierung von Clustergruppen als 2D-Übersicht, mit freundlicher Genehmigung von Refik Anadol Studio © Refik Anadol Studio, 2017. Abb. 4.42, Refik Anadol Studio: „Archive Dreaming“, Detail des Arrangements von analysierten Einzeldokumenten mit zugeordneten Informationen als UI, mit freundlicher Genehmigung von Refik Anadol Studio © Refik Anadol Studio, 2017. Abb. 4.43, Refik Anadol Studio: „Archive Dreaming“, Detail der Visualisierung von Feature Extraction im Datenmaterial, mit freundlicher Genehmigung von Refik Anadol Studio © Refik Anadol Studio, 2017. Abb. 5.1, Marcel Tobien, Niclas Bauermeister, Sebastian Löwe: „Floom“, Detailansicht des interaktiven Innovation Frameworks, Figma-Sketch, mit freundlicher Genehmigung von Marcel Tobien und Niclas Bauermeister © Tobien, Bauermeister, 2022.
205
Danksagung
Danksagung Unser Dank für die Unterstützung in fachlichen Fragen geht an Dr. Mike Scherfner, Professor für Mathematik und theoretische Informatik an der Hochschule Anhalt, sowie an Dr. Kay Diedrich, Fachanwalt für Informationstechnologierecht bei der Kanzlei Kümmerlein, Simon & Partner Rechtsanwälte. Wir möchten uns aber auch ausdrücklich bei allen kreativen Projektbeteiligten bedanken, die uns für wertvolle Einblicke zur Verfügung standen und ihre Ideen, Konzepte und Technologien offengelegt und so als Case Studies einer breiten Öffentlichkeit zugänglich gemacht haben. Wir bedanken uns explizit bei Refik Anadol, Carl Christensen, Sofia Crespo, Nikolay Jetchev, Dr. Christoph Guger, Fabian Hammans, Håvard Haukeland, Sönke Rohde, Dr. Andreas Stiegler, Moritz Stefaner und Anouk Wipprecht. Wir bedanken uns vor allem bei unseren Partnerinnen, ohne die diese Publikation in dieser Qualität nicht möglich gewesen wäre. Danke, Kristin. Danke, Laura.
206 23
Die Autoren
207
Marc Engenhart
Sebastian Löwe
Geboren 1978. Studium der Fotografie und der
Geboren 1978. Lehrt seit 2018 als Professor für
visuellen Kommunikation. 2005 Gründung des
Designmanagement an der Berliner Mediadesign
Engenhart ° Design Studio. Arbeit an Projekten im
Hochschule im Masterstudiengang Designmanage-
angewandten Kommunikationsdesign, der Interak-
ment unter anderem Design Thinking und strate-
tionsgestaltung, an digitalen Systemen, spekulativem
gische Innovationsthemen und unterrichtet zudem
Design, Critical Design wie Transmedia. Diverse
im Bachelorstudiengang Mediadesign angewandt zu
nationale und internationale Auszeichnungen. Seit
Design mit intelligenten Systemen und User Expe-
2015 Lehre und Forschung an Hochschulen und
rience. Löwe wurde 2016 an der Martin-Luther-
Universitäten, unter anderem an der Hochschule
Universität Halle-Wittenberg mit einer ästhetiktheo-
für Gestaltung Schwäbisch Gmünd, der Hochschule
retischen und medienwissenschaftlichen Arbeit zum
Rhein-Waal und der TH Ingolstadt im Bereich Kom-
Thema Kitsch promoviert, die die Luther-Urkunde
munikationsdesign, Human-Computer-Interaction
für herausragende Promotionen erhielt. Anschließend
und Typografie. Seit 2006 Mitglied im Type Directors
wurde er wissenschaftlicher Mitarbeiter im Fachbe-
Club New York, seit 2012 Mitglied im BDG, Berufs-
reich Design an der Hochschule für Medien, Kom-
verband der Deutschen Kommunikationsdesigner,
munikation und Wirtschaft in Berlin. Zuvor studierte
seit 2018 Mitglied im Bundesverband Künstliche
Löwe an der Burg Giebichenstein Medienkunst und
Intelligenz. Seit 2019 freier Autor zum Thema speku-
Medienwissenschaft an der Ruhr-Universität Bo-
latives Design für den Unthinkable Hub und Gründer
chum. 2020 führte er gemeinsam mit Marc Engenhart
der Konferenz „Designing with Artificial Intelligence
die Konferenz „Designing with Artificial Intelligence
(dai)“ mit veröffentlichtem Sammelband zusammen
(dai)“ durch und gab dazu den begleitenden Sammel-
mit Sebastian Löwe.
band heraus. Gemeinsam mit der Beratungsfirma MHP – A Porsche Company setzt er Forschungspro-
www.marcengenhart.com
jekte wie etwa das interaktive „Innovation Framework Floom“ um. Er hielt Vorträge auf der TEDxHU, dem Internationalen Bauhaus-Kolloquium oder der Jahrestagung der College Art Association in Washington. Zudem publizierte er in Peer-Review-Journalen wie Dialectic, Diegesis oder Field. www.sebastianloewe.com
Impressum
208
Autoren: Coverabbildung:
Marc Engenhart
Das Cover zeigt ein schwarzes grafisches Muster, mit
Sebastian Löwe
dessen Hilfe in der zweiten Hälfte des 20. Jahrhunderts basale neuronale Netze – sogenannte Perceptrons – für
Konzept:
die Bilderkennung trainiert wurden. Die roten Anteile
Marc Engenhart, Sebastian Löwe
visualisieren darin einen Trainingsschritt als typografische Adaption.
Acquisitions Editor: David Marold, Birkhäuser Verlag, A-Wien
Library of Congress Control Number: 2022937585 Content & Production Editor: Bibliografische Information der Deutschen
Bettina R. Algieri, Birkhäuser Verlag,
Nationalbibliothek
A-Wien
Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie;
Korrektorat:
detaillierte bibliografische Daten sind im Internet
Andrea Mayer,
über http://dnb.dnb.de abrufbar.
D-Berlin
Dieses Werk ist urheberrechtlich geschützt. Die dadurch
Covergestaltung:
begründeten Rechte, insbesondere die der Übersetzung,
Marc Engenhart, Sebastian Löwe
des Nachdrucks, des Vortrags, der Entnahme von Abbildungen und Tabellen, der Funksendung, der Mikroverfil-
Layout und Satz:
mung oder der Vervielfältigung auf anderen Wegen und
Engenhart ° Design Studio,
der Speicherung in Datenverarbeitungsanlagen, bleiben,
D-Stuttgart
auch bei nur auszugsweiser Verwertung, vorbehalten. Eine Vervielfältigung dieses Werkes oder von Teilen
Lithografie:
dieses Werkes ist auch im Einzelfall nur in den Grenzen
Engenhart ° Design Studio,
der gesetzlichen Bestimmungen des Urheberrechtsge-
D-Stuttgart
setzes in der jeweils geltenden Fassung zulässig. Sie ist grundsätzlich vergütungspflichtig. Zuwiderhandlungen
Druck und Verarbeitung:
unterliegen den Strafbestimmungen des Urheberrechts.
Beltz Grafische Betriebe GmbH, D-Bad Langensalza
ISBN 978-3-0356-2554-7 e-ISBN (PDF) 978-3- 0356-2555-4
Papier: Magno Volume, 135 g/m²
© 2022 Birkhäuser Verlag GmbH, Basel Postfach 44, 4009 Basel, Schweiz Ein Unternehmen der Walter de Gruyter GmbH,
Schrift:
Berlin/Boston
Lineto Circular XX Book/ Bold /Bold Italic (Laurenz Brunner)
9 8 7 6 5 4 3 2 1 www.birkhauser.com
Grilli GT Sectra Book/Book Italic/ Medium (Dominik Huber, Marc Kappeler, Noël Leu)